Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance să o faci
Ești sigur
Am făcut deja TGE și demonstrez constant acest lucru.
Ambasadorii și creatorii conduc, de asemenea, Sezonul 2.
$BARD preț singur este diferit de proiectele obișnuite de crimă în zilele noastre.
Este și BTCfi, care este probabil să crească în viitor.
—
Dar o barieră la intrare este pragul.
Și eu sunt în Wide.
Cu toate acestea, ar trebui făcută
Există momente când rezolvarea acestei probleme fundamentale poate fi o opțiune mai importantă decât țintirea unui one-shot
La fel ca acum


코루🍊26 nov. 2025
Șuncă cu grapefruit Ce mi-am venit în minte citind articolul
Ca @Infinit_Labs @Lombard_Finance, prieteni care erau ambigui în privința compensațiilor în epoca de aur a Yaping
Din contră, simțeam că abia acum eram în floarea mea de glorie.
Schimbarea generațională a lui Gu Yaping-> Shin Yaping (?)a fost în curs de lucru în ultima vreme.
Nu ştiu... O recompensă e o recompensă... Este încă la fel ca înainte? În această situație
Dimpotrivă, recompensele pentru sezoanele 2 și 3 ale prietenilor care nu au putut crește în Gu Yaping (Generația de Aur) au devenit foarte, foarte, foarte mari în acest moment.
----
Chiar dacă te uiți doar la recompensele $IN, primii 500 de persoane sunt de aproximativ două ori mai multe.
$BARD compensație a fost, de asemenea, redusă semnificativ la 100 de persoane pe lună, ceea ce a dus la o creștere masivă a compensației pe cap de locuitor.
Chiar dacă niciunul dintre ei nu este forțat să se micșoreze din cauza anticipării, ele sunt afaceri care au produse reale, funcționează bine și obțin profit
Compensația, perioada și numărul de persoane sunt toate clar stabilite, iar promisiunile nu sunt încălcate.
(Mai degrabă, în cazul @Lombard_Finance, este tras mai repede.)
----
Oh, mi-e dor de tine...
Totuși, sunt de acord și cu cuvintele lui Grapefruit Ham...
De fapt, este adevărat că recompensele au fost ciudat de mari până acum.
E jenant să dai 10 milioane pe lună și apoi un milion pe lună.
Nu-mi dai doar o lună?
Iar nu e cazul, ha ha...

406
[@SentientAGI achiziția timpurie a rolei AGI finalizată, am absolvit?]
Am accesat o mulțime de chat-uri Discord
Organizați toate postările pe care le-am postat până acum.
Participați constant la evenimente
Am scris totul pe Notion și l-am trimis.
Am verificat canalul Discord în această dimineață și am aflat că am fost inclus în upgrade-ul AGI timpuriu!
Sunt un Yaping Ranker + Early AGI Roll Holder.
Poate fi crăpat?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11 nov. 2025
센티언트 ROMA 파헤치기
@SentientAGI 리더보드를 보니 글의 퀄리티도 상당히 중요한 것 같더라구요. 그래서 저는 센티언트에서 가장 높은 기술력을 자랑한다고 생각하는 ROMA에 대해서 써볼게요.
1. ROMA는 AI 모델이 아니다.
- ROMA는 정확히 Multi-agent 즉, 여러개의 AI 에이전트들이 계층적으로, 재귀적으로 각 에이전트들의 값을 참고하여 가장 신뢰도 높은, 정확도가 높은 답을 이끌어내주는 프레임워크 입니다. 깃헙 Readme를 보면 보통 그 코드들의 기본적인 유기관계를 볼 수 있는데 우리가 흔히 아는 GPT, Gemini 같은 AI모델들의 API key를 입력해서 사용하게 됩니다.
2. 그래서 핵심은?
- 바로 Atomizer, Executor, Planner, Aggregator 4가지의 역할 분담에 있습니다. 어떠한 일이 주어졌을때 하나로 혹은 여러개로 처리할지(Atomizer) 정하고 어떻게 해결할지(Planner) 결정한 후에 계획한대로 실행(Executor)하고 이후에 취합(Aggregator)해서 답을 반환해줍니다. 여기에 추가로 검증자(Verifier)를 통해 답을 검증하는 단계도 옵션으로 선택할 수 있어요.
3. 하나의 모델만 쓰이는건가?
- 아닙니다. Quickstart 코드를 참고해서 보면 Executor를 제외하고 모두 각각의 모델을 명시합니다.(ex. gpt-4o-mini, gemini-2.5-flash) 이렇게 해서 하나의 모델이 아니라 여러모델을 쓰면서 가장 좋은 답변을 도출하는 것 같네요.
4. 답이 항상 똑같을까?
- 이것도 아닙니다. 각 AI모델마다 일단 하나의 태스크에 대한 실행결과도 다르고 파라미터들을 어떻게 조정하냐 즉, fine-tuning을 어떻게 하냐에 따라 다릅니다. 예를들어, 가장 대표적인 Temperature라는 파라미터는 0-2 값을 가지는데 0에 가까울수록 일관된 답변을, 2에 가까울수록 각 시행마다 다양한 답변을 내놓습니다. 결국, 사용자가 이를 어떻게 설정하냐에 따라 성능차이가 크게 날 것 같습니다.
제가 최근에 우연히 AI agent 개발을 할 기회가 있었는데 그때 AI 계속 돌려가면서 공부했던 내용이 뭔가 이제는 깃헙코드를 보아하니 어림잡아 보이는 것 같아서 써봤습니다:)


399
ROMA v2 .@SentientAGI are o structură care împarte problemele mari în unități mai mici, fiecare gestionată de un agent independent, și apoi pune rezultatele la loc.
În acest fel, modelul nu trebuie să-și facă griji cu privire la prea multe informații simultan.
În plus, fiecare sarcină acoperă doar informațiile necesare, reducând greșelile și supraîncărcarea.
Deoarece mai multe sarcini sunt procesate în paralel în același timp, viteza este, de asemenea, mai mare, iar designul selectează automat modelul necesar pentru fiecare sarcină, ceea ce îmbunătățește, de asemenea, eficiența.
Această abordare este similară cu modul în care oamenii rezolvă probleme complexe, împărțind procesul și abordându-l în ordine.
Permite agenților să îndeplinească sarcini pe termen lung cu mult mai multă fiabilitate.
----
ROMA v2 reduce semnificativ povara dezvoltatorilor.
Nu trebuie să antrenați un model pentru a crea un anumit agent specific domeniului.
Am făcut posibilă asamblarea acestuia doar cu un design prompt și am gestionat sistematic datele și rezultatele create în timpul procesului de execuție pentru a-l face reutilizabil.
Acest lucru face ca procesul de colaborare între agenți să fie mai curat și mai ușor de rezolvat proiecte complexe în mai multe etape.
În cele din urmă, acest lucru poate fi văzut ca un pas înainte față de extinderea cooperării cu mai mulți agenți.


냐옹쩌둥Ⓜ️Ⓜ️T28 oct. 2025
[@SentientAGI ]
한때 탑 10까지 갔었던 프로젝트였는데
임계값이 낮아지고
이너서클 계정락인지 무엇인지 모르겠지만
마인드쉐어가 반영되지 않아 100위가 이탈되었었습니다.
그런데... 밋업후로 다시 혈이 뚫렸네요ㅠㅠ
항상 열심히 달렸지만 다시 노력해서
좋은소식있으면 열심히 퍼나르겠습니다 ! 🫡

296
Limită superioară
Clasament
Favorite