Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance gjøre det
Er du sikker
Jeg har allerede gjort TGE og beviser det hele tiden.
Ambassadører og skapere kjører også sesong 2.
$BARD pris alene er annerledes enn vanlige kriminalprosjekter i dag.
Det er også BTCfi, som sannsynligvis vil vokse i fremtiden.
—
Men én terskel for å komme inn er terskelen.
Jeg er også med i Wider.
Likevel bør det gjøres
Det finnes tider hvor det å ta tak i dette grunnleggende problemet kan være et større prosjekt enn å sikte på en one-shot
Akkurat som nå


코루🍊26. nov. 2025
Grapefruktskinke Hva kom til deg mens du leste artikkelen
Som @Infinit_Labs @Lombard_Finance, venner som var tvetydige om kompensasjon i Yapings gullalder
Tvert imot, jeg følte at det først nå var jeg i min beste alder.
Gu Yaping-> Shin Yaping generasjonsskifte (?)har vært under utvikling i det siste.
Jeg vet ikke... En belønning er en belønning... Er det fortsatt det samme som før? I situasjonen
Tvert imot har belønningene for sesong 2 og 3 av vennene som ikke kunne vokse opp i Gu Yaping (Golden Generation) blitt veldig, veldig, veldig store nå.
----
Selv om du ser på de $IN belønningene alene, er de 500 beste omtrent dobbelt så mange.
$BARD kompensasjon har også blitt kraftig redusert til 100 personer per måned, noe som har ført til en enorm økning i lønnen per innbygger.
Selv om ingen av dem blir tvunget til å krympe i forventning, er de bedrifter som faktisk har produkter, fungerer godt og tjener penger
Kompensasjon, punktum og antall personer er tydelig fastsatt, og det er ingen brudd på løfter.
(I @Lombard_Finance trekkes den snarere raskere.)
----
Å, jeg savner deg...
Men jeg er også enig i Grapefruit Hams ord...
Faktisk er det sant at belønningene så langt har vært merkelig store.
Det er pinlig å gi 10 millioner i måneden og så gi én million i måneden.
Vil du ikke bare gi meg en måned?
Det er ikke tilfelle igjen, ha ha...

182
[@SentientAGI tidlig AGI-rulleanskaffelse fullført, er jeg uteksaminert?]
Jeg traff mange Discord-chatter
Organiser alle innleggene jeg har lagt ut så langt.
Delta hele tiden på arrangementer
Jeg skrev alt ned på Notion og sendte det inn.
Jeg sjekket Discord-kanalen i morges og fant ut at jeg var inkludert i Early AGI-oppgraderingen!
Jeg er en Yaping Ranker + Early AGI Roll Holder.
Kan det knekkes?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11. nov. 2025
센티언트 ROMA 파헤치기
@SentientAGI 리더보드를 보니 글의 퀄리티도 상당히 중요한 것 같더라구요. 그래서 저는 센티언트에서 가장 높은 기술력을 자랑한다고 생각하는 ROMA에 대해서 써볼게요.
1. ROMA는 AI 모델이 아니다.
- ROMA는 정확히 Multi-agent 즉, 여러개의 AI 에이전트들이 계층적으로, 재귀적으로 각 에이전트들의 값을 참고하여 가장 신뢰도 높은, 정확도가 높은 답을 이끌어내주는 프레임워크 입니다. 깃헙 Readme를 보면 보통 그 코드들의 기본적인 유기관계를 볼 수 있는데 우리가 흔히 아는 GPT, Gemini 같은 AI모델들의 API key를 입력해서 사용하게 됩니다.
2. 그래서 핵심은?
- 바로 Atomizer, Executor, Planner, Aggregator 4가지의 역할 분담에 있습니다. 어떠한 일이 주어졌을때 하나로 혹은 여러개로 처리할지(Atomizer) 정하고 어떻게 해결할지(Planner) 결정한 후에 계획한대로 실행(Executor)하고 이후에 취합(Aggregator)해서 답을 반환해줍니다. 여기에 추가로 검증자(Verifier)를 통해 답을 검증하는 단계도 옵션으로 선택할 수 있어요.
3. 하나의 모델만 쓰이는건가?
- 아닙니다. Quickstart 코드를 참고해서 보면 Executor를 제외하고 모두 각각의 모델을 명시합니다.(ex. gpt-4o-mini, gemini-2.5-flash) 이렇게 해서 하나의 모델이 아니라 여러모델을 쓰면서 가장 좋은 답변을 도출하는 것 같네요.
4. 답이 항상 똑같을까?
- 이것도 아닙니다. 각 AI모델마다 일단 하나의 태스크에 대한 실행결과도 다르고 파라미터들을 어떻게 조정하냐 즉, fine-tuning을 어떻게 하냐에 따라 다릅니다. 예를들어, 가장 대표적인 Temperature라는 파라미터는 0-2 값을 가지는데 0에 가까울수록 일관된 답변을, 2에 가까울수록 각 시행마다 다양한 답변을 내놓습니다. 결국, 사용자가 이를 어떻게 설정하냐에 따라 성능차이가 크게 날 것 같습니다.
제가 최근에 우연히 AI agent 개발을 할 기회가 있었는데 그때 AI 계속 돌려가면서 공부했던 내용이 뭔가 이제는 깃헙코드를 보아하니 어림잡아 보이는 것 같아서 써봤습니다:)


171
.@SentientAGI ROMA v2 har en struktur som bryter ned store problemer i mindre enheter, hver håndtert av en uavhengig agent, og setter deretter resultatene sammen igjen.
På denne måten trenger ikke modellen å bekymre seg for mye informasjon på en gang.
I tillegg dekker hver oppgave bare nødvendig informasjon, noe som reduserer feil og overbelastning.
Siden flere oppgaver behandles parallelt samtidig, er hastigheten også raskere, og designet velger automatisk modellen som trengs for hver oppgave, noe som også forbedrer effektiviteten.
Denne tilnærmingen ligner på måten mennesker løser komplekse problemer på, deler prosessen og håndterer den i rekkefølge.
Det lar agenter utføre langsiktige oppgaver med mye mer pålitelighet.
----
ROMA v2 reduserer byrden på utviklersiden betydelig.
Du trenger ikke å lære opp en modell for å opprette en bestemt domenespesifikk agent.
Vi gjorde det mulig å sette den sammen med bare et raskt design, og administrerte systematisk dataene og resultatene som ble skapt under utførelsesprosessen for å gjøre den gjenbrukbar.
Dette gjør samarbeidsprosessen mellom agenter renere og enklere å løse komplekse prosjekter i flere stadier.
Til syvende og sist kan dette sees på som et steg opp fra skaleringen av multiagentsamarbeid.


냐옹쩌둥Ⓜ️Ⓜ️T28. okt. 2025
[@SentientAGI ]
한때 탑 10까지 갔었던 프로젝트였는데
임계값이 낮아지고
이너서클 계정락인지 무엇인지 모르겠지만
마인드쉐어가 반영되지 않아 100위가 이탈되었었습니다.
그런데... 밋업후로 다시 혈이 뚫렸네요ㅠㅠ
항상 열심히 달렸지만 다시 노력해서
좋은소식있으면 열심히 퍼나르겠습니다 ! 🫡

78
Topp
Rangering
Favoritter