Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance deve fazer ‘haeche’
Eles são realmente confiáveis
Já fizeram o TGE e estão provando consistentemente
Os embaixadores e criadores também estão operando na temporada 2
Só pelo preço do $BARD, é diferente dos projetos de crime comuns de hoje em dia
Além disso, é um BTCfi com grande potencial de crescimento..
—
Mas uma barreira de entrada é o valor crítico
Eu também estou no Wider..
Ainda assim, é necessário fazer isso
Cuidar dessas bases pode ser mais impactante do que buscar um único grande golpe
Como agora.


코루🍊26/11/2025
Enquanto lia sobre o presunto de toranja, pensei em como, como @Infinit_Labs e @Lombard_Finance, amigos que tinham recompensas ambíguas na era dourada do Yapping, agora parecem estar finalmente entrando em sua era de ouro.
A transição da velha geração de Yapping para a nova (?) está acontecendo intensamente recentemente, mas, de certa forma... a recompensa é uma recompensa, mas... não tem o mesmo sabor de antes? Nessa situação,
as recompensas da temporada 2 e 3 dos amigos que não conseguiram brilhar na velha geração de Yapping (a geração de ouro) tornaram-se extremamente, extremamente, extremamente grandes atualmente.
----
Só olhando para as recompensas do $IN, com base nos 500 melhores, é cerca de 2 vezes a quantidade,
e as recompensas do $BARD também diminuíram drasticamente, com apenas 100 pessoas por mês, resultando em recompensas enormes por pessoa.
Além disso, ambos não estão apenas sendo promovidos por expectativa, mas são negócios que realmente existem, funcionam bem e geram lucro.
As recompensas, o período e o número de pessoas estão todos claramente definidos e nunca houve quebra de promessa.
(No caso do @Lombard_Finance, eles até anteciparam e deram mais rápido.)
----
Ah, como sinto falta...
Mas concordo muito com o que o presunto de toranja disse...
Na verdade, é verdade que as recompensas foram estranhamente grandes até agora.
Se você estava recebendo 10 mil por mês e agora recebe 1 milhão, é compreensível ficar desapontado.
Mas você não deixaria de participar só porque agora é 1 milhão, certo?
Isso não é verdade, haha...

408
[@SentientAGI Conquista do Early AGI concluída, eu me formei?]
Conversei bastante no chat do Discord
Organizei todos os posts que fiz até agora
Participei de eventos regularmente
E escrevi tudo no Notion e enviei.
Hoje de manhã, ao verificar o canal do Discord, vi que fui incluído na promoção para Early AGI!
Sou um ranqueado Yapping + possuo o rol de Early AGI,
posso me gabar?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11/11/2025
센티언트 ROMA 파헤치기
@SentientAGI 리더보드를 보니 글의 퀄리티도 상당히 중요한 것 같더라구요. 그래서 저는 센티언트에서 가장 높은 기술력을 자랑한다고 생각하는 ROMA에 대해서 써볼게요.
1. ROMA는 AI 모델이 아니다.
- ROMA는 정확히 Multi-agent 즉, 여러개의 AI 에이전트들이 계층적으로, 재귀적으로 각 에이전트들의 값을 참고하여 가장 신뢰도 높은, 정확도가 높은 답을 이끌어내주는 프레임워크 입니다. 깃헙 Readme를 보면 보통 그 코드들의 기본적인 유기관계를 볼 수 있는데 우리가 흔히 아는 GPT, Gemini 같은 AI모델들의 API key를 입력해서 사용하게 됩니다.
2. 그래서 핵심은?
- 바로 Atomizer, Executor, Planner, Aggregator 4가지의 역할 분담에 있습니다. 어떠한 일이 주어졌을때 하나로 혹은 여러개로 처리할지(Atomizer) 정하고 어떻게 해결할지(Planner) 결정한 후에 계획한대로 실행(Executor)하고 이후에 취합(Aggregator)해서 답을 반환해줍니다. 여기에 추가로 검증자(Verifier)를 통해 답을 검증하는 단계도 옵션으로 선택할 수 있어요.
3. 하나의 모델만 쓰이는건가?
- 아닙니다. Quickstart 코드를 참고해서 보면 Executor를 제외하고 모두 각각의 모델을 명시합니다.(ex. gpt-4o-mini, gemini-2.5-flash) 이렇게 해서 하나의 모델이 아니라 여러모델을 쓰면서 가장 좋은 답변을 도출하는 것 같네요.
4. 답이 항상 똑같을까?
- 이것도 아닙니다. 각 AI모델마다 일단 하나의 태스크에 대한 실행결과도 다르고 파라미터들을 어떻게 조정하냐 즉, fine-tuning을 어떻게 하냐에 따라 다릅니다. 예를들어, 가장 대표적인 Temperature라는 파라미터는 0-2 값을 가지는데 0에 가까울수록 일관된 답변을, 2에 가까울수록 각 시행마다 다양한 답변을 내놓습니다. 결국, 사용자가 이를 어떻게 설정하냐에 따라 성능차이가 크게 날 것 같습니다.
제가 최근에 우연히 AI agent 개발을 할 기회가 있었는데 그때 AI 계속 돌려가면서 공부했던 내용이 뭔가 이제는 깃헙코드를 보아하니 어림잡아 보이는 것 같아서 써봤습니다:)


401
.@SentientAGI's ROMA v2 tem uma estrutura que divide grandes problemas em unidades menores, que são tratadas por agentes independentes, e depois combina os resultados novamente.
Dessa forma, o modelo não precisa lidar com muitas informações de uma só vez.
Além disso, cada tarefa lida apenas com as informações necessárias, reduzindo erros e sobrecargas.
Ao mesmo tempo, como várias tarefas são processadas em paralelo, a velocidade também aumenta, e foi projetado para escolher automaticamente o modelo necessário para cada tarefa, melhorando assim a eficiência.
Esse método é semelhante à forma como os humanos resolvem problemas complexos, dividindo o processo e tratando-o em ordem.
Isso permite que os agentes realizem tarefas de longo prazo de maneira muito mais estável.
----
O ROMA v2 reduz significativamente a carga para os desenvolvedores.
Não é necessário treinar modelos separados para criar agentes especializados em áreas específicas.
Ele permite que sejam montados apenas com o design de prompts e gerencia sistematicamente os dados e resultados gerados durante o processo de execução, tornando-os reutilizáveis.
Graças a isso, o processo de colaboração entre agentes se torna mais organizado, e resolver projetos complexos em várias etapas também se torna mais fácil.
No final, isso pode ser visto como uma atualização significativa na parte em que múltiplos agentes colaboram e se expandem.


냐옹쩌둥Ⓜ️Ⓜ️T28/10/2025
[@SentientAGI ]
한때 탑 10까지 갔었던 프로젝트였는데
임계값이 낮아지고
이너서클 계정락인지 무엇인지 모르겠지만
마인드쉐어가 반영되지 않아 100위가 이탈되었었습니다.
그런데... 밋업후로 다시 혈이 뚫렸네요ㅠㅠ
항상 열심히 달렸지만 다시 노력해서
좋은소식있으면 열심히 퍼나르겠습니다 ! 🫡

298
Top
Classificação
Favoritos