Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance fazer isso
Você tem certeza
Já fiz TGE e estou constantemente provando isso.
Embaixadores e criadores também estão rodando a 2ª temporada.
$BARD preço por si só é diferente dos projetos criminais comuns hoje em dia.
Também é o BTCfi, que provavelmente crescerá no futuro.
—
Mas uma barreira de entrada é o limiar.
Também estou no Wide.
No entanto, isso deveria ser feito
Há momentos em que resolver esse problema fundamental pode ser mais difícil do que mirar em um one-shot
Assim como agora


코루🍊26 de nov. de 2025
Presunto de toranja: O que veio à mente enquanto lia o artigo
Como @Infinit_Labs @Lombard_Finance, amigos que eram ambíguos quanto à compensação na era de ouro do Yaping
Pelo contrário, senti que só agora estava no auge.
Mudança geracional de Gu Yaping-> Shin Yaping (?)tem estado em andamento ultimamente.
Eu não sei... Uma recompensa é uma recompensa... Ainda está igual a antes? Na Situação
Pelo contrário, as recompensas das temporadas 2 e 3 dos amigos que não cresceram em Gu Yaping (Geração Dourada) se tornaram muito, muito, muito grandes até agora.
----
Mesmo olhando apenas para as recompensas $IN, as 500 pessoas mais altas são cerca de duas vezes maiores.
$BARD compensação também foi drasticamente reduzida para 100 pessoas por mês, resultando em um grande aumento da remuneração per capita.
Mesmo que nenhum dos dois seja forçado a encolher de antecipação, são negócios que têm produtos reais, funcionam bem e estão obtendo lucro
Compensação, período e número de pessoas são claramente determinados, e não há quebra de promessas.
(Na verdade, no caso de @Lombard_Finance, ele é puxado mais rápido.)
----
Ah, sinto sua falta...
No entanto, também concordo com as palavras do Grapefruit Ham...
Na verdade, é verdade que as recompensas têm sido estranhamente grandes até agora.
É constrangedor doar 10 milhões por mês e depois doar um milhão por mês.
Você não me dá só um mês?
Não é o caso de novo, ha ha...

425
[@SentientAGI Aquisição antecipada do rolo AGI concluída, sou graduado?]
Eu bati em muitos bate-papos do Discord
Organize todas as postagens que postei até agora.
Participe constantemente de eventos
Escrevi tudo no Notion e enviei.
Eu verifiquei o canal do Discord esta manhã e descobri que fui incluído na atualização antecipada da AGI!
Eu sou um Yaping Ranker + Early AGI Roll Holder.
Pode ser rachado?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11 de nov. de 2025
센티언트 ROMA 파헤치기
@SentientAGI 리더보드를 보니 글의 퀄리티도 상당히 중요한 것 같더라구요. 그래서 저는 센티언트에서 가장 높은 기술력을 자랑한다고 생각하는 ROMA에 대해서 써볼게요.
1. ROMA는 AI 모델이 아니다.
- ROMA는 정확히 Multi-agent 즉, 여러개의 AI 에이전트들이 계층적으로, 재귀적으로 각 에이전트들의 값을 참고하여 가장 신뢰도 높은, 정확도가 높은 답을 이끌어내주는 프레임워크 입니다. 깃헙 Readme를 보면 보통 그 코드들의 기본적인 유기관계를 볼 수 있는데 우리가 흔히 아는 GPT, Gemini 같은 AI모델들의 API key를 입력해서 사용하게 됩니다.
2. 그래서 핵심은?
- 바로 Atomizer, Executor, Planner, Aggregator 4가지의 역할 분담에 있습니다. 어떠한 일이 주어졌을때 하나로 혹은 여러개로 처리할지(Atomizer) 정하고 어떻게 해결할지(Planner) 결정한 후에 계획한대로 실행(Executor)하고 이후에 취합(Aggregator)해서 답을 반환해줍니다. 여기에 추가로 검증자(Verifier)를 통해 답을 검증하는 단계도 옵션으로 선택할 수 있어요.
3. 하나의 모델만 쓰이는건가?
- 아닙니다. Quickstart 코드를 참고해서 보면 Executor를 제외하고 모두 각각의 모델을 명시합니다.(ex. gpt-4o-mini, gemini-2.5-flash) 이렇게 해서 하나의 모델이 아니라 여러모델을 쓰면서 가장 좋은 답변을 도출하는 것 같네요.
4. 답이 항상 똑같을까?
- 이것도 아닙니다. 각 AI모델마다 일단 하나의 태스크에 대한 실행결과도 다르고 파라미터들을 어떻게 조정하냐 즉, fine-tuning을 어떻게 하냐에 따라 다릅니다. 예를들어, 가장 대표적인 Temperature라는 파라미터는 0-2 값을 가지는데 0에 가까울수록 일관된 답변을, 2에 가까울수록 각 시행마다 다양한 답변을 내놓습니다. 결국, 사용자가 이를 어떻게 설정하냐에 따라 성능차이가 크게 날 것 같습니다.
제가 최근에 우연히 AI agent 개발을 할 기회가 있었는데 그때 AI 계속 돌려가면서 공부했던 내용이 뭔가 이제는 깃헙코드를 보아하니 어림잡아 보이는 것 같아서 써봤습니다:)


417
O ROMA v2 da .@SentientAGI tem uma estrutura que divide grandes problemas em unidades menores, cada uma tratada por um agente independente, e depois reúne os resultados.
Dessa forma, o modelo não precisa se preocupar com muitas informações de uma só vez.
Além disso, cada tarefa cobre apenas as informações necessárias, reduzindo erros e sobrecarga.
Como várias tarefas são processadas em paralelo ao mesmo tempo, a velocidade também é mais rápida e o projeto seleciona automaticamente o modelo necessário para cada tarefa, o que também melhora a eficiência.
Essa abordagem é semelhante à maneira como os humanos resolvem problemas complexos, dividindo o processo e lidando com ele em ordem.
Ele permite que os agentes executem tarefas de longo prazo com muito mais confiabilidade.
----
O ROMA v2 reduz significativamente a carga do lado dos desenvolvedores.
Você não precisa treinar um modelo para criar um agente específico do domínio.
Tornamos possível montá-lo com apenas um design rápido e gerenciamos sistematicamente os dados e resultados criados durante o processo de execução para torná-lo reutilizável.
Isso torna o processo de colaboração entre agentes mais limpo e fácil de resolver projetos complexos em vários estágios.
No final, isso pode ser visto como um avanço em relação à escala da cooperação multiagente.


냐옹쩌둥Ⓜ️Ⓜ️T28 de out. de 2025
[@SentientAGI ]
한때 탑 10까지 갔었던 프로젝트였는데
임계값이 낮아지고
이너서클 계정락인지 무엇인지 모르겠지만
마인드쉐어가 반영되지 않아 100위가 이탈되었었습니다.
그런데... 밋업후로 다시 혈이 뚫렸네요ㅠㅠ
항상 열심히 달렸지만 다시 노력해서
좋은소식있으면 열심히 퍼나르겠습니다 ! 🫡

314
Melhores
Classificação
Favoritos