Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance a dit de faire ‘해쩨’
Ils sont sûrs de leur coup
Ils ont déjà fait le TGE et continuent de prouver leur valeur
Les ambassadeurs et créateurs sont en train de gérer la saison 2
Rien qu'en regardant le prix de $BARD, on voit que c'est différent des projets de type crabe habituels
C'est aussi un BTCfi qui a de fortes chances de croître à l'avenir..
—
Mais un des obstacles à l'entrée est le seuil critique
Je suis aussi sur Wider..
Néanmoins, il faut le faire
Prendre soin de ces fondamentaux peut parfois rapporter plus gros que de viser un coup d'un soir
Comme en ce moment.


코루🍊26 nov. 2025
En lisant l'article sur le jambon pamplemousse, ce qui m'est venu à l'esprit, c'est que les amis qui étaient un peu flous sur les récompenses à l'époque dorée de Yapping, comme @Infinit_Labs et @Lombard_Finance, semblent maintenant être à leur apogée.
Le passage de l'ancienne génération de Yaping à la nouvelle génération de Yaping (?) est en cours de manière intense récemment, mais comment dire... les récompenses sont des récompenses, mais il n'y a pas ce goût d'antan ? Dans cette situation,
les récompenses de la saison 2 et 3 des amis qui n'ont pas pu briller dans l'ancienne génération (génération dorée) sont devenues extrêmement énormes à l'heure actuelle.
----
Rien que pour les récompenses de $IN, en se basant sur les 500 meilleurs, la quantité est environ deux fois plus importante,
et les récompenses de $BARD ont également vu le nombre de participants passer à seulement 100 par mois, ce qui a finalement considérablement augmenté la récompense par personne.
De plus, ce ne sont pas des projets qui sont juste poussés par des attentes, mais ce sont des entreprises qui ont des produits réels, qui fonctionnent bien et qui génèrent des revenus.
Les récompenses, la durée et le nombre de participants sont tous clairement définis et il n'y a jamais eu de promesses non tenues.
(D'ailleurs, dans le cas de @Lombard_Finance, ils ont même donné les récompenses plus tôt.)
----
Ah, comme cela me manque...
Mais je suis tout à fait d'accord avec ce que dit le jambon pamplemousse...
En fait, il est vrai que jusqu'à présent, les récompenses étaient anormalement élevées.
Quand on passe de 10 millions par mois à 1 million par mois, c'est décevant, n'est-ce pas ?
Mais est-ce que cela signifie qu'on ne va pas le faire juste parce qu'on nous donne 1 million par mois ?
Ce n'est pas le cas, haha...

184
[@SentientAGI J'ai obtenu le rôle Early AGI, est-ce que je suis diplômé ?]
J'ai beaucoup discuté sur le chat Discord
J'ai organisé tous les messages que j'ai publiés jusqu'à présent
J'ai également participé régulièrement aux événements
et j'ai tout noté dans Notion et soumis.
Ce matin, en vérifiant le canal Discord, j'ai vu que j'étais inclus dans la promotion Early AGI !
Je suis un classé Yapping + détenteur du rôle Early AGI,
est-ce que je peux me réjouir ?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11 nov. 2025
센티언트 ROMA 파헤치기
@SentientAGI 리더보드를 보니 글의 퀄리티도 상당히 중요한 것 같더라구요. 그래서 저는 센티언트에서 가장 높은 기술력을 자랑한다고 생각하는 ROMA에 대해서 써볼게요.
1. ROMA는 AI 모델이 아니다.
- ROMA는 정확히 Multi-agent 즉, 여러개의 AI 에이전트들이 계층적으로, 재귀적으로 각 에이전트들의 값을 참고하여 가장 신뢰도 높은, 정확도가 높은 답을 이끌어내주는 프레임워크 입니다. 깃헙 Readme를 보면 보통 그 코드들의 기본적인 유기관계를 볼 수 있는데 우리가 흔히 아는 GPT, Gemini 같은 AI모델들의 API key를 입력해서 사용하게 됩니다.
2. 그래서 핵심은?
- 바로 Atomizer, Executor, Planner, Aggregator 4가지의 역할 분담에 있습니다. 어떠한 일이 주어졌을때 하나로 혹은 여러개로 처리할지(Atomizer) 정하고 어떻게 해결할지(Planner) 결정한 후에 계획한대로 실행(Executor)하고 이후에 취합(Aggregator)해서 답을 반환해줍니다. 여기에 추가로 검증자(Verifier)를 통해 답을 검증하는 단계도 옵션으로 선택할 수 있어요.
3. 하나의 모델만 쓰이는건가?
- 아닙니다. Quickstart 코드를 참고해서 보면 Executor를 제외하고 모두 각각의 모델을 명시합니다.(ex. gpt-4o-mini, gemini-2.5-flash) 이렇게 해서 하나의 모델이 아니라 여러모델을 쓰면서 가장 좋은 답변을 도출하는 것 같네요.
4. 답이 항상 똑같을까?
- 이것도 아닙니다. 각 AI모델마다 일단 하나의 태스크에 대한 실행결과도 다르고 파라미터들을 어떻게 조정하냐 즉, fine-tuning을 어떻게 하냐에 따라 다릅니다. 예를들어, 가장 대표적인 Temperature라는 파라미터는 0-2 값을 가지는데 0에 가까울수록 일관된 답변을, 2에 가까울수록 각 시행마다 다양한 답변을 내놓습니다. 결국, 사용자가 이를 어떻게 설정하냐에 따라 성능차이가 크게 날 것 같습니다.
제가 최근에 우연히 AI agent 개발을 할 기회가 있었는데 그때 AI 계속 돌려가면서 공부했던 내용이 뭔가 이제는 깃헙코드를 보아하니 어림잡아 보이는 것 같아서 써봤습니다:)


173
.@SentientAGI's ROMA v2 a une structure qui divise un grand problème en petites unités, chacune étant traitée par un agent indépendant, puis les résultats sont recombinés.
Cela permet au modèle de ne pas avoir à gérer trop d'informations en même temps.
De plus, chaque tâche ne traite que les informations nécessaires, ce qui réduit les erreurs et la surcharge.
En traitant plusieurs tâches en parallèle, la vitesse augmente également, et il est conçu pour sélectionner automatiquement le modèle nécessaire pour chaque tâche, améliorant ainsi l'efficacité.
Cette approche est similaire à la façon dont les humains résolvent des problèmes complexes en divisant le processus et en le traitant dans l'ordre.
Cela permet aux agents d'exécuter des tâches à long terme de manière beaucoup plus stable.
----
ROMA v2 réduit considérablement la charge pour les développeurs.
Il n'est pas nécessaire d'entraîner des modèles séparés pour créer des agents spécialisés dans des domaines spécifiques.
Il permet de les assembler uniquement par la conception de prompts, et gère systématiquement les données et les résultats générés au cours du processus d'exécution pour permettre leur réutilisation.
Grâce à cela, le processus de collaboration entre agents est simplifié, et il est devenu plus facile de résoudre des projets complexes en plusieurs étapes.
En fin de compte, cela peut être considéré comme une mise à niveau d'un niveau dans la coopération entre plusieurs agents.


냐옹쩌둥Ⓜ️Ⓜ️T28 oct. 2025
[@SentientAGI ]
한때 탑 10까지 갔었던 프로젝트였는데
임계값이 낮아지고
이너서클 계정락인지 무엇인지 모르겠지만
마인드쉐어가 반영되지 않아 100위가 이탈되었었습니다.
그런데... 밋업후로 다시 혈이 뚫렸네요ㅠㅠ
항상 열심히 달렸지만 다시 노력해서
좋은소식있으면 열심히 퍼나르겠습니다 ! 🫡

81
Meilleurs
Classement
Favoris