Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance a dit de faire ‘해쩨’
Ils sont sûrs de leur coup
Ils ont déjà fait le TGE et continuent de prouver leur valeur
Les ambassadeurs et créateurs sont en train de gérer la saison 2
Rien qu'en regardant le prix de $BARD, on voit que c'est différent des projets de type crabe habituels
C'est aussi un BTCfi qui a de fortes chances de croître à l'avenir..
—
Mais un des obstacles à l'entrée est le seuil critique
Je suis aussi sur Wider..
Néanmoins, il faut le faire
Prendre soin de ces fondamentaux peut parfois rapporter plus gros que de viser un coup d'un soir
Comme en ce moment.


코루🍊26 nov. 2025
En lisant l'article sur le jambon pamplemousse, ce qui m'est venu à l'esprit, c'est que les amis qui étaient un peu flous sur les récompenses à l'époque dorée de Yapping, comme @Infinit_Labs et @Lombard_Finance, semblent maintenant être à leur apogée.
Le passage de l'ancienne génération de Yaping à la nouvelle génération de Yaping (?) est en cours de manière intense récemment, mais comment dire... les récompenses sont des récompenses, mais il n'y a pas ce goût d'antan ? Dans cette situation,
les récompenses de la saison 2 et 3 des amis qui n'ont pas pu briller dans l'ancienne génération (génération dorée) sont devenues extrêmement énormes à l'heure actuelle.
----
Rien que pour les récompenses de $IN, en se basant sur les 500 meilleurs, la quantité est environ deux fois plus importante,
et les récompenses de $BARD ont également vu le nombre de participants passer à seulement 100 par mois, ce qui a finalement considérablement augmenté la récompense par personne.
De plus, ce ne sont pas des projets qui sont juste poussés par des attentes, mais ce sont des entreprises qui ont des produits réels, qui fonctionnent bien et qui génèrent des revenus.
Les récompenses, la durée et le nombre de participants sont tous clairement définis et il n'y a jamais eu de promesses non tenues.
(D'ailleurs, dans le cas de @Lombard_Finance, ils ont même donné les récompenses plus tôt.)
----
Ah, comme cela me manque...
Mais je suis tout à fait d'accord avec ce que dit le jambon pamplemousse...
En fait, il est vrai que jusqu'à présent, les récompenses étaient anormalement élevées.
Quand on passe de 10 millions par mois à 1 million par mois, c'est décevant, n'est-ce pas ?
Mais est-ce que cela signifie qu'on ne va pas le faire juste parce qu'on nous donne 1 million par mois ?
Ce n'est pas le cas, haha...

268
[@SentientAGI J'ai obtenu le rôle Early AGI, est-ce que je suis diplômé ?]
J'ai beaucoup discuté sur le chat Discord
J'ai organisé tous les messages que j'ai publiés jusqu'à présent
J'ai également participé régulièrement aux événements
et j'ai tout noté dans Notion et soumis.
Ce matin, en vérifiant le canal Discord, j'ai vu que j'étais inclus dans la promotion Early AGI !
Je suis un classé Yapping + détenteur du rôle Early AGI,
est-ce que je peux me réjouir ?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11 nov. 2025
Découverte de ROMA de Sentient
En regardant le tableau de classement de @SentientAGI, il semble que la qualité des écrits soit également très importante. Donc, je vais parler de ROMA, que je considère comme ayant la plus haute technologie chez Sentient.
1. ROMA n'est pas un modèle d'IA.
- ROMA est exactement un système multi-agents, c'est-à-dire un cadre où plusieurs agents d'IA se réfèrent hiérarchiquement et récursivement aux valeurs de chaque agent pour tirer la réponse la plus fiable et précise. En consultant le Readme sur GitHub, on peut généralement voir les relations de base de ces codes, et on utilise les clés API de modèles d'IA comme GPT, Gemini, etc.
2. Alors, quel est le cœur du système ?
- C'est la répartition des rôles entre Atomizer, Executor, Planner et Aggregator. Lorsqu'une tâche est donnée, il faut décider si elle sera traitée par un seul ou plusieurs agents (Atomizer), déterminer comment la résoudre (Planner), exécuter selon le plan (Executor) et ensuite agréger (Aggregator) pour retourner la réponse. De plus, il est possible de choisir en option une étape de vérification (Verifier) pour valider la réponse.
3. Est-ce qu'un seul modèle est utilisé ?
- Non. En consultant le code Quickstart, on voit que tous les modèles, à l'exception de l'Executor, sont spécifiés individuellement (ex. gpt-4o-mini, gemini-2.5-flash). Ainsi, il semble que plusieurs modèles soient utilisés pour obtenir la meilleure réponse.
4. La réponse est-elle toujours la même ?
- Ce n'est pas le cas non plus. Chaque modèle d'IA peut donner des résultats différents pour une même tâche, et cela dépend aussi de la façon dont les paramètres sont ajustés, c'est-à-dire comment le fine-tuning est effectué. Par exemple, le paramètre le plus représentatif, la Temperature, peut avoir une valeur entre 0 et 2, où des valeurs proches de 0 donnent des réponses cohérentes, tandis que des valeurs proches de 2 produisent des réponses variées à chaque essai. En fin de compte, la différence de performance dépendra beaucoup de la façon dont l'utilisateur configure cela.
Récemment, j'ai eu l'occasion de développer un agent IA par hasard, et en étudiant tout en faisant tourner l'IA, je pense que ce que j'ai appris semble maintenant plus clair en regardant le code GitHub, alors j'ai décidé d'écrire à ce sujet :)


241
.@SentientAGI's ROMA v2 a une structure qui divise un grand problème en petites unités, chacune étant traitée par un agent indépendant, puis les résultats sont recombinés.
Cela permet au modèle de ne pas avoir à gérer trop d'informations en même temps.
De plus, chaque tâche ne traite que les informations nécessaires, ce qui réduit les erreurs et la surcharge.
En traitant plusieurs tâches en parallèle, la vitesse augmente également, et il est conçu pour sélectionner automatiquement le modèle nécessaire pour chaque tâche, améliorant ainsi l'efficacité.
Cette approche est similaire à la façon dont les humains résolvent des problèmes complexes en divisant le processus et en le traitant dans l'ordre.
Cela permet aux agents d'exécuter des tâches à long terme de manière beaucoup plus stable.
----
ROMA v2 réduit considérablement la charge pour les développeurs.
Il n'est pas nécessaire d'entraîner des modèles séparés pour créer des agents spécialisés dans des domaines spécifiques.
Il permet de les assembler uniquement par la conception de prompts, et gère systématiquement les données et les résultats générés au cours du processus d'exécution pour permettre leur réutilisation.
Grâce à cela, le processus de collaboration entre agents est simplifié, et il est devenu plus facile de résoudre des projets complexes en plusieurs étapes.
En fin de compte, cela peut être considéré comme une mise à niveau d'un niveau dans la coopération entre plusieurs agents.


냐옹쩌둥Ⓜ️Ⓜ️T28 oct. 2025
[@SentientAGI ]
C'était un projet qui avait atteint le top 10 autrefois, mais
le seuil a baissé et
je ne sais pas si c'est un verrouillage de compte de l'inner circle ou quoi que ce soit, mais
la part de marché n'a pas été reflétée et il a quitté le top 100.
Mais... depuis le meetup, ça a de nouveau débloquéㅠㅠ
J'ai toujours travaillé dur, mais je vais redoubler d'efforts et
si j'ai de bonnes nouvelles, je les partagerai avec enthousiasme ! 🫡

152
Meilleurs
Classement
Favoris