Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance soll ‘해쩨’ machen
Die sind sich sicher
Sie haben bereits TGE gemacht und beweisen es kontinuierlich
Ambassadors und Creator sind in der Saison 2 aktiv
Wenn man nur den Preis von $BARD betrachtet, unterscheidet er sich von den üblichen Krypto-Projekten
Es ist auch BTCfi, das in Zukunft wahrscheinlich weiter wachsen wird..
—
Aber eine Eintrittsbarriere ist der Schwellenwert
Ich bin auch bei Wider..
Dennoch muss man es tun
Solche grundlegenden Dinge zu beachten, kann manchmal eine größere Chance sein als nur auf einen schnellen Gewinn zu setzen
Wie jetzt.


코루🍊26. Nov. 2025
Während ich den Beitrag über Grapefruit-Schinken las, kam mir der Gedanke,
dass die Freunde, die wie @Infinit_Labs und @Lombard_Finance in der goldenen Ära von Yapping unklare Belohnungen hatten,
jetzt endlich in ihrer Blütezeit zu sein scheinen.
Der Generationenwechsel von altem Yapping zu neuem Yapping (?) findet gerade intensiv statt,
aber irgendwie... die Belohnungen sind zwar Belohnungen, aber... der alte Geschmack fehlt? In einer Situation,
in der die Belohnungen für die Freunde, die in der alten Yapping-Generation (Goldene Generation) nicht aufblühen konnten, jetzt sehr, sehr, sehr groß geworden sind.
----
Wenn man nur die $IN-Belohnungen betrachtet, sind sie für die obersten 500 Personen ungefähr doppelt so hoch,
und die $BARD-Belohnungen sind ebenfalls drastisch gesunken, da die Anzahl der Teilnehmer auf 100 pro Monat reduziert wurde, was letztendlich die Belohnung pro Person enorm erhöht hat.
Sogar beide sind keine erzwungenen Scherze aus Erwartung, sondern es gibt tatsächlich Produkte, die gut funktionieren und Gewinne erzielen.
Belohnungen, Zeitrahmen und Teilnehmer sind alle klar festgelegt, und es gab nie einen Bruch des Versprechens.
(Im Gegenteil, @Lombard_Finance hat sogar schneller ausgezahlt.)
----
Ach, ich vermisse es...
Aber ich stimme dem, was Grapefruit-Schinken gesagt hat, sehr zu...
Tatsächlich war es bis jetzt seltsam, wie groß die Belohnungen waren.
Wenn man monatlich 10.000 gibt und dann nur noch 1.000, ist man enttäuscht,
aber würde man nicht trotzdem 1.000 annehmen?
Das wäre dann auch nicht der Fall, haha...

245
[@SentientAGI Early AGI-Rolle erhalten, bin ich jetzt graduierte?]
Ich habe viel im Discord-Chat geschrieben
und alle Beiträge, die ich bis jetzt gemacht habe, sortiert.
Ich habe auch regelmäßig an Events teilgenommen
und alles in Notion festgehalten und eingereicht.
Als ich heute Morgen den Discord-Kanal überprüft habe, stellte ich fest, dass ich in der Early AGI-Beförderung enthalten war!
Ich bin Yapping-Ranker + besitze die Early AGI-Rolle,
kann ich jetzt stolz sein?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11. Nov. 2025
Sentient ROMA entschlüsseln
@SentientAGI Auf dem Leaderboard sieht es so aus, als wäre die Qualität der Beiträge ebenfalls sehr wichtig. Daher möchte ich über ROMA schreiben, das meiner Meinung nach die höchste technische Kompetenz bei Sentient aufweist.
1. ROMA ist kein AI-Modell.
- ROMA ist genau genommen ein Multi-Agenten-System, bei dem mehrere AI-Agenten hierarchisch und rekursiv die Werte der einzelnen Agenten berücksichtigen, um die vertrauenswürdigste und genaueste Antwort zu liefern. Im GitHub-Readme kann man normalerweise die grundlegenden Beziehungen des Codes sehen, wobei man die API-Keys von bekannten AI-Modellen wie GPT und Gemini eingibt, um sie zu verwenden.
2. Was ist also der Kern?
- Es liegt an der Rollenverteilung von vier Elementen: Atomizer, Executor, Planner und Aggregator. Wenn eine Aufgabe gestellt wird, entscheidet man, ob sie einzeln oder in mehreren Teilen bearbeitet wird (Atomizer), wie man sie lösen möchte (Planner), führt dann den Plan aus (Executor) und aggregiert schließlich die Ergebnisse (Aggregator), um die Antwort zurückzugeben. Zusätzlich kann man optional einen Verifier einfügen, um die Antwort zu validieren.
3. Wird nur ein Modell verwendet?
- Nein. Wenn man den Quickstart-Code betrachtet, wird für alle außer dem Executor jeweils ein Modell angegeben (z.B. gpt-4o-mini, gemini-2.5-flash). So wird nicht nur ein Modell verwendet, sondern mehrere Modelle, um die beste Antwort zu erzielen.
4. Ist die Antwort immer gleich?
- Auch das ist nicht der Fall. Jedes AI-Modell hat unterschiedliche Ausführungsergebnisse für eine bestimmte Aufgabe, und es hängt davon ab, wie man die Parameter anpasst, also wie man das Fine-Tuning durchführt. Zum Beispiel hat der am häufigsten verwendete Parameter Temperature Werte von 0 bis 2, wobei Werte näher an 0 konsistentere Antworten und Werte näher an 2 vielfältigere Antworten bei jedem Durchlauf liefern. Letztendlich wird die Leistung stark davon abhängen, wie der Benutzer dies einstellt.
Kürzlich hatte ich zufällig die Gelegenheit, einen AI-Agenten zu entwickeln, und während ich dabei war, habe ich viel gelernt. Jetzt, wo ich den GitHub-Code sehe, scheint es mir, als hätte ich eine Vorstellung davon, was ich geschrieben habe :)


217
.@SentientAGI's ROMA v2 hat eine Struktur, die große Probleme in kleinere Einheiten zerlegt und jede von unabhängigen Agenten bearbeiten lässt, bevor die Ergebnisse wieder zusammengeführt werden.
Auf diese Weise muss das Modell nicht zu viele Informationen auf einmal verarbeiten und darüber nachdenken.
Außerdem behandelt jede Aufgabe nur die benötigten Informationen, wodurch Fehler oder Überlastungen verringert werden.
Da mehrere Aufgaben gleichzeitig parallel bearbeitet werden, erhöht sich auch die Geschwindigkeit, und es wurde so konzipiert, dass automatisch das benötigte Modell für jede Aufgabe ausgewählt wird, was die Effizienz verbessert.
Diese Methode ähnelt der Denkweise von Menschen, die komplexe Probleme lösen, indem sie den Prozess aufteilen und nacheinander abarbeiten.
Dies ermöglicht es den Agenten, langfristige Aufgaben viel stabiler auszuführen.
----
ROMA v2 reduziert die Belastung für Entwickler erheblich.
Es ist nicht mehr notwendig, separate Modelle zu trainieren, um spezialisierte Agenten für bestimmte Bereiche zu erstellen.
Es ermöglicht die Zusammenstellung nur durch die Gestaltung von Prompts und verwaltet systematisch die während des Ausführungsprozesses erzeugten Materialien und Ergebnisse, um eine Wiederverwendbarkeit zu gewährleisten.
Dank dessen wird der Kooperationsprozess zwischen den Agenten klarer, und es wird einfacher, komplexe Projekte in mehrere Schritte zu unterteilen und zu lösen.
Letztendlich kann man sagen, dass dies einen Schritt zur Verbesserung der Zusammenarbeit mehrerer Agenten darstellt, die zusammenarbeiten und sich erweitern.


냐옹쩌둥Ⓜ️Ⓜ️T28. Okt. 2025
[@SentientAGI ]
Es war einmal ein Projekt, das bis in die Top 10 kam,
aber der Schwellenwert ist gesunken und
ich weiß nicht, ob es an einem Inner Circle-Konto liegt oder was auch immer,
aber der Mindshare wurde nicht reflektiert und es fiel aus den Top 100.
Aber... nach dem Meetup hat es wieder geflossenㅠㅠ
Ich habe immer hart gearbeitet, aber ich werde wieder mein Bestes geben,
und wenn es gute Nachrichten gibt, werde ich sie fleißig verbreiten! 🫡

128
Top
Ranking
Favoriten