Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance ha detto di fare ‘해쩨’
Questi sono decisamente affidabili
Hanno già fatto il tge e stanno dimostrando costantemente
Gli ambassador e i creator sono attualmente in stagione 2
Guardando solo il prezzo di $BARD, è diverso dai comuni progetti cripto di oggi
È anche un BTCfi con un alto potenziale di crescita in futuro..
—
Tuttavia, un ostacolo all'ingresso è il valore soglia
Anch'io sono su Wider..
Nonostante ciò, bisogna farlo
Occuparsi di queste basi può a volte portare a risultati migliori rispetto a puntare tutto su un colpo solo
Proprio come adesso


코루🍊26 nov 2025
Leggendo il post di Grapefruit Ham, mi è venuto in mente che
come @Infinit_Labs e @Lombard_Finance, i ragazzi che erano stati un po' trascurati durante l'era d'oro di Yapping,
sembra che ora stiano finalmente entrando nel loro periodo di massimo splendore.
Il passaggio dalla vecchia generazione di Yaping a quella nuova (?) sta avvenendo intensamente di recente,
e non so come dire... le ricompense sono ricompense, ma... non hanno più quel sapore di una volta? In una situazione in cui
le ricompense per i ragazzi della vecchia generazione (generazione d'oro) che non hanno potuto brillare sono diventate enormemente grandi per le attuali stagioni 2 e 3.
----
Solo guardando le ricompense di $IN, per i primi 500, la quantità è circa il doppio,
e anche le ricompense di $BARD sono diminuite drasticamente a 100 persone al mese, quindi alla fine la ricompensa per persona è diventata enorme.
Inoltre, entrambi non sono solo hype forzato, ma sono aziende con prodotti reali, che funzionano bene e generano profitti.
Le ricompense, i tempi e il numero di persone sono tutti chiaramente definiti e non ci sono stati inadempimenti.
(Anzi, nel caso di @Lombard_Finance, hanno persino anticipato le ricompense.)
----
Ah, quanto mi manca...
Ma sono molto d'accordo con quello che dice Grapefruit Ham...
In realtà, è vero che finora le ricompense sono state incredibilmente grandi.
Se prima si davano diecimila al mese e ora solo mille, è normale sentirsi delusi.
Ma non è che non lo farai solo perché ora danno mille al mese, giusto?
Beh, non è così, ahah...

215
[@SentientAGI Ho completato il ruolo di Early AGI, posso considerarmi laureato?]
Ho scritto molto nella chat di Discord
Ho organizzato tutti i post che ho pubblicato fino ad ora
Ho partecipato costantemente agli eventi
E ho annotato tutto su Notion e l'ho inviato.
Questa mattina, controllando il canale Discord, ho visto che sono stato incluso nel passaggio a Early AGI!
Sono un ranker di Yaping + possiedo il ruolo di Early AGI,
posso ridere di gusto?


코인추천요정 | GMB LABS11 nov 2025
Esplorando ROMA di Sentient
Guardando la classifica di @SentientAGI, sembra che la qualità dei contenuti sia piuttosto importante. Quindi, scriverò su ROMA, che considero il più avanzato in termini di tecnologia di Sentient.
1. ROMA non è un modello AI.
- ROMA è esattamente un framework Multi-agent, cioè un insieme di agenti AI che lavorano in modo gerarchico e ricorsivo, facendo riferimento ai valori di ciascun agente per ottenere la risposta più affidabile e precisa. Nella Readme di GitHub, di solito si possono vedere le relazioni fondamentali tra i codici, dove si utilizzano le chiavi API di modelli AI come GPT e Gemini.
2. Qual è quindi il punto chiave?
- È tutto nella suddivisione dei ruoli di Atomizer, Executor, Planner e Aggregator. Quando viene assegnato un compito, si decide se gestirlo in un modo o in più modi (Atomizer), si determina come risolverlo (Planner), si esegue secondo il piano (Executor) e infine si aggregano i risultati (Aggregator) per restituire la risposta. Inoltre, c'è anche la fase di verifica (Verifier) che può essere selezionata come opzione per convalidare la risposta.
3. Viene utilizzato solo un modello?
- No. Se si consulta il codice Quickstart, si noterà che, ad eccezione dell'Executor, vengono specificati modelli diversi (es. gpt-4o-mini, gemini-2.5-flash). In questo modo, non si utilizza un solo modello, ma più modelli per ottenere la migliore risposta.
4. La risposta sarà sempre la stessa?
- Neanche questo è vero. Ogni modello AI produce risultati diversi per lo stesso compito e varia a seconda di come si regolano i parametri, cioè come si effettua il fine-tuning. Ad esempio, il parametro più rappresentativo, la Temperature, varia da 0 a 2, dove valori più vicini a 0 producono risposte coerenti, mentre valori più vicini a 2 forniscono risposte diverse ad ogni esecuzione. Alla fine, sembra che la differenza di prestazioni dipenda molto da come l'utente imposta questi parametri.
Recentemente ho avuto l'opportunità di sviluppare un agente AI e, mentre studiavo, mi sembrava che ora, guardando il codice di GitHub, tutto fosse più chiaro, quindi ho deciso di scriverlo :)


190
.@SentientAGI di ROMA v2 ha una struttura che suddivide un grande problema in unità più piccole, gestite da agenti indipendenti, per poi riunire i risultati.
In questo modo, il modello non deve affrontare troppi dati contemporaneamente.
Inoltre, ogni compito si occupa solo delle informazioni necessarie, riducendo errori e sovraccarichi.
Poiché più compiti vengono elaborati in parallelo, la velocità aumenta e il sistema è progettato per selezionare automaticamente il modello necessario per ogni compito, migliorando così l'efficienza.
Questo approccio è simile al modo in cui gli esseri umani risolvono problemi complessi, suddividendo il processo e affrontandolo in ordine.
Gli agenti possono quindi svolgere compiti a lungo termine in modo molto più stabile.
----
ROMA v2 riduce notevolmente il carico per gli sviluppatori.
Non è necessario addestrare modelli separati per creare agenti specializzati in determinati settori.
È possibile assemblarli semplicemente progettando i prompt e gestendo sistematicamente i dati e i risultati generati durante il processo di esecuzione, rendendoli riutilizzabili.
Grazie a ciò, il processo di collaborazione tra agenti è diventato più fluido e risolvere progetti complessi è diventato più semplice suddividendoli in più fasi.
In definitiva, si può dire che questo ha aggiornato un passo nella cooperazione tra più agenti per l'espansione.


냐옹쩌둥Ⓜ️Ⓜ️T28 ott 2025
[@SentientAGI ]
Era un progetto che era arrivato fino alla top 10,
ma con la diminuzione della soglia
non so se sia un blocco degli account dell'inner circle o cosa,
ma la mindshare non è stata riflessa e siamo usciti dalla top 100.
Tuttavia... dopo il meetup, sembra che ci sia di nuovo un flusso positivoㅠㅠ
Ho sempre lavorato duramente, ma farò di nuovo del mio meglio e
se ci saranno buone notizie, le condividerò con impegno! 🫡

101
Principali
Ranking
Preferiti