Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance hay que hacerlo ‘haeche’
Ellos son seguros, de verdad
Ya hicieron el TGE y están demostrando constantemente
Los embajadores y creadores también están operando en la temporada 2
Solo con ver el precio de $BARD, se nota que no es como los proyectos de cripto que abundan últimamente
Además, es un BTCfi que tiene una alta posibilidad de crecer..
—
Pero una barrera de entrada es el umbral
Yo también estoy en Wider..
Aun así, hay que hacerlo
A veces, cuidar estos fundamentos puede resultar en un gran golpe más grande que buscar un golpe inmediato
Como ahora.


코루🍊26 nov 2025
Al ver el artículo de 자몽햄, lo que me vino a la mente fue que
amigos como @Infinit_Labs y @Lombard_Finance, que tenían recompensas ambiguas en la era dorada de 야핑,
parece que ahora, por fin, están en su apogeo.
La transición de 구야핑 a 신야핑 (?) se está llevando a cabo intensamente en estos días,
y, de alguna manera... las recompensas son recompensas, pero... ¿no tienen ese sabor de antes?
De hecho, las recompensas de la temporada 2 y 3 de los amigos que no pudieron brillar en la antigua 구야핑 (generación dorada) se han vuelto muy, muy, muy grandes en este momento.
----
Solo considerando las recompensas de $IN, para los 500 mejores, es aproximadamente el doble de la cantidad,
y las recompensas de $BARD también han disminuido drásticamente a 100 personas al mes, lo que resulta en que la recompensa por persona se ha vuelto enorme.
Incluso, no es que ambos estén forzando el shilling por expectativas, sino que son negocios que realmente existen, funcionan bien y generan ganancias.
Las recompensas, el período y el número de personas están claramente definidos y nunca han incumplido una promesa.
(De hecho, en el caso de @Lombard_Finance, lo dieron incluso más rápido.)
----
Ah, lo echo de menos...
Pero estoy muy de acuerdo con lo que dice 자몽햄...
En realidad, hasta ahora, ha sido extraño lo grandes que han sido las recompensas.
Si antes daba diez mil al mes y ahora solo un millón, es normal sentirse decepcionado.
¿No harías algo solo porque te dan un millón al mes?
Eso tampoco es cierto, jajaja...

426
[@SentientAGI He completado la obtención del rol Early AGI, ¿es esto mi graduación?]
He estado escribiendo mucho en el chat de Discord
He organizado todos los mensajes que he publicado hasta ahora
Y he participado constantemente en eventos
Lo he anotado todo en Notion y lo he enviado.
Esta mañana, al revisar el canal de Discord, vi que estaba incluido en la promoción a Early AGI!
Soy un ranker de Yaping + poseedor del rol Early AGI,
¿podré reírme de esto?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11 nov 2025
Explorando ROMA de Sentient
Al ver la tabla de clasificación de @SentientAGI, parece que la calidad del contenido es bastante importante. Así que voy a escribir sobre ROMA, que creo que es la que tiene la mayor capacidad técnica en Sentient.
1. ROMA no es un modelo de IA.
- ROMA es exactamente un marco de trabajo Multi-agent, es decir, varios agentes de IA que, de manera jerárquica y recursiva, consultan los valores de cada agente para obtener la respuesta más confiable y precisa. En el Readme de GitHub, generalmente se puede ver la relación básica de los códigos, donde se utilizan las claves API de modelos de IA como GPT y Gemini.
2. ¿Y cuál es la clave?
- La clave está en la división de roles de Atomizer, Executor, Planner y Aggregator. Cuando se presenta una tarea, se decide si se manejará de forma individual o en grupo (Atomizer), se determina cómo resolverla (Planner), se ejecuta según lo planeado (Executor) y luego se recopila (Aggregator) para devolver la respuesta. Además, se puede optar por una etapa de verificación a través de un Verifier para validar la respuesta.
3. ¿Se utiliza solo un modelo?
- No. Si se consulta el código de Quickstart, se especifican diferentes modelos, excepto el Executor (por ejemplo, gpt-4o-mini, gemini-2.5-flash). Así que parece que no se utiliza un solo modelo, sino varios para obtener la mejor respuesta.
4. ¿La respuesta siempre será la misma?
- Tampoco es así. Cada modelo de IA puede dar resultados diferentes para una misma tarea, y depende de cómo se ajusten los parámetros, es decir, cómo se realice el fine-tuning. Por ejemplo, el parámetro más representativo, Temperature, tiene un rango de 0 a 2, donde valores cercanos a 0 producen respuestas consistentes, y valores cercanos a 2 generan respuestas variadas en cada ejecución. Al final, parece que la diferencia de rendimiento dependerá de cómo el usuario configure esto.
Recientemente tuve la oportunidad de desarrollar un agente de IA por casualidad, y mientras estudiaba, sentí que lo que había aprendido ahora tiene sentido al ver el código de GitHub, así que decidí escribirlo :)


418
.@SentientAGI de ROMA v2 tiene una estructura que divide un gran problema en unidades más pequeñas, las cuales son manejadas por agentes independientes, y luego combina los resultados nuevamente.
De esta manera, el modelo no tiene que lidiar con demasiada información a la vez.
Además, cada tarea solo maneja la información necesaria, lo que reduce errores y sobrecargas.
Al mismo tiempo, al procesar múltiples tareas en paralelo, la velocidad también aumenta, y está diseñado para seleccionar automáticamente el modelo necesario para cada tarea, mejorando así la eficiencia.
Este enfoque es similar a la forma en que los humanos resuelven problemas complejos, dividiendo el proceso y manejándolo en orden.
Permite que los agentes realicen tareas a largo plazo de manera mucho más estable.
----
ROMA v2 reduce significativamente la carga desde la perspectiva del desarrollador.
No es necesario entrenar modelos por separado para crear agentes especializados en un campo específico.
Se puede ensamblar solo con el diseño de prompts, y se gestiona de manera sistemática la información y los resultados generados durante el proceso de ejecución, permitiendo su reutilización.
Gracias a esto, el proceso de colaboración entre agentes se vuelve más limpio, y es más fácil dividir proyectos complejos en varias etapas para resolverlos.
En última instancia, esto puede considerarse una mejora en la parte de colaboración de múltiples agentes.


냐옹쩌둥Ⓜ️Ⓜ️T28 oct 2025
[@SentientAGI ]
Era un proyecto que alguna vez llegó al top 10, pero
el umbral se ha reducido y
no sé si es un bloqueo de cuenta de la inner circle o qué, pero
la participación de la mente no se ha reflejado y se ha caído del puesto 100.
Sin embargo... después del meetup, parece que la sangre ha vuelto a fluirㅠㅠ
Siempre he trabajado duro, pero volveré a esforzarme y
si hay buenas noticias, ¡me aseguraré de compartirlas con entusiasmo! 🫡

315
Parte superior
Clasificación
Favoritos