Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La compresión de modelos de IA acaba de hacer que la inferencia onchain sea económicamente viable por primera vez.
Ejecutar un modelo de 7B parámetros costaba entre 2 y 3 dólares por llamada de inferencia si se tenían en cuenta las tarifas de gas y la sobrecarga de cálculo. Ese precio hace que cualquier aplicación de IA orientada al consumidor quede muerta desde el principio. No puedes crear un chatbot que cueste a los usuarios 2 dólares por mensaje. La economía nunca funcionó.
Las técnicas de cuantización y poda comprimen los modelos a parámetros 1-2B sin perder mucha precisión. De repente, los costes de inferencia bajan a 0,10-0,20 $ por llamada. Aún no es gratis, pero ahora estás en el rango donde los modelos de micropago se vuelven viables. Los usuarios pueden pagar fracciones de céntimo por interacción, los desarrolladores pueden cubrir costes sin subvenciones de capital riesgo y la economía unitaria realmente cierra.
Cuando la inferencia se vuelve lo suficientemente barata como para soportar aplicaciones reales, no solo demos, desbloqueas un espacio de diseño completamente diferente. Agentes de IA que vivan completamente en la cadena de la cama, interactúen continuamente con los usuarios y no requieran dependencias centralizadas de la API. Es entonces cuando DeAI deja de ser un proyecto de investigación y empieza a ser infraestructura.
Cuidado 0G.
Populares
Ranking
Favoritas
