Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
La compressione dei modelli AI ha appena reso l'inferenza onchain economicamente sostenibile per la prima volta.
Eseguire un modello da 7 miliardi di parametri costava prima $2-3 per chiamata di inferenza, considerando le spese di gas e i costi di calcolo. Quel prezzo rende qualsiasi applicazione AI rivolta ai consumatori morta all'arrivo. Non puoi costruire un chatbot che costi agli utenti $2 per messaggio. L'economia non funzionava mai.
Le tecniche di quantizzazione e potatura comprimono i modelli fino a 1-2 miliardi di parametri senza perdere molta precisione. Improvvisamente, i costi di inferenza scendono a $0.10-0.20 per chiamata. Ancora non è gratuito, ma ora sei nella fascia in cui i modelli di micropagamento diventano sostenibili. Gli utenti possono pagare frazioni di centesimo per interazione, gli sviluppatori possono coprire i costi senza sussidi da VC, e l'economia unitaria si chiude effettivamente.
Quando l'inferenza diventa abbastanza economica da supportare applicazioni reali, non solo dimostrazioni, sblocchi uno spazio di design completamente diverso. Agenti AI che vivono completamente onchain, interagiscono continuamente con gli utenti e non richiedono dipendenze API centralizzate. È allora che DeAI smette di essere un progetto di ricerca e inizia a essere infrastruttura.
Guarda 0G.
Principali
Ranking
Preferiti
