Kompresi model AI baru saja membuat inferensi onchain layak secara ekonomi untuk pertama kalinya. Menjalankan model parameter 7B yang digunakan untuk menelan biaya $2-3 per panggilan inferensi saat Anda memperhitungkan biaya gas dan komputasi overhead. Harga itu membuat aplikasi AI yang dihadapi konsumen mati saat kedatangan. Anda tidak dapat membuat chatbot yang dikenakan biaya $2 per pesan kepada pengguna. Ekonomi tidak pernah berhasil. Teknik kuantisasi dan pemangkasan memampatkan model hingga parameter 1-2B tanpa kehilangan banyak akurasi. Tiba-tiba biaya inferensi turun menjadi 0,10-0,20 USD per panggilan. Masih belum gratis, tetapi sekarang Anda berada dalam kisaran di mana model pembayaran mikro menjadi layak. Pengguna dapat membayar sebagian kecil dari satu sen per interaksi, pengembang dapat menutupi biaya tanpa subsidi VC, dan ekonomi unit benar-benar tutup. Ketika inferensi menjadi cukup murah untuk mendukung aplikasi nyata, bukan hanya demo, Anda membuka ruang desain yang sama sekali berbeda. Agen AI yang hidup sepenuhnya onchain, berinteraksi dengan pengguna secara terus menerus, dan tidak memerlukan dependensi API terpusat. Saat itulah DeAI berhenti menjadi proyek penelitian dan mulai menjadi infrastruktur. Tonton 0G.