AI 模型壓縮首次使鏈上推理在經濟上可行。 運行一個 7B 參數的模型在考慮到燃氣費和計算開銷時,過去的成本為每次推理調用 $2-3。這樣的定價使得任何面向消費者的 AI 應用都無法生存。你無法建立一個每條消息都要用戶支付 $2 的聊天機器人。經濟學根本行不通。 量化和剪枝技術將模型壓縮到 1-2B 參數,幾乎不損失準確性。突然之間,推理成本降至每次調用 $0.10-0.20。雖然仍然不是免費,但現在你進入了微支付模型可行的範圍。用戶可以為每次互動支付幾分之一美分,開發者可以在不依賴風投補貼的情況下覆蓋成本,單位經濟學實際上也能達成平衡。 當推理變得足夠便宜以支持真正的應用,而不僅僅是演示時,你將解鎖一個完全不同的設計空間。完全鏈上運行的 AI 代理,持續與用戶互動,並且不需要集中式 API 依賴。那時,DeAI 不再是一個研究項目,而是開始成為基礎設施。 觀看 0G.