去中心化存储刚刚改变了分发AI模型的经济学。 集中式模型托管成本与使用量呈线性增长。每个推理请求都打击同样的服务器,带宽成本不断增加,提供商通过API定价将这些成本转嫁给用户。这就是为什么GPT-4 API调用的费用如此之高:有人在为计算和带宽的大规模使用付费。 通过像0G的DA层这样的去中心化存储,模型权重分布在各个节点上。用户从最近的节点拉取数据,而不是不断请求中央服务器。带宽成本在网络中分散。突然间,托管一个70B参数的模型不再需要每月六位数的基础设施成本。 这不仅使AI变得更便宜。它使全新的分发模型变得可行:频繁更新的模型、具有区域变体的模型、用户在初始下载后可以本地运行的模型。限制从来不是模型质量,而是分发经济学。