O armazenamento descentralizado acabou de mudar a economia da distribuição de modelos de IA. Os custos de hospedagem de modelos centralizados escalam linearmente com o uso. Cada pedido de inferência atinge os mesmos servidores, os custos de largura de banda se acumulam e os provedores repassam esses custos aos usuários através da precificação da API. É por isso que as chamadas da API do GPT-4 custam o que custam: alguém está pagando por computação E largura de banda em escala. Com armazenamento descentralizado como a camada DA da 0G, os pesos dos modelos são distribuídos entre os nós. Os usuários puxam do nó mais próximo em vez de sobrecarregar servidores centrais. Os custos de largura de banda se distribuem pela rede. De repente, hospedar um modelo de 70B parâmetros não requer uma infraestrutura que custa seis dígitos mensalmente. Isso não apenas torna a IA mais barata. Torna viáveis modelos de distribuição completamente novos: modelos que se atualizam com frequência, modelos com variantes regionais, modelos que os usuários podem executar localmente após o download inicial. A limitação nunca foi a qualidade do modelo, mas sim a economia da distribuição.