Децентрализованное хранилище только что изменило экономику распределения AI моделей. Цены на централизованный хостинг моделей растут линейно с увеличением использования. Каждый запрос на вывод данных попадает на одни и те же серверы, затраты на пропускную способность накапливаются, и провайдеры передают эти затраты пользователям через ценообразование API. Вот почему вызовы API GPT-4 стоят столько: кто-то платит за вычисления И ЗА пропускную способность в больших объемах. С децентрализованным хранилищем, таким как DA-слой 0G, веса моделей распределяются по узлам. Пользователи получают данные с ближайшего узла, а не нагружают центральные серверы. Затраты на пропускную способность распределяются по сети. Вдруг хостинг модели с 70 миллиардами параметров не требует инфраструктуры, стоимость которой составляет шесть цифр в месяц. Это не только делает AI дешевле. Это делает жизнеспособными совершенно новые модели распределения: модели, которые часто обновляются, модели с региональными вариантами, модели, которые пользователи могут запускать локально после первоначальной загрузки. Ограничением никогда не было качество модели, это была экономика распределения.