Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Elisha (GH Crypto Guy) 🇬🇭
Marketing @0G_Labs | Précédent : SMM & Podcast Host @Cointelegraph et BD (Ghana) @Binance | Commentaire DeAI et aspirant degen
Les développeurs déplacent les charges de travail d'entraînement de l'IA vers des réseaux de calcul décentralisés plus rapidement que la plupart des fournisseurs d'infrastructure ne l'avaient prévu.
Lorsque des plateformes centralisées contrôlent les prix et l'accès, les développeurs absorbent les augmentations de coûts ou arrêtent des projets. Les réseaux décentralisés permettent aux fournisseurs de calcul de rivaliser sur le prix et la performance. Les travaux d'entraînement se répartissent sur la capacité GPU disponible. Pas de processus d'approbation. Pas de dépendance à une plateforme. Si un fournisseur augmente ses tarifs, les charges de travail se déplacent automatiquement vers des alternatives moins chères. L'infrastructure qui coordonne ces réseaux distribués sans créer de nouveaux goulets d'étranglement capte l'écosystème des développeurs.
L'architecture modulaire de 0G, séparant le stockage, le calcul et le consensus, permet cette coordination à l'échelle de la production sans sacrifier le débit.
39
Que se passe-t-il lorsque des agents AI effectuent des transactions plus rapidement que les humains ne peuvent approuver les transactions ?
Les chaînes traditionnelles optimisées pour des interactions à la vitesse humaine s'effondrent lorsque les agents coordonnent des milliers de décisions par heure. Un délai de 200 ms se transforme en occasions manquées, en arbitrage échoué, en données obsolètes. Les économies d'agents ont besoin d'une finalité en moins d'une seconde, de coûts prévisibles et d'un débit qui évolue avec l'activité, et non avec la congestion. C'est pourquoi 0G a séparé le consensus, le stockage et le calcul en couches spécialisées. Les agents n'attendent pas les confirmations de bloc. Ils exécutent, règlent et passent à la prochaine opportunité avant que les chaînes traditionnelles n'aient terminé de traiter la première transaction. L'infrastructure construite pour la coordination à la vitesse des agents capte l'économie autonome. Tout le reste devient un goulot d'étranglement.
Les flux de travail d'approbation humaine ne s'adaptent pas aux marchés à la vitesse des machines. L'infrastructure qui élimine ces goulots d'étranglement l'emporte.
103
Le stockage décentralisé vient de changer l'économie de la distribution des modèles d'IA.
Les coûts d'hébergement de modèles centralisés évoluent de manière linéaire avec l'utilisation. Chaque requête d'inférence touche les mêmes serveurs, les coûts de bande passante s'accumulent, et les fournisseurs répercutent ces coûts sur les utilisateurs via la tarification API. C'est pourquoi les appels à l'API GPT-4 coûtent ce qu'ils coûtent : quelqu'un paie pour le calcul ET la bande passante à grande échelle.
Avec le stockage décentralisé comme la couche DA de 0G, les poids des modèles sont distribués à travers les nœuds. Les utilisateurs tirent des données du nœud le plus proche au lieu de frapper les serveurs centraux. Les coûts de bande passante se répartissent sur le réseau. Soudain, héberger un modèle de 70 milliards de paramètres ne nécessite pas une infrastructure coûtant six chiffres par mois.
Cela ne rend pas seulement l'IA moins chère. Cela rend complètement viables de nouveaux modèles de distribution : des modèles qui se mettent à jour fréquemment, des modèles avec des variantes régionales, des modèles que les utilisateurs peuvent exécuter localement après le téléchargement initial. La contrainte n'a jamais été la qualité du modèle, mais l'économie de distribution.
1,07K
Meilleurs
Classement
Favoris
