Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Dezentraler Speicher hat gerade die Wirtschaftlichkeit der Verteilung von KI-Modellen verändert.
Die Kosten für das Hosting zentralisierter Modelle steigen linear mit der Nutzung. Jede Anfrage zur Inferenz trifft die gleichen Server, die Bandbreitenkosten summieren sich, und Anbieter geben diese Kosten über API-Preise an die Nutzer weiter. Deshalb kosten die API-Aufrufe von GPT-4 das, was sie kosten: Jemand bezahlt für Rechenleistung UND Bandbreite im großen Maßstab.
Mit dezentralem Speicher wie der DA-Schicht von 0G werden die Modellgewichte über Knoten verteilt. Nutzer ziehen von dem nächstgelegenen Knoten, anstatt zentrale Server zu belasten. Die Bandbreitenkosten verteilen sich über das Netzwerk. Plötzlich erfordert das Hosting eines Modells mit 70 Milliarden Parametern keine Infrastruktur, die monatlich sechsstellige Beträge kostet.
Das macht KI nicht nur günstiger. Es macht völlig neue Verteilungsmodelle rentabel: Modelle, die häufig aktualisiert werden, Modelle mit regionalen Varianten, Modelle, die Nutzer nach dem ersten Download lokal ausführen können. Die Einschränkung war nie die Modellqualität, sondern die Wirtschaftlichkeit der Verteilung.
Top
Ranking
Favoriten
