Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Das Ende von 2025 markierte einen wichtigen Wendepunkt für DeepProve, indem das Beweissystem von einem Single-Node-Prover zu einem verteilten, GPU-beschleunigten zkML-System weiterentwickelt wurde, das für reale Inferenzlasten konzipiert ist.
Lesen Sie das vollständige Ingenieure-Update unter dem folgenden Link: 🧵

2/ Wir haben DeepProve um ein verteiltes Ausführungsdiagramm neu strukturiert.
Anstelle eines monolithischen Beweisführers wird die Beweislogik jetzt als parallelisierbare Teilgraphen ausgedrückt, die über Maschinen verteilt und gleichzeitig ausgeführt werden können.
Dies ermöglicht horizontale Skalierung für die Beweisgenerierung.
3/ Lineare Algebra ist jetzt einsum-first.
Alle linearen Schichten, einschließlich dichter und QKV-Projektionen, wurden unter expliziten Einsum-Formulierungen vereinheitlicht, die beliebige Tensor-Ränge unterstützen.
Das Ergebnis: ein einfacherer Code, weniger maßgeschneiderte Schichten und mehr Flexibilität für zukünftige Modellarchitekturen.
4/ Wir haben einen großen Engpass, nicht-lineare Schichten, behoben, indem wir eine einzige verallgemeinerte Lookup-Schicht eingeführt haben, die Softmax, ReLU, GELU, Layer-Norm und mehr verarbeitet, mit integrierter Requantisierung.
Das bedeutet weniger Schichten, weniger Overhead und bessere Leistung.
5/ Die Genauigkeit blieb erhalten, während die Leistung skaliert wurde.
Im Vergleich zu PyTorch FP32:
• GPT-2 zeigt <1% Perplexitätsdelta
• Gemma-3 zeigt ~4% Perplexitätsdelta
DeepProve erhält eine hohe numerische Genauigkeit, selbst unter stärkerer Optimierung.
6/ Die Inferenz ist jetzt cache-freundlich und GPU-nativ.
Wir haben hinzugefügt:
• Positions-Caches für lange Sequenzen
• Tensor-Konkatenations-Caches für K/V-Wiederverwendung
Alle Schichten laufen jetzt auf der GPU, was optimistisches Beweisen ermöglicht: Ergebnisse werden sofort zurückgegeben, Beweise folgen asynchron.
7/ Der Durchsatz hat einen wichtigen Meilenstein erreicht.
Nach einer umfassenden Engpassanalyse und Optimierung kann DeepProve nun ~1,5 Beweise pro Sekunde aufrechterhalten.
Dies bestätigt, dass zkML mit praktischen Inferenzprozessen Schritt halten kann, nicht nur mit Offline- oder Batch-Workloads.
8/ TL;DR: Das vierte Quartal 2025 hat DeepProve in eine neue Ebene der Produktionsarchitektur bewegt.
Verteiltes Beweisen, GPU-Ausführung, optimistische Beweise und nachhaltiger Durchsatz sind jetzt real und skalierbar und bieten die Grundlagen, die für verifizierbare KI erforderlich sind.
Mehr dazu bald.
419
Top
Ranking
Favoriten
