Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Het einde van 2025 markeerde een belangrijk keerpunt voor DeepProve, waarbij het bewijs systeem werd geavanceerd van een single-node prover naar een gedistribueerd, GPU-versneld zkML-systeem dat is ontworpen voor real-world inference workloads.
Lees de volledige engineering update via de onderstaande link: 🧵

2/ We hebben DeepProve opnieuw ontworpen rond een gedistribueerde uitvoeringsgrafiek.
In plaats van een monolithische prover, wordt de bewijslogica nu uitgedrukt als paralleliseerbare subgrafen die over machines kunnen worden verdeeld en gelijktijdig kunnen worden uitgevoerd.
Dit maakt horizontale schaalvergroting voor bewijs generatie mogelijk.
3/ Lineaire algebra is nu einsum-eerst.
Alle lineaire lagen, inclusief dichte en QKV-projecties, zijn verenigd onder expliciete einsum-formuleringen, die willekeurige tensor-rangen ondersteunen.
Het resultaat: een eenvoudigere codebase, minder op maat gemaakte lagen en meer flexibiliteit voor toekomstige modelarchitecturen.
4/ We hebben een belangrijke bottleneck opgelost, niet-lineaire lagen, door een enkele gegeneraliseerde Lookup-laag in te voeren die softmax, ReLU, GELU, layer norm en meer afhandelt, met ingebouwde requantisatie.
AKA minder lagen, minder overhead en betere prestaties.
5/ Nauwkeurigheid bleef behouden naarmate de prestaties opschalen.
Vergeleken met PyTorch FP32:
• GPT-2 toont <1% perplexiteit delta
• Gemma-3 toont ~4% perplexiteit delta
DeepProve behoudt hoge numerieke nauwkeurigheid, zelfs onder zwaardere optimalisatie.
6/ Inferentie is nu cache-vriendelijk en GPU-native.
We hebben toegevoegd:
• Positiecaches voor lange sequenties
• Tensorconcatenatiecaches voor K/V-hergebruik
Alle lagen draaien nu op GPU, wat optimistische bewijslast mogelijk maakt: resultaten worden onmiddellijk teruggegeven, bewijzen volgen asynchroon.
7/ Doorvoer heeft een belangrijke mijlpaal bereikt.
Na een end-to-end knelpuntanalyse en optimalisatie, ondersteunt DeepProve nu ~1,5 bewijzen per seconde.
Dit valideert dat zkML gelijke tred kan houden met praktische inferentie, niet alleen offline of batchwerkbelastingen.
8/ TL;DR: Q4 van 2025 heeft DeepProve naar een nieuw niveau van productie-schaalarchitectuur gebracht.
Gedecentraliseerd bewijzen, GPU-uitvoering, optimistische bewijzen en duurzame doorvoer zijn nu echt en schaalbaar, en bieden de fundamenten die nodig zijn voor verifieerbare AI.
Meer binnenkort.
407
Boven
Positie
Favorieten
