Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Koniec 2025 roku oznaczał istotny punkt zwrotny dla DeepProve, przekształcając system dowodzenia z jednego węzła w rozproszony, przyspieszony przez GPU system zkML zaprojektowany do rzeczywistych obciążeń inferencyjnych.
Przeczytaj pełną aktualizację inżynieryjną pod linkiem poniżej: 🧵

2/ Przeprojektowaliśmy DeepProve wokół rozproszonej grafiki wykonawczej.
Zamiast monolitycznego dowodzącego, logika dowodzenia jest teraz wyrażona jako równoległe podgrafy, które można podzielić między maszyny i wykonywać równocześnie.
To odblokowuje poziome skalowanie dla generowania dowodów.
3/ Algebra liniowa jest teraz oparta na einsum.
Wszystkie warstwy liniowe, w tym gęste i projekcje QKV, zostały zjednoczone pod explicitznymi formułami einsum, wspierającymi dowolne rangi tensorów.
Rezultat: prostsza baza kodu, mniej dostosowanych warstw i większa elastyczność dla przyszłych architektur modeli.
4/ Naprawiliśmy główny wąskie gardło, nieliniowe warstwy, wprowadzając jedną uogólnioną warstwę Lookup, która obsługuje softmax, ReLU, GELU, normalizację warstwy i więcej, z wbudowaną requantyzacją.
Innymi słowy, mniej warstw, mniejsze obciążenie i lepsza wydajność.
5/ Dokładność utrzymywała się w miarę skalowania wydajności.
W porównaniu do PyTorch FP32:
• GPT-2 pokazuje <1% różnicy w złożoności
• Gemma-3 pokazuje ~4% różnicy w złożoności
DeepProve utrzymuje wysoką wierność numeryczną nawet przy cięższej optymalizacji.
6/ Wnioskowanie jest teraz przyjazne dla pamięci podręcznej i natywne dla GPU.
Dodaliśmy:
• Pamięci podręczne pozycyjne dla długich sekwencji
• Pamięci podręczne konkatenacji tensorów dla ponownego użycia K/V
Wszystkie warstwy teraz działają na GPU, co umożliwia optymistyczne dowodzenie: wyniki wracają natychmiast, dowody podążają asynchronicznie.
7/ Przepustowość osiągnęła kluczowy kamień milowy.
Po przeprowadzeniu analizy i optymalizacji wąskich gardeł end-to-end, DeepProve teraz utrzymuje ~1,5 dowodów na sekundę.
To potwierdza, że zkML może nadążać za praktycznym wnioskowaniem, a nie tylko za offline'owymi lub wsadowymi obciążeniami.
8/ TL;DR: IV kwartał 2025 roku przeniósł DeepProve na nowy poziom architektury produkcyjnej.
Rozproszona weryfikacja, wykonanie na GPU, optymistyczne dowody i utrzymana przepustowość są teraz rzeczywiste i skalowalne, zapewniając fundamenty potrzebne do weryfikowalnej AI.
Więcej informacji wkrótce.
420
Najlepsze
Ranking
Ulubione
