Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
O final de 2025 marcou um ponto de inflexão importante para a DeepProve, avançando o sistema de prova de um provador de nó único para um sistema zkML distribuído e acelerado por GPU, projetado para cargas de trabalho de inferência do mundo real.
Leia a atualização completa de engenharia no link abaixo: 🧵

2/ Reestruturámos o DeepProve em torno de um grafo de execução distribuído.
Em vez de um provador monolítico, a lógica de prova agora é expressa como subgrafos paralelizáveis que podem ser divididos entre máquinas e executados de forma concorrente.
Isto desbloqueia a escalabilidade horizontal para a geração de provas.
3/ A álgebra linear agora é primeiro einsum.
Todas as camadas lineares, incluindo camadas densas e projeções QKV, foram unificadas sob formulações einsum explícitas, suportando classificações de tensor arbitrárias.
O resultado: uma base de código mais simples, menos camadas personalizadas e mais flexibilidade para futuras arquiteturas de modelos.
4/ Resolvemos um grande gargalo, camadas não lineares, ao introduzir uma única camada de Lookup generalizada que lida com softmax, ReLU, GELU, normalização de camada e mais, com requantização integrada.
OU seja, menos camadas, menos sobrecarga e melhor desempenho.
5/ A precisão manteve-se à medida que o desempenho escalou.
Comparado ao PyTorch FP32:
• GPT-2 mostra uma delta de perplexidade <1%
• Gemma-3 mostra uma delta de perplexidade ~4%
DeepProve mantém alta fidelidade numérica mesmo sob otimização mais pesada.
6/ A inferência agora é amigável ao cache e nativa de GPU.
Adicionámos:
• Caches posicionais para sequências longas
• Caches de concatenação de tensores para reutilização de K/V
Todas as camadas agora são executadas na GPU, permitindo uma prova otimista: os resultados retornam imediatamente, as provas seguem de forma assíncrona.
7/ A capacidade atingiu um marco importante.
Após uma análise e otimização de gargalos de ponta a ponta, a DeepProve agora sustenta ~1,5 provas por segundo.
Isto valida que o zkML pode acompanhar a inferência prática, não apenas cargas de trabalho offline ou em lote.
8/ Resumo: O quarto trimestre de 2025 levou o DeepProve a um novo nível de arquitetura em escala de produção.
A prova distribuída, a execução em GPU, as provas otimistas e a taxa de transferência sustentada são agora reais e escaláveis, fornecendo as bases necessárias para uma IA verificável.
Mais novidades em breve.
441
Top
Classificação
Favoritos
