Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
Parabéns à equipa @Alibaba_Qwen pelo Qwen3-TTS! 🎉
O vLLM-Omni está pronto com suporte no dia 0 – clonagem de voz, design de voz e controle de linguagem natural para emoção e prosódia, tudo a funcionar nativamente.
Inferência offline disponível agora via PR #895, serviço online a chegar em breve.
🔗


Qwen22/01, 21:16
O Qwen3-TTS está oficialmente ativo. Tornámos toda a família de código aberto—VoiceDesign, CustomVoice e Base—trazendo alta qualidade para a comunidade aberta.
- 5 modelos (0.6B & 1.8B)
- Design e clonagem de voz em formato livre
- Suporte para 10 idiomas
- Tokenizador SOTA de 12Hz para alta compressão
- Suporte completo para fine-tuning
- Desempenho SOTA
Acreditamos que esta é, sem dúvida, a liberação mais disruptiva em TTS de código aberto até agora. Vá em frente, quebre-o e construa algo legal. 🚀 Tudo está disponível agora—pesos, código e artigo. Aproveite. 🧵
Github:
Hugging Face:
ModelScope:
Blog:
Artigo:
Demonstração do Hugging Face:
Demonstração do ModelScope:
API:

5
O suporte Day-0 para GLM-4.7-Flash já está disponível no vLLM! 🚀
Um novo padrão para a classe 30B—eficiente, leve e poderoso para codificação e agentes.
Também ótimo para escrita criativa, tradução e tarefas de longo contexto.
PR:


Z.ai19/01, 22:44
Apresentando o GLM-4.7-Flash: O seu assistente local de codificação e agente.
Estabelecendo um novo padrão para a classe 30B, o GLM-4.7-Flash equilibra alto desempenho com eficiência, tornando-se a opção de implementação leve perfeita. Além da codificação, também é recomendado para escrita criativa, tradução, tarefas de longo contexto e interpretação de papéis.
Pesos:
API:
- GLM-4.7-Flash: Grátis (1 concorrência)
- GLM-4.7-FlashX: Alta Velocidade e Acessível

9
Quando adicionámos suporte para gpt-oss, a API de Respostas não tinha um padrão e, essencialmente, fizemos engenharia reversa do protocolo, iterando e adivinhando com base no comportamento. Estamos muito entusiasmados com a especificação Open Responses: primitivas limpas, melhores ferramentas, consistência para a vitória!

OpenAI Developers16/01, 02:08
Hoje estamos a anunciar Open Responses: uma especificação de código aberto para construir interfaces LLM multi-fornecedor e interoperáveis, baseadas na API original OpenAI Responses.
✅ Multi-fornecedor por defeito
✅ Útil para fluxos de trabalho do mundo real
✅ Extensível sem fragmentação
Construa sistemas agentes sem reescrever a sua pilha para cada modelo:
69
Top
Classificação
Favoritos
