Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
Parabéns à equipe @Alibaba_Qwen pelo Qwen3-TTS! 🎉
O vLLM-Omni já está pronto com suporte para o dia zero – clonagem de voz, design de voz e controle de linguagem natural para emoção e prosódia, tudo rodando nativamente.
Inferência offline disponível agora via PR #895, serviço online em breve.
🔗


Qwen22 de jan., 21:16
Qwen3-TTS está oficialmente no ar. Disponibilizamos toda a família — VoiceDesign, CustomVoice e Base — em código aberto, trazendo alta qualidade para a comunidade aberta.
- 5 modelos (0.6B & 1.8B)
- Design de voz livre e clonagem
- Suporte para 10 idiomas
- SOTA 12Hz tokenizer para alta compressão
- Suporte total a ajuste fino
- Apresentação do SOTA
Acreditamos que este é, possivelmente, o lançamento mais disruptivo do TTS open-source até agora. Vai em frente, quebre e construa algo legal. 🚀 Tudo está disponível agora—pesos, código e papel. Aproveite. 🧵
Github:
Rosto de abraço:
ModelScope:
Blog:
Papel:
Demonstração de Abraços no Rosto:
Demonstração do ModelScope:
API:

29
O suporte Day-0 para GLM-4.7-Flash já está disponível em vLLM! 🚀
Um novo padrão para a classe 30B — eficiente, leve e potente para codificação e agentes.
Também ótimo para escrita criativa, tradução e tarefas de contexto longo.
PR:


Z.ai19 de jan., 22:44
Apresentando o GLM-4.7-Flash: Seu assistente local de codificação e agente.
Estabelecendo um novo padrão para a classe 30B, o GLM-4.7-Flash equilibra alto desempenho com eficiência, tornando-se a opção perfeita de implantação leve. Além da programação, também é recomendado para escrita criativa, tradução, tarefas de contexto longo e interpretação de papéis.
Pesos:
API:
- GLM-4.7-Flash: Gratuito (1 concórdia)
- GLM-4.7-FlashX: Alta Velocidade e Acessível

30
Quando adicionamos suporte para gpt-oss, a API Responses não tinha um padrão e basicamente fizemos engenharia reversa do protocolo iterando e adivinhando com base no comportamento. Estamos muito animados com a especificação do Open Responses: primitivas limpas, ferramentas melhores, consistência para a vitória!

OpenAI Developers16 de jan., 02:08
Hoje estamos anunciando o Open Responses: uma especificação open-source para construir interfaces de LLM multi-provedores e interoperáveis, construídas sobre a API original do OpenAI Responses.
✅ Multi-provedor por padrão
✅ Útil para fluxos de trabalho do mundo real
✅ Extensível sem fragmentação
Construa sistemas agentivos sem reescrever sua pilha para cada modelo:
88
Melhores
Classificação
Favoritos
