Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
¡Enhorabuena al equipo @Alibaba_Qwen por Qwen3-TTS! 🎉
vLLM-Omni está listo con soporte para el día 0 – clonación de voz, diseño de voz y control del lenguaje natural para emociones y prosodia, todo funcionando de forma nativa.
Inferencia offline disponible ahora a través del PR #895, servicio online próximamente.
🔗


Qwen22 ene, 21:16
Qwen3-TTS está oficialmente en activo. Hemos abierto el código a toda la familia—VoiceDesign, CustomVoice y Base—aportando alta calidad a la comunidad abierta.
- 5 modelos (0.6B y 1.8B)
- Diseño y clonación de voz libre
- Soporte para 10 idiomas
- SOTA 12Hz tokenizador para alta compresión
- Soporte completo para ajustes finos
- Actuación de SOTA
Creemos que esta es, posiblemente, la versión más disruptiva de TTS de código abierto hasta la fecha. Adelante, rómpelo y construye algo chulo. 🚀 Ya está todo disponible—pesos, código y papel. Disfrutad. 🧵
Github:
Cara de abrazo:
ModelScope:
Blog:
Papel:
Demostración de abrazar:
Demostración de ModelScope:
API:

60
¡El soporte Day-0 para GLM-4.7-Flash ya está disponible en vLLM! 🚀
Un nuevo estándar para la clase 30B: eficiente, ligero y potente para codificación y agentes.
También es genial para escritura creativa, traducción y tareas de contexto largo.
PR:


Z.ai19 ene, 22:44
Presentamos GLM-4.7-Flash: Tu asistente local de codificación y agentes.
Marcando un nuevo estándar para la clase 30B, el GLM-4.7-Flash equilibra alto rendimiento con eficiencia, convirtiéndose en la opción perfecta para un despliegue ligero. Más allá de la programación, también se recomienda para escritura creativa, traducción, tareas de contexto largo y juegos de rol.
Pesos:
API:
- GLM-4.7-Flash: Gratis (1 concurrencia)
- GLM-4.7-FlashX: Alta velocidad y asequible

70
Cuando añadimos soporte para gpt-oss, la API de Respuestas no tenía un estándar y básicamente hicimos ingeniería inversa del protocolo iterando y adivinando según el comportamiento. Estamos muy entusiasmados con la especificación de Open Responses: primitivas limpias, mejores herramientas, coherencia para la victoria.

OpenAI Developers16 ene, 02:08
Hoy anunciamos Open Responses: una especificación de código abierto para construir interfaces LLM multiproveedor e interoperables sobre la API original de OpenAI Responses.
✅ Multiproveedor por defecto
✅ Útil para flujos de trabajo reales
✅ Extensible sin fragmentación
Construye sistemas agenticos sin reescribir tu pila para cada modelo:
100
Populares
Ranking
Favoritas
