Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
¡Felicidades al equipo de @Alibaba_Qwen por Qwen3-TTS! 🎉
vLLM-Omni está listo con soporte desde el día 0: clonación de voz, diseño de voz y control de lenguaje natural para emoción y prosodia, todo funcionando de manera nativa.
La inferencia offline ya está disponible a través de PR #895, el servicio online llegará pronto.
🔗


Qwen22 ene, 21:16
Qwen3-TTS está oficialmente en vivo. Hemos abierto el código de toda la familia—VoiceDesign, CustomVoice y Base—aportando alta calidad a la comunidad abierta.
- 5 modelos (0.6B y 1.8B)
- Diseño y clonación de voz en formato libre
- Soporte para 10 idiomas
- Tokenizador SOTA de 12Hz para alta compresión
- Soporte completo para ajuste fino
- Rendimiento SOTA
Creemos que esta es, sin duda, la liberación más disruptiva en TTS de código abierto hasta ahora. Adelante, rómpelo y construye algo genial. 🚀 Todo está disponible ahora—pesos, código y documento. Disfruta. 🧵
Github:
Hugging Face:
ModelScope:
Blog:
Documento:
Demostración de Hugging Face:
Demostración de ModelScope:
API:

30
¡El soporte Day-0 para GLM-4.7-Flash ya está disponible en vLLM! 🚀
Un nuevo estándar para la clase de 30B: eficiente, ligero y potente para codificación y agentes.
También es excelente para escritura creativa, traducción y tareas de largo contexto.
PR:


Z.ai19 ene, 22:44
Presentamos GLM-4.7-Flash: Tu asistente local de codificación y agente.
Estableciendo un nuevo estándar para la clase de 30B, GLM-4.7-Flash equilibra alto rendimiento con eficiencia, convirtiéndolo en la opción de despliegue ligera perfecta. Más allá de la codificación, también se recomienda para escritura creativa, traducción, tareas de largo contexto y juegos de rol.
Pesos:
API:
- GLM-4.7-Flash: Gratis (1 concurrencia)
- GLM-4.7-FlashX: Alta velocidad y asequible

31
Cuando añadimos soporte para gpt-oss, la API de Respuestas no tenía un estándar y, esencialmente, reingeniamos el protocolo iterando y adivinando en función del comportamiento. ¡Estamos muy emocionados con la especificación de Respuestas Abiertas: primitivas limpias, mejores herramientas, consistencia para ganar!

OpenAI Developers16 ene, 02:08
Hoy anunciamos Open Responses: una especificación de código abierto para construir interfaces LLM interoperables de múltiples proveedores, basadas en la API de Respuestas de OpenAI original.
✅ Multi-proveedor por defecto
✅ Útil para flujos de trabajo del mundo real
✅ Extensible sin fragmentación
Construye sistemas agentes sin reescribir tu pila para cada modelo:
89
Parte superior
Clasificación
Favoritos
