Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
Congratulazioni al team di @Alibaba_Qwen per Qwen3-TTS! 🎉
vLLM-Omni è pronto con supporto day-0 – clonazione vocale, design vocale e controllo del linguaggio naturale per emozione e prosodia, tutto in esecuzione nativamente.
Inferenza offline disponibile ora tramite PR #895, servizio online in arrivo presto.
🔗


Qwen22 gen, 21:16
Qwen3-TTS è ufficialmente attivo. Abbiamo open-sourcato l'intera famiglia—VoiceDesign, CustomVoice e Base—portando alta qualità alla comunità aperta.
- 5 modelli (0.6B & 1.8B)
- Progettazione e clonazione vocale libera
- Supporto per 10 lingue
- Tokenizer SOTA a 12Hz per alta compressione
- Supporto completo per il fine-tuning
- Prestazioni SOTA
Crediamo che questo sia senza dubbio il rilascio più dirompente nel TTS open-source fino ad oggi. Vai avanti, rompi e costruisci qualcosa di interessante. 🚀 Tutto è disponibile ora—pesi, codice e documento. Buon divertimento. 🧵
Github:
Hugging Face:
ModelScope:
Blog:
Documento:
Demo di Hugging Face:
Demo di ModelScope:
API:

10
Il supporto Day-0 per GLM-4.7-Flash è ora disponibile in vLLM! 🚀
Un nuovo standard per la classe 30B—efficiente, leggero e potente per la programmazione e gli agenti.
Ottimo anche per la scrittura creativa, la traduzione e compiti a lungo termine.
PR:


Z.ai19 gen, 22:44
Presentiamo GLM-4.7-Flash: il tuo assistente locale per la programmazione e l'agente.
Stabilendo un nuovo standard per la classe 30B, GLM-4.7-Flash bilancia alte prestazioni con efficienza, rendendolo l'opzione di distribuzione leggera perfetta. Oltre alla programmazione, è anche raccomandato per la scrittura creativa, la traduzione, compiti a lungo termine e giochi di ruolo.
Pesi:
API:
- GLM-4.7-Flash: Gratuito (1 concorrenza)
- GLM-4.7-FlashX: Alta velocità e conveniente

10
Quando abbiamo aggiunto il supporto per gpt-oss, l'API delle Risposte non aveva uno standard e abbiamo essenzialmente ingegnerizzato a ritroso il protocollo iterando e indovinando in base al comportamento. Siamo molto entusiasti della specifica Open Responses: primitive pulite, strumenti migliori, coerenza per la vittoria!

OpenAI Developers16 gen, 02:08
Oggi annunciamo Open Responses: una specifica open-source per costruire interfacce LLM interoperabili multi-fornitore basate sull'originale OpenAI Responses API.
✅ Multi-fornitore per impostazione predefinita
✅ Utile per flussi di lavoro nel mondo reale
✅ Estensibile senza frammentazione
Costruisci sistemi agentici senza riscrivere il tuo stack per ogni modello:
70
Principali
Ranking
Preferiti
