🚨 El o1 de OpenAI demuestra que puedes hacer los modelos más inteligentes haciéndolos "pensar más a lo largo" en la inferencia, no entrenando modelos más grandes.
DeepSeek, Google, Anthropic todos pivotando hacia computación en tiempo de prueba.
Las guerras de entrenamiento han terminado. Las guerras de inferencia acaban de empezar.
Aquí está el cambio de paradigma que está ocurriendo ahora mismo:
🚨 Analicé 2.847 artículos sobre seguridad por IA entre 2020 y 2024. El 94% examina los mismos 6 benchmarks.
Peor aún: puedo modificar una línea de código y puntuar "estado de la tecnología" en las 6, sin mejorar la seguridad real.
La investigación académica en IA es un p-hacking sistemático. Así es como todo el campo está roto:
🚨 Anthropic acaba de dejar Cowork y lo está cambiando todo.
Claude Code ya no era solo para desarrolladores. Ahora cualquiera puede usar el mismo poder de agente de IA para CUALQUIER trabajo.
Disponible hoy para suscriptores de Claude Max en macOS.
Aquí está por qué esto importa ↓