Todo tiene sentido.
Google + Anthropic se centra en la pre-formación, así que llegas a una gran respuesta más rápido, pero el techo de capacidad es menor.
OpenAI se centró en el postentrenamiento, así que las respuestas excelentes tardan más, pero puedes llevar los modelos mucho más lejos.
Está muy claro que estamos acelerando, no frenando.
Más importante que nunca es no enterrar la cabeza bajo la arena (de todas formas todo se va a convertir en silicio).
Regla #1 en IA:
Lo que un modelo de vanguardia puede hacer hoy a un coste extremadamente alto...
Será posible por órdenes de magnitud menos de dólares en 12 meses.
Hace un año, verificamos una vista previa de una versión inédita de @OpenAI o3 (Alto) que obtuvo un 88% en ARC-AGI-1 como aproximadamente. 4.500 $/tarea
Hoy hemos verificado una nueva puntuación SOTA GPT-5.2 Pro (X-High) del 90,5% a 11,64 $ por tarea
Esto representa una mejora de eficiencia de ~390 veces en un año