Tudo faz sentido.
O Google + Anthropic focaram no pré-treinamento, então você chega a uma ótima resposta mais rapidamente, mas o teto de capacidade é mais baixo.
A OpenAI focou no pós-treinamento, então ótimas respostas demoram mais, mas você pode levar os modelos muito mais longe.
Está muito claro que estamos a acelerar, não a abrandar.
Mais importante do que nunca não enterrar a cabeça na areia (tudo vai ser transformado em silício de qualquer forma).
Regra #1 em IA:
O que um modelo de fronteira pode fazer hoje a um custo extremamente alto...
Será possível por ordens de magnitude menos $ em 12 meses.
Há um ano, verificámos uma prévia de uma versão não lançada do @OpenAI o3 (Alto) que obteve 88% no ARC-AGI-1 a cerca de $4.5k/tarefa
Hoje, verificámos uma nova pontuação SOTA do GPT-5.2 Pro (X-Alto) de 90.5% a $11.64/tarefa
Isto representa uma melhoria de eficiência de ~390X em um ano