Tudo faz sentido.
Google + Anthropic focado em pré-treinamento, então você chega a uma ótima resposta mais rápido, mas o teto de capacidade é menor.
A OpenAI focou no pós-treinamento, então ótimas respostas levam mais tempo, mas você pode levar os modelos muito além.
Está muito claro que estamos acelerando, não diminuindo a velocidade.
Mais importante do que nunca é não enterrar a cabeça na areia (de qualquer forma, tudo vai virar silício).
Regra #1 na IA:
O que um modelo de fronteira pode fazer hoje a um custo extremamente alto...
Será possível por ordens de magnitude menos dólares em 12 meses.
Há um ano, verificamos uma prévia de uma versão não lançada do @OpenAI o3 (Alto) que obteve 88% no ARC-AGI-1, no máximo. $4,5 mil por tarefa
Hoje, verificamos uma nova pontuação GPT-5.2 Pro (X-High) SOTA de 90,5% a $11,64 por tarefa
Isso representa uma melhoria de eficiência de ~390 vezes em um ano