Все має сенс.
Google + Anthropic зосереджувався на попередньому навчанні, тож ви швидше отримуєте хорошу відповідь, але обмеження можливостей нижче.
OpenAI зосереджувався на посттренінгу, тому чудові відповіді займають більше часу, але моделі можна розвивати набагато далі.
Дуже очевидно, що ми прискорюємося, а не сповільнюємося.
Важливіше, ніж будь-коли, не ховати голову в пісок (все одно все це буде перетворено на кремній).
Рік тому ми перевірили прев'ю невиданої версії @OpenAI o3 (High), яка набрала 88% на ARC-AGI-1 за оцінкою $4.5k за завдання
Сьогодні ми підтвердили новий GPT-5.2 Pro (X-High) SOTA-бал 90,5% на рівні $11,64/завдання
Це означає ~390-кратне підвищення ефективності за один рік