Allt är logiskt.
Google + Antropisk fokuserar på förutbildning, så du får ett bra svar snabbare, men kapacitetstaket är lägre.
OpenAI fokuserade på efterträning, så bra svar tar längre tid, men du kan pressa modellerna mycket längre.
Det är väldigt tydligt att vi ökar farten, inte saktar ner.
Viktigare än någonsin att inte stoppa huvudet i sanden (allt kommer ändå att förvandlas till silikon).
Regel #1 inom AI:
Vad en frontier-modell kan göra idag till extremt höga kostnader...
Det kommer att vara möjligt för storleksordningar mindre om 12 månader.
För ett år sedan verifierade vi en förhandsvisning av en osläppt version av @OpenAI o3 (High) som fick 88 % på ARC-AGI-1 med ett uppskattningspris på 4,5 000 dollar per uppgift
Idag har vi verifierat ett nytt GPT-5.2 Pro (X-High) SOTA-poäng på 90,5 % till 11,64 dollar per uppgift
Detta motsvarar en ~390-faldig effektivitetsförbättring på ett år