Alt gir mening.
Google + Anthropic fokuserer på forhåndstrening, så du får et godt svar raskere, men kapasitetstaket er lavere.
OpenAI fokuserte på ettertrening, så gode svar tar lengre tid, men du kan presse modellene mye lenger.
Det er veldig tydelig at vi øker farten, ikke bremser.
Viktigere enn noensinne å ikke stikke hodet i sanden (alt kommer uansett til å bli til silisium).
Regel #1 i AI:
Hva en grensemodell kan gjøre i dag til ekstremt høye kostnader...
Det vil være mulig for mange størrelsesordener mindre dollar om 12 måneder.
For ett år siden verifiserte vi en forhåndsvisning av en uutgitt versjon av @OpenAI o3 (High) som scoret 88 % på ARC-AGI-1 med estimert 4,5 000 dollar per oppgave
I dag har vi verifisert en ny GPT-5.2 Pro (X-High) SOTA-score på 90,5 % til 11,64 dollar per oppgave
Dette representerer en ~390 ganger effektivitetsforbedring på ett år