Het allemaal heeft zin.
Google + Anthropic richtte zich op pre-training, zodat je sneller tot een geweldig antwoord komt, maar de capaciteitsgrens is lager.
OpenAI richtte zich op post-training, zodat geweldige antwoorden langer duren, maar je kunt de modellen veel verder duwen.
Het is heel duidelijk dat we versnellen, niet vertragen.
Belangrijker dan ooit om je hoofd niet in het zand te steken (het zal toch allemaal in silicium worden omgezet).
Een jaar geleden hebben we een preview geverifieerd van een ongepubliceerde versie van @OpenAI o3 (Hoog) die 88% scoorde op ARC-AGI-1 tegen een geschatte prijs van $4,5k/taken
Vandaag hebben we een nieuwe GPT-5.2 Pro (X-Hoog) SOTA-score van 90,5% geverifieerd tegen $11,64/taken
Dit vertegenwoordigt een ~390X efficiëntieverbetering in één jaar