Es ergibt alles Sinn.
Google + Anthropic konzentrierten sich auf das Pre-Training, sodass man schneller zu einer großartigen Antwort kommt, aber die Fähigkeitsschwelle ist niedriger.
OpenAI konzentrierte sich auf das Post-Training, sodass großartige Antworten länger dauern, aber man die Modelle viel weiter treiben kann.
Es ist ganz klar, dass wir schneller werden, nicht langsamer.
Es ist wichtiger denn je, den Kopf nicht in den Sand zu stecken (es wird sowieso alles in Silizium verwandelt).
Vor einem Jahr haben wir eine Vorschau auf eine unveröffentlichte Version von @OpenAI o3 (Hoch) verifiziert, die 88 % auf ARC-AGI-1 erzielte bei geschätzten 4.500 $/Aufgabe.
Heute haben wir einen neuen GPT-5.2 Pro (X-Hoch) SOTA-Wert von 90,5 % bei 11,64 $/Aufgabe verifiziert.
Dies stellt eine ~390-fache Effizienzsteigerung innerhalb eines Jahres dar.