Het allemaal heeft zin. Google + Anthropic richtte zich op pre-training, zodat je sneller tot een geweldig antwoord komt, maar de capaciteitsgrens is lager. OpenAI richtte zich op post-training, zodat geweldige antwoorden langer duren, maar je kunt de modellen veel verder duwen.
Om duidelijk te zijn (ik krijg veel verwarrende reacties), bedoel ik uiteraard niet dat een van deze bedrijven zich uitsluitend op één ding richt. OAI/Anthropic/Google richten zich allemaal op zowel pre-training als post-training (er zijn uiteraard stadia binnen die processen, ik vereenvoudig hier). Maar het lijkt erop dat OAI een betere job heeft gedaan met post-training, terwijl Google/Anthropic een betere job heeft gedaan met pre-training. Ze zijn allemaal met elkaar verbonden (betere pre-training maakt post-training gemakkelijker/verhoogt de plafond voor post-training, bijvoorbeeld). Dit manifesteert zich in hoe de modellen aanvoelen om dagelijks mee te werken.
102,87K