R.I.P. basis prompting.
MIT heeft zojuist een techniek gepresenteerd die ChatGPT laat redeneren als een team van experts in plaats van één overconfidente stagiair.
Het heet "Recursieve Meta-Cognitie" en het presteert 110% beter dan standaard prompts.
Hier is de prompt (en waarom dit alles verandert) 👇
🚨 OpenAI's o1 bewijst dat je modellen slimmer kunt maken door ze "langer te laten denken" tijdens de inferentie in plaats van grotere modellen te trainen.
DeepSeek, Google, Anthropic draaien allemaal om naar test-tijd berekeningen.
De trainingsoorlogen zijn voorbij. De inferentieoorlogen zijn net begonnen.
Hier is de paradigmaverschuiving die op dit moment plaatsvindt:
🚨 Ik heb 2.847 AI-veiligheidspapieren geanalyseerd van 2020-2024. 94% test op dezelfde 6 benchmarks.
Erger: Ik kan één regel code aanpassen en "state-of-the-art" scoren op alle 6—zonder de werkelijke veiligheid te verbeteren.
Academisch AI-onderzoek is systematisch p-hacking. Dit is hoe het hele veld kapot is: