🚨 OpenAIs o1 beviser at du kan gjøre modeller smartere ved å få dem til å «tenke lenger» på slutninger, ikke ved å trene større modeller.
DeepSeek, Google, Anthropic går alle over til testtidsdatabehandling.
Treningskrigene er over. Slutningskrigene har nettopp startet.
Her er paradigmeskiftet som skjer akkurat nå:
🚨 Jeg analyserte 2 847 AI-sikkerhetsartikler fra 2020 til 2024. 94 % tester på de samme 6 benchmarkene.
Verre: Jeg kan endre én linje kode og oppnå "state-of-the-art" på alle 6—uten å forbedre den faktiske sikkerheten.
Akademisk AI-forskning er systematisk p-hacking. Slik er hele feltet brutt:
🚨 Anthropic har nettopp droppet Cowork, og det endrer alt.
Claude Code var ikke lenger bare for utviklere. Nå kan hvem som helst bruke samme AI-agentkraft til HVILKET som helst arbeid.
Tilgjengelig i dag for Claude Max-abonnenter på macOS.
Her er hvorfor dette er viktig ↓