R.I.P. podstawowe podpowiadanie.
MIT właśnie wprowadziło technikę, która sprawia, że ChatGPT myśli jak zespół ekspertów, a nie jak jeden zbyt pewny siebie stażysta.
Nazywa się to „Rekurencyjna Meta-Kognicja” i przewyższa standardowe podpowiedzi o 110%.
Oto podpowiedź (i dlaczego to zmienia wszystko) 👇
🚨 Oprogramowanie o1 OpenAI udowadnia, że można uczynić modele mądrzejszymi, sprawiając, że "myślą dłużej" podczas wnioskowania, a nie trenując większe modele.
DeepSeek, Google, Anthropic wszyscy zmieniają kierunek, aby testować obliczenia w czasie wnioskowania.
Wojny treningowe dobiegły końca. Wojny wnioskowania właśnie się zaczęły.
Oto zmiana paradygmatu, która dzieje się teraz:
🚨 Przeanalizowałem 2,847 prac dotyczących bezpieczeństwa AI z lat 2020-2024. 94% testów opiera się na tych samych 6 benchmarkach.
Gorzej: mogę zmodyfikować jedną linię kodu i uzyskać wynik "najlepszy w swojej klasie" we wszystkich 6—bez poprawy rzeczywistego bezpieczeństwa.
Akademickie badania nad AI to systematyczne p-hacking. Oto jak cały ten obszar jest zepsuty: