R.I.P. базові підказки.
MIT щойно відмовився від техніки, яка змушує ChatGPT мислити як команда експертів, а не як самовпевнений стажер.
Вона називається «Рекурсивна мета-когніція» і перевершує стандартні підказки на 110%.
Ось підказка (і чому це змінює все) 👇
🚨 O1 від OpenAI доводить, що можна зробити моделі розумнішими, змушуючи їх «думати довше» при висновках, а не тренуючи більші моделі.
DeepSeek, Google, Anthropic — усі переходять на обчислення під час тестування.
Війни тренувань закінчилися. Війни висновків щойно почалися.
Ось зсув парадигми, що відбувається зараз:
🚨 Я проаналізував 2 847 статей з безпеки ШІ з 2020 по 2024 роки. 94% тестують на тих самих 6 бенчмарках.
Ще гірше: я можу змінити один рядок коду і отримати оцінку «найсучасніші» на всіх 6 — не покращуючи реальну безпеку.
Академічні дослідження ШІ — це систематичне p-hacking. Ось як розбивається вся ця сфера: