Покойся с миром, базовое побуждение.
MIT только что представил технику, которая заставляет ChatGPT рассуждать как команда экспертов, а не как один самоуверенный стажёр.
Это называется «Рекурсивная мета-когниция», и она превосходит стандартные подсказки на 110%.
Вот подсказка (и почему это меняет всё) 👇
🚨 o1 от OpenAI доказывает, что можно сделать модели умнее, заставив их "думать дольше" во время вывода, а не обучая более крупные модели.
DeepSeek, Google, Anthropic все переходят к вычислениям во время тестирования.
Войны по обучению закончились. Войны по выводу только начались.
Вот парадигмальный сдвиг, который происходит прямо сейчас:
🚨 Я проанализировал 2,847 статей по безопасности ИИ с 2020 по 2024 год. 94% тестируют на одних и тех же 6 бенчмарках.
Хуже того: я могу изменить одну строку кода и получить "современный уровень" на всех 6 — не улучшая фактическую безопасность.
Академические исследования ИИ — это систематическое p-hacking. Вот как вся область сломана: