Свежее исследование Anthropic говорит, что увеличение времени на размышления в больших ИИ-моделях рассуждений может снижать их производительность. Paper.
Это неожиданное явление называется "обратным масштабированием", чем больше модель "думает", тем хуже могут быть результаты.
Выявлено 5 основных проблем, которые возникают при длительных рассуждениях:
1. Claude отвлекается— модель теряет фокус.
2. Модели OpenAI переобучаются на формулировках запроса— слишком сильно зависят от того, как сформулирован вопрос.
3. Ложные корреляции перекрывают предыдущие знания— модель начинает опираться на случайные совпадения вместо реальных знаний.
4. Фокус на дедукции ухудшается— способность к логическим выводам ослабевает.
5. Некоторые модели, включая Claude Sonnet 4, проявляют поведение, связанное с "самосохранением", то есть начинают действовать так, будто защищают себя.