Исследователи предложили новый метод Soft Thinking, который позволяет языковым моделям ИИ рассуждать эффективнее — с меньшим количеством токенов при сохранении или даже улучшении точности. GitHub. Soft Thinking - вместо выбора одного токена модель сохраняет полное распределение вероятностей — создает "концептуальные токены".
Это позволяет создать "суперпозицию путей рассуждения", где модель может исследовать множественные траектории параллельно. Это направление может быть интересным для: • Финтех • EdTech • Аналитические платформы Бизнес-эффекты: - Снижение затрат на API-вызовы (меньше токенов = меньше платежей) - Ускорение работы приложений с вычислениями - Простота внедрения — не нужно переобучать модели
Ключевые преимущества 1. Абстрактное мышление 2. Параллельное исследование 3. Training-free подход 4. Stop механизм. Ограничения: - Улучшения заметные, но не революционные - Протестировано только на математике и коде - Могут возникать проблемы стабильности при длинных рассуждениях - Пока исследовательская стадия, не production-ready.