В 2025 году проблема галлюцинаций генеративного искусственного интеллекта вышла на передний план цифровой повестки, став важным вызовом для разработчиков, пользователей и исследователей нейронных сетей. Галлюцинации — это ошибки, при которых модель ИИ выдает правдоподобную, но ложную или недостоверную информацию: придумывает факты, события, имена или цитаты, которых нет в реальности. В условиях массового внедрения LLM (больших языковых моделей) такие недочеты могут приводить к серьезным последствиям: дезинформации, снижению доверия к цифровым сервисам и даже рискам для бизнеса и науки.
Причины возникновения галлюцинаций
Главная причина появления галлюцинаций — вероятностная природа генерации текста большими языковыми моделями. Они «придумывают» следующий фрагмент фразы на основе наиболее вероятного статистического выбора, а не на основе знаний или проверенных фактов. Когда модель сталкивается с редкими, неоднозначными вопросами или недостатком качественных данных, она вынуждена докапываться до возможных предположений, что увеличивает риск ошибочной информации. Кроме того, галлюцинации часто возникают при обработке сложных доменов, которые не представлены в обучающем датасете, — например, в медицине, финансовых прогнозах и юридических консультациях.
Критично влияет на уровень ошибок качество обучающих данных: если в них недостаточно фактов или содержатся неточности, модель лишь воспроизведет эти ошибки или даже усилит их. Недавно выявленная проблема — переобучение: модели «запоминают» частные примеры из тренировки и потому теряют способность к обобщению в новых контекстах.
Масштабы и статистика проблемы
Согласно исследованию BBC, проведенному в феврале 2025 года, более чем у половины популярных ИИ-сервисов — ChatGPT, Copilot, Gemini, Perplexity — отмечены существенные ошибки в ответах по политике, здравоохранению, финансам и другим ключевым темам. Точность полностью корректного, лишенного галлюцинаций текста достигает лишь 35%, причем наибольший процент ошибок фиксируется в темах, не связанных с Википедией или широко представленными базами знаний. К примеру, модели OpenAI ошибаются реже, но в вопросах о финансах и знаменитостях их точность заметно падает по сравнению с задачами по географии или информатике.
В медицинских исследованиях также отмечают случаи «выдумывания» диагнозов или рекомендаций, которые не соответствуют реальному медицинскому консенсусу. В юридической сфере — подмена цитат нормативных актов, а в экономике — генерация фейковых исторических данных.
Способы борьбы с галлюцинациями
Ведущие ИИ-компании активно разрабатывают методы минимизации галлюцинаций. Один из самых перспективных — интеграция генеративных моделей с внешними базами знаний, применение RAG-подхода (Retrieval-Augmented Generation), когда сначала происходит поиск релевантных данных, а генерация ответа осуществляется на их основе. Такой подход уже реализован в актуальных версиях GPT-4, Gemini и Perplexity, что позволяет структуре ответа содержать ссылки на источники, а не только сгенерированный текст.
Большое значение приобретает тщательный отбор и доработка обучающих датасетов, а также бенчмаркинг моделей на уникальных тестах из разных доменов. Дополнительно специалисты используют методики «человеческого контроля» — проверку ответов реальными экспертами, внедрение фильтров по креативности и точности.
Эксперты полагают, что окончательное преодоление галлюцинаций требует создания объяснимых ИИ и усложнения архитектур моделей с возможностью отслеживания причин принятия решения. Такой подход повысит надежность и доверие к генеративным ИИ в будущем.
Проблема галлюцинаций еще долго будет занимать ведущие позиции в повестке развития цифровых технологий, но новые методы интеграции внешних знаний, тестирования и объяснительного ИИ уже заметно снижают риски и открывают путь к безопасному применению нейросетей в критически важных сферах