Дело в том, что Deloitte Aвстралия использовала GPT4o при создании отчёта, когда клиент начал проверять документ, то нашел множество ошибок, в том числе 3 несуществующие ссылки и вымышленную цитату из решения Федерального суда.
Изначально Deloitte отрицала использование ИИ, утверждая, что ошибки — лишь неточности в заголовках, датах и тд, но позже признала применение GPT-4o.
Смешно то, что вчера Deloitte объявили о крупной сделке с Anthropic, по которой они внедряют Claude для 470 000 сотрудников по всему миру, создавая персонализированные ИИ для разных ролей: от бухгалтеров до разработчиков, и сертифицируя 15 000 специалистов.
И все это после скандала с GPT-4o выглядит как попытка быстро переключиться на более безопасную альтернативу, чтобы восстановить репутацию. Но проблема не в модели ИИ, а в отсутствии человеческой проверки.