Поскольку технологические гиганты конкурируют за распространение искусственного интеллекта в массы и владение растущим рынком, гонка вооружений в области искусственного интеллекта способствует увеличению количества “подделанных” видео и аудиоконтента, который часто выглядит или звучит убедительно законно, но на самом деле является мошенническим искажением информации. Согласно новому отчету, они также влияют на бизнес.
Подделки - это созданные искусственным интеллектом творения, такие как изображения, видео и аудио, которыми манипулируют, чтобы обмануть людей. Мошенники используют подделки для мошенничества, вымогательства или для нанесения ущерба репутации. Распространение инструментов для создания ИИ стало для мошенников проще, чем когда-либо, создавать поддельный контент.
Знаменитости и другие общественные деятели вставляются в искусственные, а иногда и откровенные кадры без их согласия способами, которые иногда становятся вирусными или могут вызвать панику в социальных сетях. В отчете, глобальная бухгалтерская фирма KPMG написала, что бизнес-сектор также не застрахован от угрозы глубоких подделок.
Контент Deepfake может использоваться в атаках социальной инженерии и других типах кибератак, направленных на компании, пишет KPMG, в то время как такой контент также может повлиять на репутацию компаний и их лидеров. Ложные заявления представителей компании также могут использоваться в схемах по обману клиентов или для убеждения сотрудников предоставлять информацию или переводить деньги незаконным субъектам.
KPMG привела пример 2020 года, когда менеджер филиала гонконгской компании был обманут и перевел мошенникам средства компании на сумму 35 миллионов долларов, поверив, что его босс разговаривал по телефону, приказывая ему сделать это. Вместо этого это было клонированное искусственным интеллектом воспроизведение голоса руководителя — все это часть сложной схемы по вымогательству денег у фирмы.
“Последствия кибератак, в которых используется синтетический контент — цифровой контент, который был создан или которым манипулировали в неблаговидных целях, — могут быть обширными, дорогостоящими и иметь различные социально-экономические последствия, включая финансовые, репутационные, сервисные и геополитические, среди прочего”, - говорится в отчете.
Видеозапись с использованием Deepfake, на которой Дональд Трамп арестован в начале этого года, папа Франциск в роскошной одежде Balenciaga и Илон Маск, продвигающий крипто-мошенничество, стали вирусными в прошлом году, поскольку технология deepfake улучшилась благодаря развивающимся инструментам искусственного интеллекта.
“Будь то дешевые подделки или глубокие подделки, экономическая модель значительно изменилась из-за генеративных моделей искусственного интеллекта”, - пишет KPMG.
Помимо упомянутых выше общественных деятелей, к известным знаменитостям, чьи портреты были украдены и использованы для подделки видеоматериалов, относятся актриса Эмма Уотсон и музыкант Тейлор Свифт. Но KPMG поднимает тревогу по поводу потенциального воздействия на бизнес и его иногда выдающихся лидеров.
“Как фактор риска, подделка контента вызывает беспокойство не только у социальных сетей, сайтов знакомств и индустрии развлечений — теперь это проблема зала заседаний”, - заявили в KPMG. “Например, почти все респонденты (92%) недавнего опроса KPMG generative AI, в котором приняли участие 300 руководителей из различных отраслей и географических регионов, заявили, что их опасения по поводу рисков внедрения generative AI от умеренно до очень значительных”.
Не только компании и знаменитости сталкиваются с ростом качества и количества фейковых видеороликов в Интернете. Правительства и регулирующие органы также учитывают потенциальное воздействие на общество и выборы, в то время как создатели таких инструментов искусственного интеллекта взвешивают их потенциальное негативное воздействие.
На прошлой неделе Федеральная избирательная комиссия США, предвидя использование подделок на выборах 2024 года, выступила с петицией о запрете использования искусственного интеллекта в предвыборной рекламе.
В случае одобрения агентство внесет поправки в действующие правила, касающиеся мошеннического искажения “полномочий кампании”, и разъяснит, что запрет распространяется на намеренно вводящую в заблуждение рекламу кампании с использованием искусственного интеллекта.
“Регулирующие органы должны продолжать понимать и учитывать влияние развивающихся угроз на существующие нормативные акты”, - сказал Decrypt Мэтью Миллер, руководитель службы кибербезопасности KPMG. “Предлагаемые требования к маркировке и водяным знакам контента, созданного с помощью искусственного интеллекта, могут оказать положительное влияние”.
В июле исследователи из Массачусетского технологического института предложили внести изменения в код больших моделей распространения, чтобы снизить риск глубоких подделок, добавив крошечные изменения, которые трудно заметить, но в конечном итоге меняют принцип работы моделей, заставляя их генерировать изображения, которые не выглядят реальными. Между тем, Meta недавно приостановила выпуск инструмента искусственного интеллекта из-за его потенциала глубокой подделки.
Ажиотаж вокруг творческого потенциала генеративных инструментов искусственного интеллекта был смягчен осознанием того, что они могут аналогичным образом создавать возможности для вредоносного контента. В конечном счете, на фоне быстрого совершенствования таких инструментов Миллер призвал всех проявлять бдительность в отношении потенциального поддельного контента.
“Общественность должна сохранять постоянную бдительность при взаимодействии по цифровым каналам”, - сказал он Decrypt. “Ситуационная осведомленность и здравый смысл имеют большое значение для предотвращения инцидента. Если что-то ”кажется неправильным", с высокой вероятностью это может быть злонамеренной деятельностью".