В последние годы наблюдается заметный рост в области искусственного интеллекта (ИИ), и прогнозы указывают на то, что к 2030 году отрасль может добавить в мировую экономику до 15,7 трлн долларов - цифра, которая намного превосходит текущие экономические показатели крупных игроков, включая Китай и Индию вместе взятые.
Особым достижением ИИ являются «глубокие подделки» - то есть высокореалистичные видео- или аудиозаписи, которые созданы с помощью искусственного интеллекта, и могут имитировать внешность или голоса реальных людей, часто неотличимые от их подлинных аналогов.
Загадка глубокой подделки
По мере развития цифрового ландшафта наблюдается рост числа глубоких подделок, генерируемых искусственным интеллектом, что создает серьезные проблемы для существующей парадигмы «Знай своего клиента» (KYC). Туфи Салиба, генеральный директор HyperCycle - компании, создающей необходимые компоненты, позволяющие микросервисам искусственного интеллекта взаимодействовать друг с другом, - сказал, что основной проблемой являются сами существующие процессы безопасности, добавив:
«Возможно, KYC сам по себе является вектором атаки на суверенитет, и эти инструменты глубокой подделки доказывают, что существующие в настоящее время системы KYC могут устареть в ближайшем будущем. Устойчивое решение могло бы включать надлежащее использование определенной криптовалюты для удовлетворения заявленных намерений сторонников KYC, тем самым защищая будущие поколения».
Далее Туфи Салиба отметил влияние искусственного интеллекта и глубоких подделок на криптовалютный сектор, подчеркнув настоятельную необходимость быстрой адаптации:
«Эта проблема создания поддельных изображений, вероятно, разрушит целые централизованные системы изнутри, тем самым предоставляя одну из лучших возможностей для благонамеренных регулирующих органов и централизованных организаций осознать, что криптовалюта может прийти на помощь, когда это необходимо».
Говоря об обнаружении поддельного контента, Дмитрий Михайлов, эксперт по исследованиям искусственного интеллекта Организации Объединенных Наций, заявил, что, поскольку преступники начинают использовать сложные инструменты для создания реалистичных поддельных документов, удостоверяющих личность, мы начинаем сталкиваться с непредвиденными проблемами. Он считает наиболее важным, чтобы отрасли по всем направлениям быстро развивались, добавляя:
«Рынок распознавания изображений, генерируемых искусственным интеллектом, развивается благодаря таким проектам, как FakeCatcher, проект, разработанный в партнерстве с Umur Ciftci. Технология демонстрирует потенциал обнаружения глубоких подделок в реальном времени с точностью 96%».
Заглядывая в будущее, Михайлов также ожидает значительного сдвига в подходах регулирования к KYC, предполагая будущее, в котором динамичные и интерактивные процессы проверки станут нормой.
«Мы можем увидеть внедрение более динамичных процедур KYC, таких как видео-KYC, поскольку нормативно-правовая база адаптируется к этим технологическим достижениям», - предположил он.
Влияние на криптовалютные биржи
Влияние глубоких подделок можно ощутить во множестве отраслей, включая криптовалюту. Недавно платформа под названием OnlyFake попала в заголовки газет за якобы успешный обход протоколов KYC нескольких известных платформ для торговли криптовалютами.
Платформа утверждает, что всего за 15 долларов за штуку производит поддельные водительские удостоверения и паспорта для 26 стран, включая Соединенные Штаты, Канаду, Соединенное Королевство, Австралию и несколько государств - членов Европейского союза.
5 февраля компания под названием 404 Media сообщила, что воспользовалась услугами OnlyFake, чтобы успешно избежать процесса проверки KYC популярной криптобиржи OKX.
Аналогичным образом, просочившиеся обсуждения показали, что клиенты OnlyFake отмечают свою способность обходить процессы верификации на других многочисленных криптовалютных биржах и финансовых институтах, включая Kraken, Bybit, Bitget, Huobi и PayPal.
Сообщается, что процесс создания поддельного документа на веб-сайте является удивительно быстрым, ведь платформа способна одновременно генерировать до 100 поддельных идентификаторов, используя только данные электронной таблицы Excel. Более того, у пользователей есть возможность добавить свою собственную фотографию или выбрать одну из подготовленной куратором «личной библиотеки снимков», не полагаясь на нейронную сеть.
Имитируя типичную презентацию для онлайн-проверок, поддельные водительские удостоверения и паспорта размещаются на различных бытовых поверхностях, таких как кухонные столешницы, простыни, ковры и письменные столы. В одном посте даже был продемонстрирован сфабрикованный австралийский паспорт с данными бывшего президента США, выложенный на куске ткани.
Влияние искусственного интеллекта ощущается повсюду
Во второй половине 2022 года блокчейн-компания по безопасности CertiK раскрыла существование подпольного рынка, где люди предлагали свои идентификационные данные для продажи всего за 8 долларов. Эти люди согласились выступать в качестве законного лица для мошеннических криптовалютных инициатив и создавать банковские и биржевые аккаунты для пользователей, которым в противном случае был бы запрещен доступ к определенной платформе.
Простота и доступность технологии глубокой подделки с использованием искусственного интеллекта вызывают тревогу у лидеров криптовалютного сектора, особенно когда речь заходит о проверке надежности процессов видеоверификации, используемых при определенных подтверждениях личности.
В мае 2023 года Джимми Су, директор по безопасности Binance, сказал, что обеспокоен ростом числа мошенников, использующих технологию Deep Fake для обхода процедур KYC биржи. Он предупредил, что эти видеоподлоги приближаются к уровню реализма, способному ввести в заблуждение экспертов-людей.
Наконец, исследование, которое было опубликовано компанией Sensity AI, базирующейся в Нидерландах, показало, что тесты на живучесть, используемые для проверки личности, были значительно подвержены атакам Deep Fake, что позволяло мошенникам заменять свои собственные лица лицами других людей.
Недавно мужчина из штата Керала, Индия, стал жертвой уловки, когда мошенник, выдав себя за его друга, украл 40 000 рупий (приблизительно 500 долларов). Аналогичным образом, в прошлом году в Twitter также появилось поддельное видео Илона Маска, в котором он делится вводящими в заблуждение советами по криптоинвестициям.
«Остерегайтесь поддельных видео Илона Маска. Они используются в различных крипто-аферах на Youtube», - предупреждает DogeDesigner (@cb_doge) 13 мая 2023 года.
Что нас ждет впереди?
По мере того, как мы приближаемся к будущему, управляемому искусственным интеллектом, появляется достаточно свидетельств того, что угроза глубоких фейковых атак «подмена лиц» будет продолжать расти. Фактически, в недавнем исследовании было отмечено, что количество атак на системы удаленной проверки личности увеличилось на 704% в период с 2022 по 2023 год, причем этот всплеск объясняется доступностью бесплатных и недорогих инструментов для смены лиц, виртуальных камер и мобильных эмуляторов.
Более того, с каждым месяцем хакеры и мошенники становятся все более изощренными в своих атаках, о чем свидетельствует появление векторов атак с цифровыми элементами и эмуляторов, которые позволяют злоумышленникам создавать и использовать глубокие подделки в режиме реального времени, что создает серьезную проблему как для мобильных систем, так и для систем видео аутентификации.