Дипфейки использовались для развлечения, сатиры, дезинформации и даже преступлений. В этой статье мы рассмотрим некоторые ресурсы, приложения, проблемы и решения, связанные с дипфейками.
Ресурсы для создания дипфейков
Технология, лежащая в основе дипфейков, основана на глубоком обучении — отрасли искусственного интеллекта, которая использует нейронные сети для обучения на основе данных и генерации результатов. Существуют различные типы моделей глубокого обучения, которые могут создавать дипфейки, например автокодировщики, генеративно-состязательные сети (GAN) и преобразователи. Эти модели можно обучать на больших наборах данных лиц, голосов или текстов, чтобы научиться синтезировать новый контент.
Существует множество инструментов и платформ, которые могут помочь каждому создавать дипфейки разного уровня качества и сложности. Некоторые из наиболее популярных из них:
- DeepFaceLab: это программное обеспечение, которое позволяет пользователям менять лица в видео с помощью автокодировщиков.1. Он широко используется создателями дипфейков на YouTube и других платформах.
- Wombo: это приложение, которое позволяет пользователям создавать видео с синхронизацией губ любого лица с помощью GAN. Он может создавать забавные и вирусные клипы, в которых знаменитости или друзья поют популярные песни.
- Zao: Это приложение, которое позволяет пользователям вставлять свои лица в сцены фильма с помощью GAN. Он может создавать реалистичные и плавные замены лиц за считанные секунды.
- MyHeritage: это веб-сайт, предлагающий функцию Deep Nostalgia, которая использует GAN для анимации старых фотографий родственников или исторических личностей.
- Descript: Это программное обеспечение, которое позволяет пользователям редактировать аудио и видео, редактируя текст с помощью преобразователей. Он также может создавать голосовые клоны или голосовые скины общественных деятелей или собственные голоса с использованием преобразователей.
“Прошло время, когда создание дипфейка требовало глубоких знаний программирования. Теперь доступны инструменты и программы, такие как DeepFaceLab и Faceswap, которые позволяют даже неспециалистам создавать дипфейки. Эти ресурсы основаны на технологии глубокого обучения, которая позволяет манипулировать изображениями и звуком с удивительной точностью”, - уточняет Олег Исаев, специалист по оптимизации и машинному обучению компании Elbit.
Кого чаще всего подделывают? Самые отъявленные фейки.
Одной из наиболее распространенных целей дипфейков являются знаменитости, особенно знаменитости женского пола. Согласно отчету Deeptrace, компании, которая обнаруживает и анализирует дипфейки, 96% дипфейковых видео в Интернете в 2019 году были порнографическими, а 99% из них отображали лица знаменитостей женского пола на порнозвездах.В число наиболее часто подделываемых знаменитостей входят Эмма Уотсон, Скарлетт Йоханссон, Галь Гадот, Тейлор Свифт и звезды K-pop.
“Удобнее всего эту технологию рассмотреть как своего рода "фотошоп". Т.е. мы можем создать как что то креативное так и подделывать документы или дорисовывать людей в какие либо ситуации. Сложность выявления дипфейка состоит в том что при должном подходе возможно исправить исходный материал таким образом, чтобы даже эксперты не смогли дать ответ что на видео не тот человек или является ли данное подделкой. Добавляет проблем и большое распространение нейронных сетей, которые дополнительно снижают порог входа и значительно повышают качество выходного материала. Но иногда при более детальном рассмотрении все же видны следы вмешательства. Сегодня дипфейки уже применяются для обхода верификации аккаунтов по видео. А далее уже зависит от вектора атаки, например можно создать множество проблем если вдруг банковский аккаунт зарегистрированный на вас начнет активно оплачивать что либо запрещенное. Можно использовать дипфейк что бы проходить многофакторную авторизацию, к примеру в банке, где используется ваш голосовой отпечаток, либо биометрические данные”, - утверждает Антон Шустиков, специалист информационной безопасности WellTell.
Другой распространенной мишенью дипфейков являются политики, особенно во время выборов или конфликтов. Дипфейки могут использоваться для распространения дезинформации, пропаганды или саботажа, заставляя политиков говорить или делать то, чего они никогда не делали. Некоторые из наиболее известных примеров политических дипфейков включают в себя:
- Видео бывшего президента США Барака Обамы, называющего своего преемника Дональда Трампа «полным дерьмом», используя технологию синхронизации губ. Видео было снято комиком Джорданом Пилом в качестве социального объявления, призванного предупредить людей об опасности дипфейков.
- Видео, на котором действующий президент США Джо Байден засыпает во время интервью в прямом эфире с телеведущим с использованием технологии замены лиц. Видео было создано группой сторонников Трампа и опубликовано в социальных сетях, чтобы высмеять психическое здоровье Байдена.
“В 2018 индийская журналистка расследовательница Рана Аяюб стала жертвой дипфейка предположительно со стороны людей, которых затрагивали её расследования. Дипфейки также популярны в политической сфере для подрыва доверия к определенному человеку с помощью распространения видео с неподобающим поведением, например, видео с якобы пьяной Нэнси Пелоси выступающей в конгрессе набрало множество просмотров. Случаи когда якобы знакомый человек просит выполнять определенные действия были зафиксированы и в России, когда бухгалтер одного из предприятий пообщался по видеосвязи с дипфейком своего директора и перевел 100 тысяч долларов мошенникам”, - рассказывает Виталий Куделя, Senior Data Scientist, Tutu.
Как технологии используются во благо?
Несмотря на негативное влияние дипфейков, есть и позитивные и творческие варианты использования этой технологии. Вот некоторые примеры:
- Образование и исследования: Deepfakes можно использовать для улучшения качества обучения путем создания иммерсивных симуляций или интерактивных сценариев. Например, исследователи из Массачусетского технологического института использовали дипфейки, чтобы создать видео Ричарда Никсона, произносящего речь, которую он произнес бы, если бы высадка Аполлона-11 на Луну не удалась. Целью проекта было продемонстрировать силу и потенциал дипфейков для историко-культурного образования.
- Развлечения и искусство. Дипфейки можно использовать для создания новых форм развлечений и искусства путем ремиксов или трансформации существующих медиа. Например, создатели фильмов использовали дипфейки, чтобы омолаживать или воскрешать актеров в таких фильмах, как «Ирландец», «Звездные войны» и «Форсаж». Художники использовали дипфейки для создания новых или сюрреалистических выражений своих видений, например видео Сальвадора Дали, приветствующего посетителей своего музея.
- Социальная справедливость и активизм. Дипфейки можно использовать для повышения осведомленности или защиты социальных интересов путем усиления или изменения голосов маргинализированных или угнетенных групп. Например, участники кампании использовали дипфейки, чтобы заставить Дэвида Бекхэма говорить на девяти разных языках, чтобы пропагандировать борьбу с малярией. Активисты использовали дипфейки, чтобы заставить женщин-журналистов читать новости в странах, где им это запрещено.
Законодательство. Есть ли защита от дипфейков?
Юридические и этические проблемы, поднимаемые дипфейками, сложны и постоянно развиваются. Не существует глобального или единообразного регулирования дипфейков, но некоторые страны и регионы ввели или предложили законы или политику для решения этой проблемы. Некоторые примеры:
- США: В 2020 году Конгресс США принял два законопроекта, направленных на поддержку исследований и разработок технологий обнаружения и проверки дипфейков, а также стандартов и лучших практик использования синтетических носителей. Некоторые штаты, такие как Калифорния, Техас и Вирджиния, также приняли законы, запрещающие создание или распространение без согласия дипфейковой порнографии или политических дипфейков.
- ЕС: В 2021 году на дипфейковые системы распространяются особые обязательства по прозрачности в соответствии с предлагаемым Законом об искусственном интеллекте.. В Великобритании в законопроект о безопасности в Интернете вносятся поправки, ужесточающие закон о дипфейковой порнографии.
По словам Олега Матюнина, адвоката, управляющего партнера адвокатского бюро «Матюнины и Партнёры», законодательно в России само по себе использование технологии видео и аудио дипфейков не запрещено, равно как вообще не запрещены монтаж видео, звука и применение возможностей искусственного интеллекта.
“Понятие "дипфейка" нашему законодательству неизвестно. Пока. Его вполне возможно введут в один из кодексов или в Закон об информации в связи с каким-либо громким делом, затрагивающим интересы миллионов россиян. В то же время я как юрист и автор ряда законодательных инициатив не вижу необходимости отдельно прописывать ответственность за дипфейки, потому что юридически защита от их вредного влияния на человека, общество и государство уже давно установлена. Всё довольно просто: дипфейк — это компьютерная технология, которая в одних руках помогает творить искусство, двигать науку и развивать бизнес, а в нечистых руках, как и многие другие инструменты, она может стать средством совершения преступлений, административных и прочих правонарушений, признаки которых и так предусмотрены в действующем законодательстве. Правонарушений, при совершении которых могут использоваться дипфейки, в законодательстве закреплено никак не меньше пары десятков. Предлагаю вместе позагибать пальцы, перечисляя возможные незаконные действия, наказуемые по российским законам, при совершении которых может применяться рассматриваемая технология: 1) незаконная обработка персональных данных; 2) незаконное использование изображения гражданина; 3) нарушение неприкосновенности частной жизни; 4) нарушение интеллектуальных прав; 5) оскорбление; 6) клевета и распространение фейков (заведомо недостоверной информации, лживых новостей под видом соответствующих действительности); 7) мошенничество; 8) вымогательство; 9) склонение к самоубийству; 10) вовлечение в совершение преступлений. Это примерный список, составленный "навскидку". В реальности всё зависит от изобретательности пользователей ИИ-технологий и готовности нарушать границы права и морали. Так, например, уголовная ответственность за использование и распространение информации, не соответствующей действительности, которая может быть создана в том числе технологией дипфейков, сегодня установлена более, чем в десяти статьях Уголовного кодекса РФ. Среди них клевета, мошенничество, реабилитация нацизма, склонение к самоубийству, нарушение права на свободу совести и вероисповеданий и другие преступления”, - уточняет Олег Матюнин.
Стоит отметить, что в России разработают законопроект, который закрепит понятие синтеза голоса при помощи искусственного интеллекта, а также урегулирует вопрос охраны голоса наравне с изображением.
«Сейчас мы занимаемся вопросом проработки законопроекта, который будет регламентировать правовые ситуации, возникающие в связи с синтезом или генерацией голоса существующего человека при помощи технологий искусственного интеллекта. Необходимые изменения в Гражданский кодекс РФ будут устанавливать понятие «синтез голоса», регулировать вопрос охраны голоса граждан, а также ответственность за несогласованную с человеком генерацию аудиодорожки его голосом», — рассказал сенатор Совета Федерации Артем Шейкин..
Мнения зарубежных экспертов о дипфейках
Генри Эйдер, эксперт по синтетическим медиа и искусственному интеллекту, считает, что, хотя политическое влияние дипфейков пока ограничено, ужасающие прогнозы об их потенциальном неправильном использовании все еще могут сбыться по мере развития искусственного интеллекта
Сэм Грегори, изучающий дипфейки и руководит правозащитной некоммерческой организацией Witness, согласен с тем, что дипфейковый апокалипсис все еще не за горами. Он предупреждает, что фальшивое видео и аудио снова могут исказить самые основные способы восприятия реальности людьми.
Эверт Стамхейс, профессор права и инноваций в юридической школе Erasmus, объясняет, что создание дипфейков можно рассматривать как новейшее развитие в постоянно продолжающейся войне между бизнесом и подделками.
В заключение скажем, что хотя дипфейки создают серьезные проблемы с точки зрения конфиденциальности и дезинформации, они также открывают возможности для инноваций и позитивных применений. Поскольку эта технология продолжает развиваться, крайне важно, чтобы законодательство шло в ногу со временем, чтобы смягчить потенциальный вред и одновременно использовать ее преимущества.