Вредоносное создание deepfake распространилось далеко за пределы сферы знаменитостей и общественных деятелей, и в новом отчете о неконсенсусных интимных изображениях (NCII) отмечается, что практика только растет по мере развития и распространения генераторов изображений.
“Раздевание с помощью искусственного интеллекта” находится на подъеме, говорится в пятничном отчете аналитической компании Graphika, занимающейся социальными сетями, в котором описывается практика использования генеративных инструментов искусственного интеллекта, настроенных для удаления одежды с изображений, загруженных пользователями.
Сообщество игр и потокового вещания Twitch столкнулось с проблемой ранее в этом году, когда известный телеведущий Брэндон "Атриок" Юинг случайно раскрыл, что он просматривал созданное искусственным интеллектом deepfake порно со стримерами женского пола, которых он называл своими друзьями, согласно отчету Kotaku.
Юинг вернулся на платформу в марте, раскаявшись и отчитавшись о неделях работы, которые он предпринял, чтобы смягчить нанесенный ущерб. Но инцидент открыл шлюзы для всего онлайн-сообщества.
Отчет Graphika показывает, что инцидент был всего лишь каплей в море.
“Используя данные, предоставленные Meltwater, мы измерили количество комментариев и постов на Reddit и X, содержащих реферальные ссылки на 34 веб-сайта и 52 Telegram-канала, предоставляющих синтетические услуги NCII”, - написал аналитик Graphika intelligence Сантьяго Лакатос. “Их общее количество составило 1280 в 2022 году по сравнению с более чем 32 100 в этом году, что представляет собой увеличение объема на 2408% в годовом исчислении”.
Нью-йоркская Graphika говорит, что взрыв в NCII показывает, что инструменты переместились из нишевых форумов в кустарную индустрию.
“Эти модели позволяют большему числу поставщиков легко и дешево создавать фотореалистичные NCII в масштабе”, - сказала Графика. “Без таких поставщиков их клиентам пришлось бы размещать, поддерживать и запускать свои собственные модели распространения изображений — трудоемкий, а иногда и дорогостоящий процесс”.
Graphika предупреждает, что рост популярности инструментов для раздевания с помощью искусственного интеллекта может привести не только к появлению поддельных порнографических материалов, но и к целенаправленным домогательствам, сексторции и созданию материалов о сексуальном насилии над детьми (CSAM).
Согласно отчету Graphika, разработчики инструментов для раздевания с помощью искусственного интеллекта размещают рекламу в социальных сетях, чтобы привести потенциальных пользователей на свои веб-сайты, приватный чат Telegram или серверы Discord, где можно найти инструменты.
“Некоторые провайдеры открыто заявляют о своей деятельности, заявляя, что они предоставляют услуги ”раздевания", и публикуют фотографии людей, которые, по их утверждению, были "раздеты" в качестве доказательства", - написала Graphika. “Другие менее откровенны и представляют себя как сервисы искусственного интеллекта или фотогалереи Web3, включая ключевые термины, связанные с синтетическим NCII, в свои профили и посты”.
В то время как ИИ для раздевания обычно фокусируются на фотографиях, искусственный интеллект также использовался для создания глубоких подделок видео с использованием изображений знаменитостей, в том числе персонажа YouTube мистера Зверя и культового голливудского актера Тома Хэнкса.
Некоторые актеры, такие как Скарлетт Йоханссон и индийский актер Анил Капур, обращаются в правовую систему для борьбы с постоянной угрозой глубоких подделок с помощью искусственного интеллекта. Тем не менее, в то время как ведущие артисты могут привлечь больше внимания СМИ, артисты для взрослых говорят, что их голоса редко слышны.
В октябре британская интернет-охранная компания the Internet Watch Foundation (IWF) в отдельном отчете отметила, что всего за месяц на одном форуме darkweb было найдено более 20 254 изображений жестокого обращения с детьми. IWF предупредила, что созданная искусственным интеллектом детская порнография может “переполнить” Интернет.
Благодаря достижениям в области создания изображений с помощью искусственного интеллекта IWF предупреждает, что поддельная порнография продвинулась настолько далеко, что определить разницу между изображениями, созданными искусственным интеллектом, и подлинными изображениями становится все сложнее, в результате чего правоохранительные органы преследуют онлайн-фантомов, а не реальных жертв жестокого обращения.
“Итак, вы по-прежнему не можете доверять тому, реальны вещи или нет”, - сказал Decrypt технический директор Internet Watch Foundation Дэн Секстон. “То, что скажет нам, реальны вещи или нет, не на 100%, и, следовательно, им тоже нельзя доверять”.
Что касается Юинга, Котаку сообщил, что стример вернулся, сказав, что он работает с журналистами, технологами, исследователями и женщинами, пострадавшими от инцидента с момента его проступка в январе. Юинг также сказал, что отправил средства юридической фирме Райана Моррисона из Лос-Анджелеса, Morrison Cooper, для предоставления юридических услуг любой женщине на Twitch, которая нуждалась в их помощи для рассылки уведомлений об удалении сайтов, публикующих их изображения.
Юинг добавил, что получил исследование о глубине проблемы deepfake от таинственной исследовательницы deepfake Женевьев О.
“Я пытался найти ”яркие пятна" в борьбе с этим типом контента", - сказал Юинг.