В 2018 году комик, ставший оскароносным режиссером
В результате он и его коллега, выпускница Йельского университета и эксперт по лингвистике Эмма Браун стали соучредителями DeepMedia - компании, которая занимается разоблачением технологии глубокой подделки.
Как это работает?
"Мы можем отследить, как на самом деле должно выглядеть и двигаться лицо, а затем нанести это на карту”, - рассказала Decrypt
Фотография может быть обработана за пять секунд, в то время как двухминутное видео будет "полностью обработано от начала до конца с подробным анализом лиц, голосов и акцентов” менее чем за пять минут, пояснила она. Затем конечному пользователю будет сообщено, какой объем манипуляций был обнаружен и где это находится на видео или изображении.
"Помните фальшивого Папу
, который стал вирусным? Мы смогли проверить, какие части были настоящими, а какие поддельными ", - сказал Браун. "Были определенные вещи, которые никогда не могли произойти в реальной жизни. И это было то, что действительно отличало наши детекторы с точки зрения теней и углов ".
По ее словам, модель способна обнаруживать с точностью "более 95%" благодаря большому объему обучающих данных.
Почему нас это должно волновать?
В своем нынешнем состоянии технология deepfake наиболее известна глупыми пародийными видеороликами, нереалистичными подражаниями президенту и вредной фальшивой порнографией
"Подделки Deepfakes могут использоваться как часть информационных операций для влияния на ход войн, таких как инцидент с обнародованием deepfake в марте 2022 года, когда президент Украины Зеленский, казалось, приказал своим войскам сдаваться", -
, - говорит она." "Он отрицал подлинность этого видео и предоставил доказательства этого ".
В связи с приближением выборов в США в 2024 году технология глубокой подделки является последней проблемой, которая может повлиять на голосование — аналогично скандалу с Cambridge Analytica 2018 года.
"Противники государства или политически мотивированные лица могут публиковать фальсифицированные видеоролики, на которых избранные должностные лица или другие общественные деятели отпускают зажигательные комментарии или ведут себя неподобающим образом", - объяснил Цукерман. "Подобные инциденты подрывают общественное доверие, негативно влияют на общественный дискурс, создают разногласия и могут быть использованы для влияния на выборы или другие важные процессы принятия решений".
"Существует также проблема возможных "дивидендов лжеца" — формы дезинформации, с помощью которой подделки могут использоваться для отрицания подлинности оригинального контента, создавая дальнейшую путаницу в ущерб соображениям безопасности и дискредитируя дружественные США источники и активы, аналитиков, правительства союзников или даже официальных лиц", - сказал Цукерман.
Только за последний год произошла стремительная эволюция технологий и инструментов генеративного искусственного интеллекта. По мере развития технологии подделок, несомненно, становится еще сложнее идентифицировать мошеннические клипы невооруженным глазом






" 





