BTC 103908$
ETH 2445.92$
Tether (USDT) 1$
Toncoin (TON) 2.96$
telegram vk
telegram vk Х
Russian English
"

Nikon, Sony и Canon предлагают новый способ борьбы с глубокими подделками

Дата публикации:10.01.2024, 19:32
1398
1398
Поделись с друзьями!

По мере распространения в Интернете реалистичных фотографий и видео, созданных искусственным интеллектом, технологические компании и сторожевые группы спешат разработать инструменты для выявления поддельного контента.

Часто предлагаемое решение для создания водяных знаков на компьютерных изображениях - добавление невидимого флага в виде скрытых метаданных, который помогает раскрыть, что изображение было создано с помощью инструмента искусственного интеллекта. Но исследователи обнаружили, что у такого водяного знака есть один существенный недостаток: состязательные методы могут легко удалить его.

Теперь крупные производители фотокамер предлагают другой подход — в некотором смысле противоположный: вместо этого встраивать водяные знаки в “настоящие” фотографии.

Nikon, Sony и Canon недавно объявили о совместной инициативе по включению цифровых подписей в изображения, сделанные непосредственно с их высококачественных беззеркальных камер. Согласно Nikkei Asia, подписи будут включать ключевые метаданные, такие как дата, время, местоположение по GPS и сведения о фотографе, криптографически удостоверяя цифровое происхождение каждой фотографии.

Nikon заявила, что запустит эту функцию в своей будущей линейке профессиональных беззеркальных камер; Sony выпустит обновления встроенного программного обеспечения для вставки цифровых подписей в свои текущие беззеркальные камеры; а Canon намерена представить камеры со встроенной аутентификацией в 2024 году, а также водяные знаки для видео позже в том же году.

Цель, сообщает Nikkei, - предоставить фотожурналистам, медиапрофессионалам и художникам неопровержимые доказательства достоверности их изображений. Подписи, защищенные от несанкционированного доступа, не исчезнут при редактировании и должны помочь в борьбе с дезинформацией и мошенническим использованием фотографий в Интернете.

Чтобы поддержать это, компании совместно разработали открытый стандарт совместимых цифровых подписей под названием “Verify”. После установки фотографии, сделанные с помощью соответствующего оборудования, можно будет бесплатно проверять онлайн, чтобы люди могли определить, подлинная фотография или нет.

Если сгенерированная искусственным интеллектом фотография пытается пройти систему проверки без подлинной подписи, она помечается как "Нет учетных данных о содержимом".


источник: Canon

Вместо ретроактивной маркировки контента с искусственным интеллектом этот план позволяет напрямую проверять подлинность реальных фотографий в origin. Но, как и любая другая система водяных знаков, ее успех будет зависеть от широкого распространения (все больше производителей оборудования внедряют стандарт) и надежной реализации (код развивается, чтобы оставаться недоступным для взлома).

Как сообщила компания Decrypt, недавние исследования показывают, что методы защиты от водяных знаков также могут скомпрометировать встроенные подписи, делая бесполезными существующие методы создания водяных знаков. Однако это только делает изображения с водяными знаками непомеченными, поэтому у людей меньше инструментов для обнаружения их искусственности.

Хотя методы защиты от водяных знаков потенциально могут удалять подписи подлинности с реальных фотографий, это менее проблематично, чем удаление водяных знаков с поддельных изображений, созданных искусственным интеллектом. Почему? Если удалить водяной знак с глубокой подделки с искусственным интеллектом, это позволит легче выдавать поддельный контент за реальный. Однако, если подписи аутентификации срезаны с реальных фотографий, оставшееся изображение по—прежнему снимается камерой - оно не создано на основе генеративной модели. Хотя оно теряет свою криптографическую защищенность, лежащий в основе контент по-прежнему подлинный.

Основной риск в этом случае связан с указанием авторства и управлением правами, а не с достоверностью контента. Изображение может быть ошибочно закредитовано или использовано без надлежащего лицензирования, но само по себе оно не вводит зрителей в заблуждение относительно реальности, которую оно представляет

OpenAI недавно анонсировала детектор глубоких подделок на базе искусственного интеллекта, который, по его утверждению, обеспечивает точность изображений 99%. Тем не менее, детекторы искусственного интеллекта остаются несовершенными, и их постоянно модернизируют, чтобы опережать развитие генеративных технологий.

Недавний всплеск изощренности глубоких подделок действительно привлек внимание к необходимости таких стратегий. Как мы видели в 2023 году, необходимость проводить различие между реальным и сфабрикованным контентом никогда не была такой острой. И политики , и технические разработчики изо всех сил пытаются найти жизнеспособные решения, поэтому небольшая помощь от этих компаний, безусловно, ценится.

Подписывайся на наш Telegram канал. Не трать время на мониторинг новостей. Только срочные и важные новости

https://t.me/block_chain24