Стремительный взлет генеративного искусственного интеллекта вызвал настоящую технологическую сенсацию благодаря ориентированным на пользователя продуктам, таким как ChatGPT от OpenAI, Dall-E и Lensa. Но бум удобного для пользователя искусственного интеллекта начался в связи с тем, что пользователи, по-видимому, игнорируют или остаются в неведении относительно рисков конфиденциальности, налагаемых этими проектами.
Однако в разгар всей этой шумихи международные правительства и крупные технологические деятели начинают бить тревогу. Ссылаясь на соображения конфиденциальности и безопасности, Италия только что ввела временный запрет на ChatGPT, что потенциально может привести к аналогичной блокировке в Германии. В частном секторе сотни исследователей ИИ и технологических лидеров, включая Илона Маска и Стива Возняка, подписали открытое письмо с призывом ввести шестимесячный мораторий на разработку ИИ, выходящий за рамки GPT-4.
Относительно быстрые действия по пресечению безответственной разработки ИИ заслуживают похвалы, но более широкий спектр угроз, которые ИИ представляет для конфиденциальности и безопасности данных, выходит за рамки одной модели или разработчика. Хотя никто не хочет обрушиваться дождем на парад возможностей ИИ, меняющих парадигму, необходимо прямо сейчас заняться его недостатками, чтобы избежать катастрофических последствий.
Шторм конфиденциальности данных искусственного интеллекта
Хотя было бы легко сказать, что OpenAI и другие крупные проекты искусственного интеллекта, основанные на технологиях, несут единоличную ответственность за проблему конфиденциальности данных ИИ, эта тема была затронута задолго до того, как она вошла в мейнстрим. Скандалы, связанные с конфиденциальностью данных в ИИ, происходили и до этого подавления ChatGPT — просто в основном они происходили вне поля зрения общественности.
Только в прошлом году Clearview AI, компании по распознаванию лиц на основе искусственного интеллекта, которая, как сообщается, используется тысячами правительств и правоохранительных органов с ограниченными общественными знаниями, было запрещено продавать технологию распознавания лиц частным предприятиям в Соединенных Штатах. Clearview также оштрафован в Соединенном Королевстве на 9,4 миллиона долларов за свою незаконную базу данных распознавания лиц. Кто сказал, что ориентированные на потребителя проекты визуального ИИ, такие как Midjourney или другие, нельзя использовать для аналогичных целей?
Clearview AI, технологическая компания по распознаванию лиц, подтвердила, что мое лицо есть в их базе данных. Я отправил им снимок головы, и они ответили этими фотографиями, а также ссылками на то, откуда они получили фотографии, включая сайт под названием "Insta Stalker". pic.twitter.com/ff5ajAFlg0
— Томас Дейгл (@thomasdaigle) 9 июня 2020 года
Проблема в том, что они уже были. Множество недавних скандалов с подделками, связанных с порнографией и фейковыми новостями, созданными с помощью продуктов искусственного интеллекта потребительского уровня, только усилили актуальность защиты пользователей от нечестивого использования искусственного интеллекта. Это использует гипотетическую концепцию цифровой мимикрии и делает ее очень реальной угрозой для обычных людей и влиятельных общественных деятелей.
Генеративные модели искусственного интеллекта принципиально полагаются на новые и существующие данные для создания и усиления своих возможностей и удобства использования. Это одна из причин, почему ChatGPT настолько впечатляет. При этом модель, которая опирается на новые входные данные, должна откуда-то получать эти данные, и часть этого неизбежно будет включать личные данные людей, использующих ее. И этот объем данных может быть легко использован не по назначению, если им завладеют централизованные организации, правительства или хакеры.
Итак, с ограниченной сферой всеобъемлющего регулирования и противоречивыми мнениями вокруг разработки искусственного интеллекта, что могут сделать компании и пользователи, работающие с этими продуктами сейчас?
Что могут сделать компании и пользователи
Тот факт, что правительства и другие разработчики поднимают флаги вокруг искусственного интеллекта, сейчас фактически указывает на прогресс по сравнению с ледяными темпами регулирования приложений Web2 и криптовалют. Но поднятие флагов - это не то же самое, что надзор, поэтому поддержание чувства срочности без паникерства важно для создания эффективных правил, пока не стало слишком поздно.
Запрет ChatGPT в Италии - не первый удар правительств по ИИ. ЕС и Бразилия принимают законы, санкционирующие определенные виды использования ИИ и его разработки. Аналогичным образом, потенциал генеративного ИИ для утечки данных вызвал ранние законодательные действия со стороны правительства Канады.
Проблема утечки данных ИИ довольно серьезна, вплоть до того, что OpenAI даже пришлось вмешаться. Если вы открыли ChatGPT пару недель назад, вы могли заметить, что функция истории чатов была отключена. OpenAI временно отключил функцию из-за серьезной проблемы с конфиденциальностью’ когда были раскрыты запросы незнакомцев и платежная информация.
Хотя OpenAI эффективно потушил этот пожар, может быть трудно доверять программам, возглавляемым гигантами Web2, сокращающими свои команды по этике искусственного интеллекта, чтобы превентивно поступать правильно.
На общеотраслевом уровне стратегия развития искусственного интеллекта, которая больше фокусируется на объединенном машинном обучении, также повысит конфиденциальность данных. Федеративное обучение - это технология совместного ИИ, которая обучает модели ИИ без чьего-либо доступа к данным, используя вместо этого несколько независимых источников для обучения алгоритма с их собственными наборами данных.
Что касается пользователей, то становиться сторонником искусственного интеллекта и вообще отказываться от использования любой из этих программ не нужно, и, вероятно, довольно скоро это станет невозможным. Но есть способы быть умнее в отношении того, к какому генеративному ИИ вы предоставляете доступ в повседневной жизни. Для компаний и малого бизнеса, внедряющих продукты искусственного интеллекта в свои операции, еще более важно следить за тем, какие данные вы передаете алгоритму.
Вечнозеленая поговорка о том, что когда вы используете бесплатный продукт, ваши персональные данные являются продуктом, по-прежнему применима к ИИ. Помня об этом, вы можете пересмотреть, на какие проекты искусственного интеллекта вы тратите свое время и для чего вы его на самом деле используете. Если вы участвовали во всех тенденциях в социальных сетях, связанных с размещением ваших фотографий на сомнительных веб-сайтах с использованием искусственного интеллекта, подумайте о том, чтобы пропустить это.
Всего через два месяца после запуска ChatGPT достиг 100 миллионов пользователей, ошеломляющая цифра, которая ясно указывает на то, что наше цифровое будущее будет использовать ИИ. Но, несмотря на эти цифры, ИИ пока не является повсеместным. Регулирующие органы и компании должны использовать это в своих интересах, чтобы активно создавать основы для ответственной и безопасной разработки искусственного интеллекта вместо того, чтобы гоняться за проектами, когда они становятся слишком большими, чтобы их можно было контролировать. В нынешнем виде генеративная разработка искусственного интеллекта не сбалансирована между защитой и прогрессом, но еще есть время найти правильный путь для обеспечения того, чтобы информация пользователя и конфиденциальность оставались на переднем крае.