Если Джо Байдену нужен умный и понятный чат-бот с искусственным интеллектом, который отвечал бы за него на вопросы, его предвыборная команда не сможет использовать Claude, конкурента Anthropic в ChatGPT, объявила сегодня компания.
“Мы не разрешаем кандидатам использовать Claude для создания чат-ботов, которые могут выдавать себя за них, и мы никому не разрешаем использовать Claude для целевых политических кампаний”, - объявила компания.
Нарушения этой политики будут сопровождаться предупреждениями и, в конечном итоге, приостановкой доступа к сервисам Anthropic.
Публичное заявление Anthropic о своей политике “злоупотребления на выборах” связано с тем, что потенциал искусственного интеллекта для массовой генерации ложной и вводящей в заблуждение информации, изображений и видео вызывает тревогу во всем мире.
Компания Anthropic заявила, что ее меры политической защиты делятся на три основные категории: разработка и обеспечение соблюдения политик, связанных с вопросами выборов, оценка и тестирование моделей на предмет возможных злоупотреблений и предоставление пользователям точной информации о голосовании.
Политика приемлемого использования Anthropic, с которой якобы соглашаются все пользователи перед доступом к Claude, запрещает использование его инструментов искусственного интеллекта для политических кампаний и лоббирования. Компания заявила, что нарушителям будут вынесены предупреждения и приостановлено обслуживание, а также будет проведен процесс проверки человеком.
Компания также проводит тщательную "редкомандировку" своих систем: агрессивные, скоординированные попытки известных партнеров совершить “джейлбрейк" или иным образом использовать Claude в неблаговидных целях.
“Мы тестируем, как наша система реагирует на запросы, которые нарушают нашу политику допустимого использования, [например] запросы, запрашивающие информацию о тактике подавления избирателей”, - объясняет Антропик. Кроме того, компания заявила, что разработала набор тестов для обеспечения "политического паритета” — сравнительной представленности кандидатов и тем.
В Соединенных Штатах Anthropic сотрудничает с TurboVote, чтобы помогать избирателям с достоверной информацией вместо использования своего инструмента генерирования искусственного интеллекта.
“Если пользователь из США запросит информацию о голосовании, всплывающее окно предложит пользователю возможность перенаправиться на TurboVote, ресурс беспартийной организации Democracy Works”, — объяснил Антропик, решение, которое будет развернуто “в течение следующих нескольких недель”, а затем планируется добавить аналогичные меры в других странах.
OpenAI, компания, стоящая за ChatGPT, предпринимает аналогичные шаги, перенаправляя пользователей на беспартийный веб-сайт CanIVote.org.
Усилия Anthropic согласуются с более широким движением в технологической индустрии по решению проблем, которые искусственный интеллект создает для демократических процессов. Например, Федеральная комиссия по связи США недавно запретила использование сгенерированных искусственным интеллектом поддельных голосов в робозвонках, решение, которое подчеркивает актуальность регулирования применения искусственного интеллекта в политической сфере.
Microsoft объявила об инициативах по борьбе с вводящей в заблуждение политической рекламой, создаваемой искусственным интеллектом, внедряя "Учетные данные контента как услугу" и запуская Центр предвыборных коммуникаций.
Что касается кандидатов, создающих версии самих себя с искусственным интеллектом, OpenAI уже пришлось решать конкретный вариант использования. Компания заблокировала учетную запись разработчика после того, как узнала, что они создали бота, имитирующего кандидата в президенты Дина Филлипса. Этот шаг произошел после того, как некоммерческая организация Public Citizen представила петицию о неправомерном использовании искусственного интеллекта в политических кампаниях с просьбой к регулятору запретить генеративный искусственный интеллект в политических кампаниях.