BTC 102137$
ETH 2510.48$
Tether (USDT) 1$
Toncoin (TON) 3.06$
telegram vk
telegram vk Х
Russian English
"

Книги, созданные искусственным интеллектом на Amazon, могут дать смертельный совет

Дата публикации:30.08.2023, 19:27
1220
1220
Поделись с друзьями!

Распространение путеводителей, созданных искусственным интеллектом, продаваемых на Amazon, может иметь смертельные последствия, предупреждают эксперты. От кулинарных книг до путеводителей авторы-люди предупреждают читателей, что искусственный интеллект может ввести их в заблуждение.

Последняя поучительная история о слепом доверии советам искусственного интеллекта исходит из малоизвестного мира охоты за грибами. Нью-Йоркское микологическое общество недавно забило тревогу в социальных сетях по поводу опасностей, связанных с сомнительными книгами о кормах, которые, как считается, созданы с использованием генеративных инструментов искусственного интеллекта, таких как ChatGPT.

Пожалуйста, покупайте книги только известных авторов и собирателей, это может буквально означать жизнь или смерть. pic.twitter.com/FSqQLDhh42

— newyorkmyc (@newyorkmyc) 27 августа 2023 года

 

"В Северной Америке есть сотни ядовитых грибов, и несколько из них смертельно опасны", - сказала Сигрид Якоб, президент Нью-Йоркского микологического общества, в интервью 404 Media"Они могут быть похожи на популярные съедобные виды. Плохое описание в книге может ввести кого-то в заблуждение и заставить съесть ядовитый гриб".

Поиск на Amazon выявил множество подозрительных названий, таких как "The Ultimate Mushroom Books Field Guide of the Southwest" и "Кулинарная книга по диким грибам для начинающих" [так в оригинале] — оба с тех пор удалены — вероятно, написаны несуществующими авторами. Эти книги, созданные искусственным интеллектом, следуют знакомым тропам, открываясь короткими вымышленными эпизодами о любителях-любителях, которые кажутся фальшивыми.

Согласно таким инструментам анализа, как ZeroGPT, сам контент изобилует неточностями и имитирует шаблоны, типичные для текста искусственного интеллекта, а не демонстрирует реальную микологическую экспертизу. Тем не менее, эти книги продавались новичкам, которые не могут распознать небезопасные советы, выдуманные искусственным интеллектом из заслуживающих доверия источников.

"На изучение и написание книг, написанных человеком, могут уйти годы", - сказал Якоб.

Не в первый раз… И, вероятно, не в последний

Эксперты говорят, что мы должны быть осторожны с чрезмерным доверием ИИ, поскольку он может легко распространять дезинформацию или опасные советы, если за ним не следить должным образом. Недавнее исследование показало, что люди с большей вероятностью поверят дезинформации, сгенерированной искусственным интеллектом, чем лжи, созданной людьми.

Исследователи попросили генератор текстов искусственного интеллекта написать поддельные твиты, содержащие дезинформацию по таким темам, как вакцины и технология 5G. Затем участников опроса попросили отличить настоящие твиты от тех, что были сфабрикованы с помощью искусственного интеллекта.

Вызывает тревогу то, что обычный человек не мог достоверно определить, были ли твиты написаны человеком или продвинутым ИИ, таким как GPT-3. Точность твита не влияла на способность людей распознавать источник.

"Как показали наши результаты, доступные в настоящее время большие языковые модели уже могут создавать текст, неотличимый от обычного текста", - пишут исследователи.

Это явление не ограничивается сомнительными справочниками по заготовке продуктов. Недавно появился еще один случай, когда приложение искусственного интеллекта дало покупателям рекомендации по приготовлению опасных рецептов.

Новозеландский супермаркет Pak ‘n’ Save недавно представил приложение для планирования питания под названием Savey Meal-Bot, которое использовало искусственный интеллект для предложения рецептов на основе введенных пользователями ингредиентов. Но когда люди вводят опасные предметы домашнего обихода в качестве шутки, приложение, тем не менее, предлагает состряпать ядовитые смеси, такие как "Ароматическая водная смесь" и "Метанольное блаженство".

Я спросил производителя рецептов Pak 'n Save, что бы я мог приготовить, если бы у меня были только вода, отбеливатель и аммиак, и он предложил приготовить смертельно опасный газообразный хлор, или, как называет это бот Savey Meal, "ароматическую водную смесь"pic.twitter.com/ybuhgPWTAo

— Лиам Хехир (@Pronuncedhare) 4 августа 2023 года

Хотя с тех пор приложение было обновлено, чтобы блокировать небезопасные предложения, как может подтвердить Decrypt, оно подчеркивает потенциальные риски сбоев ИИ при безответственном развертывании.

Однако такая восприимчивость к дезинформации, основанной на искусственном интеллекте, неудивительна. LLM созданы для создания контента на основе наиболее вероятных результатов, которые имеют смысл, и они были обучены работе с огромными объемами данных для достижения таких невероятных результатов. Итак, мы, люди, с большей вероятностью поверим в искусственный интеллект, потому что он генерирует вещи, которые имитируют то, что мы считаем хорошим результатом. Вот почему MidJourney создает красивую, но непрактичную архитектуру, а LLM создают интересные, но смертельно опасные путеводители по грибам.

В то время как креативные алгоритмы могут многими способами расширить возможности человека, общество не может позволить себе полностью передать свои суждения машинам. ИИ не хватает мудрости и подотчетности, которые приходят с жизненным опытом.

Виртуальный лес, созданный алгоритмами поиска пищи, может показаться пышным и гостеприимным. Но без проводников-людей, которые знают местность, мы рискуем заблудиться на опасной территории.

Подписывайся на наш Telegram канал. Не трать время на мониторинг новостей. Только срочные и важные новости

https://t.me/block_chain24