Главная›Статьи›Искусственный интеллект: палка о двух концах
"
Искусственный интеллект: палка о двух концах
Дата публикации:08.06.2023, 16:59
1279
1279
Поделись с друзьями!
На переднем технологическом рубеже эволюция искусственного интеллекта (ИИ) продолжает стимулировать необычайные инновации. Тем не менее, он одновременно разворачивает повествование, наполненное опасениями по поводу вымирания человечества. Провидцы ИИ, такие как Сэм Альтман, глава OpenAI, и Джеффри Хинтон, общепризнанный “крестный отец” ИИ, недвусмысленно сформулировали этот страх.
Раскрывая потенциальную катастрофу, открытое письмо Центра безопасности ИИ, одобренное более чем 300 уважаемыми подписантами, пролило свет на экзистенциальную угрозу, которую представляет ИИ. Однако то, как это рукотворное чудо могло стать причиной гибели человечества, остается несколько загадочным.
ИИ создает риск вымирания человечества
По словам Дэна Хендрикса, директора Центра безопасности ИИ, искусственный интеллект может создать множество путей для снижения рисков общественного масштаба. Злоупотребление ИИ вредоносными организациями представляет собой один из таких сценариев.
“Существует очень распространенное заблуждение, даже в сообществе искусственного интеллекта, что есть только горстка обреченных. Но, на самом деле, многие люди в частном порядке выразили бы озабоченность по поводу этих вещей ”, - сказал Хендрикс.
Представьте, что злонамеренные силы используют ИИ для создания биологического оружия, смертоносность которого превосходит естественные пандемии. Другой пример - запуск искусственного интеллекта-изгоя с намерениями нанести широкомасштабный вред.
Если система ИИ наделена достаточным интеллектом или возможностями, это может посеять хаос во всем обществе.
“Злоумышленники могут намеренно выпустить искусственный интеллект, который активно пытается нанести вред человечеству”, - добавил Хендрикс.
Тем не менее, это не только краткосрочная угроза, которая беспокоит экспертов. Поскольку ИИ проникает в различные аспекты экономики, передача контроля технологиям потенциально может привести к долгосрочным проблемам.
Эта зависимость от ИИ может сделать “их закрытие” разрушительным и предположительно недостижимым. Следовательно, рискуя властью человечества над своим будущим.
Неправильное использование и его далеко идущие последствия
Как предупреждал Сэм Альтман, способность ИИ создавать убедительные тексты, изображения и видео может привести к значительным проблемам. Действительно, он считает, что “если эта технология пойдет не так, она может пойти совсем не так”.
Возьмем, к примеру, поддельное изображение, ложно изображающее мощный взрыв возле Пентагона, которое было распространено в социальных сетях. Это привело к временному падению фондового рынка, поскольку многие аккаунты в социальных сетях, включая несколько проверенных, распространили обманчивую фотографию за считанные минуты, усилив беспорядок.
Уверен, что эта фотография, на которой якобы изображен "взрыв возле пентагона", создана искусственным интеллектом.
Посмотрите на фасад здания и на то, как забор сливается с барьерами для толпы. Также нет других изображений, видео или людей, публикуемых в качестве свидетелей из первых рук. pic.twitter.com/t1YKQabuNL
Такое неправильное использование ИИ указывает на потенциал технологии для распространения дезинформации и нарушения гармонии в обществе. Старший научный сотрудник Оксфордского института этики в области ИИ Элизабет Рениерис заявила, что ИИ может “привести к экспоненциальному увеличению объема и распространения дезинформации, тем самым разрушая реальность и подрывая общественное доверие”.
Другой тревожной тенденцией является появление “галлюцинаторного” ИИ. Это тревожное явление, когда ИИ выдает ошибочную, но кажущуюся правдоподобной информацию.
Этот недостаток, продемонстрированный в недавнем инциденте, связанном с ChatGPT, может поставить под сомнение доверие к компаниям, использующим ИИ, и еще больше увековечить распространение дезинформации.
Сокращение рабочих мест и взрыв неравенства
Быстрое внедрение ИИ в различных отраслях отбрасывает длинную, тревожную тень на рынок труда. По мере развития технологии потенциальная ликвидация миллионов рабочих мест стала насущной проблемой.
Недавний опрос показал, что шесть из десяти американцев считают, что использование ИИ на рабочем месте существенно повлияет на работников в ближайшие 20 лет. Около 28% респондентов считают, что использование технологии повлияет на них лично, а еще 15% считают, что “ИИ скорее навредит, чем поможет”.
Всплеск автоматизированного принятия решений может способствовать усилению предвзятости, дискриминации и изоляции. Он также может способствовать возникновению среды неравенства, особенно затрагивая тех, кто находится по ту сторону цифровой пропасти.
Более того, переход к зависимости от ИИ может привести к “ослаблению” человечества. Это может быть похоже на сценарий антиутопии в таких фильмах, как Wall-E.
Центр безопасности ИИ отметил, что доминирование ИИ может постепенно перейти под контроль ограниченного числа организаций. Он может позволить “режимам навязывать узкие ценности посредством повсеместного наблюдения и репрессивной цензуры”.
Это мрачное видение будущего подчеркивает потенциальные риски, связанные с ИИ, и подчеркивает необходимость строгого регулирования и контроля.
Призыв к регулированию ИИ
Серьезность этих опасений побудила лидеров отрасли выступить за ужесточение правил в отношении ИИ. Этот призыв к вмешательству правительства перекликается с растущим консенсусом в отношении того, что разработкой и внедрением ИИ следует тщательно управлять, чтобы предотвратить неправильное использование и непреднамеренные разрушения общества.
ИИ может стать благом или проклятием, в зависимости от того, как с ним обращаться. Крайне важно способствовать глобальному обсуждению вопросов снижения рисков при одновременном использовании преимуществ этой мощной технологии.
Премьер-министр Великобритании Риши Сунак утверждает, что ИИ сыграл важную роль в оказании помощи людям с параличом ходить и разработке новых антибиотиков. Тем не менее, крайне важно, чтобы мы обеспечивали надежное проведение этих процессов.
“Люди будут обеспокоены сообщениями о том, что ИИ создает экзистенциальные риски, такие как пандемии или ядерные войны. Я хочу, чтобы они были уверены, что правительство очень внимательно следит за этим ”, - сказал Сунак.
Управление ИИ должно стать глобальным приоритетом, чтобы предотвратить его превращение в угрозу существованию человечества. Чтобы использовать преимущества ИИ при одновременном снижении рисков вымирания человечества, важно действовать осторожно и бдительно. Правительства также должны соблюдать правила, развивать глобальное сотрудничество и инвестировать в тщательные исследования.
Подписывайся на наш Telegram канал. Не трать время на мониторинг новостей. Только срочные и важные новости