Последние годы принесли быстрые инновации в технологии искусственного интеллекта (ИИ). В настоящее время ИИ используется во множестве различных отраслей, и все больше компаний экспериментируют с внедрением систем ИИ в свои бизнес-операции для повышения эффективности, расширения охвата и ассортимента своих продуктов и услуг. Кроме того, ИИ сейчас занимает особое место в глазах общественности: инвестиции Microsoft в размере 10 миллиардов долларов в OpenAI, компанию, которая запустила чат-бот ChatGPT в конце 2022 года, и то, как система ИИ штурмом покорила мир, — это лишь два наиболее ярких примера расширения популярности ИИ.
Но по мере продолжения распространения ИИ, расширения по своим масштабам и мощности, он также создает множество опасностей, от небольших до, потенциально, экзистенциальных. Конечно, не все из них одинаково вероятны, но они по-прежнему вызывают осторожность в отношении использования новой технологии. Далее рассмотрим подробнее некоторые из многочисленных опасностей ИИ.
Дипфейки и дезинформация
Дипфейк — это убедительное искусственное изображение или видео, сгенерированное компьютером. Слово «глубокая подделка» может происходить от связанного с искусственным интеллектом термина «глубокое обучение» — процесса, с помощью которого некоторые системы искусственного интеллекта анализируют огромные объемы данных, чтобы тренироваться и «учиться». В последние несколько лет дипфейки вызывают все большую озабоченность.
Многие дипфейки содержат изображения или видео знаменитостей, но их также можно использовать для создания множества других типов дезинформации или вредоносного контента, от вводящих в заблуждение новостных сообщений до порно снимков ради мести и др.
Дипфейки представляют собой один из наиболее ярких примеров более широкой категории риска ИИ: дезинформация. ИИ можно использовать для создания и широкого распространения материалов, которые являются неверными, но выглядят убедительно правдивыми. Существует множество социальных, политических и юридических последствий для дипфейков и другой дезинформации, созданной ИИ, и одна из самых больших проблем заключается в том, что в настоящее время не существует практически никакого регулирования этих материалов.
Конфиденциальность
ИИ использует огромные объемы информации для самообучения, и эта информация обычно состоит из реальных данных от реальных людей. Уже одно это представляет собой потенциальное вторжение в частную жизнь. И есть конкретные примеры систем искусственного интеллекта, включая инструменты компьютерного зрения и распознавания лиц, среди прочего, которые представляют еще большую угрозу конфиденциальности. Системы искусственного интеллекта можно научить распознавать лица людей, что позволит им потенциально наблюдать за обществом и контролировать поведение людей. Эти программы искусственного интеллекта, используемые злоумышленниками, могут сыграть ключевую роль в крупномасштабных социальных репрессиях или чем-то подобном
Потеря рабочих мест
Одно из наиболее распространенных опасений по поводу ИИ заключается в том, что он приведет к автоматизации навыков и процессов, которые станут настолько эффективными, что это приведет к ликвидации человеческих рабочих мест или даже целых отраслей. На самом деле эксперты расходятся во мнениях относительно возможного влияния ИИ на рабочие места. Результаты одного недавнего исследования предполагают, что в период с 2020 по 2025 год из-за автоматизации ИИ около 85 миллионов рабочих мест могут быть потеряны. Другое исследование предполагает, что к 2025 году ИИ может создать 97 миллионов новых рабочих мест.
С одной стороны, ИИ работает над автоматизацией многих простых задач, которые используются в некоторых рабочих условиях: подумайте, например, как стремление к автономным транспортным средствам может представлять угрозу для работы водителя доставки.
С другой стороны, генеративный ИИ — ИИ, используемый для создания нового контента, а не для автоматизации уже существующих задач — вероятно, имеет гораздо больше недостатков прежде чем стать угрозой для представителей творческих профессий, которые часто требуют уникальных человеческих качеств, а именно эмпатии и творческого подхода.
Некоторые эксперты считают, что ИИ приведет к кризису рабочих мест, поскольку рабочие места, которые он упраздняет, и рабочие места, которые он создает, не будут пересекаться с точки зрения наборов навыков. Работники, уволенные с рабочих мест, которые будут упразднены, как в приведенном выше примере с вакансией водителя, могут с меньшей вероятностью претендовать на рабочие места, создаваемые ИИ, которые могут быть связаны с более специфическими навыками и опытом.
Предвзятость, дискриминация и проблема «техно-решений»
Общество склонно рассматривать ИИ через призму «техно решений», веры в то, что технология является панацеей от множества проблем, когда она всего лишь инструмент. Для нас крайне важно помнить, что системы ИИ не идеальны, и на самом деле они могут отражать и усиливать многие ранее существовавшие человеческие предубеждения и несоответствия.
Чем больше системы искусственного интеллекта применяются к вопросам, связанным с возможностью предвзятости и дискриминации, тем острее становится эта проблема. Многие компании уже используют ИИ для сортировки и обработки заявлений о приеме на работу. Хотя у ИИ есть то преимущество, что он может анализировать гораздо больше приложений за то же время, что и рецензенты, это не означает, что он свободен от предубеждений. Системы искусственного интеллекта в этом случае должны быть очень тщательно спроектированы и контролироваться на предмет несправедливого отношения к тем или иным заявителям.
Реальный пример описанной выше ситуации произошел в 2018 году, когда Amazon прекратила использование проприетарного инструмента для набора персонала после того, как стало ясно, что система ИИ обучалась на данных, которые систематически предвзято относились к кандидатам-женщинам.
Предвзятость и дискриминация также являются огромным потенциальным фактором в алгоритмах рекомендаций, которые можно найти в поисковых системах и социальных сетях. Эти программы искусственного интеллекта могут и, вероятно, будут подтверждать и усиливать предвзятость при отсутствии специфических настроек.
Финансовая волатильность
ИИ может перевернуть финансовый сектор. Все большее число инвестиционных компаний полагаются на ИИ для анализа и выбора ценных бумаг для покупки и продажи. Многие также используют системы ИИ для фактического процесса покупки и продажи активов. Алгоритмы торговли ИИ выигрывают от ясности, когда человеческие аналитики могут делать ошибки, исходя их собственных эмоций. Но они также не принимают во внимание более широкое социальное воздействие и контекст. Рынки зависят от уровня доверия и могут легко поддаться страху инвесторов. Легко представить себе ситуацию, в которой инвестиционные инструменты ИИ, направленные на максимизацию прибыли, совершают большое количество покупок и продаж за короткий период, вызывая панику среди людей-участников рынка и приводя к внезапным обвалам или другой волатильности.
Единообразие или сингулярность
Возможно, самая большая угроза, которую представляет ИИ, хотя и наименее понятная, связана с так называемой «сингулярностью» или моментом, когда искусственный интеллект превосходит человеческий. Этот критический сдвиг может означать время, когда люди больше не смогут контролировать ИИ, а ИИ будет доминировать в том, как создается (или разрушается) общество. Обсуждение «сингулярности» почти полностью теоретическое, поскольку никто точно не знает, что может произойти, поскольку ИИ продолжает наращивать мощность. Но потенциальные последствия могут быть радикальными, и некоторые эксперты считают, что «сингулярность» может даже привести к вымиранию человечества.
Когда ИИ превзойдет человеческий интеллект, он сможет разрабатывать идеи, о которых раньше никто не думал. Этот сверхчеловеческий ИИ по-прежнему будет стремиться к самосовершенствованию, и разрыв между постоянно совершенствующимся ИИ и людьми будет расти еще быстрее.
Подобный ИИ может принести огромную пользу обществу, найдя способы искоренить болезни, бедность или изменение климата, чего не могут сделать люди. С другой стороны, он может обнаружить, что люди не помогают его целям, и придумать способы уничтожить общество или убить людей в массовом масштабе. Реальность неизвестна, но она не находится полностью вне нашего контроля. Эксперты по технологическому футуризму, такие как Рэй Курцвейл, считают, что сингулярность, вероятно, произойдет в ближайшие десятилетия, в то время как другие полагают, что до нас может пройти всего несколько лет. Многие также считают, что способы, которыми люди сейчас создают ИИ, могут иметь значение для потенциальной Сингулярности, не зависимо от времени ее возникновения. Поэтому очень важно чтобы общество как можно раньше обратило внимание на вопросы этики и опасностей ИИ.