В новом исследовательском документе исследовательской лаборатории искусственного интеллекта DeepMind от Google подчеркиваются потенциальные преимущества продвинутых персонализированных помощников по искусственному интеллекту для преобразования различных аспектов общества, говорится, что они "могут радикально изменить характер работы, образования и творческих занятий, а также то, как мы общаемся, координируем действия и ведем переговоры друг с другом, в конечном итоге влияя на то, кем мы хотим быть".
Такое масштабное воздействие, конечно, может оказаться палкой о двух концах, если разработка AI продолжит ускоряться без продуманного планирования.
Один из ключевых рисков? Формирование неуместно тесных связей, которые могут усугубиться, если ассистенту будет представлено изображение или лицо, похожее на человеческое. “Эти искусственные агенты могут даже заявлять о своей предполагаемой платонической или романтической привязанности к пользователю, закладывая основу для формирования у пользователей давней эмоциональной привязанности к ИИ”, - говорится в документе.
Если эту привязанность не контролировать, она может привести к потере автономии пользователя и социальных связей, поскольку искусственный интеллект может заменить человеческое взаимодействие.
Этот риск не является чисто теоретическим. Даже когда ИИ находился в несколько примитивном состоянии, чат-бот с ИИ был достаточно влиятельным, чтобы убедить пользователя совершить самоубийство после долгого общения в 2023 году. Восемь лет назад электронная помощница на базе AI по имени "Эми Ингрэм" была достаточно реалистичной, чтобы побудить некоторых пользователей отправлять любовные записки и даже пытаться навестить ее на работе.
Ясон Гэбриэл, научный сотрудник исследовательской группы DeepMind по этике и соавтор статьи, не ответил на запрос Decrypt о комментариях.
Однако в своем твите Гарбриэль предупредил, что “все более личные и человекоподобные формы помощников порождают новые вопросы, касающиеся антропоморфизма, конфиденциальности, доверия и соответствующих отношений с ИИ”.
Поскольку “миллионы помощников с искусственным интеллектом могут быть внедрены на общественном уровне, где они будут взаимодействовать друг с другом и с другими пользователями”, Габриэль сказал, что верит в необходимость дополнительных мер предосторожности и более целостного подхода к этому новому социальному явлению.
8. В-третьих, миллионы ИИ-помощников могут быть внедрены на общественном уровне, где они будут взаимодействовать друг с другом и с другими пользователями.
Необходима координация, чтобы избежать проблем с коллективными действиями. То же самое касается равного доступа и инклюзивного дизайна.
— Iason Gabriel (@IasonGabriel) April 19, 2024
В исследовательском документе также обсуждается важность согласования ценностей, безопасности и неправильного использования при разработке помощников по искусственному интеллекту. Несмотря на то, что ИИ-ассистенты могут помочь пользователям улучшить свое благосостояние, развить творческий потенциал и оптимизировать свое время, авторы предупреждают о дополнительных рисках, таких как несоответствие интересам пользователей и общества, навязывание ценностей другим, использование в злонамеренных целях и уязвимость к атакам противника.
Для устранения этих рисков команда DeepMind рекомендует разработать комплексные оценки для помощников по искусственному интеллекту и ускорить разработку социально полезных помощников по искусственному интеллекту.
"В настоящее время мы стоим в начале этой эры технологических и социальных изменений. Таким образом, у нас есть возможность действовать сейчас — как у разработчиков, исследователей, политиков и общественных заинтересованных сторон — для формирования того типа помощников по искусственному интеллекту, которые мы хотим видеть в мире ".
Рассогласование ИИ можно смягчить с помощью обучения с подкреплением посредством обратной связи с человеком (RLHF), которое используется для обучения моделей ИИ. Такие эксперты, как Пол Кристиано, который руководил командой по согласованию языковых моделей в OpenAI, а сейчас возглавляет некоммерческий исследовательский центр Alignment Research Center, предупреждают, что неправильное управление методами обучения ИИ может закончиться катастрофой.
"Я думаю, возможно, есть что-то вроде 10-20% вероятности захвата власти ИИ, [при этом] многие [или] большинство людей погибнут", - сказал Пол Кристиано в подкасте Bankless в прошлом году. "Я отношусь к этому вполне серьезно".