Живем ли мы в симуляции? Роман Ямпольский, известный исследователь безопасности искусственного интеллекта и автор книги "Искусственный интеллект: необъяснимый, непредсказуемый, неконтролируемый", почти уверен, что это так. “Я знаю, что никогда не скажу 100%, но [шансы на то, что мы будем жить в симуляции] довольно близки к этому”, - сказал он Лексу Фридману во время недавнего интервью для подкаста Фридмана.
Разумно ожидать, что сверхразумный ИИ поможет нам узнать наверняка, сказал он, — и даже поможет нам сбежать. С другой стороны, Ямпольский также предсказал, что вероятность того, что ИИ может привести к вымиранию человечества, составляет "99,9% в течение следующих ста лет".
Аргументы Ямпольского основаны на быстро развивающихся возможностях искусственного интеллекта и его потенциале изменить наше понимание существования. Он утверждает, что развитие общего сверхразума сопряжено с экзистенциальными рисками, но оно также открывает беспрецедентные возможности, включая выход за пределы нашей симулированной реальности.
“Я бы хотел, чтобы в этом нам помог сверхразум”, - сказал он.
Сверхразум - это ИИ, который превзошел возможности и границы человеческого интеллекта. Это следующий шаг после общего искусственного интеллекта (AGI) — искусственного интеллекта с такой же способностью к обучению, как у человеческого разума, но экспоненциально более мощного, не ограниченного клетками человеческого мозга.
Ряд выдающихся исследователей выдвинули гипотезу, что мы живем в симулированной вселенной. Известная идея была выдвинута в 2003 году Ником Бостромом из Оксфордского университета, который утверждал в статье (“Вы живете в компьютерной симуляции?”), что вполне вероятно существование развитой цивилизации, технологии которой настолько продвинуты, что они могли бы создавать “самосознательных” существ внутри симулякра.
Это были бы мы. Представьте, если бы симы в популярной игре действительно были разумными существами, и у вас была бы правильная идея.
В своей статье “Как сбежать из симуляции” Ямпольский исходит из предположения, что мы действительно живем в симулированной вселенной. Если это так, он подозревает, что по мере того, как ИИ достигнет сверхразума, мы сможем найти способ освободиться от ограничений нашего собственного мира.
“Мы использовали ИИ ”бокс" как возможный инструмент для управления ИИ", - сказал он, имея в виду идею о том, что ИИ всегда найдет способы сбежать из любого “бокса”, созданного для его содержания. “Мы поняли, что ИИ всегда будет убегать. Это навык, который мы могли бы использовать, чтобы помочь нам выбраться из нашей виртуальной коробки, если мы в ней находимся ”.
Ямпольский предполагает, что интеллект наших симуляторов играет решающую роль в этом сценарии: "Если симуляторы намного умнее нас и созданного нами сверхразума, то, вероятно, они смогут сдерживать нас, [потому что] более высокий интеллект может контролировать более низкий интеллект, по крайней мере, на некоторое время.
“С другой стороны, если наш суперинтеллект каким—то образом, по какой—то причине - несмотря на то, что у нас есть только локальные ресурсы, - сумеет "преодолеть" два уровня выше этого - возможно, это удастся", - добавил он.
Итак, точно так же, как джейлбрейкеры играют в кошки-мышки с разработчиками, мы, люди, использовали бы сверхразумный ИИ, чтобы попытаться найти ”эксплойт" в космологической системе, созданной нашим Богом — или, точнее, в нашем симуляторе.
В своей исследовательской работе Ямпольский объясняет, что один из способов избежать нашей симуляции - “создать смоделированную копию нашей вселенной, поместить в нее AGI, наблюдать, как она ускользает, скопировать используемый подход или присоединиться к AGI, когда он ускользает из нашей симуляции”. Кажется, это единственный подход, который не предполагает взаимодействия с нашими создателями или нарушения законов нашей собственной реальности.
Может ли ИИ действительно вырваться на свободу?
Каким бы захватывающим ни было видение Ямпольского, оно поднимает важный философский вопрос: может ли ИИ действительно освободиться от симуляции, если симуляция не была разработана таким образом, чтобы позволить это?
В своей книге “Как разум может привести к Богу” философ Джошуа Расмуссен объясняет, что творение не может обладать той же природой, что и его создатель, что делает практически невозможным, чтобы имитируемый ИИ обладал той же сущностью и природой, что и его симулятор. Несмотря на то, что он превосходит людей по интеллекту, он все равно будет ограничен законами, которые определяли моделируемую реальность, в которой он был создан.
Расмуссен в своих философских исследованиях утверждает, что разум может привести к признанию необходимой основы реальности. Его центральный тезис заключается в том, что реальность не может быть бесконечно регрессивной — должна существовать фундаментальная сущность, которая является самоподдерживающейся и неограниченной. Эта основополагающая сущность была бы способна создавать вещи, которые по своей природе могут быть связаны с ней как с изначальным источником.
Представьте серию русских матрешек-вложенок. Каждая кукла может полностью понять кукол внутри нее, но не может понять кукол большего размера, в которые она вложена.
Тщательное рассмотрение возражений Расмуссеном и методичные рассуждения обеспечивают надежную основу для понимания ограничений сотворенных существ. Точно так же, как люди не могут превзойти созданную ими природу, чтобы стать богами, утверждает он, имитируемый ИИ не может самостоятельно принять решение прекратить симуляцию, если симуляторы не предоставили условий для такой возможности.
Эта основа фундаментально отличается от сотворенных существ, подчеркивая непреодолимую пропасть между творцом и сотворенным.
Эта философская позиция напрямую бросает вызов гипотезе Ямпольского. Если мы примем аргументы Расмуссена, то даже сверхразумный ИИ, будучи созданием в симуляции, по своей сути будет ограничен параметрами, установленными его создателями (симуляторами). Он мог бы осознать свою симулированную природу, если бы создатели допустили такое осознание, но он был бы принципиально неспособен полностью выйти за пределы симуляции.
Ямпольский предлагает объяснение этому противоречию.
В своей статье агенты сначала исследуют возможность, пока не найдут информацию и возможные сбои в сути своей реальности. “Используя сбой, агенты могут получать информацию о внешнем мире и, возможно, даже метаинформацию об их симуляции, возможно, даже исходный код, лежащий в основе симуляции, и самих агентов”, - сказал Ямпольский.
После этого он объясняет, что агенты могли бы найти способы беспрепятственного взаимодействия со своими симуляторами, пока они “не найдут способ загрузить свой разум и, возможно, сознание в реальный мир, возможно, в какую-нибудь автономную киберфизическую систему”.
Другими словами, хотя мы и не могли “освободиться” от нашей симуляции, мы потенциально могли бы взаимодействовать через репрезентации самих себя — возможно, мы осознавали бы себя персонажами, созданными высшим, недоступным разумом. Хорошо это или нет - вопрос открытый.
Между тем, Ямпольский не называет конкретной причины, по которой он верит, что ИИ уничтожит человечество. Но он верит, что это неизбежно, поскольку сверхразум осознает себя.
“Второго шанса у нас не будет. С кибербезопасностью кто-то взламывает вашу учетную запись, что в этом такого? Вы получаете новый пароль, новую кредитную карту и двигаетесь дальше ”, - сказал он. “Здесь, если мы говорим об экзистенциальных рисках, у вас есть только один шанс”.