В видеоинтервью с Дваркешем Пателем, опубликованном во вторник, Ашенбреннер рассказал о внутренних конфликтах по поводу приоритетов, предполагая смещение акцента в сторону быстрого роста и внедрения моделей искусственного интеллекта в ущерб безопасности.
Он также сказал, что был уволен за то, что изложил свои опасения в письменном виде.
В ходе обстоятельной четырехчасовой беседы Ашенбреннер сказал Пателю, что в прошлом году он написал внутреннюю записку, в которой подробно изложил свои опасения, и распространил ее среди авторитетных экспертов за пределами компании. Однако после того, как несколько недель спустя произошел крупный инцидент с безопасностью, он сказал, что решил поделиться обновленной памяткой с парой членов правления. Его быстро уволили из OpenAI.
"Что также может быть полезным в контексте, так это вопросы, которые они задавали мне, когда увольняли... вопросы касались моих взглядов на прогресс в области искусственного интеллекта, на AGI, надлежащего уровня безопасности для AGI, должно ли правительство участвовать в AGI, были ли я и команда высшего руководства лояльны компании и чем я занимался во время заседаний совета директоров OpenAI ", - сказал Ашенбреннер.
AGI, или общий искусственный интеллект, - это когда ИИ соответствует человеческому интеллекту или превосходит его в любой области, независимо от того, как он был обучен.
Лояльность к компании - или к Сэму Альтману — стала ключевым фактором после его кратковременного увольнения: более 90% сотрудников подписали письмо с угрозой уволиться в знак солидарности с ним. Они также популяризировали лозунг “OpenAI - ничто без своих сотрудников”.
“Я не подписал письмо сотрудника во время заседаний совета директоров, несмотря на давление”, - вспоминает Ашенбреннер.
Команда superalignment, возглавляемая Ильей Суцкевером и Яном Лейке, отвечала за разработку долгосрочных практик безопасности, чтобы убедиться, что ИИ по-прежнему соответствует ожиданиям человека.Уход видных членов этой команды, включая Суцкевера и Лейке, привлек дополнительное внимание. Впоследствии вся команда была распущена, и было объявлено о создании новой группы безопасности.… руководил компанией генеральный директор Сэм Альтман, который также является членом правления OpenAI, которому она подчиняется.
Ашенбреннер заявил, что действия OpenAI противоречат ее публичным заявлениям о безопасности.
"Другой пример — когда я поднимал вопросы безопасности, мне говорили, что безопасность - наш приоритет номер один”, - заявил он. “Неизменно, когда приходило время вкладывать серьезные ресурсы или идти на компромиссы для принятия основных мер, безопасность не была приоритетом”.
Это согласуется с заявлениями Лейке, который сказал, что команда “плыла против ветра" и что “культура и процессы безопасности отошли на второй план по сравнению с блестящими продуктами” под руководством Альтмана.
Ашенбреннер также выразил обеспокоенность по поводу разработки AGI, подчеркнув важность осторожного подхода, особенно учитывая, что многие опасаются, что Китай прилагает все усилия, чтобы превзойти Соединенные Штаты в исследованиях AGI.
Китай "приложит все усилия, чтобы проникнуть в американские лаборатории искусственного интеллекта, миллиарды долларов, тысячи людей... [они] попытаются переиграть нас”, - сказал он. "На карту будут поставлены не только крутые продукты, но и выживет ли либеральная демократия”.
Всего несколько недель назад выяснилось, что OpenAI требовала от своих сотрудников подписывать соглашения о неразглашении, которые не позволяли им открыто говорить о методах безопасности компании.
Ашенбреннер сказал, что он не подписывал такое соглашение о неразглашении, но сказал, что ему предложили около 1 млн долларов собственного капитала.
В ответ на эти растущие опасения коллектив из почти дюжины нынешних и бывших сотрудников OpenAI тем временем подписал открытое письмо с требованием предоставить им право сообщать о проступках компании, не опасаясь возмездия.
В письме, одобренном такими деятелями отрасли, как Йошуа Бенгио, Джеффри Хинтон и Стюарт Рассел, подчеркивается необходимость того, чтобы компании, занимающиеся искусственным интеллектом, взяли на себя обязательства по прозрачности и подотчетности.
“Пока нет эффективного государственного надзора за этими корпорациями, нынешние и бывшие сотрудники являются одними из немногих людей, которые могут привлечь их к ответственности перед общественностью, однако широкие соглашения о конфиденциальности не позволяют нам высказывать наши опасения, за исключением тех самых компаний, которые, возможно, не в состоянии решить эти проблемы”, — говорится в письме. “Обычных мер защиты осведомителей недостаточно, потому что они сосредоточены на незаконной деятельности, в то время как многие риски, о которых мы беспокоимся, еще не урегулированы.
“Некоторые из нас обоснованно опасаются различных форм возмездия, учитывая историю подобных случаев в отрасли”, - продолжает он. “Мы не первые, кто сталкивается с этими проблемами или говорит о них”.
После распространения новостей об ограничительных положениях о приеме на работу Сэм Альтман заявил, что не был осведомлен о ситуации, и заверил общественность, что его команда юристов работает над устранением проблемы.
“В наших предыдущих документах о выходе было положение о возможном аннулировании акционерного капитала; хотя мы никогда ничего не возвращали назад, это никогда не должно было быть чем-то, что у нас было в каких-либо документах или сообщениях”, - написал он в твиттере. “Это моя вина, и это один из немногих случаев, когда я был искренне смущен, управляя OpenAI; я не знал, что это происходит, а должен был знать ”.
что касается недавних материалов о том, как openai управляет equity:
мы никогда не стремились вернуть чью-либо долю участия и не будем этого делать, если люди не подпишут соглашение о раздельном проживании (или не согласятся с соглашением о недопустимости унижения). имущественное право есть имущественное право, точка.
было…
— Сэм Альтман (@sama) 18 мая 2024 г.
OpenAI заявляет, что с тех пор она освободила всех сотрудников от спорных соглашений о недопустимости пренебрежительного отношения и удалила этот пункт из своих документов об увольнении.