Быстрое распространение платформ искусственного интеллекта с момента запуска ChatGPT в ноябре побудило политиков по всему миру стремиться догнать технологии и установить правила и ограждения для появляющихся технологий. Во время обсуждения на форуме Google Cloud Next бизнес-лидеры обсудили потенциальные правила и то, как они могут повлиять на компании, которые уже перешли на искусственный интеллект.
Глобальные организации, включая Организацию Объединенных Наций, забили тревогу по поводу генеративного ИИ и пытаются загнать в угол все более распространенные технологии. Конфликт между адекватным регулированием искусственного интеллекта без подавления инноваций сохраняется. Как видно из дебатов вокруг криптовалют, главная проблема заключается в нерешительности вводить правила, которые могут убить бум бизнеса в области искусственного интеллекта.
“Я твердо убежден, что эта шумиха и дискуссии вокруг искусственного интеллекта несколько отличаются от того, что мы видели, например, в криптопространстве", - сказал директор по стратегии Deutsche Bank в области технологий и данных Кристоф Рабензайфнер. "Потому что искусственный интеллект и все генеративные инструменты ИИ, о которых мы говорим сегодня, будут влиять более или менее на каждый аспект бизнеса”.
Рабензайфнер сказал, что не может представить себе сектор занятости, в котором генеративный ИИ не помог бы и не сделал что-то проще, быстрее или качественнее.
"Из-за этого я думаю, что регулирующие органы во всем мире, а подходы по всему миру очень разные, не будут полностью ограничивать его”, - сказал он.
Некоторые бизнес-лидеры, включая Рабензайфнера, рассматривают саму гонку вооружений в области искусственного интеллекта как защиту от вредной политики.
Компаниям придется объяснять общественности и политикам, как работают модели искусственного интеллекта, и делать все возможное, чтобы общественность была довольна технологией, сказал он, заметив: “Мы все находимся в совместном путешествии".
“Мы сделаем все возможное, чтобы всем было комфортно, чтобы мы могли использовать технологию в будущем”, - добавил он.
Повторяя призыв Рабензайфнера к прозрачности, технический директор SAP Юрген Мюллер указал на такие платформы, как Vertex AI от Google и SynthID, которые могут указывать, когда за размещенным в Сети изображением стоит генеративный искусственный интеллект. Google объявила о запуске новой технологии водяных знаков на выставке Google Cloud Next в Сан-Франциско во вторник.
Несмотря на эту прозрачность, Мюллер сказал, что компании также должны иметь запасной план на случай сбоя в обслуживании или если им придется отключить свои инструменты искусственного интеллекта по юридическим или нормативным причинам, указывая на компании, создающие беспилотные автомобили, управляемые искусственным интеллектом.
“Нам нужно создавать надежные системы”, - сказал Мюллер. “Поэтому, если эта услуга по какой-либо причине будет недоступна или ее больше не будут разрешать, мы не хотим, чтобы эти грузовики просто стояли там и не могли выполнять [свою работу]”.
"Планы просты. Если правительство скажет нам остановиться, мы остановимся”, - добавил исполнительный вице-президент Estée Lauder Companies Гибу Томас. “Мы существуем уже 75 лет и хотим оставаться таковыми следующие 75. И это произойдет только в том случае, если мы не поставим под угрозу доверие потребителей и будем следовать применимым законам и нормативам”.
Томас подчеркнул важность упреждающего подхода к выявлению потенциального злоупотребления технологией искусственного интеллекта. Этот упреждающий подход распространяется на принципы Эсте Лаудер, особенно в отношении представления стандартов красоты.
Эти принципы, продолжил Томас, являются не просто руководящими принципами, а активно используются в том, как компания применяет технологии.
“Мы не хотим, чтобы цифровые искажения были эстетическими моделями, которые дают людям неправильное представление о том, что такое подлинная красота”, - сказал Томас. “Итак, есть принципы, которыми мы руководствуемся, чтобы убедиться, что при применении этой технологии мы взаимодействуем с нашими потребителями и используем ее в нашем бизнесе, и мы делаем это очень вдумчиво и ответственно”.
Ранее в этом месяце отчет Центра по противодействию цифровой ненависти обвинил генеративные инструменты искусственного интеллекта в создании "вредного контента", включая текст и изображения, связанные с расстройствами пищевого поведения.
Разработчики чат-ботов OpenAI, Google и Stability AI защитили свою технологию после того, как Decrypt сообщила о выводах CCDH.
Соглашаясь со своими коллегами-участниками дискуссии, технический директор Cohere Саурабх Баджи сказал, что конечная цель компании - обслуживать своих клиентов, и добавил, что если для какой-либо компании наступит жесткая остановка в разработке искусственного интеллекта, это важно для Cohere.
“Знание того, где провести границы, как обеспечить гарантии и как действительно иметь максимум возможностей для конфигурирования — для контроля на стороне клиента — имеет решающее значение”, - сказал Баджи.
Баджи подчеркнул важность партнерства между технологической отраслью и регулирующими органами для обеспечения того, чтобы самая актуальная информация о технологиях искусственного интеллекта была доступна для проверки регулирующими органами, отметив, что регулирование обычно отстает на несколько шагов от технологических достижений.
“Мы видели это и с искусственным интеллектом в прошлом, [и] с любой новой технологией”, - сказал Баджи. “Таким образом, риски, безусловно, не совсем новы".
Баджи сказал, что политики, тормозящие развитие ИИ, были бы ошибкой, и он не видит, чтобы это происходило.
Разработчики чат-ботов OpenAI, Google и Stability AI защитили свою технологию после того, как Decrypt сообщила о выводах CCDH.
Соглашаясь со своими коллегами-участниками дискуссии, технический директор Cohere Саурабх Баджи сказал, что конечная цель компании - обслуживать своих клиентов, и добавил, что если для какой-либо компании наступит жесткая остановка в разработке искусственного интеллекта, это важно для Cohere.
“Знание того, где провести границы, как обеспечить гарантии и как действительно иметь максимум возможностей для конфигурирования — для контроля на стороне клиента — имеет решающее значение”, - сказал Баджи.
Баджи подчеркнул важность партнерства между технологической отраслью и регулирующими органами для обеспечения того, чтобы самая актуальная информация о технологиях искусственного интеллекта была доступна для проверки регулирующими органами, отметив, что регулирование обычно отстает на несколько шагов от технологических достижений.
“Мы видели это и с искусственным интеллектом в прошлом, [и] с любой новой технологией”, - сказал Баджи. “Таким образом, риски, безусловно, не совсем новы".
Баджи сказал, что политики, тормозящие развитие ИИ, были бы ошибкой, и он не видит, чтобы это происходило.