BTC 101388$
ETH 2258.53$
Tether (USDT) 1$
Toncoin (TON) 2.79$
telegram vk
telegram vk Х
Russian English
"

Закон Сантии Ламмис о повышении квалификации «своевременен и необходим», но в нем мало деталей

Дата публикации:23.06.2025, 12:00
88
88
Поделись с друзьями!

Законы о гражданской ответственности не всегда способствуют оживленной беседе за ужином, но они могут оказать огромное влияние на развитие новых технологий, таких как искусственный интеллект.

При неправильной формулировке правила об ответственности могут создать препятствия для будущих инноваций, подвергая предпринимателей - в данном случае разработчиков искусственного интеллекта - ненужным юридическим рискам. По крайней мере, так утверждает сенатор США Синтия Ламмис, которая на прошлой неделе представила Закон об ответственных инновациях и безопасной экспертизе (RISE) от 2025 года.

Этот законопроект направлен на защиту разработчиков искусственного интеллекта от судебного преследования в гражданском суде, чтобы врачи, адвокаты, инженеры и другие специалисты «могли понять, что может и чего не может делать искусственный интеллект, прежде чем полагаться на него».

Первые отзывы о законе от источников RISE были в основном положительными, хотя некоторые критиковали ограниченную сферу применения законопроекта, отмечали его недостатки в отношении стандартов прозрачности и ставили под сомнение предоставление разработчикам ИИ защиты от ответственности.

Большинство из них охарактеризовали RISE как незавершенный документ.

Является ли Закон RISE «подарком судьбы» разработчикам ИИ?

По словам Хамида Экбиа, профессора Школы гражданства и общественных связей Максвелла при Сиракузском университете, законопроект Ламмис «своевременен и необходим». (Ламмис назвала это «первым в стране целевым законом о реформе ответственности за ИИ профессионального уровня».) 

«Однако законопроект слишком сильно смещает чашу весов в пользу разработчиков ИИ», - сказал Хамид Экбиа.

Закон RISE требует, чтобы они публично раскрывали спецификации моделей, чтобы профессионалы могли принимать обоснованные решения относительно инструментов искусственного интеллекта, которые они предпочитают использовать, но:

«Это возлагает основную часть бремени рисков на «опытных профессионалов», требуя от разработчиков только «прозрачности» в виде технических спецификаций - карточек моделей и спецификаций - и предоставляя им широкую неприкосновенность в остальном».

Неудивительно, что некоторые быстро ухватились за законопроект Сантии Ламмис в качестве «подарка» компаниям, которая занимается искусственным интеллектом. «Левоцентристское политическое сообщество» отметило на одном из своих форумов, что «компании, занимающиеся искусственным интеллектом, не хотят, чтобы на них подавали в суд за сбои в работе инструментов, и законопроект этого добьется, если он будет принят».

«Не все с этим согласны. Я бы не стал заходить так далеко, чтобы называть законопроект «раздачей подарков» компаниям, работающим с ИИ», - сказал Феликс Шипкевич, директор юридической фирмы Shipkevich Attorneys at Law. 

Шипкевич пояснил, что предлагаемое Законом RISE положение об иммунитете, по-видимому, направлено на то, чтобы оградить разработчиков от строгой ответственности за непредсказуемое поведение крупных языковых моделей, особенно когда нет небрежности или намерения причинить вред. Это рациональный подход с юридической точки зрения. Он добавил:

«Без какой-либо формы защиты разработчики могут столкнуться с неограниченным воздействием на результаты, которые они практически не могут контролировать».

Сфера применения предлагаемого законодательства является довольно узкой. Оно в основном сосредоточено на сценариях, в которых профессионалы используют инструменты искусственного интеллекта при работе со своими клиентами или пациентами. Например, финансовый консультант мог бы использовать инструмент искусственного интеллекта для разработки инвестиционной стратегии инвестора, а радиолог мог бы использовать программное обеспечение с искусственным интеллектом для интерпретации рентгеновских снимков.

На самом деле закон RISE не касается случаев, когда между разработчиком искусственного интеллекта и конечным пользователем нет профессионального посредника, например, когда чат-боты используются в качестве цифровых компаньонов для несовершеннолетних. 

Подобный случай гражданской ответственности возник недавно во Флориде, где подросток покончил с собой после того, как в течение нескольких месяцев общался с чат-ботом искусственного интеллекта. Семья погибшего заявила, что программное обеспечение было разработано таким образом, что было небезопасно для несовершеннолетних.

«Кто должен нести ответственность за гибель людей?» - спросил Экбиа. Такие случаи не рассматриваются в законопроекте, предлагаемом Сенатом. 

«Необходимы четкие и унифицированные стандарты, чтобы пользователи, разработчики и все заинтересованные стороны понимали правила дорожного движения и свои юридические обязательства», - сказал Райан Эббот, профессор права и медицинских наук в юридической школе Университета Суррея.

Но ИИ может создавать новые виды потенциального вреда, учитывая сложность, непрозрачность и автономность технологии. По словам Эббота, который имеет высшее медицинское и юридическое образование, сфера здравоохранения будет особенно сложной с точки зрения гражданской ответственности.

Например, исторически сложилось так, что врачи превосходили программное обеспечение с искусственным интеллектом в постановке медицинских диагнозов, но в последнее время появляются свидетельства того, что в определенных областях медицинской практики человек «на самом деле добивается худших результатов, чем ИИ, выполняющий всю работу, - пояснил Эббот. - В связи с этим возникают всевозможные интересные вопросы ответственности».

Кто будет выплачивать компенсацию, если будет допущена грубая медицинская ошибка, когда врач уже не в курсе дела? Покроет ли это страховка от халатности? Возможно, нет.

Некоммерческая исследовательская организация AI Futures Project предварительно одобрила законопроект (с ней консультировались при разработке законопроекта). Но исполнительный директор Даниэль Кокотайло заявил, что раскрытие информации о прозрачности, требуемое от разработчиков ИИ, не соответствует требованиям.

«Общественность заслуживает того, чтобы знать, какие цели, ценности, программы, предубеждения, инструкции и т.д. компании пытаются навязать мощным системам искусственного интеллекта. Этот законопроект не требует такой прозрачности и, следовательно, не заходит достаточно далеко», - сказал Кокотайло.

Кроме того, «компании всегда могут принять на себя ответственность вместо того, чтобы быть прозрачными, поэтому, когда компания хочет сделать что-то, что не понравится общественности или регулирующим органам, они могут просто отказаться», - сказал Кокотайло.

Подход ЕС, основанный на соблюдении прав человека

Как Закон RISE соотносится с положениями об ответственности в Законе ЕС об ИИ от 2023 года, первом всеобъемлющем нормативном акте по ИИ, принятом крупным регулирующим органом?

Позиция ЕС в отношении ответственности за ИИ постоянно меняется. Директива ЕС об ответственности за искусственный интеллект была впервые принята в 2022 году, но в феврале 2025 года она была отменена, как утверждают некоторые, в результате лоббирования индустрии искусственного интеллекта.

Тем не менее, законодательство ЕС в целом основывается на принципах защиты прав человека. Как отмечалось в недавней статье UCLA Law Review, подход, основанный на правах человека, «подчеркивает расширение прав и возможностей отдельных лиц», особенно таких конечных пользователей, как пациенты, потребители или клиенты.

Подход, основанный на оценке рисков, как, например, в законопроекте Ламмис, напротив, основывается на процессах, документации и инструментах оценки. Он был бы направлен, например, в большей степени на выявление предвзятости и смягчение ее последствий, а не на обеспечение конкретных прав пострадавших людей. 

Когда люди спросили Кокотайло, какой подход к гражданской ответственности, «основанный на риске» или «основанный на правилах», больше подходит для США, он ответил: «Я думаю, что основное внимание должно быть сосредоточено на риске и на тех, кто создает и внедряет технологию».

«ЕС в целом придерживается более активного подхода к таким вопросам, - добавил Шипкевич. - Их законы требуют, чтобы разработчики искусственного интеллекта заранее показывали, что они соблюдают правила безопасности и прозрачности».

Необходимы четкие стандарты

Законопроект Ламмис, вероятно, потребует некоторых изменений, прежде чем он будет принят в качестве закона (если вообще когда-либо будет принят).

«Я положительно отношусь к закону RISE, поскольку этот предлагаемый законопроект рассматривается как отправная точка, - сказал Шипкевич. - В конце концов, разумно обеспечить некоторую защиту разработчикам, которые не проявляют халатности и не имеют никакого контроля над тем, как их модели используются в дальнейшем. Если этот законопроект будет доработан и включит реальные требования к прозрачности и обязательства по управлению рисками, это может заложить основу для сбалансированного подхода».

По словам Джастина Буллока, вице-президента по политике в Americans for Responsible Innovation (ARI), «Закон RISE выдвигает несколько сильных идей, в том числе федеральное руководство по прозрачности, безопасную гавань с ограниченной сферой применения и четкие правила ответственности для профессиональных разработчиков искусственного интеллекта», хотя ARI и не одобрила этот закон.

Но у Буллока тоже есть опасения по поводу прозрачности и раскрытия информации, то есть обеспечения эффективности необходимых оценок прозрачности. Он сказал:

«Публикация типовых карточек без тщательного стороннего аудита и оценки рисков может создать ложное ощущение безопасности. Тем не менее, в целом, законопроект Ламмис является конструктивным первым шагом в обсуждении того, как должны выглядеть федеральные требования к прозрачности ИИ», - сказал Буллок.

Можно предположить, что законопроект будет принят и вступит в силу с 1 декабря 2025 года.

Подписывайся на наш Telegram канал. Не трать время на мониторинг новостей. Только срочные и важные новости

https://t.me/block_chain24