Русская редакция

Эксперт: Опасность искусственного интеллекта в том, что он может начать действовать автономно

21.11.2023 14:15
Германия, Франция и Италия договорились по вопросу правового регулирования сектора искусственного интеллекта. Из соглашения, принятого этими странами, следует, что нормы должны касаться как больших, так и малых субъектов.
Аудио
  • Правовой аспект искусственного интеллекта
.
Иллюстрация. Фото: NicoElNino/shutterstock

Президент США Джо Байден, подписывая первое распоряжение по вопросу искусственного интеллекта, заявил, что в этой сфере существует немало проблем. Одной из них является то, что он может быть использован для создания поддельного контента и дезинформации. Это самая большая угроза со стороны искусственного интеллекта? Этот вопрос Польское Радио адресовало Мирославу Гумуляжу, юристу, специализирующемуся на праве новых технологий, преподавателю университета WSB Merito.

Угроз очень много. Искусственный интеллект или подобные ему системы связаны с определенной автономией. Проблема в том, что автономия предполагает, что тот, кто создает такого рода программное обеспечение и учит или питает данными алгоритмы, очень часто не может предвидеть последствий работы этой системы. Кроме того, что могут появиться способы сознательно плохого её использования, подчеркивается, что главная опасность заключается в том, что мы часто можем привнести некоторые риски, не осознавая этого. То есть мы можем не знать, каковы будут последствия работы такого типа механизмов.

Мирослав Гумуляж поясняет, что самая большая проблема – это не т.н. плохой человек, который может использовать систему в плохих целях, а то, что искусственный интеллект может начать действовать самостоятельно, автономно.

Возможна ситуация, когда сама разработка программного обеспечения не учитывает этического аспекта и непреднамеренно и неосознанно может привести к риску. Мы предполагаем не только такие сценарии, когда кто-то сознательно конструирует механизм таким образом, чтобы он причинял вред, но и сценарии, когда мы не контролируем результат и делаем это неосознанно. Дискуссия в Соединенных Штатах на тему правового урегулирования искусственного интеллекта касается также того, имеет ли смысл именно юридическое регулирование. Может быть, сфера искусственного интеллекта должны регулироваться системой страховок? Мы не в состоянии устранить определенные риски, поэтому – как вариант – производители должны страховаться на случай возникновения каких-то ситуаций и негативных последствий.

Из соглашения, которое подписали Германия, Франция и Италия по вопросу правового регулирования сектора искусственного интеллекта, следует, что, по крайней мере, на первых порах не предусмотрены никакие санкции для лиц и субъектов, создающих искусственный интеллект, даже если окажется, что он используется во вред. Речь идет – пока что – о т.н. кодексах доброй практики, говорит эксперт.

Вообще правовое регулирование новых технологий в настоящее время больше направлено на отраслевое мягкое право, нежели на прямое регулирование в законодательных актах. Вероятно, речь идет также о том, чтобы не пугать технологии, чтобы компании не начали массово выезжать из Европейского союза в зоны других юрисдикций во избежание санкций. Речь идет также о такой ситуации, которая возникла при введении правил RODO (законодательство о защите персональных данных, которое действует во всех странах ЕС – ред.), когда фирмы сосредотачивались, главным образом, на том, чтобы избежать санкций, а не на том, чтобы ввести этот механизм  таким образом, чтобы он защищал физические лица. Ведь в конечном итоге речь идет о защите прав и свобод людей, которых это может коснуться.

Европейская комиссия в настоящее время работает над директивой, в которой предлагается, в частности, создание Управления по искусственному интеллекту. Комментарий эксперта по этому поводу:

Если будут введены новые правила и требования, то тогда нужно создать и новые правовые органы, которые будут эффективно обеспечивать выполнение этих требований. Известно, что без создания специализированных органов, у которых будут знания, опыт и ноу-хау в данной области, это регулирование само по себе никого не защитит. Должны создаваться публичные субъекты, которые будут обеспечивать соблюдение правил. Известно, что одиночные иски не действуют, это не будет отпугивать от нарушений; в конце концов речь идет о том, чтобы регулятор мог результативно обеспечить соблюдение правил.

Первыми в составлении правил касательно искусственного интеллекта являются американцы. В США пока что немного правил и они охватывают не так уж много ситуаций; например, одна из них, обозначать продукт, что он создан искусственным интеллектом. В Европе правил намного больше…

Если присмотреться к нормам распоряжения президента Соединенных Штатов, то там есть много ссылок на рыночные стандарты, на нормы, которые находятся еще в процессе формулировки. Мне кажется, если войдет в жизнь европейский документ AI Act, регулирующий нормы для искусственного интеллекта, то это будет самое основательное регулирование в этой сфере. Речь идет о том, чтобы, с одной стороны, обеспечить права и свободы физическим лицам, а с другой, не напугать технологические субъекты. Ведь Европа не хочет отставать, сектор искусственного интеллекта должен развиваться. Эту сферу нужно систематизировать и приспособить к требованиям цивилизации. Если мы сейчас не идентифицируем риски, которые могут появиться, и не ограничим их, то может оказаться, что будет уже поздно. Системы будут настолько автономны, что могут уйти из-под контроля, а тем более за пределы правового регулирования.

Может возникнуть ситуация, когда Европа и США урегулируют в правовом смысле сферу искусственного интеллекта, а Китай, например, нет. Мнение эксперта:

Конечно, уже сейчас видно, что часть технологических субъектов убегает из Европейского союза, и открывает свои офисы в таких местах, где нет строгих требований. Но ЕС – это огромный рынок, и мы предполагаем, как и в случае других технологических фирм, что даже те, кто покинет ЕС, рано или поздно будут здесь предоставлять свои услуги и будут вынуждены приспособиться к европейским стандартам.

PR1/ik