Человек и роботы: как в России ищут правовые границы для ИИ

Роботы и алгоритмы искусственного интеллекта становятся всё более самостоятельными участниками нашей жизни. Вместе с новыми возможностями возникает и принципиально важный вопрос: как законодательно оформить ответственность за действия интеллектуальных систем? В России обсуждаются базовые нормы регулирования взаимодействия человека и искусственного интеллекта. Подробнее – в материале «Сферы».
Время прочтения: 5 минут

О необходимости разработать базовое законодательство, регулирующее «взаимоотношения» робота и человека заявил председатель Госдумы Вячеслав Володин. Он отметил, что это не только поможет развитию новых технологий, но и создаст в России условия для реализации потенциала изобретателей со всего мира. 

Эксперты единодушны: сейчас законодательство в этой сфере требует четкого определения базовых понятий. Основатель «Юнисофт» Алексей Оносов подчеркивает необходимость юридического закрепления термина «робот» с учетом его самостоятельности, степени влияния на человека и наличия искусственного интеллекта.

Руководитель алтайского отделения Независимого Профсоюза «Новый Труд» Владимир Пикалов в комментарии «Сфере» дополнил, что правовое поле должно включать четкие определения «искусственного интеллекта» и «автономной системы».

Предприниматель Кирилл Сагитов акцентирует важность дифференцированного подхода: требования к промышленным роботам должны отличаться от норм для ИИ в таких сферах, как медицина или юриспруденция.

Дискуссию вызывает и вопрос разгранияения ответственности. Алексей Оносов ставит проблему на примере робота-курьера: кто отвечает за инцидент — производитель, разработчик ПО или эксплуатирующая компания?

Эксперты, опрошенные нашим изданием, полагают, что эффективное регулирование требует классификации роботов по уровням самостоятельности — от промышленных машин до сложных ИИ-систем. Без такой градации, утвержденных терминов и механизмов ответственности законодательство станет не рабочим инструментом, а барьером для развития отрасли.

Ключевые аспекты

По мнению Алексей Оносова, законодательство о роботах с ИИ должно включать несколько ключевых аспектов. 

  1. Защита данных: роботы собирают огромные объемы информации, поэтому необходимо обеспечить ее защиту по аналогии с нормами о персональных данных. 
  2. Лицензирование и сертификация: обязательны для роботов, работающих в социально значимых сферах — медицине, транспорте и других областях, где ошибки могут привести к серьезным последствиям.
  3. Авторское право: требуется четкое регулирование прав на продукты, созданные ИИ. Например, если нейросеть разрабатывает дизайн упаковки, нужно определить, кому принадлежат права — разработчику алгоритма, оператору, заказчику или самому ИИ. 
  4. Трудовое законодательство: необходимы нормы, регулирующие замену людей роботами, чтобы минимизировать социальную напряжённость и защитить права работников.

«Автоматизация рабочих мест — еще один важный момент, который нельзя игнорировать. Необходимо предусмотреть меры по защите прав работников в условиях автоматизации производства и внедрения роботов. Важно обеспечить переквалификацию и переобучение сотрудников, потерявших работу из-за автоматизации», – добавляет Владимир Пикалов.

Основатель и управляющий партнер ГК «РосКо» Алена Яковлева отмечает, что разработчики инновационных технологий нередко сталкиваются с правовыми барьерами и непониманием законодательства стран, где внедряют свои решения.

«Эта проблема требует законодательных решений. В сфере взаимодействия человека с ИИ и робототехникой ключевыми приоритетами должны стать стимулирование разработки и внедрения новых технологий, а также обеспечение безопасности отрасли», – считает спикер.

Грамотное регулирование доверенных технологий способно дать мощный импульс экономическому росту страны, повысить благосостояние граждан и укрепить национальную безопасность. Кроме того, это создаст предпосылки для усиления глобальной конкурентоспособности государства в сфере искусственного интеллекта.

Вопрос этики и прав роботов

Этика искусственного интеллекта, считает Алексей Оносов, должна быть выделена в отдельный правовой блок с запретом алгоритмов, нарушающих права человека, манипулирующих сознанием или допускающих дискриминацию.

Также особое внимание следует уделить ситуациям, когда автономные системы принимают решения, противоречащие человеческим моральным нормам, или когда ИИ в процессе самообучения выходит за рамки запрограммированных алгоритмов.

По мнению Владимира Пикалова, предстоит решить вопрос о правах роботов. И он должен рассматриваться через призму обязанностей и ограничений для ИИ.

«Роботы в опасных условиях должны быть оснащены защитными механизмами, а те, что взаимодействуют с людьми, — соблюдать этические нормы, включая уважение приватности и запрет на вмешательство в личную жизнь», — замечает эксперт.

Чем чревато отсутствия регулирования?

  1. Юридический хаос и угрозы безопасности:
  • неопределенность ответственности при авариях и ошибках роботов;
  • риск появления мошеннических ИИ-систем и роботов;
  • возможность манипуляции сознанием через алгоритмы;
  • угроза создания опасных автономных систем (оружие, слежка).
  1. Экономические и социальные последствия:
  • сдерживание инвестиций из-за правовой неопределенности;
  • риск массовой безработицы из-за автоматизации;
  • отсутствие механизмов защиты работников (компенсации, переобучение);
  • утечка кадров в страны с более либеральным регулированием.
  1. Технологические риски:
  • уязвимость к кибератакам и взломам;
  • проблемы с совместимостью международных стандартов;
  • ограничения на экспорт технологий из-за регуляторных противоречий.

«Все это далеко не полный список потенциальных проблем. Риски обусловлены высокой степенью автономности ИИ-систем, невосприимчивостью роботов к этическим и правовым нормам при решении конкретных задач. Создать действенный правовой механизм, который был бы универсальным или учитывал все вышеуказанные факторы, крайне сложно»,  объясняет Алена Яколева.

Стоит также отметить, что в России существуют законодательные нормы, которое учитывают применение ИИ-технологий. И тут появяется риск правовых коллизий между действующими и предлагаемыми нормами. 

Роботизация и ИИ – это реальность, которая меняет мировую экономику. Законодательное регулирование в этой сфере неизбежно, вопрос лишь в том, каким оно будет.




 

Изображение создано Freepik, www.freepik.com

Рекомендуем

Авторский взгляд

Инновации в адвокатуре: как ИИ меняет практику

Искусственный интеллект стремительно меняет юридическую практику: от анализа судебных решений до автоматизации документооборота. Насколько далеко можно зайти в интеграции технологий, не потеряв сути профессии? Своим видением в авторской колонке делится сооснователь Plevako.ai, адвокат, председатель коллегии адвокатов «Бастион» Ильхам Гусейнов.

Статья

Развод по алгоритму: расторжением браков займётся нейросеть

За последние десять лет количество бракоразводных дел увеличилось в три раза: с 14 миллионов в 2014 году до 42 миллионов в 2024-м. Это значительная нагрузка на судебную систему. По официальной статистике, почти треть своего рабочего времени судьи тратят на изучение материалов дел, а две трети — на подготовку и проверку судебных решений. В профессиональной среде всё чаще обсуждают возможность использования искусственного интеллекта для помощи в делах, где можно применить стандартные процедуры — например, при разводах. Такая технология могла бы ускорить процесс и освободить специалистам время для более сложных и чувствительных ситуаций.

Статья

Личный ИИ-ассистент: как на практике нейросети упрощают работу юристов

Юрист выполняет огромный объем бумажной работы – разбор документов отнимает много времени, особенно типовых. В современном мире с эти помогают справляться нейросети. Эксперты рассказали «Сфере», как часто они обращаются за помощью к ChatGPT и какими еще приложениями ИИ пользуются.

Нужно хоть что-то написать