Человек и роботы: как в России ищут правовые границы для ИИ

Роботы и алгоритмы искусственного интеллекта становятся всё более самостоятельными участниками нашей жизни. Вместе с новыми возможностями возникает и принципиально важный вопрос: как законодательно оформить ответственность за действия интеллектуальных систем? В России обсуждаются базовые нормы регулирования взаимодействия человека и искусственного интеллекта. Подробнее – в материале «Сферы».
Время прочтения: 5 минут

О необходимости разработать базовое законодательство, регулирующее «взаимоотношения» робота и человека заявил председатель Госдумы Вячеслав Володин. Он отметил, что это не только поможет развитию новых технологий, но и создаст в России условия для реализации потенциала изобретателей со всего мира. 

Эксперты единодушны: сейчас законодательство в этой сфере требует четкого определения базовых понятий. Основатель «Юнисофт» Алексей Оносов подчеркивает необходимость юридического закрепления термина «робот» с учетом его самостоятельности, степени влияния на человека и наличия искусственного интеллекта.

Руководитель алтайского отделения Независимого Профсоюза «Новый Труд» Владимир Пикалов в комментарии «Сфере» дополнил, что правовое поле должно включать четкие определения «искусственного интеллекта» и «автономной системы».

Предприниматель Кирилл Сагитов акцентирует важность дифференцированного подхода: требования к промышленным роботам должны отличаться от норм для ИИ в таких сферах, как медицина или юриспруденция.

Дискуссию вызывает и вопрос разгранияения ответственности. Алексей Оносов ставит проблему на примере робота-курьера: кто отвечает за инцидент — производитель, разработчик ПО или эксплуатирующая компания?

Эксперты, опрошенные нашим изданием, полагают, что эффективное регулирование требует классификации роботов по уровням самостоятельности — от промышленных машин до сложных ИИ-систем. Без такой градации, утвержденных терминов и механизмов ответственности законодательство станет не рабочим инструментом, а барьером для развития отрасли.

Ключевые аспекты

По мнению Алексей Оносова, законодательство о роботах с ИИ должно включать несколько ключевых аспектов. 

  1. Защита данных: роботы собирают огромные объемы информации, поэтому необходимо обеспечить ее защиту по аналогии с нормами о персональных данных. 
  2. Лицензирование и сертификация: обязательны для роботов, работающих в социально значимых сферах — медицине, транспорте и других областях, где ошибки могут привести к серьезным последствиям.
  3. Авторское право: требуется четкое регулирование прав на продукты, созданные ИИ. Например, если нейросеть разрабатывает дизайн упаковки, нужно определить, кому принадлежат права — разработчику алгоритма, оператору, заказчику или самому ИИ. 
  4. Трудовое законодательство: необходимы нормы, регулирующие замену людей роботами, чтобы минимизировать социальную напряжённость и защитить права работников.

«Автоматизация рабочих мест — еще один важный момент, который нельзя игнорировать. Необходимо предусмотреть меры по защите прав работников в условиях автоматизации производства и внедрения роботов. Важно обеспечить переквалификацию и переобучение сотрудников, потерявших работу из-за автоматизации», – добавляет Владимир Пикалов.

Основатель и управляющий партнер ГК «РосКо» Алена Яковлева отмечает, что разработчики инновационных технологий нередко сталкиваются с правовыми барьерами и непониманием законодательства стран, где внедряют свои решения.

«Эта проблема требует законодательных решений. В сфере взаимодействия человека с ИИ и робототехникой ключевыми приоритетами должны стать стимулирование разработки и внедрения новых технологий, а также обеспечение безопасности отрасли», – считает спикер.

Грамотное регулирование доверенных технологий способно дать мощный импульс экономическому росту страны, повысить благосостояние граждан и укрепить национальную безопасность. Кроме того, это создаст предпосылки для усиления глобальной конкурентоспособности государства в сфере искусственного интеллекта.

Вопрос этики и прав роботов

Этика искусственного интеллекта, считает Алексей Оносов, должна быть выделена в отдельный правовой блок с запретом алгоритмов, нарушающих права человека, манипулирующих сознанием или допускающих дискриминацию.

Также особое внимание следует уделить ситуациям, когда автономные системы принимают решения, противоречащие человеческим моральным нормам, или когда ИИ в процессе самообучения выходит за рамки запрограммированных алгоритмов.

По мнению Владимира Пикалова, предстоит решить вопрос о правах роботов. И он должен рассматриваться через призму обязанностей и ограничений для ИИ.

«Роботы в опасных условиях должны быть оснащены защитными механизмами, а те, что взаимодействуют с людьми, — соблюдать этические нормы, включая уважение приватности и запрет на вмешательство в личную жизнь», — замечает эксперт.

Чем чревато отсутствия регулирования?

  1. Юридический хаос и угрозы безопасности:
  • неопределенность ответственности при авариях и ошибках роботов;
  • риск появления мошеннических ИИ-систем и роботов;
  • возможность манипуляции сознанием через алгоритмы;
  • угроза создания опасных автономных систем (оружие, слежка).
  1. Экономические и социальные последствия:
  • сдерживание инвестиций из-за правовой неопределенности;
  • риск массовой безработицы из-за автоматизации;
  • отсутствие механизмов защиты работников (компенсации, переобучение);
  • утечка кадров в страны с более либеральным регулированием.
  1. Технологические риски:
  • уязвимость к кибератакам и взломам;
  • проблемы с совместимостью международных стандартов;
  • ограничения на экспорт технологий из-за регуляторных противоречий.

«Все это далеко не полный список потенциальных проблем. Риски обусловлены высокой степенью автономности ИИ-систем, невосприимчивостью роботов к этическим и правовым нормам при решении конкретных задач. Создать действенный правовой механизм, который был бы универсальным или учитывал все вышеуказанные факторы, крайне сложно»,  объясняет Алена Яколева.

Стоит также отметить, что в России существуют законодательные нормы, которое учитывают применение ИИ-технологий. И тут появяется риск правовых коллизий между действующими и предлагаемыми нормами. 

Роботизация и ИИ – это реальность, которая меняет мировую экономику. Законодательное регулирование в этой сфере неизбежно, вопрос лишь в том, каким оно будет.




 

Изображение создано Freepik, www.freepik.com

Рекомендуем

Статья

Адвокатский статус и первые дела об увольнении из-за ИИ: главные новости уходящей недели

Депутаты хотят запретить передачу долгов коллекторам без согласия заемщиков. Минюст предлагает сделать адвокатский статус обязательным для судебных представителей. Суд рассмотрит дело об увольнении сотрудника из-за внедрения искусственного интеллекта. Главные новости уходящей недели «Сфера» собрала в традиционном дайджесте.

Статья

Юрист будущего: какие навыки нужны уже сегодня

Искусственный интеллект, LegalTech, цифровизация процессов — это не далекое будущее, а реальность, в которой мы уже живем. На Петербургском международном юридическом форуме (ПМЮФ-2025) эксперты единогласно заявили: профессия юриста стремительно трансформируется. Теперь недостаточно просто знать законы — нужно понимать, как их интерпретируют алгоритмы, как работают цифровые инструменты и где проходит граница между юридической логикой и машинным обучением. Но главный вопрос не в том, изменится ли профессия, а в том, кто окажется востребован в этой новой реальности. Об этом порассуждала старший юрист ООО «Аксор» Татьяна Звенигородская.

Авторский взгляд

ИИ в суде: как алгоритмы помогают адвокатам строить стратегии

В современной юридической практике активно внедряются технологии искусственного интеллекта, призванные оптимизировать работу адвокатов. В ближайшем будущем наиболее значительные трансформации ожидаются именно в сфере уголовного права, где точность анализа и эффективность стратегии защиты напрямую влияют на судьбы людей. Подробнее рассказывает сооснователь Plevako.ai, адвокат Ильхам Гусейнов.

Нужно хоть что-то написать