Парадокс Пигмалиона: какое будущее ждет искусственный интеллект в сфере права?

Искусственный интеллект все еще либо избегают, либо недооценивают и воспринимают исключительно как помощника. Тем не менее, роботы уже участвуют с юристами в дебатах, а о перспективе признания искусственного интеллекта субъектом права заговаривают все чаще. Как изменится юридическая среда с появлением правосубъектности у ИИ, рассуждают Елена Авакян и Виталий Кастальский.
Время прочтения: 7 минут

Нужен ли искусственный интеллект юристам?

Как считает советник адвокатского бюро и эксперт в области интеллектуального права Елена Авакян, вопрос, нужен ли юристам ИИ, уже не стоит, потому что прогресс не остановить. Программы для ЭВМ постепенно проникают в каждую сферу человеческой жизни, так что правовой среде следует признать их и максимально вовлечь в свою деятельность.

«Количество информации растет по экспоненте. Для ее простого анализа человеческого интеллекта уже недостаточно. Будучи физическими лицами, мы не способны отслеживать самостоятельно даже такую малую толику информации, как изменения законодательства, потому что изменения нарастают экспоненциально. Мы вынуждены прибегать к компьютерным программам, которые нам помогают анализировать судебную практику, изменение законодательства, нормативные акты, собирать все эти данные и принимать на их основе решения», – рассказывает Елена Авакян.  

В ответ на это кандидат юридических наук, адвокат, патентный поверенный Российской Федерации, евразийский патентный поверенный, управляющий партнер патентного бутика Виталий Кастальский обращает внимание, что пока можно говорить об ИИ как о помощнике. Однако он, скорее всего, не всегда будет просто объектом и нашей правой рукой.

ЮРИДИЧЕСКИЙ БАТТЛ: РОБОТ ОТ МЕГАФОН VS РОМАН БЕВЗЕНКО. ПМЮФ 2018

«Вся юридическая футурология в области электронной юридической личности возникнет в тот момент, когда появится первый ИИ, который задастся вопросом, что есть я и что происходит вокруг меня. То есть, когда он направит часть своей электронной мощности не вовне себя, а вовнутрь. Самообучение будет не просто поглощением новых данных и выработкой новых принципов их использования, но и анализом тех данных, которые находятся внутри самой системы, с целью идентификации своего различия с иными окружающими элементами системы», – объясняет Елена Авакян.

При этом, как считает советница адвокатского бюро, задумываться об этом стоит уже сейчас. Как только ИИ начнет себя осознавать, люди будут вынуждены учитывать новый действующий фактор – собственные интересы системы.

Как изменится право, если ИИ станет одним из его субъектов?

Многие специалисты, рассуждая о будущем, где программы для ЭВМ становятся правосубъектными, пытаются сравнить его с действиями Древнего Рима в отношении рабов. Тем не менее, по мнению Елены Авакян, здесь стоит использовать другую аналогию – институт юридических лиц.

«Долгое время теория юрлица как таковая отсутствовала, и кумпанство, товарищество были всего лишь способом объединения и распространения ответственности между физлицами. Юридические лица как отдельные элементы структуры обществом не осознавались. Когда впервые появилась эта парадигма, право изменилось очень сильно. Появились новые участники, новые субъекты, были выработаны новые отрасли права, которые мы все успешно изучаем», – напоминает Елена Авакян.  

Однако если обратиться к дальнейшей истории, то, например, в российском праве история с прокалыванием корпоративной вуали превратилась в сдирание этой вуали. Возможность ограничить ответственность участников юрлица за счет развития института субсидиарной ответственности и убытков фактически нивелировалось. Так что начался новый виток развития, когда юридическое лицо становится недостаточной защитой и анонимизацией для конкретных физлиц, отмечает Елена Авакян. «Мы вновь через систему ответственности начинаем так или иначе возвращаться к физлицам, контролирующим юрлиц. Я думаю, что с ИИ эта история повторится вновь, потому что человечество всегда склонно искать виновного. Вряд ли люди, по крайней мере, на памяти ныне живущих, научатся перекладывать ответственность с равных себе на машины и решатся сказать, что виновным лицом может быть программа», – рассуждает юрист.

Виталий Кастальский отмечает, что вина, во всяком случае в уголовном праве, – это некое психоэмоциональное отношение лица к своему деянию. Однако программа для ЭВМ не может испытать такого состояния. Если вернуться к уже упомянутой аналогии, считает Елена Авакян, то юрлица могут нести ответственность, однако они не считаются виновными. Виновными могут быть физлица, управляющие юридическим лицом. В ближайшее время, вероятно, с ИИ право пойдет примерно по той же дороге. Однако юристы уже сейчас прогнозируют сложности с определением виновного в случае ошибки, сделанной программой для ЭВМ.

Виновен ли робот и как его за это наказать?

«Я это называю парадоксом Пигмалиона. Мы будем вынуждены решить задачу: вот у нас есть ИИ, и ответь, прекрасный портрет, на трудный вопрос – ваятель изваял деву, портной сшил на нее платье, говорун разговорил. Кому эта дева принадлежит?», – приводит еще одно сравнение юрист. Этот пример, объясняет она, можно по аналогии применить и к искусственному интеллекту: есть тот, кто разработал ИИ, тот, кто предоставил вычислительные мощности, и тот, кто в ИИ заложил данные, то есть обучил. Одним из парадоксов искусственного интеллекта является его зависимость от порядка, в котором в него загружают данные.

«Когда мы воспитываем ребенка, неразвитость его мозга задает те границы, в рамках которых мы закладываем в него информацию. Но даже когда мы воспитываем собственных детей, мы далеко не всегда знаем, какое событие в жизни, какой элемент информации, какое слово в нем отзовется и как», – говорит Елена Авакян.

В итоге, когда придется искать виновного в совершенной системой ошибке, возникнет тот самый парадокс Пигмалиона – и вопрос распределения ответственности. Ответов на него может быть множество: от изъянов самого алгоритма до загрузки неверных данных.

Однако даже если когда-нибудь искусственный интеллект станет восприниматься как субъект, он все равно будет не полностью дееспособным. Ответственность за него понесут не только разработчики, но и заказчики или владельцы.  

По мнению Виталия Кастальского, решить эту правовую дилемму и вправду будет тяжело. Однако есть один важный плюс – правосубъектность искусственного интеллекта все еще зависит от человека.

О том, может ли профессионального судью заменить программа для ЭВМ при осуществлении правосудия, – в открытом диалоге Елены Авакян и Виталия Кастальского.

Больше материалов о технологиях в юридической сфере:

 

Источник изображения: macrovector

Рекомендуем

Статья

Значок для интеллекта: введут ли в России маркировку ИИ-контента?

В России необходимо внедрить механизм пользовательской маркировки контента, который был создан при помощи искусственного интеллекта (ИИ). Об этом заявил зампредседателя комитета по информационной политике, информационным технологиям и связи Госдумы Антон Горелкин. Как эту инициативу планируют реализовать и поможет ли это в борьбе с фейками, разбирались с экспертами «Сферы».

Статья

Видеоконтент и борьба за таланты: новые тренды в юридическом маркетинге 2024 года

Внимание к трендам характерно почти для всех ниш экспертности. Мир меняется очень быстро: то, что было популярно и актуально год назад, сейчас уже может не работать. Директор по маркетингу и развитию бизнеса МЗС Светлана Лашук в рамках вебинара на площадке Legal Academy рассказала о популярных трендах в юридическом маркетинге на 2024 год.

Статья

Будущее ближе, чем кажется: ИИ как инструмент в юридическом маркетинге

Искусственный интеллект с каждым годом все сильнее проникает в различные сферы общества. Юридический маркетинг не стал исключением. Может ли ИИ помочь специалистам в работе и какие инструменты лучше использовать, рассказала директор по маркетингу и развитию юридической фирмы Светлана Лашук в рамках вебинара на площадке Legal Academy.

Нужно хоть что-то написать