Мнимая объективность: приведет ли искусственный интеллект к правовой дискриминации?

Эксперты LF Академии рассказывают об опасностях, к которым может привести использование новейших технологий в правовых процедурах, и рассуждают о том, эффективно ли их применение.
Время прочтения: 9 минут

Искусственный интеллект стал неотъемлемой частью повседневной жизни, а его применение давно вызывает самые разные вопросы у юристов – как теоретиков, так и практиков. Сам термин до конца не определен и применяется к разным видам явлений, отмечают эксперты. 

«Можно сказать, что это не термин, а широко распространенное словосочетание. Обычно когда говорят об искусственном интеллекте, подразумевают, во-первых, программное обеспечение. Во-вторых, акцентируют внимание на том, что это  технология, которая предназначена для обработки информации, способна получать информацию из внешней среды, обладает некоторой автономностью или полной автономностью в зависимости от ситуации и технологии реализации заложенных алгоритмов. И, как правило, это пока факультативный признак для широкого понимания искусственного интеллекта: способность самообучаться без участия человека», – говорит советник практики по интеллектуальной собственности, информационным технологиям и телекоммуникациям Dentons Владислав Архипов. 

Главный вопрос использования искусственного интеллекта, отмечает Владислав Архипов, связан с его правосубъектностью. «Правосубъектность в контексте искусственного интеллекта и робототехники довольно одиозна, поскольку первой ассоциацией, которая приходит на ум, становится попытки обосновать возможность правосубъектности искусственного интеллекта или какого-либо робота», – говорит специалист. 

Фальшивое будущее: международный опыт (не) регулирования дипфейков

Однако, как отмечает юрист, о реальной правосубъектности задумываться рано, поскольку еще не существует достаточно сильного искусственного интеллекта. «Теория и философия права оказываются довольно практичны в контексте искусственного интеллекта. Вся логика нашей правовой системы в целом, той модели, в которой мы живем, определяется некой фундаментальной презумпцией, что субъектом права и субъектом в том числе принятия юридически значимых решений является человек, личность, которая наделена свободой, ответственностью и разумом или по крайней мере обладает свободной волей», – комментирует Владислав Архипов.  

Принятие юридически значимых решений исключительно с помощью искусственного интеллекта выглядит спорно, считает специалист. Он приводит два ключевых тезиса работ современных исследователей:

  • Искусственный интеллект «не обладает внутренней точкой зрения по вопросам, которые имеют моральное измерение». Логику искусственного интеллекта можно свести к описанию, но не пониманию внутренних мотивов и возможности разрешения спорных вопросов о человеческих ценностях;
  • Принятие юридически значимых решений предполагает, что принимающий решение должен исполнять его. «Это представляет собой некий теоретический контраргумент относительно возможности исключительно автоматизированного бессубъектного принятия юридически значимых решений. Даже если какой-то алгоритм используется в процессе принятия решений, то такого рода решения должны иметь вполне определенного реального субъекта, который отвечает за эти решения», – говорит Владислав Архипов. 

Однако, как отмечает старший научный сотрудник Международной лаборатории по праву информационных технологий и интеллектуальной собственности ВШЭ Александр Савельев, технологии искусственного интеллекта начинают все шире применяться для принятия юридически значимых решений в отношении граждан, что создает значительные возможности для дискриминации. Особенно показательным в этом отношении, считает ученый, был 2020 год – он стал беспрецедентным с точки зрения падения роли и значения права как регулятора. 

«На руинах правового регулирования, правовых ценностей возникает новый регулятор – тот самый код. Сейчас алгоритмы становятся фактически новым регулятором общественных отношений. Они начинают принимать решения о том, брать ли человека на работу или учебу, выдавать ли ему кредит, какое наказание ему назначить, связанное с лишением свободы или нет, привлечь ли его к административной ответственности. И здесь мы видим, что все больше алгоритмы начинают проникать в ту сферу, которую традиционно считалась сферой прав человека, правового регулирования и прочих высоких идей», – считает Александр Савельев.

Парадокс Пигмалиона: какое будущее ждет искусственный интеллект в сфере права?

Решения, которые применяются с помощью алгоритмов, в теории могли бы быть более объективными и эффективными. Однако практика использования алгоритмов говорит об обратных результатах. Александр Савельев отмечает, что еще в 2016 году правительство США выпустило исследование по вопросам использования big data, в котором говорилось, что сам факт принятия решений на основе анализа больших данных еще не говорит об их объективности.

В пример ученый приводит уже существующий алгоритм, определяющий платежеспособность конкретного лица. В подобном анализе, как показывает практика и различные исследования, используется в том числе информация из социальных сетей. Если в друзьях у объекта этого анализа есть люди, когда-то не вернувшие кредит, то это оказывает влияние на его рейтинг. Такая же ситуация возникает с выражением какого-либо мнения в постах или, например, использованием ненормативной лексики. «Никакой причинно-следственной связи между тем, что такого рода данные о тебе существуют в социальных сетях, и тем, что ты не возвратишь кредит, – нет. Это только предположения, но они нашли отражение в алгоритме и начинают непосредственно влиять на жизнь человека. Это дискриминация – может быть несколько непредвзятая, по неосторожности на уровне алгоритма. Но у нас есть еще данные, которые обучают соответствующую модель искусственного интеллекта, и от их качества зависит качество принимаемых решений», – говорит Александр Савельев.

Алгоритм начинает действовать по принципу «черного ящика», объясняет эксперт, если проследить за целым рядом факторов невозможно. Среди таких факторов – репрезентативность выборки, наличие возможных ошибок, вес каждого критерия и так далее. Две ипостаси черного ящика:

  • Техническая, когда невозможно проследить в ряде случаев, почему было принято то или иное решение, если речь идет, например, о технологии на основе нейросети;
  • Правовая – существующие нормы об авторском праве и ноу-хау, которые препятствуют прозрачности этих алгоритмов. В таком случае крайне трудной станет защита прав человека. 

В пример Александр Савельев приводит дело «Лумис против Висконсина». В 2013 году в американском штате Висконсин арестовали некоего Эрика Лумиса – он находился за рулем машины, которая использовалась в совершении преступления, и уклонялся от требований полиции. При определении наказания Лумису судья ориентировался на рисковый рейтинг, который был присвоен осужденному специальной системой COMPAS. Эта система обрабатывает данные анкеты, состоящей из 137 пунктов, на основании полученных результатов определяет риски повторения преступления осужденным и предлагает определенное наказание. В числе других критериев, задействованных в расчете рейтинга, – расовая принадлежность, пол, место жительства и другие подобные категории. Лумису было назначено максимальное наказание, это решение он обжаловал в Верховном суде штата. «В данном случае Верховный суд штата Висконсин сказал, что нарушения как бы нет – судья сам принимал решение. И огромную значимость сыграл тот факт, что этот судья сказал «я бы все равно принял такое же решение даже без этой системы». Тем не менее, Верховный суд признал опасность применения такого рода систем и призвал использовать ряд дисклеймеров относительно возможной необъективности. Это хорошая иллюстрация того, что системы алгоритмического принятия решений проникают уже в те сферы, которые нам казались фактически незыблемыми для какой-то исключительно правовой процедуры», – объясняет Александр Савельев. 

Можно ли найти баланс в использовании искусственного интеллекта, какие решения предлагают юристы для охраны произведений, созданных машиной, и заменят ли юристов роботы – об этом рассказывают эксперты в дискуссионной сессии «Цифровая медиасреда: от интеллектуальной собственности до искусственного интеллекта» на площадке Legal Academy.

Развитие искусственного интеллекта и его правовое регулирование станут одними из ключевых тем трека «Smart-общество» на «ПМЮФ 9 ¾: вакцинация правом». Форум пройдет в онлайн-формате с 18 по 22 мая, программа и регистрация доступны на официальном сайте ПМЮФ.

Источник изображения: rawpixel.com - www.freepik.com

Рекомендуем

Статья

Судьба в руках машины: на пути к роботу-судье

Искусственный интеллект (ИИ) сократил время судей на подготовку к процессу на 84%. Всего за два месяца его использования было рассмотрено более 600 дел по взысканию долгов по налогам. Такая статистика была озвучена на одном из юридических форумов в Петербурге. Пока ИИ применяют в процессах, не требующих исключительно человеческого вмешательства. Но остается открытым вопрос: можно ли в будущем разрешить «роботу» вершить судьбы людей?

Статья

Адвокат по робоэтике — модный тренд или профессия будущего?

В век новых технологий и искусственного интеллекта идеи о том, что роботы могут заменить людей на рабочих местах, не представляются совершенно фантастическими. Роботизированные системы стали частью нашей жизни. Процесс «экологичного» внедрения таких систем в общество — и есть робоэтика.

Статья

Нормативное регулирование искусственного интеллекта. Круглый стол Legal Academy

Уместно ли использование искусственного интеллекта в судопроизводстве, какие области ИИ нуждаются в правовом регулировании и что необходимо взять за основу при разработке поправок — эти и другие вопросы обсудят эксперты.

Нужно хоть что-то написать