Почему ChatGPT и другие популярные сервисы не всегда подходят для серьезной практики?

Искусственный интеллект всё настойчивее заявляет о себе как о потенциальном участнике юридического рынка — формулирует выводы, выстраивает аргументы и т.д. Но как показывает практика, логический юридический анализ остаётся за пределами возможностей ИИ. Почему так происходит — рассказывают в авторской колонке для «Сферы» Егор Тайков и Игорь Гуняшов, сооснователи Plevako.ai.
Время прочтения: 5 минут

Видимость логики вместо осмысления

Алгоритм не «понимает». Он «угадывает». Каждое слово, которое вы видите на экране, — результат статистического подбора следующей комбинации символов, а не осмысления обстоятельств и логики  дела. Модель не различает, где в тексте — установленный факт, где — доказательство, где — показания свидетелей, а где — квалифицирующий признак состава преступления. Для нее все это — просто слова в определенной последовательности. Фабула, как внутренняя модель реальности, отсутствует. Модель не «держит» контекст, не проверяет противоречия, не строит причинно-следственные связи. LLM всего лишь продолжает текст так, чтобы он казался подходящим.   

Именно поэтому самые опасные ошибки ИИ — не глупые, а изощренные. Это ответы, которые звучат безупречно, но основаны на фальшивой логике. Юрист, доверившись такому выводу, рискует не только проиграть дело, но и подорвать свою профессиональную репутацию.

Работа с системой права — это цепочка рассуждений, где каждый шаг должен быть обоснован, проверяем и воспроизводим. А универсальный ИИ предлагает лишь имитацию этого процесса.

Алгоритмы и шаблоны vs критический подход

Еще беспокойнее становится, когда мы переходим в сферу уголовного права. Там, где определяется свобода человека, любая ошибка или предвзятость могут обернуться тяжелыми последствиями. И здесь LLM, обученные на публичных судебных корпусах, автоматически наследуют их перекосы.

Например, в России доля оправдательных приговоров давно держится ниже одного процента. Что получает модель? Огромное количество текстов, где фабула складывается в сторону обвинения. Она усваивает: «так обычно бывает». И начинает подгонять новые ситуации под этот шаблон. Альтернативные версии исчезают. Нарушения следственных действий игнорируются. Сомнения в виновности растворяются в статистической массе.  

Это не злой умысел, а работа алгоритма. Он не умеет сопротивляться доминирующей статистике и воспроизводит ее. И если основной поток данных — обвинительный, то и его выводы с большой вероятностью будут по умолчанию обвинительными. Такой ИИ не помогает справедливости — он усиливает ее искажения.

 Но главная проблема даже не в предвзятости. Она — в непрозрачности. LLM говорит: «Действие подпадает под часть 3 статьи 158 УК РФ». Но почему? На каком основании? Какие факты повлияли? Какие нормы были соотнесены? Какие аргументы были отброшены и почему? Ответа нет. Это «черный ящик». А при защите каждый вывод должен быть обоснованным и раскрываемым.  

ИИ — не замена, а усилитель

Профессионалу нужен не соавтор, а инструмент. Средство, которое помогает проверить данные, а не заменить рассуждение. Такой ИИ должен начинать не с генерации текста, а с анализа: кто, что сделал, в каком контексте, какие доказательства представлены. Затем — строить дерево возможных интерпретаций, выявлять пробелы, проверять устойчивость версий. Только после этого — предлагать вывод, при этом не подменяя человека в процессе принятия решений.  

Это и есть путь объяснимого искусственного интеллекта (XAI) — систем, которые не прячут свои рассуждения, а делают их видимыми, редактируемыми, оспариваемыми. Они не заменяют юриста. Они делают его мышление строже, а аргументы — убедительнее.  

Универсальные модели хороши для черновиков. Серьезная практика требует соответствующих инструментов: структурных и объяснимых. Именно они должны стать стандартом профессии завтрашнего дня.

 

Изображение создано Freepik, www.freepik.com

Рекомендуем

Авторский взгляд

Прототип адвоката будущего: какими навыками должен обладать юрист через 5 лет

Юридическая профессия на пороге глубокой трансформации: через пять лет успешный адвокат будет сочетать в себе навыки правоведа, аналитика, технолога и коммуникатора. Каким станет юрист будущего и как сохранить этические ориентиры в эпоху автоматизации — в авторской колонке «Сферы» своим мнением делится Игорь Гуняшов, сооснователь Plevako.ai.

Статья

ИИ по-новому: умным программам ищут определение

В Государственной Думе в ходе разработки законопроекта о регулировании искусственного интеллекта ему дали точное определение. По мнению депутатов, ИИ — любая программа или система, которая обрабатывает данные подобно разумному существу. Ей по силам создавать контент, давать прогнозы, рекомендации или принимать решения, влияющие на реальный и цифровой мир. Однако трактовка народных избранников вызвала споры в экспертном сообществе — многие сочли ее не совсем удачной.

Статья

ИИ на службе государства: заменит ли нейросеть чиновников?

Искусственный интеллект (ИИ) хотят внедрить в систему госуправления. Соответствующий проект постановления уже подготовило Министерство цифрового развития. Как возможности нейросетей могут сказаться на сфере права и юриспруденции? И поможет ли это снизить количество ошибок в документах?

Нужно хоть что-то написать