В проекте, предусматривающем создание нового ИИ, говорится, что он будет обрабатывать типовые обращения граждан, анализировать данные, готовить ответы, создавать контент для официальных сайтов, а также подбирать кандидатов на государственные должности.
Но и это еще не все. Он должен будет анализировать законопроекты на возможные ошибки. В Министерстве цифрового развития рассчитывают, что это ускорит подготовку документов и повысит эффективность работы. Необходимость внедрения ИИ для проверки законопроектов подтверждают и эксперты «Сферы».
«Автоматическая генерация и проверка формулировок нормативных актов уменьшит количество опечаток и технических неточностей. При этом алгоритмы анализируют всю действующую нормативную базу и заранее выявляют противоречия между законами, что раньше требовало громоздких межведомственных согласований. Вместо десятков встреч и правок алгоритм за считанные минуты моделирует, как изменения в одном постановлении повлияют на другие, и предлагает наиболее сбалансированный вариант. Это экономит время, сокращает бюджетные расходы и минимизирует «человеческий фактор», — отмечает Владимир Король, эксперт-брокер «Господдержка.Бизнес».
По словам эксперта, это позволит чиновникам уйти от рутинного набора текста и ручных правок и сосредоточиться на роли архитекторов решений — задавать цели, критерии и уровень допустимого риска.
«Машина же обеспечит единство правового поля и своевременное обновление норм. Грубо говоря: тот объем работы, на который требовался целый отдел, сможет реализовать всего один пользователь, умеющий писать промты для ИИ. Опять же, это не значит, что отдел расформируют — это значит, что каждый его сотрудник сможет кратно повысить эффективность», — говорит Владимир Король.
ИИ на связи
Проект предусматривает ещё один важный аспект: нейросеть начнёт обрабатывать обращения граждан. Но при этом ей будет запрещено прогнозировать социально-экономические процессы и работать с данными, относящимися к государственной тайне.
Екатерина Тытюк, старший юрист юридической фирмы Nextons, руководитель направления развития ИИ, приводит в пример опыт США, где используется ИИ-система ответов на запросы горожан. Это позволило увеличить скорость получения ответов на 30%. В Китае внедренная на всех этапах судопроизводства система алгоритмов позволила сократить время подготовки документов с одного часа до менее 5 минут. При этом Екатерина Тытюк отмечает ряд нюансов в использовании нейросетей.
«С правовой точки зрения можно выделить несколько ключевых моментов. Первый — это данные, на основании которых будет обучаться ИИ. Для того, чтобы система выдавала корректный результат, данные должны быть «очищенными», то есть не содержать некорректных с правовой точки зрения подходов. апример, известны случаи, когда ИИ-системы выдавали дискриминирующие результаты для отдельных слоёв населения, так как были обучены на соответствующих массивах данных», — рассказывает она.
Ещё один важный момент — обучение ИИ на основе персональных данных, что требует согласия субъекта этих данных.
«При этом не исключается, что в будущем законом может быть предусмотрено исключение для обучения государственных нейросетей без получения согласия. Законодательством о персональных данных предусмотрен запрет на принятие решений, порождающих юридические последствия в отношении субъекта персональных данных или иным образом затрагивающих его права и законные интересы, на основании исключительно автоматизированной обработки персональных данных», — поясняет Екатерина Тытюк.
Нейронные галлюцинации
Некоторые опасения в работе ИИ на государственном уровне видит и Наталья Тарасова, эксперт в сфере правового регулирования нейронных сетей и технологий искусственного интеллекта.
«Генеративные модели ИИ склонны к так называемым галлюцинациям — генерации некорректной или вымышленной информации. Это может привести к ошибочным решениям, нарушению процедур и ухудшению качества документов, что особенно опасно в сфере права и юриспруденции», — считает Наталья Тарасова.
Она также подчёркивает, что ИИ не несёт юридической ответственности за допущенные ошибки или неверные решения.
«Информацию должны будут перепроверять специалисты, что приведет к «двойной работе» и увеличит временные затраты на выполнение поставленных задач. Внедрение ИИ требует использования больших объемов данных, включая государственные и личные, что повышает риски утечек и нарушений безопасности», — отмечает она.
Иванов против Петрова
О том, что ИИ может генерировать недостоверную информацию, говорит Игорь Гуняшов, сооснователь «Plevako.ai». В комментарии «Сфере» он заявил, что публичные ИИ-системы типа ChatGPT не подойдут для юридической работы. Они могут сгенерировать вымышленные судебные прецеденты и законодательные акты.
«ChatGPT может сослаться на несуществующее дело «Иванов против Петрова» или выдумать статью закона, которой не существует. Необходима серьезная техническая работа по обучению моделей», — считает Игорь Гуняшов.
Эксперт видит риски и в автоматизации работы с обращениями граждан при помощи ИИ.
«Например, родитель подает стандартное заявление о зачислении ребенка в школу, но упоминает, что ребенок имеет редкое заболевание и нуждается в особых условиях обучения. ИИ может отправить типовой ответ о порядке подачи документов и сроках зачисления, не обратив внимания на медицинские особенности, которые требуют координации с медицинскими специалистами», — продолжает он.
Гибрид человека и машины
Несмотря на все нюансы и сложности работы ИИ в системе госуправления, преимуществ окажется значительно больше.
«Итог всех этих действий можно сформулировать как смену эпохи: вместо привыкшего к опеке сверху патернализму, приходит новая модель — гибрид «человека и машины», где интеллект нейросети решает проблему кадрового дефицита и невостребованности госслужбы, а экспертный надзор гарантирует качество и прозрачность принятия решений. И я абсолютно уверен в том, что эта фундаментальная работа — ключевая точка в истории цифровой трансформации нашего государства», — рассказывает Владимир Король.
При этом большинство экспертов, опрошенных «Сферой» в выводах сдержаннее. Он говорят, что нейросеть может стать отличным консультативным инструментом, но вот окончательные решения должны все-таки оставаться за человеком. Только гибридный подход поможет минимизировать ошибки.
Изображение создано Freepik, www.freepik.com