Закон написан, правила — еще нет
Законопроект закрепляет базовые понятия, вводит подход, основанный на оценке рисков, и делит модели ИИ на «суверенные», «национальные» и «доверенные».
Первые две категории — системы, полностью разработанные в России гражданами РФ и обученные на отечественных данных. Доверенные — те, что прошли проверку ФСБ и Федеральной службой по техническому и экспортному контролю (ФСТЭК) и внесены в специальный реестр. Именно они станут обязательными для госсектора и объектов критической информационной инфраструктуры.
Документ также даёт гражданам возможность оспаривать решения госорганов, принятые с участием ИИ, требовать компенсацию за причинённый вред и — один из самых обсуждаемых пунктов — отказываться от обслуживания через нейросети в пользу живого специалиста. Перечень ситуаций, где такой отказ допускается, определит правительство.
Маркетолог и наставник проекта Сбера «Я в деле» Анастасия Вовк считает, что сама идея правильная, но дьявол — в реализации: «Есть сферы, где цена ошибки ИИ — не просто неудобство, а реальный ущерб. Медицинская диагностика, юридические консультации, финансовые решения — здесь человек должен иметь право потребовать переключить на специалиста».
Аналогичная норма давно работает в ЕС. Статья 22 GDPR закрепляет право не быть объектом решения, полностью принятого алгоритмом, если оно существенно влияет на жизнь человека. Российский законопроект следует той же логике.
Проблема в том, отмечают эксперты «Сферы», что в текущей редакции не описано, как это будет работать на практике. Кто, кому и в какой форме сообщает о желании отказаться? Что делать с полностью автоматизированными процессами?
Кнопка «позвать человека»
86% российских компаний уже внедряют инструменты ИИ. 46% используют его в работе с клиентами. Если каждый пользователь сможет потребовать «убрать алгоритм» из процесса, который выстраивался годами, это повлечет серьезные экономические последствия: расходы на контакт-центры вырастут непропорционально и в итоге отразятся на тарифах для всех.
Эксперт по стратегическому внедрению ИИ Александр Чибисов смотрит на это прагматично: «Бизнес даст право на общение с оператором, тем более если регулятор введет штрафы. Но, скорее всего, ждать ответа живого человека придется долго».
По его словам, большинство современных систем — мультиагентные: если базовая модель ошибается, запрос маршрутизируется на более сложную. И лишь в крайних случаях — менее 1-2% обращений — его обрабатывает человек. При этом хорошо настроенная система работает бесшовно: пользователь не замечает переключения.
Чибисов провёл историческую параллель: стремление обеспечить «человеческую альтернативу» каждому автоматизированному процессу напоминает закон эпохи первых автомобилей. Тогда перед машиной должен был идти человек и разгонять прохожих. То есть теряется смысл автоматизации. Более того, он напоминает, что в законопроекте уже заложены досудебное оспаривание решений, принятых с участием ИИ, и право на компенсацию за причиненный вред.
Маркировка, дискриминация и «черный ящик»
Законопроект обязывает маркировать весь контент, созданный с помощью ИИ, — фото, видео, аудио. Крупные платформы с суточной аудиторией свыше 100 тысяч человек должны проверять наличие такой маркировки и при ее отсутствии либо предупреждать распространителя, либо удалять материал.
Автор и преподаватель программы «Искусственный интеллект для бизнеса» в РЭУ им. Г.В. Плеханова Егор Никитин видит в этой норме подмену понятий.
«Маркировка не решает вопрос качества. Это все равно что приехать в аэропорт, а у тебя на лбу печать "приехал на машине". Какая разница, каким способом человек добрался, если он прибыл вовремя и по делу?» — считает он.
По мнению эксперта, важно не то, каким инструментом пользовался специалист, а кто им управлял. Делить мир на «сделано человеком» и «сделано ИИ» часто бессмысленно — гораздо точнее разделение на «сделано профессионалом» и «сделано дилетантом».
Никитин также указывает на возможный побочный эффект: маркировка может привести к расслоению услуг. Все дешевое и массовое уйдет в ИИ. Все, что связано с человеком, подорожает. Само по себе это не катастрофа, но тогда нужно четко понимать, что речь идет не о защите качества, а об изменении экономики доступа к человеческому труду.
Отдельный блок — запрет на дискриминацию. Разработчиков обязывают исключить из ИИ-систем функции, которые могут дискриминировать людей по поведению или личным характеристикам.
Вовк указывает на фундаментальную проблему: «Нейросети учатся на данных. Если в обучающей выборке есть предвзятость — а она есть почти всегда, — модель ее воспроизведет. Это не баг, это особенность технологии». Кто и как будет проверять нейросети на дискриминацию, если зачастую даже создатели не могут объяснить логику «черного ящика»? Речь о том, что даже разработчики не всегда понимают, как именно ИИ принимает решения.
Впрочем, Минцифры анонсировало создание полигона для тестирования нейросистем, но детали не раскрыты.
Иностранные модели: закрыть нельзя разрешить
Самый обсуждаемый раздел законопроекта — регулирование «трансграничных технологий ИИ». Под это определение попадают ChatGPT, Claude, Gemini, DeepSeek. Сервисы с суточной аудиторией более 500 тысяч российских пользователей обяжут хранить данные на территории страны в течение трех лет. При этом работа трансграничных технологий «может быть запрещена или ограничена». Но в каких именно случаях, не уточняется.
Одновременно вводятся категории суверенных, национальных и доверенных моделей с мерами господдержки и обязательностью использования в госсекторе. По данным исследований, 90% россиян уже используют отечественные ИИ-сервисы: YandexGPT — 60%, GigaChat — 56%. Тренд задан.
Успеет ли перестроиться бизнес?
Полтора года до вступления закона в силу — формально достаточно, но на практике бизнес может не успеть перестроиться.
Согласно исследованиям, только у 26% компаний есть стратегия развития ИИ, а 43% уже сталкиваются с нехваткой специалистов.
Крупные компании, скорее всего, адаптируются к новым требованиям: у них есть ресурсы и команды. Для среднего и малого бизнеса дополнительные обязательства. Маркировка, уведомления и необходимость предлагать альтернативу могут обернуться заметным ростом издержек.
Российский законопроект задаёт базовую рамку: он впервые на уровне закона определяет, что такое ИИ и кто за него отвечает. При этом ключевые вопросы остаются открытыми — прежде всего о том, как именно будет распределяться ответственность между разработчиком, оператором, владельцем сервиса и пользователем. Конкретные механизмы и санкции в документе пока не детализированы.
В итоге многое будет зависеть от того, как эти нормы пропишут на практике и как их будут применять.
Изображение создано Freepik, www.freepik.com