ИИ под колпаком: что новый законопроект значит для бизнеса и граждан

В России разрабатывают правила игры для искусственного интеллекта. Минцифры опубликовало законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта», который должен заработать с 1 сентября 2027 года. Документ рамочный — он не прописывает каждую деталь, но впервые на законодательном уровне отвечает на вопрос: кто несёт ответственность за то, что делает нейросеть.
Время прочтения: 10 минут

Закон написан, правила — еще нет

Законопроект закрепляет базовые понятия, вводит подход, основанный на оценке рисков, и делит модели ИИ на «суверенные», «национальные» и «доверенные».

Первые две категории — системы, полностью разработанные в России гражданами РФ и обученные на отечественных данных. Доверенные — те, что прошли проверку ФСБ и Федеральной службой по техническому и экспортному контролю (ФСТЭК) и внесены в специальный реестр. Именно они станут обязательными для госсектора и объектов критической информационной инфраструктуры.

Документ также даёт гражданам возможность оспаривать решения госорганов, принятые с участием ИИ, требовать компенсацию за причинённый вред и — один из самых обсуждаемых пунктов — отказываться от обслуживания через нейросети в пользу живого специалиста. Перечень ситуаций, где такой отказ допускается, определит правительство.

Маркетолог и наставник проекта Сбера «Я в деле» Анастасия Вовк считает, что сама идея правильная, но дьявол — в реализации: «Есть сферы, где цена ошибки ИИ — не просто неудобство, а реальный ущерб. Медицинская диагностика, юридические консультации, финансовые решения — здесь человек должен иметь право потребовать переключить на специалиста».

Аналогичная норма давно работает в ЕС. Статья 22 GDPR закрепляет право не быть объектом решения, полностью принятого алгоритмом, если оно существенно влияет на жизнь человека. Российский законопроект следует той же логике.

Проблема в том, отмечают эксперты «Сферы», что в текущей редакции не описано, как это будет работать на практике. Кто, кому и в какой форме сообщает о желании отказаться? Что делать с полностью автоматизированными процессами?

Кнопка «позвать человека»

86% российских компаний уже внедряют инструменты ИИ. 46% используют его в работе с клиентами. Если каждый пользователь сможет потребовать «убрать алгоритм» из процесса, который выстраивался годами, это повлечет серьезные экономические последствия: расходы на контакт-центры вырастут непропорционально и в итоге отразятся на тарифах для всех.

Эксперт по стратегическому внедрению ИИ Александр Чибисов смотрит на это прагматично: «Бизнес даст право на общение с оператором, тем более если регулятор введет штрафы. Но, скорее всего, ждать ответа живого человека придется долго».

По его словам, большинство современных систем — мультиагентные: если базовая модель ошибается, запрос маршрутизируется на более сложную. И лишь в крайних случаях — менее 1-2% обращений — его обрабатывает человек. При этом хорошо настроенная система работает бесшовно: пользователь не замечает переключения.

Чибисов провёл историческую параллель: стремление обеспечить «человеческую альтернативу» каждому автоматизированному процессу напоминает закон эпохи первых автомобилей. Тогда перед машиной должен был идти человек и разгонять прохожих. То есть теряется смысл автоматизации. Более того, он напоминает, что в законопроекте уже заложены досудебное оспаривание решений, принятых с участием ИИ, и право на компенсацию за причиненный вред. 

Маркировка, дискриминация и «черный ящик»

Законопроект обязывает маркировать весь контент, созданный с помощью ИИ, — фото, видео, аудио. Крупные платформы с суточной аудиторией свыше 100 тысяч человек должны проверять наличие такой маркировки и при ее отсутствии либо предупреждать распространителя, либо удалять материал.

Автор и преподаватель программы «Искусственный интеллект для бизнеса» в РЭУ им. Г.В. Плеханова Егор Никитин видит в этой норме подмену понятий.

«Маркировка не решает вопрос качества. Это все равно что приехать в аэропорт, а у тебя на лбу печать "приехал на машине". Какая разница, каким способом человек добрался, если он прибыл вовремя и по делу?» — считает он.

По мнению эксперта, важно не то, каким инструментом пользовался специалист, а кто им управлял. Делить мир на «сделано человеком» и «сделано ИИ» часто бессмысленно — гораздо точнее разделение на «сделано профессионалом» и «сделано дилетантом».

Никитин также указывает на возможный побочный эффект: маркировка может привести к расслоению услуг. Все дешевое и массовое уйдет в ИИ. Все, что связано с человеком, подорожает. Само по себе это не катастрофа, но тогда нужно четко понимать, что речь идет не о защите качества, а об изменении экономики доступа к человеческому труду.

Отдельный блок — запрет на дискриминацию. Разработчиков обязывают исключить из ИИ-систем функции, которые могут дискриминировать людей по поведению или личным характеристикам.

Вовк указывает на фундаментальную проблему: «Нейросети учатся на данных. Если в обучающей выборке есть предвзятость — а она есть почти всегда, — модель ее воспроизведет. Это не баг, это особенность технологии». Кто и как будет проверять нейросети на дискриминацию, если зачастую даже создатели не могут объяснить логику «черного ящика»? Речь о том, что даже разработчики не всегда понимают, как именно ИИ принимает решения.

Впрочем, Минцифры анонсировало создание полигона для тестирования нейросистем, но детали не раскрыты.

Иностранные модели: закрыть нельзя разрешить

Самый обсуждаемый раздел законопроекта — регулирование «трансграничных технологий ИИ». Под это определение попадают ChatGPT, Claude, Gemini, DeepSeek. Сервисы с суточной аудиторией более 500 тысяч российских пользователей обяжут хранить данные на территории страны в течение трех лет. При этом работа трансграничных технологий «может быть запрещена или ограничена». Но в каких именно случаях, не уточняется.

Одновременно вводятся категории суверенных, национальных и доверенных моделей с мерами господдержки и обязательностью использования в госсекторе. По данным исследований, 90% россиян уже используют отечественные ИИ-сервисы: YandexGPT — 60%, GigaChat — 56%. Тренд задан.

Успеет ли перестроиться бизнес?

Полтора года до вступления закона в силу — формально достаточно, но на практике бизнес может не успеть перестроиться.

Согласно исследованиям, только у 26% компаний есть стратегия развития ИИ, а 43% уже сталкиваются с нехваткой специалистов.

Крупные компании, скорее всего, адаптируются к новым требованиям: у них есть ресурсы и команды. Для среднего и малого бизнеса дополнительные обязательства. Маркировка, уведомления и необходимость предлагать альтернативу могут обернуться заметным ростом издержек.

Российский законопроект задаёт базовую рамку: он впервые на уровне закона определяет, что такое ИИ и кто за него отвечает. При этом ключевые вопросы остаются открытыми — прежде всего о том, как именно будет распределяться ответственность между разработчиком, оператором, владельцем сервиса и пользователем. Конкретные механизмы и санкции в документе пока не детализированы.

В итоге многое будет зависеть от того, как эти нормы пропишут на практике и как их будут применять.

Изображение создано Freepik, www.freepik.com

Рекомендуем

Авторский взгляд

Почему ChatGPT и другие популярные сервисы не всегда подходят для серьезной практики?

Искусственный интеллект всё настойчивее заявляет о себе как о потенциальном участнике юридического рынка — формулирует выводы, выстраивает аргументы и т.д. Но как показывает практика, логический юридический анализ остаётся за пределами возможностей ИИ. Почему так происходит — рассказывают в авторской колонке для «Сферы» Егор Тайков и Игорь Гуняшов, сооснователи Plevako.ai.

Авторский взгляд

Прототип адвоката будущего: какими навыками должен обладать юрист через 5 лет

Юридическая профессия на пороге глубокой трансформации: через пять лет успешный адвокат будет сочетать в себе навыки правоведа, аналитика, технолога и коммуникатора. Каким станет юрист будущего и как сохранить этические ориентиры в эпоху автоматизации — в авторской колонке «Сферы» своим мнением делится Игорь Гуняшов, сооснователь Plevako.ai.

Статья

Искусственный интеллект вместо судьи: что делать, если приговор пишет нейросеть?

Общественная дискуссия о месте искусственного интеллекта в судебной системе стремительно набирает обороты. В центре спора — вопрос о том, допустимо ли машине участвовать в создании документов, от которых зависит человеческая судьба. Вместе с экспертами «Сфера» проанализировала, где проходят разумные пределы применения ИИ, способен ли он поддержать судью без замены его роли и какие риски возникают, когда алгоритмы приближаются к принятию ключевых решений.

Нужно хоть что-то написать