Значок для интеллекта: введут ли в России маркировку ИИ-контента?

В России необходимо внедрить механизм пользовательской маркировки контента, который был создан при помощи искусственного интеллекта (ИИ). Об этом заявил зампредседателя комитета по информационной политике, информационным технологиям и связи Госдумы Антон Горелкин. Как эту инициативу планируют реализовать и поможет ли это в борьбе с фейками, разбирались с экспертами «Сферы».
Время прочтения: 8 минут

Совсем недавно видеохостинг YouTube внедрил систему, которая теперь отмечает специальным символом ИИ-контент. Такой механизм зампредседателя комитета Госдумы предложил распространить на все российские онлайн-сервисы:

«При публикации видео (на YouTube, — прим.ред.) автор должен указывать, что к его созданию причастны генеративные технологии. На мой взгляд, это правильно и честно по отношению к своей аудитории. А дополнительную проверку уже можно будет производить при помощи единой платформы, к которой после её создания все российские сервисы, работающие с пользовательским контентом, должны быть подключены в обязательном порядке», — отметил Антон Горелкин в своем телеграм-канале.

Злонамеренное использование

Еще в 2022 году Совет Федерации поручил ряду ведомств, включая Минцифры, Минздрав и Минэкономики, разработать меры по защите прав граждан в рамках применения систем искусственного интеллекта (ИИ). Кроме того, в Минцифры начали создавать единую платформу по выявлению недостоверного контента, в рамках которой может производится проверка материалов на подлинность.

«Учитывая, что ИИ-инструменты с каждым днем становятся всё доступнее, не сомневаюсь, что уже на следующих выборах мы можем столкнуться с их злонамеренным использованием», — отметил Горелкин.

Стоп-факторы для интеллекта

Сейчас с помощью ИИ-технологий создаются фотографии, видео, тексты, голосовые сообщения и иного рода материалы. Не все они используются в законных целях. Поэтому вопрос о необходимости маркировки с каждым днем становится все острее. За рубежом, кстати, этой проблемой уже тоже озадачились. К примеру, в США, где сконцентрирована большая часть компаний, занимающихся ИИ-технологиями, еще в 2019 году начали вводить первые санкции.

«Тогда в штате Иллинойс работодателей обязали информировать кандидатов, если в процессе рекрутинга используется ИИ. Чуть позже этот опыт начал использоваться в Нью-Йорке. Поворотным стал 2022 год, когда администрация Джо Байдена издала законопроект, где прописан механизм взаимодействия с машинным обучением. Главная идея — защита прав пользователей и полноценное информирование о взаимодействии с ИИ», — рассказывает Андрей Наташкин, основатель и СЕО Mirey Robotics, эксперт по ИИ.

Он говорит, что в 2023 году практику маркировки ИИ контента начали активно использовать четыре крупных американских компаний — Adobe, Google, Microsoft и Digimarc.

«Интересно, что каждая компания разработала свой знак маркировки, поэтому актуализировался вопрос единого подхода», — добавляет эксперт.

Борьба с дезинформацией

По словам Андрея Наташкина, Евросоюз также начинает поднимать вопрос маркировки ИИ-контента.

«В июне 2023 года вице-президент Еврокомиссии Вера Йоурова проводит встречу с крупными технологическими компаниями. Результатом встречи стало подписание добровольного кодекса по борьбе с дезинформацией. В марте 2024 года принят Закон об искусственном интеллекте Европейского Союза. В документе прописано, что весь контент, созданный с помощью ИИ, должен быть маркирован как искусственно сгенерированный. Согласно процедуре Закон вступит в силу в начале апреля. Но на данном этапе он будет действовать лишь частично. Это время необходимо для того, чтобы компании перестроились в рамках нового подхода», — рассказывает Андрей Наташкин.

Он добавляет, что в Китае также приняли закон о необходимости использования особых маркировок в части фейковых новостей и дипфейков.

«В конце 2022 года Китай ввел обязательную маркировку любых цифровых продуктов, которые созданы искусственным интеллектом. Сюда попали — текстовый контент, изображения и аудиофайлы. Органом, регулирующим данную деятельность, является Государственная канцелярия интернет-информации КНР», — отмечает эксперт.

В ловких руках

Эксперты уверены, что скоро и в России начнут отмечать специальным значком то, что создано машиной. Это должно помочь в борьбе с фейками, ведь киберпреступники уже вовсю используют возможности ИИ-контента.

И тут дело касается, как введения в заблуждение частных лиц, так и бизнеса. В этом году участились случаи мошеннических схем, которые при помощи голосовых данных и фейковых аккаунтов пытались выманивать средства граждан. Кроме того, ненастоящие видео и фотографии могут быть использованы в качестве «уток» в СМИ, чтобы спровоцировать общественный резонанс.

Из-за этого пользователи в ближайшем будущем все больше будут терять доверие к тем или иным источникам информации. И тут логично встает риторический вопрос: «А поможет ли маркировка контента в борьбе с фейками?» Потому что преступникам ничего не будет стоить распространять информацию без специальной отметки, чтобы еще больше запудрить людям головы.

«Введение маркировки ИИ-контента может иметь как положительные, так и отрицательные последствия в борьбе с дипфейками — поддельным контентом, созданным с использованием ИИ. С одной стороны, маркировка может помочь идентифицировать и предупреждать о наличии дипфейков, предоставляя пользователям информацию о том, что контент был создан искусственным интеллектом. Однако недобросовестные пользователи могут использовать это для своих целей, не маркируя созданный ими контент, чтобы обмануть пользователей и выдать его за реальный», — рассказывает Сергей Боровинских, основатель юридического бутика Сергея Боровинских, специализирующего на юридическом сопровождении IT и Digital бизнеса.

Эксперт считает, что введение маркировки ИИ-контента имеет свои преимущества и вызовы в борьбе с дипфейками.

«Несмотря на это, ее эффективность будет зависеть от тщательной разработки и реализации соответствующих систем маркировки, а также от динамичного развития технологий и методов обнаружения поддельного контента. Это потребует принятия комплексных мер, как на уровне законодательства, так и на уровне разработки и внедрения соответствующих инструментов и практик обнаружения и борьбы с дипфейками», - уточняет Сергей Боровинских.

Открытые вопросы 

 «Если будут введены требования о маркировке контента, созданного ИИ, то такой подход традиционно ударит только по сегменту легальных сервисов и СМИ, увеличит нагрузку на таких игроков и контролирующие органы (РКН), а также посеет еще больше сложностей в судебных спорах и увеличит число спорных дел, в том числе имеющих политический аспект», - рассказывает Дарья Большакова, директор юридического департамента «Студия Кириллица (CYRILLICA)».

Дарья Большакова считает, что для недобросовестных пользователей такой запрет пойдет на руку, если маркировка должны будет осуществляться «вручную», то есть по усмотрению публикатора.

«С моей точки зрения единственно возможный подход к «маркировке» ИИ-контента - это технологическая маркировка файлов контента самими провайдерами ИИ таким образом, чтобы ИИ-контент содержал аналогию «водяного знака», не подлежащего удалению пользователями сервисов ИИ. Сложно представить, что распространители дипфейков радостно начнут наносить маркировку на свои публикации», - подытоживает эксперт.

Чья ответственность?

Еще одна проблема, с которой придется столкнутся при введении маркировки, - на кого возложить ответственность за ее отсутствие? И тут, как всегда, два варианта: пользователь или онлайн-площадка, где размещена информация.

«В настоящее время регулирование пользовательского контента в интернете в России осуществляется в соответствии с Федеральным законом № 149-ФЗ "Об информации, информационных технологиях и о защите информации". Согласно этому закону, пользователи несут ответственность за размещение недостоверной или вредоносной информации в сети. Однако, площадки, на которых размещен контент, также могут быть привлечены к ответственности, если не предпринимают меры по удалению незаконного или вредоносного контента после уведомления», —  говорит Сергей Боровинских.

Кроме того, по мнению Дарьи Большаковой, дополнительная ответственность может быть предъявлена площадкам, являющимся СМИ и/или модерирующим такой контент.

«Пользователи главным образом сами несут ответственность за контент, который они создают и публикуют в сети. К настоящему времени уже накопилось множество уголовных дел за посты и репосты, размещенные на таких площадках, как, например, «Вконтакте». Ответственность может быть предъявлена по различным основаниям, например, за распространение недостоверной информации, клеветы, призывов к насилию и других противоправных действий, за распространение недостоверной информации о действиях российских военных или общественно значимой информации, признанной государственными органами недостоверной», — рассказывает Дарья Большакова.

Что с законами?

Если маркировки ИИ все-таки будут внедрены придется вносить изменения в действующее законодательство.

«Вопрос маркировки контента в интернете может быть тесно связан с законодательством о защите персональных данных, рекламе, детской информации, о СМИ и другими смежными областями.

В частности, изменения могут коснуться «Закона о информации, информационных технологиях и о защите информации», «О рекламе», «О средствах массовой информации, «О защите детей от информации, причиняющей вред их здоровью и развитию», а также могут затронуть часть четвертую ГК РФ, законодательство о персональных данных и иные законы в зависимости о того, какую политику в отношении ИИ выберут регуляторы», — уточняет Дарья Большакова.

Эксперты едины во мнении, что профсообществу еще предстоит определиться, какой контент требует маркировки, по какими критериям его маркировать и как эффективно управлять такой системой.

Рекомендуем

Статья

ИИ-мошенничество: новые санкции для преступников

Председатель комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков заявил, что использование искусственного интеллекта в телефонном мошенничестве необходимо признавать отягчающим обстоятельством при совершении преступления. Насколько целесообразна такая мера, рассказали «Сфере» эксперты.

Статья

Виртуальный следователь: помогут ли нейросети распознать маньяка

Искусственный интеллект способен не только нарисовать фоторобот за секунды, но и по чертам лица определить, может ли человек совершить преступление или нет. Вот только законно ли использование ИИ в криминалистике? Поможет ли нейросеть ускорить поимку правонарушителей и определить их личность с максимальной точностью? На эти и другие вопросы отвечают эксперты «Сферы».

Статья

Правой рукой мирового судьи может стать нейросеть

В 2023-м количество дел в административном судопроизводстве выросло втрое по сравнению с аналогичным периодом прошлого года, достигнув цифры в 1,3 млн разбирательств. В первом квартале 2024-го порог превысил отметку в 1,5 млн. А все потому, что цифровизация в мировых судах и судах общей юрисдикции происходит крайне медленно, а нагрузка только растет. Возможность использовать технологии при осуществлении делопроизводства появится только с 1 июня 2025 года. Облегчит ли это работу судьям, разбиралась «Сфера».

Нужно хоть что-то написать