Нейросеть прочно вошла в обиход россиян. Сейчас Интернет настолько переполнен ИИ-контентом, что людям все сложнее отличать реальность от вымысла. Поэтому со временем назрела необходимость маркировать такую информацию. Еще в марте, обсуждая киберитоги президентских выборов, депутат Госдумы Антон Горелкин обратил внимание на то, что подобная практика уже применяется за рубежом. Ярким примером может послужить онлайн-сервис YouTube, где уже начали работать механизмы пользовательской маркировки ИИ-контента.
«При публикации видео (на YouTube, — прим.ред.) автор должен указывать, что к его созданию причастны генеративные технологии. На мой взгляд, это правильно и честно по отношению к своей аудитории. А дополнительную проверку уже можно будет производить при помощи единой платформы, к которой после её создания все российские сервисы, работающие с пользовательским контентом, должны быть подключены в обязательном порядке», — отметил Антон Горелкин.
«Сегодня в Госдуме уже ведется разработка концепции закона о маркировке контента, созданного при помощи нейросетей. В частности, изучается законодательный опыт других стран, идут консультации с экспертами, работа над формулировками базовых дефиниций» – сообщил член комитета Госдумы по информатике Антон Немкин.
Предполагается, что «фиксация» ИИ-контента в Сети будет осуществляться с помощью графических или водяных знаков. Создатели маркировки хотят сделать ее ненавязчивой, но при этом четкой и заметной глазу пользователя. «На мой взгляд, маркировка должна осуществляться при помощи графических или водяных знаков. Главное, чтобы такая маркировка была ненавязчивой, но при том четкой и заметной для любого пользователя, чтобы он понимал, какой контент перед ним и мог более тщательно его анализировать», - добавил Антон Немкин.
Поскольку ИИ-контент достаточно часто используется в деструктивных целях, то ждать всей «правды» от авторов не стоит, считает он. Поэтому инициаторы закона хотят наделить Роскомнадзор новыми полномочиями: специалисты ведомства будут проводить экспертизы для выявления «искусственного» контента, если его создатели решат не маркировать свое творение. Наказание может быть в виде принудительной маркировки, либо – полной блокировки (если контент распространяется в противоправных целях).
«Бесконтрольное распространение ИИ-сгенерированной информации может также пагубно сказаться на востребованность авторской и творческой мысли, создав кризис в этой сфере», – добавляет руководитель практики «Интеллектуальное право» ЮК «Лемчик, Крупский и Партнеры» Елена Баршай.
Гражданский кодекс гласит, что автором произведения науки, литературы или искусства признается гражданин, творческим трудом которого оно создано. На данный момент, замечает эксперт, законодательство РФ не признает в качестве автора ИИ-интеллект и на практике считает его больше сервисным инструментом обработки запроса автора-человека.
Старший юрист юридической фирмы Seven Hills Legal Валерий Суворов отмечает, что маркировка для аудио и видеоконтента, созданного не человеком, уже существует в Китае, странах Евросоюза, а в США — пока на уровне законопроекта.
.
Хоть соответствующий законопроект о маркировке ИИ-контента пока в России не представили, на сайте Национального портала в сфере искусственного интеллекта можно посмотреть материалы, связанные с этой темой.
Цель, необходимость и польза
Закон о маркировке ИИ-контента направлен на информирования потребителя, давая ему возможность оценить риски, например недостоверности информации. В практике, замечает Валерий Суворов, уже известны случаи, когда подобный контент нес ложную информацию, а также случаи использования дипфейков с целью причинить вред репутации конкретного лица или ввести в заблуждение общественность.
«Было выявлено использование полностью выдуманных данных и даже неэтичных и откровенно пошлых картинок сгенерированных ИИ в научных статьях, что подорвало доверие к научной периодике и превратилось в полноценный скандал. Пострадала от генеративного ИИ и юридическая профессия: в деле Roberto Mata v. Avianca Inc. ChatGPT привел три судебных дела в обоснование правовой позиции, которые не удалось позже найти ни процессуальному оппоненту, ни судье. Также генеративный ИИ неоднократно использовался для создания дипфейков с целью причинить вред репутации конкретного лица или ввести в заблуждение общественность. Самым громким и известным случаем, пожалуй, является дело Тейлор Свифт , появление эротических дипфейков с которой стало поводом к обстоятельному обсуждению в Конгрессе США вопросов регулирования генеративного ИИ», - подчеркивает эксперт.
Необходимость в подобном законе появилась и из-за быстроты и масштабности генерирования таких материалов, которые по своим объемам превосходят человеческие старания.
«Среди "горящих" правовых вопросов выделяются два основных: кого считать автором и на кого должна быть возложена ответственность при возникновении инцидентов? Это важно не только с точки зрения защиты авторских прав при создании произведений, но также для определения виновного при совершении противоправных действий», – добавляет управляющий RTM Group Евгений Царев.
Развитие искусственного интеллекта вызывает необходимость правового регулирования общественных отношений, связанных с применением новых технологий. Сегодня существует три подхода. ИИ нужно:
- признать как юридическое лицо;
- наделить самостоятельным статусом;
- не рассматривать в качестве самостоятельного субъекта прав.
Но и здесь необходимо учитывать много важных моментов. В первую очередь, замечает спикер, необходимо решить проблемы с нарушением авторских прав и с ответственностью за мошенничество с применением ИИ. Сейчас разрабатывается законопроект, урегулировать понятие «дипфейк» в российском законодательстве.
«Его авторы отмечают, меры защиты авторских прав и ответственность за использование технологий искусственного интеллекта должны быть определены, исходя из степени участия человека в разработке объекта», – прокомментировал Евгений Царев.
В российском суде уже есть первое дело, где представитель Фемиды признал дипфейк объектом авторского права. Детали разбирательства можно прочитать в материале «Сферы».
Директор компании «Социальный код», научный сотрудник МФТИ, исследователь искусственного интеллекта Артем Аментес считает, что правительственный закон не направлен на запрет использования ИИ, а стремится защитить и обезопасить граждан от его злонамеренного применения. Нововведения в том числе помогут и судебной системе эффективнее устанавливать степень вины участников и привлекать их к ответственности.
Недостатки
Новые требования к урегулированию закона о маркировке материалов, созданных «роботами», могут создать издержки для бизнесменов. Предпринимателям потребуется немало физических и финансовых затрат на выяснение требований для маркировки: как их соблюдать и проверять. Такие издержки делают инновации дороже и медленнее.
Старший юрист юридической фирмы Seven Hills Legal замечает, что требования о маркировке могут перевернуть восприятие потребителя на ИИ-контент с полного недоверия на «баннерную слепоту». Поэтому успешность инициативы во многом зависит от уровня осведомленности населения об особенностях контента, созданного «машинами».
Человек vs искусственный интеллект
Уже давно на слуху, что искусственный интеллект может заменить человеческий. Но многие эксперты в этом не согласны, считая такую технологию лишь помощником в выполнении простых задач. Руководитель практики «Интеллектуальное право» ЮК «Лемчик, Крупский и Партнеры» уверена, что их компании не страшны ИИ-сервисы.
Работа юриста охватывает большой спектр обязанностей: консультирование, разработку стратегий, правовой анализ, правовую охрану и защиту, а также правовую обвязку сделок. На практике живой специалист способен мыслить и действовать по ситуации и неординарно, тогда как ИИ выдает лишь изложение результатов чужих исследований из общих фраз, которое при прочтении реальным юристом вызывает только сомнения. «Мыльными пузырями» в таких текстах также оказываются и статистика, и ссылки на источники, противоречащее действительности.
«Очевидно, что серьезную часть успеха работы юриста обеспечивает его «моральный камертон» - это принципы гуманности, справедливости, доброжелательности, потому ИИ при запросе о нарушении прав напишет иск, а юрист обязательно предложит переговоры со стороной нарушителя в рамках медиации и досудебного урегулирования спора», – акцентирует Елена Баршай.
Докажи человечность
Артем Аментес предлагает рассмотреть еще одну систему маркировки данных, которая описана в статье «Особенности управления человеческими ресурсами в больших социально-экономических системах на основании интеллектуального и социального рейтинга»:
Предлагается использовать не только персональные данные для идентификации, но и другие характеристики, включая психологические особенности человека, размещающего информацию. Иными словами, использовать доказательства "человечности", поскольку создание фейковых персональных данных не представляет большой сложности, а, например, отсутствие цифровых следов у 35-летнего человека будет выглядеть подозрительно.
В рамках предложенного "Социального кода" психологические и социальные данные собираются на основании активности человека в цифровом пространстве. Это позволяет представить информацию в виде массива данных, характеризующих пользователя как живого человека, который оставлял информационные следы на различных интернет-платформах на протяжении длительного времени.
Подобные технологии уже начинают применяться в мире криптовалют, где идентификация пользователя очень важна. Он представлен лишь номером кошелька, а оценка доверия проводится на основании активности самого кошелька. Однако, это сфера носит до сих пор высокий характер анонимности и не у всех есть криптовалютные кошельки.
Таким образом, применение технологий "Социального кода" кажется наиболее уместным для маркировки данных не только сгенерированных нейросетями, но и людьми, чтобы иметь возможность различать их.
Валерий Суворов уверен, что грядущие изменения в сфере искусственного интеллекта в любом случае настанут, а их требования будут соответствовать мировым традициям. Главное – не забывать об интересах не только потребителей информации, но и тех, кто развивает эти технологии.