Дипфейки и ответственность за их распространение. Что важно знать

Про дипфейки, или подделки, созданные с помощью нейросетей, знают многие. Это фальшивые информационные материалы часто используются для кибермошенничества или негативного влияния на репутацию частных лиц и компаний. Анастасия Кочетова, юрисконсульт по информационной безопасности RTM Group, специально для «Сферы» рассказала, какие риски с точки зрения закона связаны с применением дипфейков.
Время прочтения: 6 минут

Масштаб проблемы

Дипфейк – аудио, видео или фото-контент, сгенерированный особым образом при помощи искусственного интеллекта. Все, что для этого нужно, нейросеть берет из открытых данных в интернете.

Только за 2023 год в соцсетях было выявлено более 12 миллионов фейковых сообщений, собравших миллиарды просмотров.

За последние пять лет число преступлений в киберпространстве выросло более, чем в два раза, и они уже составляют около 40% от общего количества нарушений закона. Общий ущерб с начала 2024 года от таких преступлений составил 116 млрд руб.

Посредством этой технологии осуществляются различные финансовые махинации, вымогательство денежных средств. Например, мошенники, синтезируя голоса членов семьи, сообщают потенциальному потерпевшему о сложной ситуации (аварии, болезни, иной беде), просят финансово помочь. Граждане очень часто реагируют на такую провокацию и лишаются безвозвратно своих средств.

Фальшивый контент преступники часто генерируют для шантажа. Они создают видео/фото, на котором изображено то или иное лицо, совершающее аморальные поступки. Для удаления такого материала требуют заплатить.

Нередки случаи обмана при помощи дипфейков в бизнесе. Мошенники используют файлы с изображением и голосом руководителя, дают поручения от его имени работникам, в том числе, по переводу средств на их счет. Подобная ситуация произошла у известного артиста Александра Буйнова. Мошенники от имени артиста хотели выманить у его директора 10 тыс. долларов.

Дипфейк может нанести и ущерб репутации. Злоумышленники генерят контент с синтезированным изображением политиков, якобы выражающих ту или иную позицию, не соответствующую действительности. Или создают аморальные видео с его участием. Это стало способом борьбы в предвыборной гонке, эффективным средством устранения оппонентов.

Вторжение в частную жизнь

Создавая подделки, злоумышленники, естественно, не спрашивают разрешение на использование голоса или изображения гражданина. Но это биометрические персональные данные. И они подлежат правовой охране специализированным законодательством и могут быть обработаны исключительного в определенном порядке. В иных случаях речь идет о нарушении.

Изображение любого человека также охраняется самостоятельно гражданским законодательством, как его личное неимущественное право. Для его обнародования и распространения в сети требуется согласие гражданина. Действуя без такового, создатель дипфейка нарушает и это право.

Честь, достоинство и деловая репутация оказывается под угрозой. Злоумышленники создают фальшивый контент во многих случаях и для дискредитации конкретной личности. 

Дипфейк в контексте интеллектуальной собственности

Нередки случаи нарушения авторских и иных, связанных с ними смежных прав при создании дипфейков. Например, когда для генерации подделок используются оригиналы охраноспособных произведений.

Если дипфейк создается на основе существующего объекта авторского права: кто-то взял оригинальное видео и переработал его, изменив главного героя и наложив музыку – это прямое нарушение авторских прав. Причем в таком случае, как исключительного, так и личного неимущественного права на неприкосновенность произведения. При использовании фонограмм для создания аудиодипфейков (и внесении изменений в оригинальные произведения) имеет место нарушение смежных прав – исполнителя и изготовителя фонограмм.

Правовое регулирование и ответственность за создание и распространение дипфейков

Действующее российское законодательство пока не содержит специальных норм, регулирующих правовой статус категории дипфейк – технологий, возможного порядка и пределов их использования, а также ответственности в случае допущения нарушений.

И для разрешения споров в этой сфере можно руководствоваться лишь общими правами. Например, при распространении ложной информации, порочащей честь, достоинство и деловую репутацию, речь будет идти о защите на основе норм гражданского права. При незаконном использовании биометрии – о защите персональных данных. А в случае общественно опасных деяний будут использоваться нормы Уголовного кодекса РФ.

Законодательная практика зарубежных стран

В США вопросы легитимности создания и распространения дипфейков регулируются на федеральном уровне, а также в отдельных штатах. В 2019 году в штате Техас, а за ним и в штате Калифорния были приняты законы, запрещающие использование аудио, фото и видео подделок в политической агитации и на выборах. Во многих регионах США действуют законы, запрещающие распространение порнографических дипфейков. В качестве наказания за их распространение предусмотрена уголовная ответственность.

Регулирование дипфейков на федеральном уровне было осуществлено внесением отдельных положений в 2020 году, а затем и закона об оборонном бюджете в 2021 году. Акцент сделан на угрозе национальной безопасности, которую могут спровоцировать подделки.

В КНР с 2020 года предусмотрена обязательная маркировка любого фальсифицированного контента (видео/аудио), в том числе, созданного с ИИ. Обязанность по идентификации и указанию на это обстоятельство лежит на операторе платформ. Немаркированный контент подлежит обязательному удалению. При нарушении этих правил предусмотрена административная ответственность. 

В 2023 году принят самостоятельный закон о дипфейках. Он закрепляет основные правила: использование изображения граждан для создания дипфейков возможно только при их согласии; категорически запрещено делать это для генерации фейковых новостей. Нельзя делать и контент, который противоречит законодательству или наносит ущерб имиджу страны, подрывает нацбезопасность или экономические интересы.

Регулирование дипфейков в России

На рассмотрение в Госдуму РФ представлены два законопроекта, направленные на регулирование в этой области.  № 718538-8 определяет дипфейк в качестве нового квалифицирующего признака в несколько статей УК РФ «Клевета», «Мошенничество» и прочее. За совершение преступлений таким способом размер ответственности увеличен. № 718834-8 регулирует охрану голоса, как нематериального права человека. Предусмотрены инструменты защиты такого права, в том числе, и при использовании синтезированного варианта.

Подобные инициативы отражают нацеленность государства на контроль вредоносных дипфейков, привлечения их создателей к ответственности.

Рекомендуем

Статья

Ваш голос украли: чем грозит использование аудиозаписей, созданных нейросетью

Крупные корпорации начали чаще генерировать коммерческие аудиозаписи и фоновую музыку, используя нейросети. Но как в этом случае быть с авторскими правами? Поможет ли новая инициатива депутатов защитить граждан от незаконного использования их голоса? И почему закон о персональных или биометрических данных не может быть эффективен в этом случае? «Сфера» разбиралась вместе с экспертами.

Статья

Судебные дипфейки: как подделки проникают в сферу права

Повальный интерес к нейросетям выпустил «джина из бутылки» — подделки, сделанные с помощью искусственного интеллекта (ИИ), проникают не только в сферу развлечения, рекламы и маркетинга, но и в политику и систему правосудия. Может ли использование сфабрикованных с помощью нейросети доказательств помочь выиграть суд? Как адвокату вовремя уловить подделку? И как система ИИ может повлиять на российскую судебную систему — в нашем материале.

Статья

ИИ-мошенничество: новые санкции для преступников

Председатель комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков заявил, что использование искусственного интеллекта в телефонном мошенничестве необходимо признавать отягчающим обстоятельством при совершении преступления. Насколько целесообразна такая мера, рассказали «Сфере» эксперты.

Нужно хоть что-то написать