Судебные дипфейки: как подделки проникают в сферу права

Повальный интерес к нейросетям выпустил «джина из бутылки» — подделки, сделанные с помощью искусственного интеллекта (ИИ), проникают не только в сферу развлечения, рекламы и маркетинга, но и в политику и систему правосудия. Может ли использование сфабрикованных с помощью нейросети доказательств помочь выиграть суд? Как адвокату вовремя уловить подделку? И как система ИИ может повлиять на российскую судебную систему — в нашем материале.
Время прочтения: 6 минут

С помощью ИИ анализируют огромные базы данных, генерируют графические и другие материалы. Обратная сторона: не составляет труда подделать тот или иной документ, фотографию или запись с видеокамеры.

Адвокаты столкнулись с новой реальностью, в которой важно перепроверять любую информацию.

«Адвокатское сообщество выражает тревогу в связи с ростом числа голосовых преобразовательных программ, работающих на основе искусственного интеллекта. Эти технологии могут быть использованы для ложного обвинения человека», — говорит Оксана Васильева, к. ю. н., доцент Финансового университета при Правительстве РФ.

Она добавляет, что современные экспертизы способны выявить, например, монтаж записи из различных фрагментов. Однако возникают сомнения, смогут ли эксперты обнаружить разговор, созданный нейросетью. В Федеральной палате адвокатов (ФПА) России настаивают на том, что любые сомнения в подлинности аудио должны трактоваться в пользу подозреваемого, а также предлагают установить дополнительные ограничения на использование таких технологических доказательств в суде.

«По мнению адвокатов, проблема серьёзна и продолжает усугубляться. Используя специализированные приложения, подделать голос стало довольно легко, что впоследствии может быть использовано в суде, например, в виде ложной аудиозаписи телефонного разговора. Однако доказать подделку с помощью существующих экспертиз, которые явно не успевают за быстро развивающимися технологиями, оказывается достаточно сложной задачей», — отмечает эксперт.

Как не нарваться на дипфейк

Антон Лебедев, адвокат «LEbEdEV & barristers», говорит о том, что неважно, с помощью каких средств изготовлена подделка. Ложное доказательство будет выявлено, даже если сделано с помощью высокотехнологичных средств. Ведь у судов сложился большой опыт работы с дипфейками ещё до появления ИИ. А вот нейросеть может как раз стать той палочкой-выручалочкой, которая сможет обнаруживать обман.

«Сейчас ИИ может быть использован для определения подделок — и это даёт дополнительные возможности экспертам», — поясняет он.

Подлинность под угрозой

Мария Сенчикова, заместитель руководителя департамента судебной защиты, руководитель банкротной практики юридической компании «Золотое правило», говорит о том, что согласно требованиям процессуального законодательства суд не может признать факт доказанным, если он подтверждается только копией документа.

«При этом оригинал отсутствует, а другая сторона возражает против подлинности. Поэтому, если возникли любые сомнения в подлинности документа, нужно заявлять об этом в суде и начинать проверку. Обычно подлинность проверяется судебной экспертизой. Определять подлинность доказательства «на глаз» нельзя, поэтому лучше всегда уточнить у доверителя», — объясняет она.

При этом суд достаточно сложно убедить назначить такую экспертизу, рассказал «Сфере» Станислав Батманов, адвокат Ростовской областной коллегии адвокатов (РОКА) «Советник».

«С учётом того, что на сегодняшний день даже самые качественные дипфейки распознаются даже обывателем при должном уровне внимательности, эксперт тем более сможет определить фейковость материала», — говорит он.

Правда, он не исключает, что со временем нейросеть может сильно усложнить работу адвоката.

«Технологии развиваются стремительно — может, через пару лет дипфейки станут реальной проблемой и действенным механизмом фальсификации доказательств. В этом случае придётся фундаментально пересматривать и процесс доказывания, и организацию судопроизводства в целом», — отмечает Станислав Батманов.

Уголовное наказание

За предоставление в суд ложных доказательств предусмотрена уголовная ответственность. И это останавливает мошенников, считает Мария Сенчикова.

«Возможно, применение дипфейков создаст сложности в будущем, но на современном уровне развития технологий я этого не предвижу», — говорит она.

С ней солидарен и Антон Лебедев, который не предвидит варианта, при котором дипфейки усложнили бы его работу.

«Разве что только дадут возможность продемонстрировать свои навыки ML-разработчика (специалиста, который занимается разработкой, внедрением и оптимизацией моделей машинного обучения — Ред.). Не все адвокаты готовы к такому уровню, но на помощь к ним придут эксперты», — резюмирует он.

Сама идея дипфейков — вызов для судебной системы и адвокатов, говорят опрошенные  «Сферой» специалисты. С одной стороны, технологии могут быть использованы для подделки доказательств, что усложняет судебный процесс. С другой стороны, ИИ сам по себе становится значимым инструментом для распознавания фальсификаций. Пока эксперты и адвокаты справляются с выявлением подделок, однако, вероятно, здесь потребуется новая система экспертизы в ближайшем будущем.

Рекомендуем

Авторский взгляд

Дипфейки и ответственность за их распространение. Что важно знать

Про дипфейки, или подделки, созданные с помощью нейросетей, знают многие. Это фальшивые информационные материалы часто используются для кибермошенничества или негативного влияния на репутацию частных лиц и компаний. Анастасия Кочетова, юрисконсульт по информационной безопасности RTM Group, специально для «Сферы» рассказала, какие риски с точки зрения закона связаны с применением дипфейков.

Статья

Ваш голос украли: чем грозит использование аудиозаписей, созданных нейросетью

Крупные корпорации начали чаще генерировать коммерческие аудиозаписи и фоновую музыку, используя нейросети. Но как в этом случае быть с авторскими правами? Поможет ли новая инициатива депутатов защитить граждан от незаконного использования их голоса? И почему закон о персональных или биометрических данных не может быть эффективен в этом случае? «Сфера» разбиралась вместе с экспертами.

Статья

ИИ-мошенничество: новые санкции для преступников

Председатель комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков заявил, что использование искусственного интеллекта в телефонном мошенничестве необходимо признавать отягчающим обстоятельством при совершении преступления. Насколько целесообразна такая мера, рассказали «Сфере» эксперты.

Нужно хоть что-то написать