Никому не верю: как дипфейки повлияли на законодательство и судебную практику

Использование поддельных материалов, созданных с помощью искусственного интеллекта, могут признать отягчающим обстоятельством при рассмотрении дел о мошенничестве. Такую возможность обсуждают в Минцифры РФ совместно с правоохранительными органами, сообщил глава министерства Максут Шадаев на форуме «Кибербезопасность в финансах» в Екатеринбурге. Насколько глубоко технологии дипфейков уже повлияли на судебную систему? Как в России регулируется их использование, и стали ли суды тщательнее проверять доказательства, учитывая риск фальсификаций? Эти вопросы мы обсудили с экспертами «Сферы».
Время прочтения: 10 минут

Искусственный интеллект создает поддельные фото, видео и голоса, становясь опасным орудием в арсенале мошенников.

По словам Екатерины Корнюшиной, эксперта по управлению инновационными проектами, разработке AI-технологий в сфере информационной безопасности и антифрод-решений, а также основателя и генерального директора компании aIDeepFake (резидента Киберхаба Технопарка Сколково), атакам злоумышленников подвергаются не только обычные граждане, но и руководители крупных компаний.

«Например, в 2024 году транснациональная компания, работающая в Гонконге, потеряла 25,6 млн долларов из-за мошенничества при проведении видеоконференции. В ОАЭ с помощью имитации голоса одного из руководителей банка было похищено 35 млн долларов. В Китае зафиксированы случаи хищений в размере сотен тысяч долларов с помощью поддельных видеоконференций», — рассказывает она.

Но проблема гораздо шире: дипфейки применяют не только для преступлений, но и в качестве доказательств в судебных разбирательствах.

Орудие злоумышленников

Александр Криони, частный детектив в детективном бюро Александра Криони, говорит о том, что дипфейк ничем не отличается от фальсификации фактов, доказательств и документов, примеров которым практика знает огромное множество.

«Подделка изображения в «Photoshop», подделка электронных изображений оттисков печатей и бланков писем — все это примеры дипфейков, если говорить правилами современного новояза», — рассказывает эксперт.

Он утверждает, что суть преступления остается неизменной: это преднамеренное создание фальшивых изображений, видео или голосовых записей с целью ввести в заблуждение конкретное лицо или широкий круг людей.

«Возможно, что именно указание на неопределенный круг лиц послужило основанием задуматься о выделении так называемого дипфейка в отдельную отягчающую категорию. На наш взгляд, это совершенно неоправданно, поскольку в уголовном кодексе предусмотрена наказуемость за фальсификацию, подделку доказательств, документов, бланков и тд. А дипфейк — это тот же документ, но только в электронном виде», — отмечает он.

С ним согласен Павел Карасев, бизнес-партнер компании «Компьютерные технологии» и основатель проекта «ИБ-грамотность.рф» по повышению осведомленности сотрудников малого и среднего бизнеса в области информационной безопасности.

По словам Павла Карасева, использование дипфейков уже подпадает под нормы уголовного и административного законодательства, в зависимости от целей и последствий их применения. «Например, если дипфейк используется для распространения ложной информации, это может квалифицироваться как клевета (ст. 128.1 УК РФ). Если же поддельное видео или аудиозапись применяется для мошенничества, то речь идет уже о ст. 159 УК РФ («Мошенничество»)», — говорит Павел Карасев.

Марина Пробетс, интернет-аналитик и эксперт компании «Газинформсервис», отмечает, что действующие законы в основном ориентированы на последствия использования дипфейков, а не на сам факт их создания или распространения.

«Таким образом, регулирование данной области находится на стадии развития, и обсуждение Минцифры РФ с правоохранительными органами является попыткой уточнить правовую базу и закрыть пробелы в законодательстве, связанные с использованием дипфейков в преступных целях», — объясняет она.

Распознать подделку

Александр Криони подчеркивает, что преступления совершают не компьютер и не искусственный интеллект, а человек.

«Названная проблема на самом деле должна решаться не выделением новомодного квалифицирующего признака «Искусственный Интеллект» (который является вовсе не интеллектом, а библиотекой алгоритмов), а поиском способов выявления авторов распространителей программного обеспечения, позволяющего создавать дипфейки без маркировки», — считает Криони.

По мнению экспертов «Сферы», ключ к решению проблемы — разработка технологий, способных определять, является ли контент дипфейком. Екатерина Корнюшина отмечает, что на российском рынке уже есть компании, работающие в этой сфере.

«Они используют различные методы анализа и машинного обучения для обнаружения манипуляций с изображением и аудио», — поясняет она.

Например, проект aIDeepFake резидент Киберхаба Сколково  использует следующие подходы к детекции дипфейка:

  • Обучение алгоритмов на собственных высококачественных наборах данных.
  • Комплексный подход и мультимодальный анализ — объединение алгоритмов компьютерного зрения и обработки звука.
  • Real-time — детекция фальсификации в потоковом видео без задержек.
  • Глубокие нейросети (Deep Learning) — использование передовых архитектур (Transformer, CNN, RNN) для выявления скрытых аномалий.
  • Self-learning AI —  адаптация системы к новым видам дипфейков и постоянно обучение.

«Важно отметить, что совершенствование технологий создания дипфейков опережает возможности обнаружения подделок. Современные дипфейки часто очень реалистичны, и их обнаружение может потребовать глубокого анализа и использования комплексных методов, а также экспертных знаний. Поэтому, несмотря на наличие инструментов, гарантированное распознавание дипфейков остается сложной задачей», — считает Марина Пробетс.

Нешуточные фейки

По словам Екатерины Корнюшиной, из-за распространения дипфейков суды по всему миру начали тщательнее анализировать доказательства, опасаясь, что среди них могут быть подделки.

«Суды чаще назначают дополнительные судебные экспертизы видео- и аудиозаписей, а также фотографий, чтобы убедиться в их подлинности. Судьи требуют более четкого обоснования происхождения материалов и подлинности носителей», — говорит она.

Павел Карасев добавляет, что дипфейки могут использоваться не только для мошенничества, но и для дискредитации граждан и бизнеса, что делает тщательную проверку особенно важной. Поэтому любые меры, направленные на борьбу с дипфейками, положительно скажутся на судебной системе. Минцифры уже заявило о необходимости создания приложения для распознавания подделок в режиме реального времени.

 

 

Изображение создано Freepik, www.freepik.com

 

Рекомендуем

Статья

Уголовная статистика: как меняется уровень преступности в России

На совещании представителей судов общей юрисдикции, арбитражных и военных судов России по итогам работы за 2024 год председатель ВС РФ Ирина Подносова привела любопытную статистику: количество уголовных дел в прошлом году сократилось на 9%. Эксперты поделились со «Сферой» мнением о том, с чем связана такая динамика.

Авторский взгляд

Доказательства в деле: секреты сбора информации от опытных адвокатов

Взлом баз данных, натальная карта от астролога и фото с дрона – какие нестандартные способы сбора доказательств сейчас используют адвокаты? И какие из них суд готов принять к рассмотрению, а какие — нет? Детальный разбор данного вопроса подготовил для «Сферы» Юрий Александров, директор юридической компании «А.Лигал».

Статья

Судебные дипфейки: как подделки проникают в сферу права

Повальный интерес к нейросетям выпустил «джина из бутылки» — подделки, сделанные с помощью искусственного интеллекта (ИИ), проникают не только в сферу развлечения, рекламы и маркетинга, но и в политику и систему правосудия. Может ли использование сфабрикованных с помощью нейросети доказательств помочь выиграть суд? Как адвокату вовремя уловить подделку? И как система ИИ может повлиять на российскую судебную систему — в нашем материале.

Нужно хоть что-то написать