Искусственный интеллект создает поддельные фото, видео и голоса, становясь опасным орудием в арсенале мошенников.
По словам Екатерины Корнюшиной, эксперта по управлению инновационными проектами, разработке AI-технологий в сфере информационной безопасности и антифрод-решений, а также основателя и генерального директора компании aIDeepFake (резидента Киберхаба Технопарка Сколково), атакам злоумышленников подвергаются не только обычные граждане, но и руководители крупных компаний.
«Например, в 2024 году транснациональная компания, работающая в Гонконге, потеряла 25,6 млн долларов из-за мошенничества при проведении видеоконференции. В ОАЭ с помощью имитации голоса одного из руководителей банка было похищено 35 млн долларов. В Китае зафиксированы случаи хищений в размере сотен тысяч долларов с помощью поддельных видеоконференций», — рассказывает она.
Но проблема гораздо шире: дипфейки применяют не только для преступлений, но и в качестве доказательств в судебных разбирательствах.
Орудие злоумышленников
Александр Криони, частный детектив в детективном бюро Александра Криони, говорит о том, что дипфейк ничем не отличается от фальсификации фактов, доказательств и документов, примеров которым практика знает огромное множество.
«Подделка изображения в «Photoshop», подделка электронных изображений оттисков печатей и бланков писем — все это примеры дипфейков, если говорить правилами современного новояза», — рассказывает эксперт.
Он утверждает, что суть преступления остается неизменной: это преднамеренное создание фальшивых изображений, видео или голосовых записей с целью ввести в заблуждение конкретное лицо или широкий круг людей.
«Возможно, что именно указание на неопределенный круг лиц послужило основанием задуматься о выделении так называемого дипфейка в отдельную отягчающую категорию. На наш взгляд, это совершенно неоправданно, поскольку в уголовном кодексе предусмотрена наказуемость за фальсификацию, подделку доказательств, документов, бланков и тд. А дипфейк — это тот же документ, но только в электронном виде», — отмечает он.
С ним согласен Павел Карасев, бизнес-партнер компании «Компьютерные технологии» и основатель проекта «ИБ-грамотность.рф» по повышению осведомленности сотрудников малого и среднего бизнеса в области информационной безопасности.
По словам Павла Карасева, использование дипфейков уже подпадает под нормы уголовного и административного законодательства, в зависимости от целей и последствий их применения. «Например, если дипфейк используется для распространения ложной информации, это может квалифицироваться как клевета (ст. 128.1 УК РФ). Если же поддельное видео или аудиозапись применяется для мошенничества, то речь идет уже о ст. 159 УК РФ («Мошенничество»)», — говорит Павел Карасев.
Марина Пробетс, интернет-аналитик и эксперт компании «Газинформсервис», отмечает, что действующие законы в основном ориентированы на последствия использования дипфейков, а не на сам факт их создания или распространения.
«Таким образом, регулирование данной области находится на стадии развития, и обсуждение Минцифры РФ с правоохранительными органами является попыткой уточнить правовую базу и закрыть пробелы в законодательстве, связанные с использованием дипфейков в преступных целях», — объясняет она.
Распознать подделку
Александр Криони подчеркивает, что преступления совершают не компьютер и не искусственный интеллект, а человек.
«Названная проблема на самом деле должна решаться не выделением новомодного квалифицирующего признака «Искусственный Интеллект» (который является вовсе не интеллектом, а библиотекой алгоритмов), а поиском способов выявления авторов распространителей программного обеспечения, позволяющего создавать дипфейки без маркировки», — считает Криони.
По мнению экспертов «Сферы», ключ к решению проблемы — разработка технологий, способных определять, является ли контент дипфейком. Екатерина Корнюшина отмечает, что на российском рынке уже есть компании, работающие в этой сфере.
«Они используют различные методы анализа и машинного обучения для обнаружения манипуляций с изображением и аудио», — поясняет она.
Например, проект aIDeepFake резидент Киберхаба Сколково использует следующие подходы к детекции дипфейка:
- Обучение алгоритмов на собственных высококачественных наборах данных.
- Комплексный подход и мультимодальный анализ — объединение алгоритмов компьютерного зрения и обработки звука.
- Real-time — детекция фальсификации в потоковом видео без задержек.
- Глубокие нейросети (Deep Learning) — использование передовых архитектур (Transformer, CNN, RNN) для выявления скрытых аномалий.
- Self-learning AI — адаптация системы к новым видам дипфейков и постоянно обучение.
«Важно отметить, что совершенствование технологий создания дипфейков опережает возможности обнаружения подделок. Современные дипфейки часто очень реалистичны, и их обнаружение может потребовать глубокого анализа и использования комплексных методов, а также экспертных знаний. Поэтому, несмотря на наличие инструментов, гарантированное распознавание дипфейков остается сложной задачей», — считает Марина Пробетс.
Нешуточные фейки
По словам Екатерины Корнюшиной, из-за распространения дипфейков суды по всему миру начали тщательнее анализировать доказательства, опасаясь, что среди них могут быть подделки.
«Суды чаще назначают дополнительные судебные экспертизы видео- и аудиозаписей, а также фотографий, чтобы убедиться в их подлинности. Судьи требуют более четкого обоснования происхождения материалов и подлинности носителей», — говорит она.
Павел Карасев добавляет, что дипфейки могут использоваться не только для мошенничества, но и для дискредитации граждан и бизнеса, что делает тщательную проверку особенно важной. Поэтому любые меры, направленные на борьбу с дипфейками, положительно скажутся на судебной системе. Минцифры уже заявило о необходимости создания приложения для распознавания подделок в режиме реального времени.
Изображение создано Freepik, www.freepik.com