ИИ-мошенничество: новые санкции для преступников

Председатель комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков заявил, что использование искусственного интеллекта в телефонном мошенничестве необходимо признавать отягчающим обстоятельством при совершении преступления. Насколько целесообразна такая мера, рассказали «Сфере» эксперты.
Время прочтения: 10 минут

Мошенник способен за один день осуществить до 300 звонков-ловушек, а искусственный интеллект увеличивает количество таких звонков до 40, а то и до 50 тысяч в сутки. 

«Телефонное мошенничество с использованием искусственного интеллекта должно рассматриваться как отягчающее обстоятельство при совершении преступления. Если злодеяние совершается с применением искусственного разума, то это должно быть дважды или трижды наказуемо», — сказал Алексей Пушков.

Такое дополнение поддерживает заместитель председателя Московской коллегии адвокатов «Клинков, Пахомов и Партнеры» (KP&Partners) Дмитрий Клинков, но с одной оговоркой.

«Нужно признать такие преступления отдельным квалифицирующим признаком, не перегружая статью 63 УК РФ (отягчающие обстоятельства), а дополнить другие статьи новым квалифицирующим признаком, а категорию данного преступления пусть определит законодатель», — отметил Дмитрий Клинков. 

Кроме того, в Госдуму уже внесли законопроект, который дополнит статьи о клевете, краже, мошенничестве, вымогательстве, причинении имущественного ущерба путем обмана или злоупотребления доверием с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) потерпевшего или иного лица.

«Изображение гражданина или его голос в различных ситуациях могут как относиться к биометрическим персональным данным, используемым в целях идентификации гражданина, так и не иметь такого статуса. Учитывая, что именно голос и изображение гражданина используются чаще всего для обмана, предлагается выделить их в отдельную категорию», — говорится в пояснительной записке документа.

Как строится обман

Дипфейк. Такая технология является дополнением к уже имеющимся видам мошенничества, например взлом аккаунта. Украденная внешность человека используется в качестве инструмента для убеждения жертвы. Преступник рассылает видео сообщения родственникам или друзьям пострадавшего с просьбой переслать деньги на указанную банковскую карту. 

Но преступники могут обрабатывать не только близких, но и коллег того человека, чей аккаунт был взломан. В 2019 году мошенники смогли обмануть директора британской энергетической компании, представившись его «руководителем» и похитить 243 тысячи долларов. 

Имитация голоса. Получить голос россиянина мошенник также может через взлом аккаунта в соцсетях или мессенджерах. Злоумышленник ищет голосовые сообщения жертвы, а после с помощью ИИ создает аудиозапись от имени владельца аккаунта. Цель такая же — выманить как можно больше денег у родственников и друзей жертвы. Этот прием может использоваться в связке с дипфейком.

«Популярный» обман. Речь идет об обмане крупных блогеров, чья аудитория превышает 10 тысяч человек, и их зрителей. Мошенники пользуются инициативой властей, которая должна в скором будущем обязать популярных инфлюенсеров предоставлять сведения о себе в Роскомнадзор. Кибераферисты с помощью фальшивых сайтов пытаются украсть личные данные блогеров, под предлогом помощи в подаче данных РКН, а после обманывать их аудиторию. 

Есть ли необходимость в ужесточении?

Отягчающие обстоятельства — это юридические факты и состояния, которые увеличивают степень общественной опасности преступления.

«Внесение использования современных технологий при совершении преступления в список отягчающих обстоятельств – разумная идея. Если такие преступления не взять под контроль, то количество обманутых граждан станет ещё больше», — подчеркнул управляющий партнёр Юридического агентства «Левченко», адвокат Даниил Левченко.

Поддерживает такую точку зрения и топ-менеджер и IT-MBA Антон Баланов. Он замечает, что применение ИИ значительно повышает масштаб и сложность мошеннических действий.

«С помощью ИИ злоумышленники могут автоматизировать и масштабировать процессы генерации поддельных голосовых сообщений, фишинговых писем или имитации поведения реальных людей. Это делает их преступления намного более изощрёнными и трудно выявляемыми по сравнению с традиционными методами. Поэтому применение ИИ должно влечь за собой более строгое наказание, чтобы создать действенный сдерживающий эффект», — прокомментировал специалист вопрос «Сферы».

Искусственный интеллект даёт возможность проворачивать мошеннические схемы как группе лиц, так и одному человеку, вовлекая в паутину обмана как можно больше граждан за короткий срок. Кандидат технических наук, руководитель лаборатории развития и продвижения компетенций кибербезопасности компании «Газинформсервис» Ксения Ахрамеева считает, что один мошенник, применяя в своей практике современные технологии, должен отвечать за такое преступление так же, как если бы он совершал такое преступление в группе.

Юрист практики IP и цифрового права SEAMLESS Legal Шермет Курбанов считает, что законодательство должно быть технически нейтральным и не должно акцентировать внимание на конкретной технологии.

«Выделение именно искусственного интеллекта нецелесообразно, и вместо этого корректнее указать любые технические средства (в том числе позволяющие синтезировать речь). На сегодняшний день технологии синтеза речи (в том числе с применением искусственного интеллекта) стали как никогда доступны. Существующие технологии хорошо справляются с имитацией голоса и способны обмануть рядового человека», — подчеркнул спикер.

Контроль для ИИ

Мошенники используют технологии для обзвона граждан. Эксперты прогнозируют, что после в ход пойдут звонки по видеосвязи, аудио звонки с имитацией голоса близкого к жертве человека и многое другое.

Ксения Ахрамеева добавляет, если мошенники станут активно использовать ИИ, то количество пострадавших увеличится, по сравнению с ситуацией, в которой злоумышленник не использует ИИ. Также неживой разум опасен тем, что он легче может подстроиться под психотип жертвы, утверждает эксперт, что сделает мошенническую операцию успешнее.

Использовать ИИ с нарушением закона могут не только телефонные мошенники, но и рядовые граждане, решившие пошутить или «творчески самовыразиться». 

«Сам по себе дипфейк не равно преступление. Они бывают и легальными, и коммерческими, и созданными в рамках творческой деятельности. Поэтому главный вопрос  как, кем и с какой целью они были использованы»,  подчеркивает генеральный директор digital-агентства «Интериум», член Общественного Совета при Минцифры, член Совета предпринимателей Москвы  Валерий Сидоренко.

Не навредить бизнесу

Валерий Сидоренко считает, что совершенствование законодательства о защите данных, кибербезопасности и расследовании ИИ-преступлений в одностороннем порядке не приведет ни к чему хорошему. Важно, чтобы государственные структуры были на связи с digital-рынком. Тогда в России получится создать такие меры, которые помогут сделать законодательство максимально прогрессивным.

«Очень важно обеспечить двустороннее взаимодействие государства и digital-индустрии. Подход в духе «всё запретить, а остальное  зарегулировать» грозит убить как бизнес, применяющий ИИ в коммерческих целях (например, SMM-агентства), так и креативные процессы. Миллионы людей ежедневно генерируют с помощью нейросетей мемы, песни, нарезки и фото без каких-либо криминальных или коммерческих целей», — заключил он.

Мировая ИИ-гонка

В 2020 году южнокорейское правительство включило в закон «Об особых делах, касающихся наказания за сексуальные преступления» наказание до 7 лет тюрьмы за дипфейки порнографического содержания без согласия человека.

В Южной Корее работает специальная база обнаруженных дипфейков, которая помогает специалистам отслеживать преступников и совершенствовать механизмы детекции.

Однако слишком подробное и жесткое регулирование может задушить инновации, разрушив позиции той или иной страны в мировой ИИ-гонке.

«Это касается любой страны. Политики по всей планете уже начинают это осознавать. Так, недавно губернатор Калифорнии отклонил слишком строгий законопроект о регулировании ИИ в штате — из опасений, что тот убьет стартапы и Open source-сектор (отрасль, занимающаяся программным обеспеченим с кодом, доступным для просмотра и изменения — Ред.)», — добавил спикер.

Клин клином

По мнению адвоката, управляющего партнёра Адвокатского бюро Москвы «Матюнины и Партнёры» Олега Матюнина, эффективно бороться с ИИ-преступностью можно лишь с помощью развития технологий.

«Бороться с таким видом мошенничества помогут такие же или более серьезные технологии, так как решить проблему одним только наращиванием уголовной репрессии не получится», — считает Олег Матюнин.

Он предлагает постоянно развивать экспертные методики, распознающие фейковые изображения и звук. Если не этому не научиться, то масштабы такого вида мошенничества вырастут.

Рекомендуем

Статья

Виртуальный следователь: помогут ли нейросети распознать маньяка

Искусственный интеллект способен не только нарисовать фоторобот за секунды, но и по чертам лица определить, может ли человек совершить преступление или нет. Вот только законно ли использование ИИ в криминалистике? Поможет ли нейросеть ускорить поимку правонарушителей и определить их личность с максимальной точностью? На эти и другие вопросы отвечают эксперты «Сферы».

Статья

Правой рукой мирового судьи может стать нейросеть

В 2023-м количество дел в административном судопроизводстве выросло втрое по сравнению с аналогичным периодом прошлого года, достигнув цифры в 1,3 млн разбирательств. В первом квартале 2024-го порог превысил отметку в 1,5 млн. А все потому, что цифровизация в мировых судах и судах общей юрисдикции происходит крайне медленно, а нагрузка только растет. Возможность использовать технологии при осуществлении делопроизводства появится только с 1 июня 2025 года. Облегчит ли это работу судьям, разбиралась «Сфера».

Авторский взгляд

ИИ как помощник: каким будет юрист будущего

В Минфине заявили, что планируют использовать ИИ в бюджетном процессе. Задача ИИ-агента — выдавать решение моментально, что снизит количество некачественных заявок и отказов и позволит уменьшить нагрузку на специалистов до 70%, считают в ведомстве. «Искусственный интеллект станет хорошим подспорьем для финансистов — он возьмет на себя рутинные процессы вычислений и анализа», — прокомментировал Министр финансов Антон Силуанов. Станет ли ИИ подспорьем в области права? И в каком же направлении будет развиваться юрист будущего? На эти вопросы в авторской колонке отвечает Ольга Попова, руководитель консалтинговой компании «Лигал Эксперт».

Нужно хоть что-то написать