Мошенник способен за один день осуществить до 300 звонков-ловушек, а искусственный интеллект увеличивает количество таких звонков до 40, а то и до 50 тысяч в сутки.
«Телефонное мошенничество с использованием искусственного интеллекта должно рассматриваться как отягчающее обстоятельство при совершении преступления. Если злодеяние совершается с применением искусственного разума, то это должно быть дважды или трижды наказуемо», — сказал Алексей Пушков.
Такое дополнение поддерживает заместитель председателя Московской коллегии адвокатов «Клинков, Пахомов и Партнеры» (KP&Partners) Дмитрий Клинков, но с одной оговоркой.
«Нужно признать такие преступления отдельным квалифицирующим признаком, не перегружая статью 63 УК РФ (отягчающие обстоятельства), а дополнить другие статьи новым квалифицирующим признаком, а категорию данного преступления пусть определит законодатель», — отметил Дмитрий Клинков.
Кроме того, в Госдуму уже внесли законопроект, который дополнит статьи о клевете, краже, мошенничестве, вымогательстве, причинении имущественного ущерба путем обмана или злоупотребления доверием с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) потерпевшего или иного лица.
«Изображение гражданина или его голос в различных ситуациях могут как относиться к биометрическим персональным данным, используемым в целях идентификации гражданина, так и не иметь такого статуса. Учитывая, что именно голос и изображение гражданина используются чаще всего для обмана, предлагается выделить их в отдельную категорию», — говорится в пояснительной записке документа.
Как строится обман
Дипфейк. Такая технология является дополнением к уже имеющимся видам мошенничества, например взлом аккаунта. Украденная внешность человека используется в качестве инструмента для убеждения жертвы. Преступник рассылает видео сообщения родственникам или друзьям пострадавшего с просьбой переслать деньги на указанную банковскую карту.
Но преступники могут обрабатывать не только близких, но и коллег того человека, чей аккаунт был взломан. В 2019 году мошенники смогли обмануть директора британской энергетической компании, представившись его «руководителем» и похитить 243 тысячи долларов.
Имитация голоса. Получить голос россиянина мошенник также может через взлом аккаунта в соцсетях или мессенджерах. Злоумышленник ищет голосовые сообщения жертвы, а после с помощью ИИ создает аудиозапись от имени владельца аккаунта. Цель такая же — выманить как можно больше денег у родственников и друзей жертвы. Этот прием может использоваться в связке с дипфейком.
«Популярный» обман. Речь идет об обмане крупных блогеров, чья аудитория превышает 10 тысяч человек, и их зрителей. Мошенники пользуются инициативой властей, которая должна в скором будущем обязать популярных инфлюенсеров предоставлять сведения о себе в Роскомнадзор. Кибераферисты с помощью фальшивых сайтов пытаются украсть личные данные блогеров, под предлогом помощи в подаче данных РКН, а после обманывать их аудиторию.
Есть ли необходимость в ужесточении?
Отягчающие обстоятельства — это юридические факты и состояния, которые увеличивают степень общественной опасности преступления.
«Внесение использования современных технологий при совершении преступления в список отягчающих обстоятельств – разумная идея. Если такие преступления не взять под контроль, то количество обманутых граждан станет ещё больше», — подчеркнул управляющий партнёр Юридического агентства «Левченко», адвокат Даниил Левченко.
Поддерживает такую точку зрения и топ-менеджер и IT-MBA Антон Баланов. Он замечает, что применение ИИ значительно повышает масштаб и сложность мошеннических действий.
«С помощью ИИ злоумышленники могут автоматизировать и масштабировать процессы генерации поддельных голосовых сообщений, фишинговых писем или имитации поведения реальных людей. Это делает их преступления намного более изощрёнными и трудно выявляемыми по сравнению с традиционными методами. Поэтому применение ИИ должно влечь за собой более строгое наказание, чтобы создать действенный сдерживающий эффект», — прокомментировал специалист вопрос «Сферы».
Искусственный интеллект даёт возможность проворачивать мошеннические схемы как группе лиц, так и одному человеку, вовлекая в паутину обмана как можно больше граждан за короткий срок. Кандидат технических наук, руководитель лаборатории развития и продвижения компетенций кибербезопасности компании «Газинформсервис» Ксения Ахрамеева считает, что один мошенник, применяя в своей практике современные технологии, должен отвечать за такое преступление так же, как если бы он совершал такое преступление в группе.
Юрист практики IP и цифрового права SEAMLESS Legal Шермет Курбанов считает, что законодательство должно быть технически нейтральным и не должно акцентировать внимание на конкретной технологии.
«Выделение именно искусственного интеллекта нецелесообразно, и вместо этого корректнее указать любые технические средства (в том числе позволяющие синтезировать речь). На сегодняшний день технологии синтеза речи (в том числе с применением искусственного интеллекта) стали как никогда доступны. Существующие технологии хорошо справляются с имитацией голоса и способны обмануть рядового человека», — подчеркнул спикер.
Контроль для ИИ
Мошенники используют технологии для обзвона граждан. Эксперты прогнозируют, что после в ход пойдут звонки по видеосвязи, аудио звонки с имитацией голоса близкого к жертве человека и многое другое.
Ксения Ахрамеева добавляет, если мошенники станут активно использовать ИИ, то количество пострадавших увеличится, по сравнению с ситуацией, в которой злоумышленник не использует ИИ. Также неживой разум опасен тем, что он легче может подстроиться под психотип жертвы, утверждает эксперт, что сделает мошенническую операцию успешнее.
Использовать ИИ с нарушением закона могут не только телефонные мошенники, но и рядовые граждане, решившие пошутить или «творчески самовыразиться».
«Сам по себе дипфейк не равно преступление. Они бывают и легальными, и коммерческими, и созданными в рамках творческой деятельности. Поэтому главный вопрос — как, кем и с какой целью они были использованы», — подчеркивает генеральный директор digital-агентства «Интериум», член Общественного Совета при Минцифры, член Совета предпринимателей Москвы Валерий Сидоренко.
Не навредить бизнесу
Валерий Сидоренко считает, что совершенствование законодательства о защите данных, кибербезопасности и расследовании ИИ-преступлений в одностороннем порядке не приведет ни к чему хорошему. Важно, чтобы государственные структуры были на связи с digital-рынком. Тогда в России получится создать такие меры, которые помогут сделать законодательство максимально прогрессивным.
«Очень важно обеспечить двустороннее взаимодействие государства и digital-индустрии. Подход в духе «всё запретить, а остальное — зарегулировать» грозит убить как бизнес, применяющий ИИ в коммерческих целях (например, SMM-агентства), так и креативные процессы. Миллионы людей ежедневно генерируют с помощью нейросетей мемы, песни, нарезки и фото без каких-либо криминальных или коммерческих целей», — заключил он.
Мировая ИИ-гонка
В 2020 году южнокорейское правительство включило в закон «Об особых делах, касающихся наказания за сексуальные преступления» наказание до 7 лет тюрьмы за дипфейки порнографического содержания без согласия человека.
В Южной Корее работает специальная база обнаруженных дипфейков, которая помогает специалистам отслеживать преступников и совершенствовать механизмы детекции.
Однако слишком подробное и жесткое регулирование может задушить инновации, разрушив позиции той или иной страны в мировой ИИ-гонке.
«Это касается любой страны. Политики по всей планете уже начинают это осознавать. Так, недавно губернатор Калифорнии отклонил слишком строгий законопроект о регулировании ИИ в штате — из опасений, что тот убьет стартапы и Open source-сектор (отрасль, занимающаяся программным обеспеченим с кодом, доступным для просмотра и изменения — Ред.)», — добавил спикер.
Клин клином
По мнению адвоката, управляющего партнёра Адвокатского бюро Москвы «Матюнины и Партнёры» Олега Матюнина, эффективно бороться с ИИ-преступностью можно лишь с помощью развития технологий.
«Бороться с таким видом мошенничества помогут такие же или более серьезные технологии, так как решить проблему одним только наращиванием уголовной репрессии не получится», — считает Олег Матюнин.
Он предлагает постоянно развивать экспертные методики, распознающие фейковые изображения и звук. Если не этому не научиться, то масштабы такого вида мошенничества вырастут.