В скором времени вероятность того, способен ли тот или иной человек совершить преступление, сможет определять нейросеть. А вернее, психолог-криминалист, созданный при помощи ИИ, уверена эксперт по разработке ПО (сеньор системный аналитик, руководитель группы) «Электронные офисные системы» Алеся Журавлева. На основании предоставленных данных о человеке цифровой «сотрудник» сможет понять, обладает ли индивид характеристиками маньяка.
«Такого нейросотрудника понадобится обучить — загрузить в него критерии для оценки, которые должен предварительно подготовить человек. Далее можно будет отправлять машине данные для проведения анализа и интерпретации. Такой подход позволит разгрузить штатного психолога-криминалиста, снять часть рутинной работы», — заявила «Сфере» эксперт.
Пойман по геолокации
ИИ может помочь и в выявлении потенциальных угроз на основе анализа социальных сетей, текстовых сообщений и других данных в Сети. И основываясь на полученной информации, определить круг лиц с высоким риском совершения насильственных преступлений, отмечает Виктор Боргезе, эксперт по нейросетям, директор ООО «Боргезе Центр».
На основе анализа данных о прошлых преступлениях нейросеть сможет выявить схожие черты в поведении преступников, определить географические зоны риска, предположить время и даже место следующего преступления.
«ИИ способен находить связи между, казалось бы, между не связанными между собой преступлениями и указывать на возможного серийного преступника», — рассказывает Виктор Боргезе.
Законны ли действия ИИ?
Как бы ни был хорош виртуальный следователь, в штат его не возьмут. Это связано с отсутствием регулирования ИИ в этой области — действия, для которых используется нейросеть, должны быть строго регламентированы и соответствовать букве закона. Идентификация потенциальных преступников с помощью нейросетей технически осуществима, но юридически проблематична, подчёркивает руководитель арбитражной практики «RZ Консалтинг» Роман Зятнин.
«Современные трансформерные модели, такие как GPT-5 или аналоги, способны к многофакторному анализу цифрового следа и поведенческих паттернов. Однако их применение может нарушать ст. 49 Конституции РФ и ст. 14 УПК РФ, касающиеся презумпции невиновности. Более того, использование таких систем может противоречить ст. 11 ФЗ «О персональных данных» в части обработки биометрии без согласия субъекта», — поясняет он.
Специально для «Сферы» эксперт квалифицировал работу ИИ в криминалистике относительно нормативных актов. Получается, что к разрешенным действиям нейросети можно отнести:
- Обработку массивов данных в рамках ОРМ согласно ст. 6 ФЗ «Об оперативно-розыскной деятельности»
- Обработку видеоматериалов с учетом ст. 152.1 ГК РФ об охране изображения гражданина.
- Предиктивную аналитику преступности на основе больших данных, что может повлиять на реализацию ст. 2 УК РФ о задачах уголовного законодательства.
- Автоматизированный криминалистический анализ цифровых доказательств согласно ст. 81 и 84 УПК РФ о вещественных доказательствах и иных документах.
Но есть и ряд нюансов, которые придется проработать:
- Проблема допустимости доказательств, полученных ИИ (ст. 75 УПК РФ), особенно в контексте «черного ящика» нейросетей - дипфейков.
- Риск нарушения тайны следствия (ст. 161 УПК РФ) при использовании облачных вычислений и распределенных систем ИИ, в т.ч., разработанных и администрируемых за пределами юрисдикции РФ.
- Потенциальная алгоритмическая дискриминация при профилировании, что может нарушать ст. 19 Конституции РФ и ст. 136 УК РФ.
- Необходимость законодательного определения границ ответственности за ошибки ИИ в рамках ст. 293 УК РФ о халатности.
«Поэтому (но не ограничиваясь только перечисленными аспектами), применение ИИ в криминалистике должно осуществляться в строгом соответствии с нормами УПК РФ, УК РФ и Конституции РФ, обеспечивая баланс между эффективностью расследования и защитой фундаментальных прав граждан», — подчеркивает Роман Затнин.
Качество данных
Несмотря на юридические проволочки, уже сейчас создаются системы, способные распознать «тёмную личность».
«В них работают совместно как разработчики ИИ, так и психологи, физиогномисты и другие специалисты, никак не связанные с нейросетями. Узкие специалисты способны дать необходимые сигнатуры и метрики для правильного обучения ИИ», — объясняет Ксения Ахрамеева, к.т.н., руководитель лаборатории развития и продвижения компетенций кибербезопасности компании «Газинформсервис».
Она добавляет, что, используя набор улик, искусственный интеллект может подсказать вектор движения при раскрытии преступления. Уже какие-то элементарные преступления ИИ способен раскрывать без аналитического подхода со стороны специалистов.
«По камерам нейросеть может определить, что за вещь находится среди улик, и обозначить возможные варианты её использования, дальнейшего развития событий», — говорит Ксения Ахрамеева.
Но вот принимать окончательное решение ИИ вряд ли разрешат. Цена ошибки крайне велика, как и велика вероятность её совершения.
«Данные могут быть недостаточно качественными или неполными. Например, процедура дактилоскопии прошла плохо, и отпечатки пальцев получились нечеткими, что затрудняет их обработку и анализ», — поясняет Алеся Журавлёва.
Она говорит о том, что ИИ обучается на основании определённой выборки, которая может быть не репрезентативной (например, со значительным преобладанием одного пола или возраста). И, следовательно, может делать неправильные выводы.
Ксения Ахрамеева также относит этот момент к минусам использования ИИ: нейросеть, опираясь на свой опыт, может придумать то, чего в нашем мире никогда не произойдёт.
«Если искусственному интеллекту случайно дали неверную информацию, переучить его — очень сложная задача. Таким образом, участие человека-специалиста необходимо даже при использовании ИИ», — резюмирует Ахрамеева.