Кибербезопасность и искусственный разум: когда право не поспевает за технологиями

Искусственный интеллект — это не только робот, зловещий образ которого создала киноиндустрия. «Умные» системы давно регулируют различные отрасли. Облегчая решение многих задач, они одновременно порождают и новые угрозы в сфере безопасности. Как реагирует право на эти процессы и как регулируются вопросы кибербезопасности сегодня, обсудили эксперты в рамках круглого стола Legal Academy «Кибербезопасность и влияние искусственного разума на развитие права в современных условиях».
Время прочтения: 5 минут

Проблемы новых технологий

Юрист Центра НТИ по направлению «Нейротехнологии, технологии виртуальной и дополненной реальности» Андрей Яковенко говорит о том, что проблемы, связанные с новыми технологиями и искусственными разумом, можно разделить на общие и частные. Если к первым можно отнести вопросы юрисдикции и проблемы автоматизированных действий, то самой большой проблемой частной становится технология дипфейков. Такая технология успела стать серьезным оружием. Благодаря ей, например, создаются фейковые видео с участием политических лидеров, произносящих заявления, которые они никогда не делали в реальности.  

Некоторые страны уже начинают принимать меры. Так, Китай ввел уголовную ответственность за публикацию подобного контента. В США были приняты нормативные акты для решения проблемы использования технологий в ходе предвыборной кампании.

Еще одной проблемой является распространение фейкового порнографического видео. Такой контент встречается гораздо чаще, чем материалы политического характера. В некоторых штатах наказание уже ввели и за это.

«Возникает вопрос о принадлежности права на такое произведения. Автор самой программы может и не знать о конечном продукте. Необходимо ответить на вопрос об интеллектуальных правах преступника, правах жертв. Так как эти технологии сложные, составные, то они создают дополнительные концептуально-правовые проблемы. Их тяжело интегрировать в современную юридическую науку», — отмечает эксперт.

Что такое искусственный интеллект на самом деле?

К.ю.н., заместитель директора Юридической школы ДВФУ по развитию Роман Дремлюга подчеркивает, что сегодня многие эксперты не понимают технологию искусственного интеллекта. Самое типичное заблуждение — программист полностью контролирует процесс создания системы искусственного интеллекта и 100% работы системы зависит от него. По словам юриста, если исходить из этого неверного суждения, то вся ответственность ложится на создателя система. На самом деле, искусственный интеллект имитирует работу нейронных сетей. Такие системы предсказуемы лишь в определенной степени, так как они самообучаемы. Программист может избегать рисков лишь отчасти.

"Такое восприятие приводит к недооценке искусственного интеллекта. Сейчас даже в судебной деятельности создают электронного судью. Есть эксперименты с постановкой медицинского диагноза. Искусственный интеллект уже во многих случаях делает это лучше, чем врач. В практике ЕС вышли директивы, запрещающие использование искусственного интеллекта в системах, от которых зависит жизнь людей, в том числе, это касается судебных решений. Евросоюз поторопился, мы так или иначе будем использовать искусственный интеллект в таких вопросах», — поясняет Роман Дремлюга.

Последнее заблуждение — объективность систем искусственного интеллекта. Эксперт приводит в пример США, где была разработана система, рекомендовавшая заключенных к условно досрочному освобождению. Через 15 лет вскрылось, что она предвзято относится к афр американцам. Если мы думаем, что мы получим беспристрастного судью, мы заблуждаемся. Все эти системы учатся на данных, созданных людьми», — добавляет ученый.

Киберпреступления в сфере финансовых услуг

Старший юрист юридической фирмы «Инмар» Михаил Плотников отмечает, что безопасность оказания услуг не поспевает за самими услугами. Такие банковские продукты, как открытие расчетного счета, микрозайм, кредит, давно перешли в онлайн. Но мошенники действуют быстрее, чем развивается система безопасности. Самой частой ситуацией оказывается, когда человек узнает, что на его имя оформлены кредиты и имеются задолженности. Сегодня, используя минимальные личные данные, можно взять кредит на имя человека. Онлайн услугу получить можно, но рассчитывать на то, что в банке она будет оказана безопасно, не стоит. Поэтому гражданам стоит сократить распространение своих личных данных, рекомендуют эксперты. В случае возникновения проблемы, нужно обращаться в суд и правоохранительные органы, так как банк редко оказывает содействие.

«Нужно повысить ответственность, наделить финансовые организации дополнительными полномочиями. Необходимо более детальное участие Банка России во всех этих вопросах», — добавляет эксперт.

Узнать больше о кибербезопасности можно, пройдя по ссылке.

Источник изображения: pixabay.com

Рекомендуем

Статья

ИИ-мошенничество: новые санкции для преступников

Председатель комиссии Совета Федерации по информационной политике и взаимодействию со СМИ Алексей Пушков заявил, что использование искусственного интеллекта в телефонном мошенничестве необходимо признавать отягчающим обстоятельством при совершении преступления. Насколько целесообразна такая мера, рассказали «Сфере» эксперты.

Статья

Виртуальный следователь: помогут ли нейросети распознать маньяка

Искусственный интеллект способен не только нарисовать фоторобот за секунды, но и по чертам лица определить, может ли человек совершить преступление или нет. Вот только законно ли использование ИИ в криминалистике? Поможет ли нейросеть ускорить поимку правонарушителей и определить их личность с максимальной точностью? На эти и другие вопросы отвечают эксперты «Сферы».

Статья

Правой рукой мирового судьи может стать нейросеть

В 2023-м количество дел в административном судопроизводстве выросло втрое по сравнению с аналогичным периодом прошлого года, достигнув цифры в 1,3 млн разбирательств. В первом квартале 2024-го порог превысил отметку в 1,5 млн. А все потому, что цифровизация в мировых судах и судах общей юрисдикции происходит крайне медленно, а нагрузка только растет. Возможность использовать технологии при осуществлении делопроизводства появится только с 1 июня 2025 года. Облегчит ли это работу судьям, разбиралась «Сфера».

Нужно хоть что-то написать