Вопрос регулирования применения искусственного интеллекта (ИИ) и его последствий широко обсуждается в обществе. Ведь при всей пользе нейросетей последствия их использования могут быть разрушительными.
«Никто не знает, насколько реально защищены данные пользователей, потому что для того, чтобы обучить любой чат-бот, требуется ему скормить огромное количество данных, зачастую конфиденциальных. Для многих стоит вопрос, как эти данные будут защищены, как работают алгоритмы, потому что они остаются непрозрачными даже для самих создателей этих систем. К примеру, часто результат работы больших языковых моделей – это только один подвид ИИ, который приводит к предвзятости и дискриминации по политическим, расовым и другим признакам», — рассказывает Даниил Амелин, управляющий партнер инвестиционно-проектного офиса Witte.
ИИ: друг или враг?
Как рассказал «Сфере» Михаил Деревянко, заместитель генерального директора ОЭЗ «Авангард», благодаря ИИ бизнес может получать огромное количество преференций.
«Многие сервисы направлены на получение практического результата в бизнесе, например, построение какой-либо модели поведения или получение, так называемой, предиктивной аналитики на основе данных, полученных за предыдущие периоды. Например, компания может построить какой-то прогноз будущих продаж, исходя из прошлых периодов. Это очень полезное использование ИИ, поскольку позволяет бизнесу работать более эффективно», — говорит Михаил Деревянко, заместитель генерального директора ОЭЗ «Авангард».
По его словам, помимо обработки числовых данных, существует огромное множество сервисов на ИИ, которые позволяют генерить текстовый, графический, аудио и видео контент. Если ИИ для аналитики имеет исключительно положительные примеры применения, то в случаях с аудио, видео и прочим контентом уже есть негативный опыт.
«Например, фиксируются случаи, когда мошенники по образцу голоса наших родственников или друзей могут записывать голосовые сообщения с любым текстом, преимущественно с просьбой перечислить деньги. В таких случаях человек, получивший такое сообщение не отличит голос, сгенерированный ИИ, от оригинала», — продолжает Михаил Деревянко.
Эксперт считает, что именно в таких сферах, где могут быть использованы биометрические данные такие, как изображение, голос и так далее, необходимо государственное регулирование систем с применением ИИ.
«Как минимум, государство должно обязать сервисы на ИИ брать согласие на сбор, хранение и использование биометрических данных человека, как это было сделано ранее с персональными данными. Как максимум, учитывая российскую действительность, необходимо и вовсе лицензировать деятельность по разработке и использованию отдельного функционала ИИ», — резюмирует он.
Ошибка человека или компьютера?
Еще одна проблема ИИ, которую предстоит урегулировать на законодательном уровне — кто должен нести ответственность в случае ошибки: конкретное юридическое или физическое лицо либо компьютер? Виктор Попов, эксперт ИИ, основатель и СЕО проекта BotB2B, приводит один из характерных примеров последнего времени.
«Американский адвокат Стивен Шварц при подготовке к суду использовал ChatGPT для поиска прецедентов. Чат-бот выдал ему варианты, которые он впоследствии представил суду. Но есть момент — ИИ просто их выдумал, таких прецедентов в судебной практике США не было. Фактически господин Шварц ввел в заблуждении суд. Возникает вопрос: кто должен нести ответственность за это. Адвокат, не проверивший информацию, или же чат-бот, выдумавший факты?», — рассказывает Попов.
И добавляет, что на данном этапе в нашей стране нет закона, регулирующего функционирование ИИ.
«Юридическим языком ИИ сейчас попадает в так называемую серую зону. Все понимают, о чём это, но нет четких правил игры. Есть лишь Кодекс этики в сфере ИИ, который подписан ведущими корпорациями. Безусловно, этот документ носит лишь рекомендательный характер», — уточняет он.
Законы в разработке
Лидия Виткова, начальник Аналитического центра кибербезопасности «Газинформсервиса», к.т.н., говорит о том, что вопрос уже решается на государственном уровне.
«На разных уровнях управления существуют рабочие группы, которые заняты разработкой регламентов. Так, например создан Консорциум исследований безопасности технологий «Искусственного Интеллекта» на базе АНО «Национальный технологический центр цифровой криптографии» и межведомственный центр исследований в области обеспечения ИБ при использовании ИИ. Разные регуляторы, министерства, крупные цифровые экосистемы, компании разработчики решений в сфере информационной безопасности объединяются, чтобы в краткие сроки разработать стратегию и разработать регламенты и стандарты», — отметила в комментарии для «Сферы» Лидия Виткова.
Опыт других стран
Сейчас у России есть перед глазами несколько примеров того, как в других странах подошли к регулированию работы нейросетей. ЕС продемонстрировал жесткий путь: фактически это централизованный контроль всех стадий разработки и применения генеративных нейросетей с тщательным их тестированием перед использованием. В США, Великобритании и Японии, напротив, предусмотрен минимальный контроль ИИ. Разница подходов, по мнению Даниила Амелина, связана с повсеместными опасениями относительно того, что технологии развиваются быстро и никто не знает наверняка, каким образом они повлияют на будущее человечества, изменения в количестве рабочих мест и уровень безработицы. Поэтому инициатива законодательных собраний направлена на обеспечение безопасности в этики в использовании ИИ.
«Еще одна тенденция, которую законотворцы стараются регулировать — монополия и доминирование крупных корпораций. Например, Apple выпустила Apple Intelligence, которая работает, в основном, за счет внедрения в свои продукты технологии OpenAI. Такое решение, вероятно, было принято в связи с тем, что объем ресурсов, вложенных в СhatGPT трудно переплюнуть, количество компетентных специалистов ограничено, они очень дорого стоят и за них идет борьба», — говорит Даниил Амелин.
Китайский путь
Пока Россия еще выбирает ту траекторию, по которой будет регулировать работу ИИ. Но уже сейчас понятно, что вряд ли это будет жесткий вариант Евросоюза.
«Стоит помнить про баланс: чрезмерное закручивание гаек усложнит жизнь компаниям и стартапам, работающим на рынке технологий, оставив лишь тех, у кого есть административный ресурс», — уверен Даниил Амелин.
С ним согласна и Анна Дудник, сооснователь и генеральный директор «НейроИнститут.РФ», которая уверена, что России стоит пойти именно по китайскому пути с нейтральным регулированием и точечными ограничениями:
«Минимальное регулирование, как в Японии, может ускорить развитие технологий, но также несет риски неконтролируемого использования, что может привести к печальным последствиям, таким как утечка данных и нарушения прав граждан», — считает она.
Все страны, которые пытаются заниматься регулированием ИИ, говорят о тесном международном сотрудничестве ради ответственного развития технологии. Эксперты в этой сфере такую идею называют прекоасной, но сложно реализуемой в нынешней геополитической ситуации. Поэтому странам, активно развивающим ИИ, предстоит найти собственный путь, прежде чем будет найден баланс.