Генеративный ИИ (Generative AI) — это системы искусственного интеллекта, которые создают новый контент: тексты, изображения, музыку и видео.
Профессиональный бизнес трекер Анастасия Иванова считает, что регулирование будет формироваться под влиянием громких судебных прецедентов, которые дадут импульс для законодательных инициатив.
«Кто-то использует сгенерированный ИИ-голос звезды в рекламе без разрешения — и начинается волна обсуждений, петиций, исков. Появляется спрос на норму», — отмечает спикер.
По её мнению, в ближайшей перспективе более вероятен сценарий, при котором платформы и компании сами будут вводить этические и юридические стандарты. Например, пометки «AI-generated» (создано ИИ) и внутренние регламенты.
Реформа законодательства об ИИ
Опрошенные «Сферой» эксперты сходятся во мнении, что корректировки в законодательстве неизбежны и произойдут в ближайшие 1-3 года. Генеральный директор ООО «КРЕДО» Андрей Антонов указывает на активную работу регуляторов. Так, в России уже ведется работа над новым законом об искусственном интеллекте.
«В Госдуме создана специальная рабочая группа, которая готовит единый закон, призванный заменить нынешние правила (Федерального закона «О персональных данных» от 24.04.2020 №123-ФЗ). Минцифры также представило концепцию развития ИИ до 2030 года, где главными принципами названы защита прав людей, открытость алгоритмов и четкое распределение ответственности между всеми участниками — от создателей технологий до их конечных пользователей. Именно поэтому мы ожидаем, что сегодняшние рекомендации по маркировке ИИ-контента вскоре станут обязательными для бизнеса», — рассказывает спикер.
Андрей Антонов прогнозирует появление требований к маркировке ИИ-контента по аналогии с уже существующими нормами для рекламы.
Партнер, руководитель практики цифрового права «Афонин, Божор и партнеры» Михаил Божор считает, что поправки, скорее всего, будут внесены в статью 1259 ГК. В ней может быть указано, что права на ИИ-контент принадлежат автору текстового запроса.
Сейчас в ст.1225 ГК РФ содержится перечень охраняемых результатов интеллектуальной деятельности, а в дальнейшем в ней может появиться уточнение: объекты, созданные с помощью нейросетей, охраняются в том же режиме.
«Зарубежное законодательство тоже наверняка будет меняться. В американских судах параллельно рассматривают несколько исков к администраторам нейронок о незаконном использовании их контента, которые подали обладатели прав на тексты, музыку и изображения», — отмечает Михаил Божор.
Он считает, что использование чужих произведений для обучения (тренировки) нейросетей легализуют, но с некоторыми ограничениями для операторов ИИ-сервисов. Данные ограничения, вероятно, будут касаться объема исходного произведения, допустимого для обучения.
Ключевые риски
Анастасия Иванова советует обратить внимание на три ключевых момента: авторские права, ответственность и прозрачность.
«Если ИИ сгенерировал контент с ошибками, дискриминацией или нарушением закона, отвечать будет тот, кто его использовал. То есть бизнес», — предупреждает она.
Михаил Божор дополняет: если сгенерированное изображение изначально нарушает права третьих лиц, его коммерческая эксплуатация сопряжена с риском получить исковое заявление. Поэтому специалист не советует требовать от ИИ генерации контента, имеющего очевидное сходство с известными произведениями, так как грань плагиата очень тонка.
Что делать бизнесу уже сегодня
Особое внимание эксперты уделяют необходимости изучать пользовательские соглашения нейросетей. Старший юрист практики ИС и ИТ, руководитель направления по развитию ИИ Екатерина Тытюк подчеркивает этот аспект.
«Мы как юристы видим, что часто пользователи нейросетей используют их, не погружаясь в лицензионные ограничения, которые могут быть довольно существенными. Так, например, ряд популярных нейросетей в принципе ограничивает возможность коммерческого использования сгенерированных результатов, предполагая, что их нейросеть может служить только для личных целей. Лицензии могут содержать и другие настораживающие положения: например, возможность эксплуатации сгенерированного результата разработчиками или создание одинаковых результатов по запросу разных пользователей», — добавляет Екатерина Тытюк.
Пока законодательная база в разработке, компаниям следует начать прописывать роли и границы ответственности при работе с ИИ во внутренних регламентах и договорах.
«Это становится не формальностью, а стратегией управления рисками компаний: роли и границы ответственности определены, бизнес защищен, а технологии становятся управляемым активом», — заключает Андрей Антонов.
Иными словами, регулирование генеративного ИИ — уже не вопрос «если», а «когда».
Новые правила будут формироваться под двойным давлением: громких судебных дел, которые задают направление для законодателей, и инициатив самих компаний, вводящих внутренние стандарты и маркировку ИИ-контента.
Эксперты ожидают, что в ближайшее время появятся обязательные требования к маркировке и поправки в Гражданский кодекс. Они уточнят, кому принадлежат права на контент, созданный искусственным интеллектом.
Изображение создано Freepik, www.freepik.com