След ChatGPT в работе юристов: как в России предлагают регулировать работу ИИ

Появление нейросети ChatGPT стало одним из главных информационных поводов начала 2023 года. Практическое применение ей нашлось сразу и буквально во всех профессиях. Программисты используют ChatGPT для написания кода, маркетологи для создания контента и повышения эффективности рекламных компаний, юристы – в основном для продвижения своих услуг. «Сфера» рассказывает, какой след нейросеть оставила в деятельности служителей Фемиды, и попытках государства регулировать искусственный интеллект.
Время прочтения: 6 минут

Ошибка ChatGPT за 5 тысяч долларов

Интересная история произошла с адвокатами Стивеном Шварцем и Питером ЛоДуком из компании Levidow, Levidow & Oberman, которые использовали чат-бот ChatGPT в деле против авиакомпании Avianca.

Иск к авиакомпании подал мужчина по имени Роберто Мата. Заявитель получил травму, когда металлическая сервировочная тележка ударила его по колену во время полета в международный аэропорт Кеннеди в Нью-Йорке.

Когда Avianca обратилась к федеральной судье Манхэттена с просьбой прекратить дело, юристы, в частности, Стивен Шварц возразил, приведя 10-ти страничный документ со ссылками на цитаты экспертов и отсылками на аналогичные судебные заседания в качестве доказательств. В документе описывались такие дела, как «Мартинез против Delta Airlines» и «Дерден против KLM Royal Dutch Airlines».

Загвоздка оказалась в том, что никто из юристов авиакомпании, ни сам судья не смогли найти описанные решения или цитаты.

Стороне ответчика удалось доказать, что часть дел, озвученных Шварцем в суде, была сгенерирована ИИ. Окружной судья Кевин Кастель подтвердил, что «шесть из них представляют собой фиктивные судебные решения с фиктивными цитатами и фиктивными внутренними ссылками». В итоге юристы под присягой сознались в использовании ChatGPT.

Суд Манхэттена наложил на двух адвокатов штраф в размере 5 тысяч долларов. Кевин Кастель также отметил, что решение об извинениях перед судьями остается за ответчиками.

Колумбийский прецедент

В начале февраля при вынесении приговора нейросетью ChatGPT воспользовался и судья – Хуан Мануэль Падилья. Он рассматривал вопрос о покрытии страховкой всех расходов на лечение ребенка-аутиста и обратился с соответствующим запросом к нейросети.  ChatGPT дал положительный ответ, который совпал с решением судьи. Также он подкрепил свой приговор ссылкой на прецедент.

Часть коллег Падильи такой подход раскритиковали. Однако, как рассказал «Сфере» юрист, специалист по банкротству Вадим Артемьев, шумиха, вызванная этой новостью, связана прежде всего с самой нейросетью ChatGPT, которой СМИ в последнее время уделяют много внимания, а не с влиянием ИИ на судебное решение. Запрета на использование нейросетей в Колумбии нет.

«Ключевым в этом случае является то, что судья использовал ChatGPT с целью оптимизировать время, которое нужно потратить на составление решений после подтверждения информации ИИ», — отмечал он.

 «Сфера» также тестировала ChatGPT на разборе нескольких нашумевших «звездных» судебных процессов. Идея была в том, чтобы нейросеть проанализировала и ответила, насколько верные решения были вынесены судьями и присяжными. Результаты нас удивили.

ИИ в российских судах

В России применение нейросетей в судах пока не слишком развито. В 2021 году пилотный проект по использования искусственного интеллекта (ИИ) запустили в Белгородской области, где на трех судебных участках мировых судей нейросеть помогает сотрудникам в подготовке приказов по взысканию имущественного, транспортного и земельного налогов. Вынесение самого судебного приказа в задачи ИИ не входит — только сбор документов и проверка реквизитов.

Позиция Минцифры и Госдумы

Несмотря на то, что пока прецедентов привлечения ИИ к консультации по вынесению судебных решений в России не было, в Минцифры уже поступают предложения ввести обязательную маркировку контента, созданного с помощью нейросетей, а также подготовить программу защиты критически важной инфраструктуры от возможных кибератак с использованием таких систем.

«Очевидно, что без введения дополнительных мер контроля за развитием искусственного интеллекта нейросети уже в ближайшие несколько лет смогут гораздо эффективнее, чем люди, взламывать защиту компьютерных программ, в том числе в критически важных для экономики сферах», — говорится в письме ректора РТУ МИРЭА Станислава Куджа главе Минцифры Максуту Шадаеву.

В Госдуме (ГД) такую позицию всецело поддерживают. По словам зампредседателя комитета нижней палаты парламента по информационной политике, информационным технологиям и связи Антона Горелкина, депутаты уже приступили к разработке концепции закона о маркировке контента, который позволит снизить риски от распространения дипфейков. Сейчас основная работа ведется над изучением опыта других стран, консультаций с экспертами и формулировками базовых определений.

Ранее глава комитета Госдумы по информационной политике, информационным технологиям и связи Александр Хинштейн заявлял, что понятие «дипфейк» необходимо закрепить в российском законодательстве.

«Речь о реалистичной подмене фото-, аудио- и видеоматериалов, созданных с помощью нейросетей. Отличить дипфейки от реальной картинки становится все сложнее. Это не может не настораживать, потому что в наше неспокойное время, когда против России открыто ведется информационная война. Любые технологии, связанные с генерацией фейков, должны быть максимально изучены и, конечно, регулироваться законом», – отметил Хинштейн.

Правовое регулирование нейросетей в России

В июле 2020 года в Москве запустили эксперимент с целью проработать регламент условий для разработки и внедрения искусственного интеллекта, а также результатов его применения. В том же году была утверждена Концепция развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 года.

В ней рассматриваются регулирование оборота данных, юридической ответственности в случае применения искусственного интеллекта, информационная безопасность, а также возможность применения таких технологий в разных сферах экономики.

Тем не менее по словам члена комитета Госдумы по информационной политике, информационным технологиям и связи Антона Немкина, мер ответственности за нарушения при внедрении ИИ в гражданский оборот по-прежнему нет, но правительство уже занимается разработкой законопроекта, направленного на регулирование использования искусственного интеллекта в целом.

«Важность принятия данного акта очень высокая. По сути, он задаст дальнейший вектор развития нормативного регулирования ИИ. Новые поправки будут нацелены, в первую очередь, на актуализацию тех норм, которые уже существуют сегодня. Также необходимо определить ответственность за применение искусственного интеллекта в преступных целях», – отметил депутат.

Открытым по-прежнему остается вопрос регулирования авторских и смежных прав на сгенерированный ИИ контент. Пока что в РФ практически отсутствует четко закрепленный правовой статус созданных нейросетями произведений. При этом в Гражданском кодексе прописано, что «автором произведения науки, литературы или искусства признается гражданин, творческим трудом которого оно создано».

Нарушение авторских прав по закону является уголовным преступлением. С ИИ, отмечает народный избранник, все гораздо сложнее.

«Нейросети обучают на контенте из интернета, который также может защищаться авторскими правами. Кроме того, нарушаться могут и права актеров, чьи образы используются, например, для создания дипфейков. Безусловно, регулирование в этой области должно быть проработано более тщательно», – уточнил Антон Немкин.

 

Рекомендуем

Статья

Искусственный интеллект и другие: как цифра меняет юриспруденцию

Использование современных технологий упрощает большинство общественных процессов. В нормотворчестве также идет активный поиск передовых решений. Как может выглядеть цифровое будущее законотворчества и какие риски прогнозируют эксперты в этой области — в материале «Сферы».

Статья

Мой защитник — нейросеть: как ChatGPT сдавал адвокатский экзамен и превзошел ведущих практиков

GPT-4 — модернизированная языковая модель на основе искусственного интеллекта, выпущенная компанией OpenAI — набрала 297 баллов на юридическом экзамене в США. Его проходят реальные кандидаты, чтобы получить адвокатскую лицензию. Оцениваются знания, тип мышления, а также проводятся тесты, имитирующие работу юриста. Нейросети удалось ответить правильно на 76% вопросов. Исследователи заявили, что этого достаточно для допуска к юридической практике в большинстве американских штатов. «Сфера» проверила нашумевшую нейросеть и попросила ее вынести объективные решения по известным состоявшимся делам, а также спросила, был ли ошибочным реальный вердикт.

Авторский взгляд

Дипфейки и ответственность за их распространение. Что важно знать

Про дипфейки, или подделки, созданные с помощью нейросетей, знают многие. Это фальшивые информационные материалы часто используются для кибермошенничества или негативного влияния на репутацию частных лиц и компаний. Анастасия Кочетова, юрисконсульт по информационной безопасности RTM Group, специально для «Сферы» рассказала, какие риски с точки зрения закона связаны с применением дипфейков.

Нужно хоть что-то написать