Их стремительное распространение в обществе и растущее экспериментальное использование в целях, связанных со здравоохранением, вызывает значительный интерес. Это настораживает экспертов ВОЗ. Они считают, что необходимо тщательно изучить риски, возникающие при использовании больших языковых моделей для улучшения доступа к медицинской информации. Об этом особенно важно помнить, принимая связанные со здоровьем решения, опираясь на полученные от искусственного интеллекта данные.
Хотя в организации в целом с энтузиазмом относятся к надлежащему использованию новых технологий для поддержки медицинских работников, пациентов, исследователей и ученых, эксперты ВОЗ предупреждают, что в случае с применением больших языковых моделей общество не проявляет ту осторожность, с которой оно относится к любой новой технологии. Поспешное внедрение непроверенных систем может привести к ошибкам медицинских работников, нанести вред пациентам, подорвать доверие к искусственному интеллекту и тем самым отсрочить применение таких технологий во всем мире, предупреждают в ВОЗ.
Среди проблем, связанных с применением больших языковых моделей в здравоохранении, вызывает обеспокоенность, например, качество данных, используемых для обучения искусственного интеллекта – они могут быть предвзятыми или неточным и представлять риск для здоровья. Языковые модели также могут не защищать конфиденциальные данные (включая данные о здоровье), которые пользователь предоставляет приложению для создания ответа.
Ответы, сгенерированные языковой моделью, могут казаться авторитетными и правдоподобными для конечного пользователя; однако эти ответы могут быть полностью неверными или содержать серьезные ошибки. Также ответы могут быть использованы не по назначению, например для создания и распространения весьма убедительной дезинформации в виде текстового, аудио- или видеоконтента.
ВОЗ предлагает разобраться с этими проблемами и получить четкие доказательства пользы больших языковых моделей до их широкого использования в здравоохранении и медицине.