Обнаружена угроза безопасности пациентов при использовании генеративного ИИ в медицине

Применение инструментов генеративного ИИ в медицинских учреждениях представляет потенциальную угрозу здоровью пациентов, написал в четверг Nextgov/FCW со ссылкой на данные доклада управления генерального инспектора (Office of the Inspector General, OIG) министерства по делам ветеранов США (Department of Veterans Affairs).

Специалисты проверяли работу разработанного в ведомстве чат-бота VA GPT и 365 Copilot от Microsoft.

В докладе говорится о зафиксированных случаях выдачи недостоверной информации чат-ботами с технологиями искусственного интеллекта – бот оказался способен опускать важные сведения или генерировать ложную информацию.

По информации издания, в 2024 году министерство зарегистрировало 227 случаев использования ИИ-инструментов в различных областях: от передовых медицинских устройств до «высокопроизводительных предиктивных алгоритмов» для выявления участников боевых действий со склонностью к суициду.

Как сообщалось ранее, около 30 тысяч сотрудников американских медицинских учреждений использовали в работе ИИ-инструмент для расшифровки записей ИИ-бота Whisper AI от компании OpenAI, который страдает галлюцинациями – при переводе речи регулярно «придумывает» фрагменты высказываний за человека.

См. также:

Чтобы не пропустить самое интересное, читайте нас в Телеграм

Поделиться:

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Сколько дней в неделе? (1-7, 2-5)