Использующие технологии искусственного интеллекта чат-боты часто дают неправильные и опасные советы пользователям в области здравоохранения, написала в понедельник газета The New York Times со ссылкой на исследование опубликованное в отраслевом издании Nature Medicine.
Как показали результаты, чат-боты (доступные на рынке, включая ChatGPT и Llama) в этом смысле оказались не лучше [поисковой машины] Google – уже считающейся некорректным источником медицинских данных – в вопросе помощи в постановке правильного диагноза или определения действий при заболевании.
ИИ также «несёт специфические риски», иногда предоставляя неверную информацию или же значительно меняя ответ из-за небольшой разницы в формулировках запросов (например, «свет причиняет боль глазам» и «не переношу свет»).
В то же время исследователи возложили часть вины за некорректные ответы на пользователей – те не описывали исчерпывающе состояние больного, из-за чего и возникали ошибки. При этом каждый шестой взрослый американец хотя бы раз в месяц пользуется чат-ботами для поиска медицинских данных.
По данным другого исследования, опубликованного в The Lancet Digital Health, ИИ-инструменты с большей долей вероятности дадут неправильный совет в области медицины, если недостоверные сведения, которые использовал ИИ для составления ответа, были почерпнуты из заслуживающего, по мнению ИИ, доверия источника.
Ранее сообщалось об обнаружении угрозы безопасности пациентов при использовании генеративного ИИ в медицине.
См. также:
Американские врачи взяли на вооружение страдающий от «галлюцинаций» ИИ-инструмент

















