- Люди часто сомневаются в медицинских советах ИИ - часто с веской причиной
Необъяснимые боли в животе, упорный кашель или необычное пятно на ногте: люди, которые спрашивают Google о различных симптомах, — это не новое явление, и с ростом популярности AI-чатботов, подобных ChatGPT, возможности для цифровой самодиагностики кажутся растущими. Однако исследование из Вюрцбурга, опубликованное в журнале "Nature Medicine", показывает, что по-прежнему существуют значительные сомнения в медицинской компетентности такого искусственного интеллекта.
Исследование восприятия советов AI
Исследователи из Вюрцбурга изучили, как люди реагируют на медицинские советы, сгенерированные AI. "Нас не интересовала техническая компетентность AI, а скорее то, как воспринимается выход AI", — говорит Мориц Райс из Университета имени Юлиуса и Максимилиана.
Для этого исследовательская группа разделила более 2000 участников на три группы, каждая из которых получала одинаковые медицинские советы. Первой группе сказали, что рекомендации дал врач, второй — что они сгенерированы AI-чатботом, а третья группа верила, что советы сгенерированы чатботом, но были проверены врачом.
Участники оценивали рекомендации на надежность, понятность и эмпатию. При подозрении на участие AI они воспринимали советы как менее эмпатичные и надежные. Это было верно даже для группы, которая верила, что AI-рекомендации были проверены врачом. В результате они были менее склонны следовать этим рекомендациям. "Скепсис в отношении AI статистически значим, хотя и не подавляющий", — комментирует Райс.
Объяснения скептицизма в отношении AI
Райс частично объясняет скепсис в отношении AI стереотипами: "Многие считают, что машина не может быть эмпатичной". Однако все три группы оценили понятность советов одинаково.
Для исследовательской группы идентифицированный скепсис в отношении AI важен, поскольку AI играет все более значительную роль в медицине. В настоящее время публикуется множество исследований о новых приложениях AI. Поэтому важно, чтобы общественность приняла их, говорит Райс: "Вопрос о будущем использовании AI в медицине не только о том, что технически возможно, но и о том, насколько пациенты готовы пойти на это". Необходимо образование об этих приложениях и AI в целом. "Другие исследования показали, насколько важно для доверия пациентов, чтобы человеческий врач имел последнее слово вместе с пациентом", — подчеркивает Райс.
Прозрачность как ключевой фактор
Райс считает прозрачность особенно важной: "Это означает, например, что AI не просто ставит диагноз, а также объясняет, какой информации он следовал".
Качество этих результатов уже некоторое время научно исследуется с разной степенью успеха. Например, в 2023 году в журнале "Journal of Medical Internet Research" было найдено, что ChatGPT имеет высокую точность диагностики, правильно идентифицируя окончательный диагноз в почти 77% из 36 случаев. Голландское исследование даже предположило, что диагностические способности ChatGPT сопоставимы с врачами в отделениях неотложной помощи, точно диагностируя 97% случаев с использованием анонимных данных от 30 пациентов.
С другой стороны, в 2023 году в журнале "Jama" было найдено, что ChatGPT правильно диагностировал только 27 из 70 медицинских случаев, всего 39%. Исследование, опубликованное в "Jama Pediatrics", пришло к выводу, что его точность еще хуже для состояний, которые в основном поражают детей.
ChatGPT в медицинском образовании
Недавнее исследование, опубликованное в журнале "Plos One", изучило, может ли ChatGPT быть полезным в медицинском образовании. Исследовательская группа из Канадского Лондонского центра здравоохранения отметила, что чатбот имеет доступ к обширной базе знаний и может общаться с этой информацией интерактивно и понятно.
Группе был представлен ChatGPT 150 "случаев вызова" из базы данных медицинских историй болезни, где описываются симптомы и течение заболевания. tanto медицинские студенты, как и профессионалы, были проинструктированы поставить диагноз и разработать план лечения в формате с множественным выбором.
ChatGPT был правильным в 74 из 150 случаев, то есть почти в половине. Исследование показало, что ChatGPT испытывает трудности с интерпретацией лабораторных значений и результатов изображений и часто упускает важную информацию. Авторы пришли к выводу, что в текущем виде ChatGPT не достаточно точен, чтобы использоваться как инструмент диагностики, и его следует использовать с осторожностью как вспомогательный инструмент диагностики и образовательный инструмент.
"Сочетание высокой актуальности и относительно низкой точности argue against relying on ChatGPT for medical advice, as it may present misleading information", — предупреждает исследование, что, скорее всего, также относится к обычным людям, использующим бота для цифровой самодиагностики.
ChatGPT и диагностика детских состояний (JAMA Pediatrics, 2024)
В свете выводов исследования люди склонны воспринимать медицинские советы, сгенерированные AI, как менее надежные и эмпатичные, чем советы от человеческих врачей, что может повлиять на их готовность следовать этим рекомендациям. Интересно, что другие исследования показали важность того, чтобы человеческие врачи имели последнее слово в уходе за пациентами, подчеркивая необходимость образования об AI в здравоохранении.