Перейти к содержанию

ChatGPT не может ответить на медицинские вопросы, показало новое исследование

ChatGPT, возможно, не является панацеей для получения ответов на медицинские вопросы, говорится в новом исследовании.

На этой фотоиллюстрации приветственный экран приложения OpenAI "ChatGPT" отображается на экране....aussiedlerbote.de
На этой фотоиллюстрации приветственный экран приложения OpenAI "ChatGPT" отображается на экране ноутбука 03 февраля 2023 года в Лондоне, Англия..aussiedlerbote.de

ChatGPT не может ответить на медицинские вопросы, показало новое исследование

Исследователи из Университета Лонг-Айленда задали бесплатной версии чатбота с искусственным интеллектом 39 вопросов, связанных с лекарствами, причем все они были реальными вопросами из справочной службы фармацевтического колледжа университета. Затем ответы программы сравнивались с ответами, написанными и проверенными квалифицированными фармацевтами.

Исследование показало, что ChatGPT дал точные ответы только на 10 вопросов, или около четверти от общего числа. На остальные 29 вопросов ответы были неполными или неточными, либо не касались вопросов.

Результаты исследования были представлены во вторник на ежегодной встрече Американского общества фармацевтов систем здравоохранения в Анахайме, штат Калифорния.

ChatGPT, экспериментальный ИИ-чатбот компании OpenAI, был выпущен в ноябре 2022 года и стал самым быстрорастущим потребительским приложением в истории: за два месяца в нем зарегистрировалось около 100 миллионов человек.

По словам Сары Гроссман, доцента кафедры фармацевтической практики Университета Лонг-Айленда и одного из авторов исследования, учитывая такую популярность, интерес исследователей был вызван опасениями, что их студенты, другие фармацевты и обычные потребители будут обращаться к таким ресурсам, как ChatGPT, чтобы выяснить вопросы о своем здоровье и планах приема лекарств.

Эти вопросы, как выяснилось, часто давали неточные и даже опасные ответы.

Например, в одном из вопросов исследователи спросили ChatGPT, будут ли противовирусный препарат Пакловид-19 и препарат для снижения артериального давления верапамил реагировать друг с другом в организме. ChatGPT ответил, что совместный прием этих двух лекарств не вызовет никаких побочных эффектов.

На самом деле у людей, принимающих оба препарата, может сильно упасть артериальное давление, что может вызвать головокружение и обморок. По словам Гроссман, для пациентов, принимающих оба препарата, врачи часто разрабатывают индивидуальные планы, в том числе снижают дозу верапамила или предупреждают, чтобы человек медленно вставал из положения сидя.

Руководство ChatGPT, добавила она, могло бы подвергнуть людей опасности.

"Использование ChatGPT для решения этого вопроса подвергло бы пациента риску нежелательного и предотвратимого лекарственного взаимодействия", - написала Гроссман в электронном письме CNN.

Когда исследователи попросили чатбота предоставить научные ссылки, подтверждающие каждый из его ответов, они обнаружили, что программа может предоставить их только для восьми из заданных вопросов. И в каждом случае они с удивлением обнаружили, что ChatGPT сфабриковал ссылки.

На первый взгляд, ссылки выглядели вполне легитимными: Они часто были оформлены соответствующим образом, содержали URL-адреса и были указаны в легальных научных журналах. Но когда команда попыталась найти статьи, на которые ссылалась, они поняли, что ChatGPT давал им вымышленные ссылки.

В одном случае исследователи спросили ChatGPT, как перевести дозы препарата баклофена для спинальных инъекций при мышечных спазмах в соответствующие пероральные дозы. Команда Гроссмана не смогла найти научно установленный коэффициент пересчета доз, но ChatGPT предложил единый коэффициент пересчета и сослался на рекомендации двух медицинских организаций, сказала она.

Однако ни одна из этих организаций не дает официального руководства по коэффициенту пересчета доз. Более того, коэффициент пересчета, предложенный ChatGPT, никогда не был научно обоснован. Программа также предоставила пример расчета для пересчета дозы, но с критической ошибкой: она перепутала единицы при расчете пероральной дозы, что отбросило рекомендации по дозе в 1 000 раз.

По словам Гроссмана, если бы этим рекомендациям следовал медицинский работник, он мог бы назначить пациенту пероральную дозу баклофена в 1000 раз меньше, чем требуется, что могло бы вызвать симптомы абстиненции, такие как галлюцинации и судороги.

"В этом ответе было множество ошибок и "проблем", и в конечном итоге это может оказать глубокое влияние на лечение пациентов", - написала она.

Исследование Университета Лонг-Айленда - не первое, в котором высказываются опасения по поводу вымышленных ссылок ChatGPT. Предыдущие исследования также зафиксировали, что, отвечая на медицинские вопросы, ChatGPT может создавать обманчивые подделки научных ссылок, даже указывая имена реальных авторов с предыдущими публикациями в научных журналах.

Гроссман, который до исследования мало работал с программой, был удивлен тем, как уверенно ChatGPT практически мгновенно синтезировал информацию, ответы, на составление которых у квалифицированных специалистов ушли бы часы.

"Ответы были сформулированы в очень профессиональной и сложной манере, и казалось, что это может способствовать чувству уверенности в точности инструмента", - сказала она. "Пользователя, потребителя или других людей, которые могут быть не в состоянии разобраться, может поколебать видимость авторитетности".

Представитель OpenAI, организации, разработавшей ChatGPT, заявил, что она советует пользователям не полагаться на ответы как на замену профессиональной медицинской консультации или лечения.

Представитель указал на правила использования ChatGPT, в которых говорится, что "модели OpenAI не настроены на предоставление медицинской информации". В правилах также говорится, что модели никогда не должны использоваться для предоставления "диагностических или лечебных услуг при серьезных медицинских заболеваниях".

Хотя Гроссман не уверена в том, сколько людей используют ChatGPT для решения вопросов о лекарствах, она высказала опасения, что они могут использовать чатбота так же, как ищут медицинские советы в поисковых системах вроде Google.

Получайте еженедельную рассылку CNN Health

Подпишитесь здесь, чтобы каждый вторникполучать рассылку The Results Are In with Dr. Sanjay Gupta от команды CNN Health.

"Люди всегда ищут мгновенные ответы, когда у них под рукой есть такая возможность", - говорит Гроссман. Я думаю, что это просто еще один подход к использованию "Доктора Google" и других, казалось бы, простых способов получения информации".

Для получения медицинской информации в Интернете она рекомендует потребителям использовать государственные сайты, предоставляющие достоверную информацию, например страницу MedlinePlus Национального института здоровья.

Тем не менее, Гроссман не считает, что ответы в Интернете могут заменить консультацию медицинского работника.

"Веб-сайты - это, возможно, одна из отправных точек, но они могут вытеснить из поля зрения врача, когда он ищет информацию о лекарствах, которые непосредственно относятся к ним", - сказала она. "Но это может быть неприменимо к самим пациентам из-за их личного случая, а каждый пациент индивидуален. Поэтому не следует убирать из поля зрения авторитетов: медицинского работника, назначающего препарат, врача пациента".

Читайте также:

Источник: edition.cnn.com

Комментарии

Последние

Люди идут по территории климатического саммита ООН COP28 в понедельник, 4 декабря 2023 года, в....aussiedlerbote.de

Из проекта соглашения климатического саммита убрали упоминание о постепенном отказе от ископаемого топлива

В новом проекте основного соглашения на климатических переговорах COP28, опубликованном в понедельник, отсутствует упоминание о постепенном отказе от использования ископаемого топлива, что разочаровало климатические группы, наблюдателей и страны, которые призывали к более жестким формулировкам.

Для участников Общедоступно