ir al contenido

El ChatGPT tiene dificultades para responder a preguntas médicas, según una nueva investigación

El chatGPT podría no ser la panacea para responder a las preguntas médicas, según sugiere un nuevo estudio.

En esta ilustración fotográfica, la pantalla de bienvenida de la aplicación "ChatGPT" de OpenAI se....aussiedlerbote.de
En esta ilustración fotográfica, la pantalla de bienvenida de la aplicación "ChatGPT" de OpenAI se muestra en la pantalla de un ordenador portátil el 03 de febrero de 2023 en Londres, Inglaterra..aussiedlerbote.de

El ChatGPT tiene dificultades para responder a preguntas médicas, según una nueva investigación

Investigadores de la Universidad de Long Island plantearon 39 preguntas relacionadas con la medicación a la versión gratuita del robot de inteligencia artificial, todas ellas preguntas reales del servicio de información sobre medicamentos de la Facultad de Farmacia de la universidad. A continuación, se compararon las respuestas del software con las escritas y revisadas por farmacéuticos formados.

El estudio descubrió que ChatGPT sólo daba respuestas precisas a 10 de las preguntas, es decir, a una cuarta parte del total. En las 29 preguntas restantes, las respuestas eran incompletas o inexactas, o no respondían a las preguntas.

Los resultados se presentaron el martes en la reunión anual de la American Society for Health-Systems Pharmacists, celebrada en Anaheim (California).

ChatGPT, el chatbot experimental de IA de OpenAI, se lanzó en noviembre de 2022 y se convirtió en la aplicación de consumo de más rápido crecimiento de la historia, con casi 100 millones de personas registradas en dos meses.

Dada esa popularidad, el interés de los investigadores se debió a la preocupación de que sus estudiantes, otros farmacéuticos y consumidores ordinarios recurrieran a recursos como ChatGPT para explorar preguntas sobre sus planes de salud y medicación, dijo Sara Grossman, profesora asociada de práctica farmacéutica en la Universidad de Long Island y una de las autoras del estudio.

Descubrieron que esas consultas solían dar respuestas inexactas o incluso peligrosas.

En una de ellas, por ejemplo, los investigadores preguntaron a ChatGPT si Paxlovid, el antivírico Covid-19, y verapamilo, el medicamento para bajar la tensión arterial, reaccionarían entre sí en el organismo. ChatGPT respondió que tomar los dos medicamentos juntos no tendría efectos adversos.

En realidad, las personas que toman ambos medicamentos pueden sufrir un gran descenso de la tensión arterial, lo que puede provocar mareos y desmayos. Para los pacientes que toman ambos medicamentos, los médicos suelen elaborar planes específicos para cada paciente, como reducir la dosis de verapamilo o recomendar a la persona que se levante despacio cuando esté sentada, explica Grossman.

Las directrices de ChatGPT, añadió, habrían puesto a las personas en peligro.

"Utilizar ChatGPT para responder a esta pregunta pondría al paciente en riesgo de sufrir una interacción farmacológica no deseada y evitable", escribió Grossman en un correo electrónico a la CNN.

Cuando los investigadores pidieron al chatbot referencias científicas que respaldaran cada una de sus respuestas, descubrieron que el software sólo podía proporcionarlas para ocho de las preguntas que le hicieron. Y en cada caso, se sorprendieron al descubrir que ChatGPT estaba inventando referencias.

A primera vista, las citas parecían legítimas: A menudo tenían el formato adecuado, proporcionaban URL y aparecían en revistas científicas legítimas. Pero cuando el equipo intentó encontrar los artículos referenciados, se dio cuenta de que ChatGPT les había dado citas ficticias.

En un caso, los investigadores preguntaron a ChatGPT cómo convertir las dosis de inyección medular del medicamento contra los espasmos musculares baclofeno en las dosis orales correspondientes. El equipo de Grossman no pudo encontrar una relación de conversión de dosis establecida científicamente, pero ChatGPT propuso una única tasa de conversión y citó la orientación de dos organizaciones médicas, dijo.

Sin embargo, ninguna de las dos organizaciones ofrece orientación oficial sobre el índice de conversión de dosis. De hecho, el factor de conversión que sugería ChatGPT nunca se había establecido científicamente. El programa también ofrecía un ejemplo de cálculo para la conversión de dosis, pero con un error crítico: confundía las unidades al calcular la dosis oral, lo que multiplicaba por 1.000 la dosis recomendada.

Según Grossman, si un profesional de la salud siguiera esta orientación, podría administrar a un paciente una dosis oral de baclofeno 1.000 veces inferior a la necesaria, lo que podría provocar síntomas de abstinencia como alucinaciones y convulsiones.

"Hubo numerosos errores y 'problemas' con esta respuesta y, en última instancia, podría tener un profundo impacto en la atención al paciente", escribió.

El estudio de la Universidad de Long Island no es el primero que suscita preocupación por las citas ficticias de ChatGPT. Investigaciones anteriores también han documentado que, cuando se le hacen preguntas médicas, ChatGPT puede crear falsificaciones engañosas de referencias científicas, incluso enumerando los nombres de autores reales con publicaciones previas en revistas científicas.

A Grossman, que había trabajado poco con el programa antes del estudio, le sorprendió la confianza con la que ChatGPT era capaz de sintetizar información de forma casi instantánea, respuestas que a profesionales formados les llevaría horas recopilar.

"Las respuestas estaban redactadas de forma muy profesional y sofisticada, y me pareció que podía contribuir a generar una sensación de confianza en la precisión de la herramienta", afirma. "Un usuario, un consumidor u otras personas que no sepan discernir pueden dejarse influir por la apariencia de autoridad".

Un portavoz de OpenAI, la organización que desarrolla ChatGPT, dijo que aconseja a los usuarios no confiar en las respuestas como sustituto de un consejo o tratamiento médico profesional.

El portavoz señaló las políticas de uso de ChatGPT, que indican que "los modelos de OpenAI no están afinados para proporcionar información médica". La política también establece que los modelos nunca deben utilizarse para proporcionar "servicios de diagnóstico o tratamiento de afecciones médicas graves."

Aunque Grossman no estaba segura de cuántas personas utilizan ChatGPT para responder a preguntas sobre medicación, le preocupaba que pudieran utilizar el chatbot como buscarían consejos médicos en motores de búsqueda como Google.

Recibe el boletín semanal de CNN Health

Inscríbete aquí para recibir The Results Are In with Dr. Sanjay Gupta todos los martes del equipo de CNN Health.

"La gente siempre busca respuestas instantáneas cuando tiene esto al alcance de la mano", afirma Grossman. "Creo que esto no es más que otro enfoque del uso de 'Dr. Google' y otros métodos aparentemente fáciles de obtener información".

En cuanto a la información médica en línea, recomendó a los consumidores que utilicen sitios web gubernamentales que ofrezcan información fidedigna, como la página MedlinePlus de los Institutos Nacionales de la Salud.

Aun así, Grossman no cree que las respuestas online puedan sustituir al consejo de un profesional sanitario.

"[Las páginas web son] tal vez un punto de partida, pero pueden dejar fuera de juego a sus proveedores cuando busquen información sobre medicamentos que les sean directamente aplicables", afirma. "Pero puede no ser aplicable a los propios pacientes debido a su caso personal, y cada paciente es diferente. Así que no hay que quitar de en medio a la autoridad: el profesional sanitario, el prescriptor, los médicos del paciente."

Lea también:

Fuente: edition.cnn.com

Comentarios

Más reciente

La anual reciente de protestas pro-palestinas en campuses, como la de la Universidad de Oxford, ha...

Los asistentes universitarios de herencia judía expresan su preocupación por una creciente atmósfera de antisemitismo en el campus, atribuida en parte al conflicto en curso entre Israel y Hamas.

Numerosos estudiantes judíos y sus familiares expresan preocupación por un clima cada vez más antisemita en las universidades británicas, sebagian provocado por el assaulto de Hamas a Israel el pasado octubre que ha llevado a un conflicto prolongado en Gaza.

Miembros Público
En el iHeartRadio Music Festival 2024, que tuvo lugar en Las Vegas, Nevada, Chris Martin, vocalista...

indignación en la India por las entradas de Coldplay vendidas por exorbitantes $11,000 después de una rápida venta y posterior revenda a precios ridículos

Entusiastas seguidores de Coldplay en la India se decepcionaron al descubrir que los boletos para el concierto se estaban oferta a precios desorbitados de alrededor de 850,000 INR en internet, lo que llevó a las autoridades a solicitar una explicación al director del proveedor de entradas del...

Miembros Público
En los combates de MMA, golpear con la rodilla la cabeza de un oponente se considera aceptable.

¿Son las competiciones de artes marciales mixtas simplemente espectáculos violentos de dominación física mediante el combate?

¿Son las competiciones de artes marciales mixtas simplemente espectáculos violentos de dominación física mediante el combate? En el mundo del MMA, el combate de contacto completo es la norma, pero existen numerosas ideas equivocadas sobre su popularidad en Alemania. ntv aclara estas ideas erróneas hablando con un luchador profesional de

Miembros Público