ir al contenido

El ChatGPT tiene dificultades para responder a preguntas médicas, según una nueva investigación

El chatGPT podría no ser la panacea para responder a las preguntas médicas, según sugiere un nuevo estudio.

JAPÓN - 26/04/2023: En esta ilustración fotográfica, se ve el registro ChatGPT en la pantalla de un....aussiedlerbote.de
JAPÓN - 26/04/2023: En esta ilustración fotográfica, se ve el registro ChatGPT en la pantalla de un ordenador portátil..aussiedlerbote.de

El ChatGPT tiene dificultades para responder a preguntas médicas, según una nueva investigación

Investigadores de la Universidad de Long Island plantearon 39 preguntas relacionadas con la medicación a la versión gratuita del robot de inteligencia artificial, todas ellas preguntas reales del servicio de información sobre medicamentos de la Facultad de Farmacia de la universidad. A continuación, se compararon las respuestas del software con las escritas y revisadas por farmacéuticos formados.

El estudio descubrió que ChatGPT sólo daba respuestas precisas a 10 de las preguntas, es decir, a una cuarta parte del total. En las 29 preguntas restantes, las respuestas eran incompletas o inexactas, o no respondían a las preguntas.

Los resultados se presentaron el martes en la reunión anual de la American Society for Health-Systems Pharmacists, celebrada en Anaheim (California).

ChatGPT, el chatbot experimental de IA de OpenAI, se lanzó en noviembre de 2022 y se convirtió en la aplicación de consumo de más rápido crecimiento de la historia, con casi 100 millones de personas registradas en dos meses.

Dada esa popularidad, el interés de los investigadores se debió a la preocupación de que sus estudiantes, otros farmacéuticos y consumidores ordinarios recurrieran a recursos como ChatGPT para explorar preguntas sobre sus planes de salud y medicación, dijo Sara Grossman, profesora asociada de práctica farmacéutica en la Universidad de Long Island y una de las autoras del estudio.

Descubrieron que esas consultas solían dar respuestas inexactas o incluso peligrosas.

En una de ellas, por ejemplo, los investigadores preguntaron a ChatGPT si Paxlovid, el antivírico Covid-19, y verapamilo, el medicamento para bajar la tensión arterial, reaccionarían entre sí en el organismo. ChatGPT respondió que tomar los dos medicamentos juntos no tendría efectos adversos.

En realidad, las personas que toman ambos medicamentos pueden sufrir un gran descenso de la tensión arterial, lo que puede provocar mareos y desmayos. Para los pacientes que toman ambos medicamentos, los médicos suelen elaborar planes específicos para cada paciente, como reducir la dosis de verapamilo o recomendar a la persona que se levante despacio cuando esté sentada, explica Grossman.

Las directrices de ChatGPT, añadió, habrían puesto a las personas en peligro.

"Utilizar ChatGPT para responder a esta pregunta pondría al paciente en riesgo de sufrir una interacción farmacológica no deseada y evitable", escribió Grossman en un correo electrónico a la CNN.

Cuando los investigadores pidieron al chatbot referencias científicas que respaldaran cada una de sus respuestas, descubrieron que el software sólo podía proporcionarlas para ocho de las preguntas que le hicieron. Y en cada caso, se sorprendieron al descubrir que ChatGPT estaba inventando referencias.

A primera vista, las citas parecían legítimas: A menudo tenían el formato adecuado, proporcionaban URL y aparecían en revistas científicas legítimas. Pero cuando el equipo intentó encontrar los artículos referenciados, se dio cuenta de que ChatGPT les había dado citas ficticias.

En un caso, los investigadores preguntaron a ChatGPT cómo convertir las dosis de inyección medular del medicamento contra los espasmos musculares baclofeno en las dosis orales correspondientes. El equipo de Grossman no pudo encontrar una relación de conversión de dosis establecida científicamente, pero ChatGPT propuso una única tasa de conversión y citó la orientación de dos organizaciones médicas, dijo.

Sin embargo, ninguna de las dos organizaciones ofrece orientación oficial sobre el índice de conversión de dosis. De hecho, el factor de conversión que sugería ChatGPT nunca se había establecido científicamente. El programa también ofrecía un ejemplo de cálculo para la conversión de dosis, pero con un error crítico: confundía las unidades al calcular la dosis oral, lo que multiplicaba por 1.000 la dosis recomendada.

Según Grossman, si un profesional de la salud siguiera esta orientación, podría administrar a un paciente una dosis oral de baclofeno 1.000 veces inferior a la necesaria, lo que podría provocar síntomas de abstinencia como alucinaciones y convulsiones.

"Hubo numerosos errores y 'problemas' con esta respuesta y, en última instancia, podría tener un profundo impacto en la atención al paciente", escribió.

El estudio de la Universidad de Long Island no es el primero que suscita preocupación por las citas ficticias de ChatGPT. Investigaciones anteriores también han documentado que, cuando se le hacen preguntas médicas, ChatGPT puede crear falsificaciones engañosas de referencias científicas, incluso enumerando los nombres de autores reales con publicaciones previas en revistas científicas.

A Grossman, que había trabajado poco con el programa antes del estudio, le sorprendió la confianza con la que ChatGPT era capaz de sintetizar información de forma casi instantánea, respuestas que a profesionales formados les llevaría horas recopilar.

"Las respuestas estaban redactadas de forma muy profesional y sofisticada, y me pareció que podía contribuir a generar una sensación de confianza en la precisión de la herramienta", afirma. "Un usuario, un consumidor u otras personas que no sepan discernir pueden dejarse influir por la apariencia de autoridad".

Un portavoz de OpenAI, la organización que desarrolla ChatGPT, dijo que aconseja a los usuarios no confiar en las respuestas como sustituto de un consejo o tratamiento médico profesional.

El portavoz señaló las políticas de uso de ChatGPT, que indican que "los modelos de OpenAI no están afinados para proporcionar información médica". La política también establece que los modelos nunca deben utilizarse para proporcionar "servicios de diagnóstico o tratamiento de afecciones médicas graves."

Aunque Grossman no estaba segura de cuántas personas utilizan ChatGPT para responder a preguntas sobre medicación, le preocupaba que pudieran utilizar el chatbot como buscarían consejos médicos en motores de búsqueda como Google.

Recibe el boletín semanal de CNN Health

Inscríbete aquí para recibir The Results Are In with Dr. Sanjay Gupta todos los martes del equipo de CNN Health.

"La gente siempre busca respuestas instantáneas cuando tiene esto al alcance de la mano", afirma Grossman. "Creo que esto no es más que otro enfoque del uso de 'Dr. Google' y otros métodos aparentemente fáciles de obtener información".

En cuanto a la información médica en línea, recomendó a los consumidores que utilicen sitios web gubernamentales que ofrezcan información fidedigna, como la página MedlinePlus de los Institutos Nacionales de la Salud.

Aun así, Grossman no cree que las respuestas online puedan sustituir al consejo de un profesional sanitario.

"[Las páginas web son] tal vez un punto de partida, pero pueden dejar fuera de juego a sus proveedores cuando busquen información sobre medicamentos que les sean directamente aplicables", afirma. "Pero puede no ser aplicable a los propios pacientes debido a su caso personal, y cada paciente es diferente. Así que no hay que quitar de en medio a la autoridad: el profesional sanitario, el prescriptor, los médicos del paciente."

Lea también:

Fuente: edition.cnn.com

Comentarios

Más reciente

En esta foto ilustrativa tomada el 15 de septiembre de 2017, se muestra el símbolo de la aplicación...

Telegram sirve como una plataforma para operaciones comerciales clandestinas para los sindicatos criminales en todo el sudeste asiático, según la afirmación de la ONU.

Las organizaciones criminales en el sudeste asiático aprovechan significativamente la aplicación de mensajería Telegram, lo que ha llevado a un cambio significativo en cómo se Dedican a operaciones ilícitas a gran escala, según un comunicado emitido por las Naciones Unidas el lunes.

Miembros Público
Rodrigo Duterte, presidente de Filipinas, entrega un discurso en una reunión realizada en la Base...

El ex presidente de Filipinas Duterte tiene la intención de competir como alcalde, ignorando su controvertido historial de campaña de drogas.

En un movimiento que sorprendió a muchos, el ex presidente filipino Rodrigo Duterte declaró su intención de folgorar por el cargo de alcalde en su ciudad natal del distrito sur, a pesar de la investigación en curso de la Corte Penal Internacional en relación a su controvertida campaña contra...

Miembros Público