- La gente a menudo duda de los consejos médicos de IA, a menudo con buena razón
Un dolor inexplicable en el estómago, una tos persistente o una mancha extraña en una uña del pie: la gente que consulta a Google sobre diferentes síntomas no es un fenómeno nuevo, y con el aumento de la popularidad de los chatbots basados en IA como ChatGPT, las posibilidades de autodiagnóstico digital parecen estar aumentando. Sin embargo, un estudio de Würzburg, publicado en la revista "Nature Medicine", muestra que aún hay reservas significativas sobre la competencia médica de tales inteligencia artificial.
Investigación de la percepción de la IA
Los investigadores de Würzburg estudiaron cómo la gente reacciona ante los consejos médicos generados por IA. "No nos interesaba la competencia técnica de la IA, sino cómo se percibe la salida de la IA", dice Moritz Reis de la Julius-Maximilians-Universität.
Para ello, el equipo de investigación dividió a más de 2.000 participantes en tres grupos, cada uno de los cuales recibió idénticos consejos médicos. El primer grupo se dijo que las recomendaciones procedían de un médico, el segundo se dijo que procedían de un chatbot basado en IA y el tercer grupo creía que las recomendaciones procedían de un chatbot pero habían sido revisadas por un médico.
Los participantes calificaron las recomendaciones en cuanto a fiabilidad, comprensibilidad y empatía. Siempre que sospechaban la intervención de la IA, percibían los consejos como menos empáticos y fiables. Esto fue cierto incluso para el grupo que creía que un médico había revisado las recomendaciones de la IA. En consecuencia, eran menos propensos a seguir estos consejos. "El sesgo contra la IA es estadísticamente significativo, aunque no abrumador", comenta Reis.
Explicaciones para la desconfianza en la IA
Reis atribuye en parte la desconfianza en la IA a los estereotipos: "Muchos creen que una máquina no puede ser empática". Sin embargo, los tres grupos calificaron la comprensibilidad de los consejos de manera igual.
Para el grupo de investigación, la desconfianza identificada en la IA es importante porque la IA está jugando un papel cada vez más significativo en la medicina. Actualmente se están publicando muchos estudios sobre nuevas aplicaciones de la IA. Por lo tanto, la aceptación pública es crucial, dice Reis: "La cuestión del uso futuro de la IA en la medicina no es sólo cuestión de lo que es técnicamente posible, sino también de hasta dónde están dispuestos a llegar los pacientes". Es necesario educar sobre estas aplicaciones y la IA en general. "Otros estudios han demostrado lo importante que es que un médico humano tenga la última palabra, junto con el paciente", destaca Reis.
La transparencia como factor clave
Reis considera que la transparencia es especialmente relevante: "Esto significa, por ejemplo, que una IA no sólo hace un diagnóstico, sino que también explica de manera trazable qué información llevó a ese resultado".
La calidad de estos resultados se ha investigado científicamente durante algún tiempo con resultados variables. Por ejemplo, un estudio de 2023 en la "Journal of Medical Internet Research" encontró que ChatGPT tenía una alta precisión diagnóstica, identificando correctamente el diagnóstico final en casi el 77% de 36 casos. Un estudio holandés incluso sugirió que las capacidades diagnósticas de ChatGPT estaban a la par con los médicos de urgencias, diagnosticando correctamente el 97% de los casos utilizando datos anonymizados de 30 pacientes.
Por el contrario, un estudio de 2023 publicado en la revista "Jama" encontró que ChatGPT sólo diagnosticó correctamente el 27% de 70 casos médicos, sólo un 39%. Un estudio publicado en "Jama Pediatrics" concluyó que su precisión era aún peor para las condiciones que afectan principalmente a los niños.
ChatGPT en la educación médica
Un estudio reciente publicado en la revista "Plos One" investigó si ChatGPT podría ser útil en la educación médica. El equipo de investigación del London Health Sciences Centre de Canadá observó que el chatbot tiene acceso a una amplia base de conocimientos y puede comunicar esta información de manera interactiva y comprensible.
El equipo alimentó a ChatGPT con 150 "desafíos de casos" de una base de datos de historiales clínicos médicos, donde se describen los síntomas y la evolución de la enfermedad. Tanto estudiantes como profesionales médicos fueron invitados a hacer un diagnóstico y desarrollar un plan de tratamiento utilizando un formato de elección múltiple.
ChatGPT sólo acertó en 74 de 150 casos, es decir, menos de la mitad. El estudio encontró que ChatGPT lucha por interpretar los valores de laboratorio e imágenes y a menudo pasa por alto información importante. Los autores concluyeron que en su forma actual, ChatGPT no es lo suficientemente preciso como para utilizarse como herramienta diagnóstica y debe utilizarse con precaución tanto como herramienta diagnóstica como educativa.
"La combinación de alta relevancia y precisión relativamente baja argumenta en contra de confiar en ChatGPT para obtener consejos médicos, ya que puede proporcionar información engañosa", advirtió el estudio, una advertencia que probablemente también se aplique a las personas que utilizan el bot para el autodiagnóstico digital.
Autoevaluación de ChatGPT
ChatGPT en sí mismo enfatiza que no es adecuado para hacer diagnósticos. Cuando se le pregunta sobre sus capacidades diagnósticas, el bot responde: "No soy médico y no tengo formación médica. Puedo proporcionar información sobre temas médicos, ofrecer consejos generales y responder preguntas, pero no puedo hacer diagnósticos médicos ni proporcionar consejos médicos profesionales. Si tiene problemas de salud o preguntas, siempre debe consultar a un médico o a un proveedor de atención médica cualificado".
ChatGPT y el diagnóstico de condiciones infantiles (JAMA Pediatrics, 2024)
A la luz de los hallazgos del estudio, la gente tiende a percibir los consejos médicos generados por IA como menos fiables y empáticos que los consejos de médicos humanos, lo que podría afectar su disposición a seguir estos consejos. Resulta interesante que otros estudios hayan destacado la importancia de que los médicos humanos tengan la última palabra en la atención al paciente, destacando la necesidad de educar sobre la IA en la sanidad.