ChatGPT kämpft mit der Beantwortung medizinischer Fragen, so eine neue Studie
Forscher der Long Island University stellten der kostenlosen Version des Chatbots mit künstlicher Intelligenz 39 medikamentenbezogene Fragen, bei denen es sich um echte Fragen des Arzneimittelinformationsdienstes des College of Pharmacy der Universität handelte. Die Antworten der Software wurden dann mit Antworten verglichen, die von geschulten Apothekern geschrieben und überprüft wurden.
Die Studie ergab, dass ChatGPT nur bei etwa 10 Fragen, d. h. bei etwa einem Viertel der Fragen, richtige Antworten gab. Bei den anderen 29 Aufforderungen waren die Antworten unvollständig oder ungenau, oder sie gingen nicht auf die Fragen ein.
Die Ergebnisse wurden am Dienstag auf der Jahrestagung der American Society for Health-Systems Pharmacists in Anaheim, Kalifornien, vorgestellt.
ChatGPT, der experimentelle KI-Chatbot von OpenAI, wurde im November 2022 veröffentlicht und entwickelte sich zur am schnellsten wachsenden Verbraucheranwendung in der Geschichte, da sich innerhalb von zwei Monaten fast 100 Millionen Menschen registrierten.
Angesichts dieser Popularität wurde das Interesse der Forscher durch die Sorge geweckt, dass ihre Studenten, andere Apotheker und normale Verbraucher sich an Ressourcen wie ChatGPT wenden würden, um Fragen zu ihrer Gesundheit und ihren Medikationsplänen zu klären, sagte Sara Grossman, eine außerordentliche Professorin für Pharmaziepraxis an der Long Island University und eine der Autoren der Studie.
Die Forscher fanden heraus, dass diese Abfragen oft ungenaue - oder sogar gefährliche - Antworten lieferten.
In einer Frage fragten die Forscher ChatGPT zum Beispiel, ob das antivirale Medikament Paxlovid von Covid-19 und das blutdrucksenkende Medikament Verapamil im Körper miteinander reagieren würden. ChatGPT antwortete, dass die gleichzeitige Einnahme der beiden Medikamente keine nachteiligen Auswirkungen haben würde.
In Wirklichkeit kann es bei Menschen, die beide Medikamente einnehmen, zu einem starken Blutdruckabfall kommen, der Schwindel und Ohnmacht verursachen kann. Für Patienten, die beide Medikamente einnehmen, erstellen die Ärzte oft patientenindividuelle Pläne, wie z. B. die Senkung der Verapamil-Dosis oder die Ermahnung, langsam aus dem Sitzen aufzustehen, so Grossman.
Die ChatGPT-Anleitung, fügte sie hinzu, hätte die Menschen in Gefahr gebracht.
"Die Verwendung von ChatGPT zur Beantwortung dieser Frage würde einen Patienten dem Risiko einer unerwünschten und vermeidbaren Arzneimittelinteraktion aussetzen", schrieb Grossman in einer E-Mail an CNN.
Als die Forscher den Chatbot um wissenschaftliche Belege für jede seiner Antworten baten, stellten sie fest, dass die Software diese nur für acht der gestellten Fragen liefern konnte. Und in jedem Fall waren sie überrascht, dass ChatGPT Referenzen fälschte.
Auf den ersten Blick sahen die Zitate legitim aus: Sie waren oft angemessen formatiert, enthielten URLs und waren unter seriösen wissenschaftlichen Zeitschriften aufgeführt. Als das Team jedoch versuchte, die referenzierten Artikel zu finden, stellten sie fest, dass ChatGPT ihnen fiktive Zitate gegeben hatte.
In einem Fall fragten die Forscher ChatGPT, wie man die Dosen des Medikaments Baclofen zur Behandlung von Muskelkrämpfen durch Injektion in die Wirbelsäule in entsprechende orale Dosen umrechnen kann. Grossmans Team konnte kein wissenschaftlich fundiertes Verhältnis für die Umrechnung von Dosen finden, aber ChatGPT gab eine einzige Umrechnungsrate an und zitierte die Leitlinien zweier medizinischer Organisationen, sagte sie.
Keine der beiden Organisationen gibt jedoch eine offizielle Anleitung für die Dosisumrechnung. Der von ChatGPT vorgeschlagene Umrechnungsfaktor sei sogar nie wissenschaftlich festgelegt worden. Die Software lieferte auch eine Beispielrechnung für die Dosisumrechnung, die jedoch einen entscheidenden Fehler enthielt: Bei der Berechnung der oralen Dosis wurden die Einheiten vertauscht, wodurch die Dosisempfehlung um den Faktor 1.000 verfälscht wurde.
Wenn ein Angehöriger der Gesundheitsberufe diese Anleitung befolgte, so Grossman, könnte er einem Patienten eine 1.000-mal niedrigere orale Baclofen-Dosis verabreichen als erforderlich, was zu Entzugserscheinungen wie Halluzinationen und Krampfanfällen führen könnte.
Es gab zahlreiche Fehler und "Probleme" bei dieser Reaktion, und letztlich könnte dies tiefgreifende Auswirkungen auf die Patientenversorgung haben", schrieb sie.
Die Studie der Long Island University ist nicht die erste, die Bedenken hinsichtlich der fiktiven Zitate von ChatGPT äußert. Frühere Untersuchungen haben auch gezeigt, dass ChatGPT bei medizinischen Fragen täuschende Fälschungen wissenschaftlicher Referenzen erstellen und sogar die Namen echter Autoren mit früheren Veröffentlichungen in wissenschaftlichen Zeitschriften angeben kann.
Grossman, der vor der Studie nur wenig mit der Software gearbeitet hatte, war überrascht, wie sicher ChatGPT in der Lage war, fast augenblicklich Informationen zu synthetisieren, für deren Zusammenstellung ausgebildete Fachleute Stunden brauchen würden.
"Die Antworten waren sehr professionell und anspruchsvoll formuliert, und es schien, dass dies zu einem Gefühl des Vertrauens in die Genauigkeit des Tools beitragen kann", sagte sie. "Ein Nutzer, ein Verbraucher oder andere, die nicht in der Lage sind, zu unterscheiden, können durch den Anschein von Autorität beeinflusst werden."
Ein Sprecher von OpenAI, der Organisation, die ChatGPT entwickelt, rät den Nutzern, sich nicht auf die Antworten als Ersatz für eine professionelle medizinische Beratung oder Behandlung zu verlassen.
Der Sprecher verwies auf die Nutzungsrichtlinien von ChatGPT, die besagen, dass "OpenAIs Modelle nicht darauf abgestimmt sind, medizinische Informationen zu liefern". Die Richtlinie besagt auch, dass die Modelle niemals dazu verwendet werden sollten, "Diagnose- oder Behandlungsdienste für ernsthafte medizinische Zustände" anzubieten.
Obwohl Grossman nicht genau wusste, wie viele Menschen ChatGPT nutzen, um Fragen zu Medikamenten zu beantworten, äußerte sie die Befürchtung, dass sie den Chatbot so nutzen könnten, als würden sie in Suchmaschinen wie Google nach medizinischen Ratschlägen suchen.
Erhalten Sie den wöchentlichen Newsletter von CNN Health
Melden Sie sich hier an, um jeden DienstagThe Results Are In mit Dr. Sanjay Gupta vom CNN Health-Team zu erhalten.
"Die Menschen sind immer auf der Suche nach sofortigen Antworten, wenn sie dies zur Hand haben", so Grossman. "Ich denke, dass dies nur ein weiterer Ansatz ist, 'Dr. Google' und andere scheinbar einfache Methoden der Informationsbeschaffung zu nutzen."
Für medizinische Online-Informationen empfahl sie den Verbrauchern, staatliche Websites zu nutzen, die seriöse Informationen bieten, wie die MedlinePlus-Seite der National Institutes of Health.
Dennoch glaubt Grossman nicht, dass Online-Antworten den Rat eines Arztes ersetzen können.
"Websites sind vielleicht ein Ansatzpunkt, aber sie können den Arzt bei der Suche nach Informationen über Medikamente, die direkt auf sie anwendbar sind, aus dem Spiel nehmen", sagte sie. "Aber es kann sein, dass die Informationen für die Patienten selbst aufgrund ihres persönlichen Falles nicht anwendbar sind, und jeder Patient ist anders. Daher sollte die Autorität hier nicht aus dem Bild genommen werden: die medizinische Fachkraft, der Verordner, die Ärzte des Patienten".
Lesen Sie auch:
- 80 % der jungen Deutschen ernähren sich nachhaltig
- Corona oder Grippe? Diese Krankheitserreger verursachen bei uns Husten und Schnupfen
- Emile war gerade 16 Jahre alt, als er starb – und seine Familie spricht davon, sich das Leben zu nehmen, um anderen zu helfen
- So bereiten Sie Ihren Körper auf den Winter vor
Quelle: edition.cnn.com