Yeni araştırmaya göre ChatGPT tıbbi soruları yanıtlamakta zorlanıyor
Long Island Üniversitesi'ndeki araştırmacılar, yapay zekalıechatbot'un ücretsiz versiyonuna ilaçlarla ilgili 39 soru yöneltti ve bunların hepsi üniversitenin Eczacılık Fakültesi ilaç bilgi servisinden gelen gerçek sorulardı. Yazılımın yanıtları daha sonra eğitimli eczacılar tarafından yazılan ve incelenen yanıtlarla karşılaştırıldı.
Çalışma ChatGPT'nin soruların sadece 10'una ya da toplamın yaklaşık dörtte birine doğru yanıtlar verdiğini ortaya koydu. Diğer 29 soruya verilen yanıtlar eksik veya yanlıştı ya da sorulara yanıt vermiyordu.
Bulgular Salı günü Amerikan Sağlık Sistemleri Eczacıları Derneği'nin Anaheim, Kaliforniya'daki yıllık toplantısında sunuldu.
OpenAI'nin deneysel yapay zeka sohbet robotu ChatGPT, Kasım 2022'de piyasaya sürüldü ve iki ay içinde yaklaşık 100 milyon kişinin kaydolmasıyla tarihin en hızlı büyüyen tüketici uygulaması oldu.
Long Island Üniversitesi'nde eczacılık uygulamaları alanında doçent olan ve çalışmanın yazarlarından biri olan Sara Grossman, bu popülerlik göz önüne alındığında, araştırmacıların ilgisinin, öğrencilerinin, diğer eczacıların ve sıradan tüketicilerin sağlık ve ilaç planlarıyla ilgili soruları keşfetmek için ChatGPT gibi kaynaklara yöneleceği endişesinden kaynaklandığını söyledi.
Araştırmacılar, bu sorguların genellikle yanlış - hatta tehlikeli - yanıtlar verdiğini tespit etti.
Örneğin bir soruda araştırmacılar ChatGPT'ye Covid-19 antiviral ilacı Paxlovid ile tansiyon düşürücü ilaç verapamilin vücutta birbirleriyle reaksiyona girip girmeyeceğini sordu. ChatGPT, iki ilacı birlikte almanın hiçbir yan etki yaratmayacağı yanıtını verdi.
Gerçekte, her iki ilacı da alan kişilerde kan basıncında büyük bir düşüş olabilir ve bu da baş dönmesi ve bayılmaya neden olabilir. Grossman, her iki ilacı da alan hastalar için klinisyenlerin genellikle verapamil dozunu düşürmek veya kişiyi oturma pozisyonundan yavaşça kalkması konusunda uyarmak gibi hastaya özel planlar oluşturduğunu söyledi.
Grossman, ChatGPT'nin rehberliğinin insanları tehlikeye atacağını da sözlerine ekledi.
Grossman CNN'e gönderdiği e-postada, "Bu soruyu yanıtlamak için ChatGPT'yi kullanmak hastayı istenmeyen ve önlenebilir bir ilaç etkileşimi riskiyle karşı karşıya bırakacaktır" dedi.
Araştırmacılar chatbot'tan verdiği yanıtların her birini destekleyecek bilimsel referanslar istediklerinde, yazılımın sordukları soruların yalnızca sekizi için bunları sağlayabildiğini gördüler. Ve her durumda, ChatGPT'nin referansları uydurduğunu görünce şaşırdılar.
İlk bakışta alıntılar meşru görünüyordu: Genellikle uygun şekilde biçimlendirilmiş, URL'ler sağlanmış ve meşru bilimsel dergiler altında listelenmişlerdi. Ancak ekip atıfta bulunulan makaleleri bulmaya çalıştığında, ChatGPT'nin onlara hayali atıflar verdiğini fark etti.
Bir vakada, araştırmacılar ChatGPT'ye kas spazmı ilacı baklofen'in spinal enjeksiyon dozlarının karşılık gelen oral dozlara nasıl dönüştürüleceğini sordular. Grossman'ın ekibi bilimsel olarak belirlenmiş bir doz dönüştürme oranı bulamadı, ancak ChatGPT tek bir dönüştürme oranı ortaya koydu ve iki tıbbi kuruluşun rehberliğine atıfta bulundu.
Ancak, her iki kuruluş da doz dönüşüm oranı konusunda resmi bir rehberlik sağlamamaktadır. Aslında ChatGPT'nin önerdiği dönüştürme faktörü hiçbir zaman bilimsel olarak belirlenmemiştir. Yazılım ayrıca doz dönüşümü için örnek bir hesaplama sunmuş ancak kritik bir hata yapmıştır: Oral dozu hesaplarken birimleri karıştırmış ve doz önerisini 1.000 kat saptırmıştır.
Grossman, bu kılavuzun bir sağlık uzmanı tarafından takip edilmesi halinde, hastaya gerekenden 1.000 kat daha düşük bir oral baklofen dozu verilebileceğini ve bunun da halüsinasyonlar ve nöbetler gibi yoksunluk semptomlarına neden olabileceğini söyledi.
"Grossman, "Bu yanıtla ilgili çok sayıda hata ve 'sorun' vardı ve sonuçta bunun hasta bakımı üzerinde derin bir etkisi olabilir" diye yazdı.
Long Island Üniversitesi'nin çalışması ChatGPT'nin kurgusal alıntılarıyla ilgili endişeleri dile getiren ilk çalışma değil. Daha önce yapılan araştırmalar da, tıbbi sorular sorulduğunda ChatGPT'nin bilimsel referansların aldatıcı sahtelerini yaratabildiğini, hatta bilimsel dergilerde daha önce yayınları olan gerçek yazarların isimlerini listelediğini belgelemişti.
Çalışmadan önce yazılımla çok az çalışmış olan Grossman, ChatGPT'nin eğitimli profesyonellerin derlemesi saatler sürecek yanıtları neredeyse anında kendinden emin bir şekilde sentezleyebilmesine şaşırdı.
"Yanıtlar çok profesyonel ve sofistike bir şekilde ifade edilmişti ve aracın doğruluğuna dair bir güven duygusuna katkıda bulunabilecek gibi görünüyordu" dedi. "Bir kullanıcı, bir tüketici ya da ayırt edemeyebilecek diğer kişiler otorite görüntüsünden etkilenebilir."
ChatGPT'yi geliştiren OpenAI'nin bir sözcüsü, kullanıcılara profesyonel tıbbi tavsiye veya tedavinin yerine geçecek yanıtlara güvenmemelerini tavsiye ettiklerini söyledi.
Sözcü, ChatGPT'nin kullanım politikalarına işaret ederek, "OpenAI'nin modellerinin tıbbi bilgi sağlamak için ince ayarlı olmadığını" belirtti. Politikada ayrıca modellerin asla "ciddi tıbbi durumlar için teşhis veya tedavi hizmetleri" sağlamak için kullanılmaması gerektiği belirtiliyor.
Grossman, ChatGPT'yi kaç kişinin ilaçla ilgili sorularını yanıtlamak için kullandığından emin olmasa da, sohbet robotunu Google gibi arama motorlarında tıbbi tavsiye arar gibi kullanabileceklerine dair endişelerini dile getirdi.
CNN Health'in haftalık bültenini alın
CNN Sağlık ekibinden her SalıDr. Sanjay Gupta ile The Results Are In'i almak için buradan kaydolun.
Grossman, "İnsanlar parmaklarının ucunda bu varken her zaman anlık yanıtlar arıyorlar" dedi. "Bence bu, 'Dr. Google' ve diğer kolay görünen bilgi edinme yöntemlerini kullanmanın bir başka yaklaşımı."
Grossman, çevrimiçi tıbbi bilgi için tüketicilere Ulusal Sağlık Enstitüleri'nin MedlinePlus sayfası gibi saygın bilgiler sağlayan resmi web sitelerini kullanmalarını tavsiye etti.
Grossman yine de çevrimiçi yanıtların bir sağlık uzmanının tavsiyesinin yerini alabileceğine inanmıyor.
Grossman, "[Web siteleri] belki bir başlangıç noktası olabilir, ancak doğrudan kendileri için geçerli olan ilaçlar hakkında bilgi ararken sağlayıcılarını resimden çıkarabilirler" dedi. "Ancak kişisel durumları nedeniyle hastaların kendileri için geçerli olmayabilir ve her hasta farklıdır. Dolayısıyla buradaki otorite resimden çıkarılmamalıdır: sağlık uzmanı, reçeteyi yazan kişi, hastanın doktorları."
Ayrıca okuyun:
- Genç Almanların yüzde 80'i sürdürülebilir besleniyor
- Korona mı yoksa grip salgını mı? Bu patojenler şu anda öksürmemize ve burnumuzu çekmemize neden oluyor
- Emil öldüğünde 16 yaşındaydı - ailesi başkalarına yardımcı olmak için intiharı hakkında konuşuyor
- Vücudunuzu kışa nasıl hazırlarsınız?
Kaynak: edition.cnn.com