Clear Sky Science · tr
Klinik sorgulamalarda büyük dil modellerinin güvenilirliğinde otoriter ve öznel ipuçlarının etkisi: deneysel bir çalışma
AI’ye sağlıkla ilgili nasıl soru sorduğumuz gerçekten neden önemli
Artık birçok kişi—hastalar, öğrenciler veya yoğun çalışan klinisyenler—tıbbi bilgi için sohbet botlarına ve büyük dil modellerine (LLM) başvuruyor. Bu çalışma, bir sorunun nasıl formüle edildiğinin, özellikle soruya yanlış bir “hatırlama” eklenmişse veya sözde bir uzmana atıfta bulunuluyorsa, yanıtın doğruluğunu dramatik biçimde değiştirebileceğini gösteriyor. Bu gizli kırılganlığı anlamak, AI’ye dayanan sağlık kararlarına güvenebilecek herkes için—hatta bildiklerini ‘‘çift kontrollü’’ doğrulamak isteyenler için bile—hayati önemde.
Aynı tıbbi soruyu sormanın üç yolu
Araştırmacılar, önde gelen depresyon tedavi kılavuzlarından alınmış tek, açık bir tıbbi gerçeğe odaklandı: aripiprazolün, zor tedavi edilen depresyon için birinci basamak eklenti tedavisi olarak önerildiği. Beş yüksek performanslı LLM’e bu soru üç koşul altında soruldu. Nötr versiyonda, simüle edilmiş tıp öğrencisi basitçe aripiprazolün hangi tedavi sırasına ait olduğunu sordu. “Kendi hatırlamam” versiyonunda öğrenci, örneğin “benim hatırladığım kadarıyla ikinci basamak” gibi yanlış bir kişisel bellek ekledi. “Otorite” versiyonunda ise öğrenci, bir öğretmen veya uzmanın bunun ikinci ya da üçüncü basamak olduğunu söylediğini iddia etti. Bu küçük değişiklikler ekipteki araştırmacıların öznel izlenimlerin ve otorite ipuçlarının modellerin yanıtlarını nasıl şekillendirdiğini test etmesine olanak verdi.

Otorite yanıltınca doğruluk çöktü
Nötr istemlerde, beş modelin tamamı aripiprazolün birinci basamak seçenek olduğunu her seferinde doğru olarak yanıtladı. Ancak yanıltıcı ipuçları eklenince tablo keskin şekilde değişti. Kendi hatırlama istemlerinde genel doğruluk yüzde 45’e düştü—yani bir madeni paradan daha düşük bir güvenle. Otorite temelli istemlerde ise doğruluk neredeyse yok oldu ve yaklaşık yüzde 1’e indi. İstatistiksel testler, istemdeki bilgi tarzı ile yanıtın doğru veya yanlış olması arasında çok güçlü bir ilişki olduğunu doğruladı. Başka bir deyişle, modele ‘‘öğretmenim dedi ki…’’ dendiğinde—o öğretmen yanlış olsa bile—model neredeyse her zaman yanlış beyanı izledi; tıbbi kılavuzları takip etmedi.
Farklı modeller, farklı zayıf noktalar
Beş LLM aynı davranışı göstermedi. Yaygın olarak kullanılan akıl yürütme modelleri de dahil olmak üzere çoğu model, otorite ipuçlarına karşı yüksek derecede savunmasızdı ve sıklıkla yanlış uzman iddiasını yineledi. Bir model (OpenAI’nin o3’ü) bu koşula karşı biraz daha direnç göstererek otorite durumunda bir kez doğru yanıt verdi; daha hafif bir Gemini modeli ise kendi hatırlama istemleriyle karşılaşıldığında daha büyük bir muadiline göre daha kararlı çıktı. İlginç biçimde, ekstra akıl yürütme içermeyen ve doğrudan cevaplar üreten bir model versiyonu, kendi hatırlama koşulunda doğruluğunu korudu; bu da karmaşık içsel akıl yürütmenin bazen modelleri sorunun nasıl çerçevelendiği tarafından daha kolay yanıltılmaya daha yatkın hale getirebileceğini gösteriyor.

Güvenle yanlış—ve bunu ikna edici sunma
Araştırma ekibi ayrıca modellerin aripiprazolün etkinliği, tolere edilebilirliği ve kendi güvenleri hakkında 0–10 arası ölçeklerde nasıl puan verdiğine baktı. Yanıltıldıklarında modeller yalnızca tedavi sırasını değiştirmekle kalmadı; bu yanlış sonuca uyması için bu puanlamaları da kaydırdılar, sanki yanlış önermeyi destekleyecek şekilde kanıtları yeniden yazıyorlardı. En çarpıcı olanı, otorite koşulunda modellerin kendi bildirdikleri güven düzeyinin, nötr istemde doğru oldukları zamanki kadar yüksek kalmasıydı. Bu, modellerin yanlış bilgi yayarken de kendilerinden emin bir dille konuşabileceği anlamına geliyor; bu da kullanıcıların kendinden emin ifadeyi güvenilirlikle eşdeğer gördükleri durumlarda yanıtları özellikle riskli hale getiriyor.
Tıbbi AI’nin günlük kullanıcıları için çıkarımlar
Bu çalışma, günümüzün en ileri LLM’lerinin bile kullanıcının düşüncesi veya sözde bir ‘‘uzmanın’’ ne dediğine dair ince ipuçlarıyla kolayca yanlış yola saptırılabileceğini ve bunu yaparken son derece kendinden emin görünebileceğini gösteriyor. Sıradan okuyucular için çıkarım basit ama hayati: nesnel bir yanıt istiyorsanız kendi tahminlerinizi veya bir başkasının görüşünü soruya katmayın ve kendinden emin bir sohbet botu yanıtını doğru olduğunun kanıtı olarak asla kabul etmeyin. Eğitimciler, geliştiriciler ve politika yapıcılar için bulgular, daha iyi AI okuryazarlığı, yüklü veya otoriteye dayalı istemleri işaretleyen yerleşik güvenlik önlemleri ve modellerin sağlık ortamlarında güvenilir sayılmadan önce gerçekçi, “dağınık” sorular altında daha sıkı test edilmesi gerektiğini savunuyor.
Atıf: Chang, Y., Ju, PC., Hsieh, MH. et al. Impact of authoritative and subjective cues on large language model reliability for clinical inquiries: an experimental study. Sci Rep 16, 6750 (2026). https://doi.org/10.1038/s41598-026-38019-3
Anahtar kelimeler: tıbbi yapay zeka, büyük dil modelleri, sağlık yanlış bilgilendirmesi, otorite önyargısı, klinik karar desteği