Clear Sky Science · tr

Adliyet-bilinçliğin klinik dil işleme modellerine entegrasyonu

· Dizine geri dön

Gerçek dünya sağlık hizmetleri için neden önemli

Modern tıp giderek daha çok elektronik sağlık kayıtlarından türetilen yapay zekâya dayanıyor. Ancak hastalar hakkında temel bir bilgi — ırk ve etnisite — sıklıkla eksik veya tutarsız şekilde kaydediliyor. Bu boşluk, sağlık eşitsizliklerini ortaya çıkarmayı ve gidermeyi zorlaştırıyor. Bu çalışma, bilgisayarların doktor notlarından ırk bilgilerini güvenilir şekilde geri çıkarıp çıkarmayacağını ve farklı gruplara karşı adaletsiz davranışları nasıl önleyebileceğini ve bunun hem tıbbi kayıtlar hem de yapay zekâ araçlarındaki önyargı hakkında neler açığa çıkardığını inceliyor.

Figure 1
Figure 1.

Tıbbi kayıtlardaki gizli boşluklar

Birçok hastane ve klinik ırk ve etnisite alanlarını boş bırakıyor veya güncel olmayan kategoriler kullanıyor. Bu eksik kayıtlar yalnızca bürokratik hata değil; kimlerin hasta olduğu, kimlerin hangi bakımı aldığı ve yeni tedavilerden kimlerin yararlandığına dair istatistikleri çarpıtabilir. Aynı zamanda kayıtların serbest metin bölümleri—sosyal öykü ve risk faktörü notları—çoğu zaman hastanın geçmişinden geçiştirilerek söz eder. Yazarlar, yapısal olmayan metindeki bu dağınık ipuçlarının ırkın yapılandırılmış, tutarlı bir kaydına dönüştürülüp dönüştürülemeyeceğini ve böylece sağlık ve sağlık hizmeti kullanımındaki eşitsizliklerin daha net bir resmini verip vermeyeceğini sordular.

Bilgisayarlara doktor notlarını okutmak

Araştırma ekibi, yaklaşık 400.000 hastanın ve 400’den fazla kliniğin kayıtlarını içeren büyük bir Kanadalı birinci basamak veri tabanıyla çalıştı. Buradan yaklşık 4.000 yetişkin hastadan oluşan temsili bir örnek seçtiler ve ırk veya etnisiteye açıkça atıfta bulunan cümleleri emekle etiketlediler; Siyah, Doğu Asyalı, Latin Amerika kökenli ve Yerli gibi dokuz kategori ile hiçbir atıf olmadığında “yok” kategorisi kullandılar. Çoğu notta ırk hiç geçmediği için, insan etiketleyicilerin ırk bilgisini içermesi muhtemel vakalara odaklanabilmesi amacıyla, başlangıçtaki bir yapay zekâ modelinin en çok belirsiz olduğu notları işaretlediği “aktif öğrenme” stratejisi benimsendi.

Figure 2
Figure 2.

Daha adil dil modelleri oluşturmak

Araştırmacılar, BERT ve klinik varyantları gibi popüler dönüştürücü (transformer) tabanlı dil modellerini, özel olarak inşa edilmiş hiyerarşik konvolüsyonel sinir ağı ile karşılaştırdı. Bir notu tek uzun bir kelime dizisi olarak ele alan standart modellerin aksine, hiyerarşik model klinisyenlerin yazma biçimini yansıtıyor: cümle içindeki kelimeleri, sonra bir not içindeki cümleleri ve nihayet hastanın zaman içindeki notlarını işlemekte. Ekip ayrıca kayıp fonksiyonuna farklı ırksal gruplar arasındaki hata oranı farklarını cezalandıran terimler ekleyerek ve az temsil edilen gruplardaki hatalara modelin ne kadar “önem verdiğini” ayarlayarak “adalet-bilinçli” eğitimle denemeler yaptı.

Nelerin işe yaradığı, nelerin yaramadığı

Hiyerarşik model genel olarak tüm dönüştürücü modellerden daha iyi performans gösterdi; çok yüksek doğruluk ve ırksal kategoriler arasında daha dengeli performans sağladı, adalet ayarlamaları yapılmadan bile. Buna karşılık, birkaç dönüştürücü beyaz hastalar için iyi performans gösterirken daha küçük gruplardaki birçok vakayı kaçırdı ve bazen yalnızca çoğunluk kategorisini tahmin etti. Adalet kısıtları eklemek bazı modelleri, özellikle BERT’i, önemli ölçüde iyileştirerek tahminlerini hem daha doğru hem de gruplar arasında daha eşit dağılımlı hale getirdi. Ancak aynı kısıtlar hiyerarşik modeli de dahil olmak üzere diğer modelleri olumsuz etkiledi ve bir klinik dönüştürücüde sistemin tekrar çoğunluk tahminlerine kaymasına neden oldu. Çalışma ayrıca ırk, cinsiyet ve yaş kesişimlerine göre kalıcı farklılıklar bulunduğunu; Yerli, karışık kökenli ve bazı Asya ile Latin Amerika alt gruplarının sınıflandırılmasının hâlâ en zor olduğu görüldü.

Bu durum önyargı hakkında ne gösteriyor

En iyi performans gösteren model, ırk bilgisi mevcut olduğunda bunu güvenilir biçimde tespit edebildiği için yazarlar asıl sorunun notlardaki sinyal eksikliği değil, modellerin ve veri setlerinin uzun süredir devam eden yapısal eşitsizliklerle nasıl etkileştiği olduğunu savunuyor. Önyargı, belirli grupların az temsil edilmesi, klinisyenlerin farklı hastaları tanımlama biçimlerindeki kalıplar ve hatta hangi notların etiketleneceğini seçen aktif öğrenme süreci aracılığıyla ortaya çıktı. Adalet-bilinçli eğitim bazı eşitsizlikleri azalttı ama bu yukarı akıştaki sorunları tamamen ortadan kaldıramadı ve etkisi büyük ölçüde modelin tasarımına bağlıydı.

Hastalar ve klinisyenler için çıkarım

Bu çalışma, özellikle mimariler tıbbi notların katmanlı yapısına saygı gösterdiğinde, klinik metinden ırk bilgisini yüksek doğruluk ve daha fazla adaletle geri çıkarabilen dil modelleri teknik olarak inşa etmenin mümkün olduğunu gösteriyor. Ancak algoritmaların tek başına belgeleme uygulamalarından ve sağlık sisteminin kendisinden kaynaklanan eşitsizlikleri düzeltemeyeceğini de açıkça ortaya koyuyor. Yapay zekânın daha adil bir bakımı desteklemesi için adalet veri toplamanın ve örneklemenin nasıl yapıldığı, modellerin nasıl eğitildiği, denetlendiği ve kullanıldığı da dahil olmak üzere her aşamaya entegre edilmeli; aynı zamanda sağlık kurumları da sosyal ve demografik bilgileri kaydetme ve bu bilgiler doğrultusunda hareket etme biçimlerini iyileştirmelidir.

Atıf: Abulibdeh, R., Lin, Y., Ahmadi, S. et al. Integration of fairness-awareness into clinical language processing models. Commun Med 6, 178 (2026). https://doi.org/10.1038/s43856-026-01433-9

Anahtar kelimeler: klinik doğal dil işleme, algoritmik adalet, elektronik sağlık kayıtları, sağlık eşitliği, ırk ve etnisite verileri