Clear Sky Science · tr
Kamu güvenliği iletişim ağlarında şeffaf kaynak tahsisi için Açıklanabilir Yapay Zeka (XAI)
Neden daha akıllı acil durum radyoları önemli
Büyük bir fırtına, orman yangını veya şehir çapında bir kaza meydana geldiğinde, yüzlerce polis memuru, itfaiyeci ve sağlık görevlisi aynı sınırlı radyo ve veri kanalları için aniden rekabet eder. Bu iletişim yaşam hatları aşırı yüklendiğinde veya adaletsiz paylaşıldığında insanlar tehlikeye girebilir. Bu makale, kamu güvenliği ağlarındaki kıt iletişim kaynaklarını yapay zeka ile yönetmenin yeni bir yolunu inceliyor—ancak acil durum kurumlarının içine bakıp sorgulayabileceği ve güvenebileceği bir biçimde.
Acil ağlar birçok acil sesi nasıl idare eder
Kamu Güvenliği Ağları, kriz anlarında ilk müdahale ekiplerini bağlı tutan özel radyo ve veri sistemleridir. Bu tür anlarda bant genişliği talebi yükselir, koşullar dakikadan dakikaya değişir ve farklı kullanıcıların öncelik düzeyleri çok farklı olabilir. Geleneksel yöntemler sabit kurallara veya durum hızla değiştiğinde zorlanan ağır optimizasyon yazılımlarına dayanır. Yeni yapay zeka tabanlı sistemler anında uyum sağlayabilir, ancak genellikle neden bir ambulanstan ziyade başka bir devriye aracına öncelik verildiğini açıklamayan kara kutular gibi çalışır. Bu şeffaflık eksikliği güveni zedeleyebilir, gizli önyargıları tespit etmeyi zorlaştırabilir ve sonradan yapılan incelemeleri karmaşıklaştırabilir.

Yapay zekâ kararlarının kara kutusunu açmak
Yazarlar, yapay zekâ destekli kaynak tahsisini hem verimli hem de açıklanabilir kılan SLIRA adlı bir çerçeve öneriyor. Sistemin ağa nasıl bant verileceğini sadece söylemesi yerine, her zaman birlikte iki şey üretiyor: bir öneri ve o öneriye neyin yol açtığını açıklayan bir gerekçe. Bunu iki yaygın incelenmiş açıklama aracıyla yapıyor. SHAP olarak bilinen biri, kullanıcı talebi, görev aciliyeti veya ağ tıkanıklığı gibi hangi faktörlerin tüm sistem genelinde genellikle en çok önem taşıdığını gösteren “büyük resim” görünümü sağlar. Diğeri LIME ise bireysel kararlara odaklanır ve belirli bir anda belirli bir kullanıcının neden belirli şekilde muamele gördüğünü gösterir.
Açıklamaları direksiyon gibi kullanmak
Açıklamaları sonradan eklemek yerine, SLIRA bunları karar sürecinin merkezine inşa eder. Her zaman adımında, bir öngörü modeli mevcut ağ durumunu—kimin neye ihtiyaç duyduğu, bunun ne kadar acil olduğu ve bağlantılarının ne kadar iyi olduğu—her kaynağın her kullanıcıya atanması için “arzu edilirlik puanları” tablosuna dönüştürür. SHAP ve LIME ardından bu puanları analiz eder ve bulgularını tek bir yönlendirme sinyalinde birleştirir. Bu sinyal zaman içinde tahsisleri, daha anlaşılır, istikrarlı ve adil kalacak desenlere doğru hafifçe iter; şahsi veya kısa vadeli kazançları takip edip sonradan gerekçelendirmesi zor tercihlere yönelmez. Paralel olarak, adalet kuralları hiçbir kullanıcı grubunun sistematik olarak kayırılmadığını veya ihmal edilmediğini, sadece tek bir anda değil uzun süreli operasyonlar boyunca da kontrol eder.
Belirsizlik ve adalet yoluyla temkinli tasarım
Afetler karmaşıktır ve onları betimleyen veriler sıklıkla gürültülü veya eksiktir. Bunu yönetmek için SLIRA, hem yapay zekânın kararlarına hem de açıklamalarına bir güven düzeyi ekleyen Bayesçi belirsizlik modellemesi katmanı ekler. Pratikte bu, operatörlerin sistemin kararlarından ne kadar emin olduğunu ve koşullar belirsiz olduğunda sistemin ne zaman “ihtiyatlı davrandığını” bilmelerini sağlar. Çerçeve ayrıca açıklamaların zaman içinde nasıl değiştiğini izler; yapay zekânın önemli olduğunu iddia ettiği unsurlarda ani, açıklanamayan dalgalanmalar istikrarsız davranışa veya sisteme yönelik olası saldırılara işaret edebilir. Açıklamaları özlü tutup en etkili faktörlere odaklanarak, SLIRA hızlı gelişen bir olay sırasında insan karar vericinin gerçekçi biçimde sindirebileceği bir şey olmayı hedefler.

Çerçeveyi teste koymak
Bu yaklaşımın nasıl performans gösterdiğini görmek için yazarlar dalgalanan trafik, karışık müdahale rolleri ve adalet kontrolleri için korunmuş kullanıcı grupları içeren gerçekçi acil iletişim senaryolarını simüle eder. SLIRA’yı ideal bir matematiksel çözücü, basit kural tabanlı yöntemler ve sonradan açıklama yapan veya yapmayan standart yapay zekâ sistemleriyle karşılaştırırlar. Tam çözücü statik, mükemmel bilinen koşullarda ham verimlilikte biraz daha yüksek sonuçlar elde etse de yavaştır ve seçimleri hakkında hiçbir içgörü sunmaz. Buna karşılık SLIRA o optimal verimliliğin yaklaşık yüzde 1–2’si içinde kalır, ancak adalet boşluklarını yüzde 40’tan fazla azaltır ve kararların zaman içindeki istikrarını büyük ölçüde iyileştirir—üstelik gerçek zamanlı kullanım için yeterince hızlı çalışır.
Gelecekte acil müdahale için ne anlama geliyor
Uzman olmayanlar için ana çıkarım şudur: Bu araştırma, yapay zekânın sadece kritik iletişim ağlarından daha fazla performans sıkıştırmak için değil, aynı zamanda bunu anlaşılır, denetlenebilir ve adil bir biçimde yapacak şekilde tasarlanabileceğini gösteriyor. SLIRA’da açıklamalar kozmetik eklemeler değildir; sistemin nasıl davrandığını aktif olarak şekillendirir ve kıt radyo ile veri kaynaklarının müdahale ekiplerine, düzenleyicilere ve halka savunulabilir şekilde paylaştırılmasını sağlamaya yardımcı olur. Daha ileri geliştirilip gerçek dünya verileriyle test edilirse, bu tür açıklanabilir tahsis sistemleri hayat söz konusu olduğunda acil servislerin daha hızlı ve daha adil tepki vermesine yardımcı olabilir.
Atıf: Alammar, M., Al Ayidh, A., Abbas, M. et al. Explainable AI (XAI) for transparent resource allocation in public safety communications networks. Sci Rep 16, 14180 (2026). https://doi.org/10.1038/s41598-026-43440-9
Anahtar kelimeler: kamu güvenliği ağları, açıklanabilir yapay zeka, kaynak tahsisi, algoritmik adalet, acil iletişimler