Clear Sky Science · ar
الذكاء الاصطناعي القابل للتفسير لتخصيص موارد شفاف في شبكات اتصالات السلامة العامة
لماذا أجهزة الراديو الطارئة الأذكى مهمة
عندما تضرب عاصفة كبيرة أو حريق هائل أو حادث على مستوى المدينة، يتنافس مئات الضباط ورجال الإطفاء والمسعفين فجأة على نفس قنوات الراديو والبيانات المحدودة. إذا كانت هذه شرايين الاتصال مُحمّلة أو موزعة بشكل غير عادل، فقد يتعرَّض الناس للخطر. تستعرض هذه الورقة طريقة جديدة لاستخدام الذكاء الاصطناعي لإدارة موارد الاتصال النادرة في شبكات السلامة العامة—ولكن بصورة تتيح للوكالات الطارئة الاطلاع عليها والتشكيك فيها وثقتها بها.
كيف تُوازن شبكات الطوارئ العديد من الأصوات العاجلة
شبكات السلامة العامة هي أنظمة الراديو والبيانات المتخصصة التي تبقي المستجيبين الأوائل على اتصال أثناء الأزمات. في هذه اللحظات، يرتفع الطلب على النطاق الترددي، وتتبدل الظروف من دقيقة لأخرى، وللمستخدمين مستويات مختلفة من الأولوية. تعتمد الأساليب التقليدية على قواعد ثابتة أو برامج تحسين كثيفة تواجه صعوبات عندما تتغير المواقف بسرعة. الأنظمة القائمة على الذكاء الاصطناعي الأحدث تستطيع التكيّف فوراً، لكنها غالباً ما تعمل كصناديق سوداء، دون تقديم سبب واضح لِمَن نال أولوية — مثلاً لماذا حصلت سيارة إسعاف على أولوية على سيارة دورية. هذا النقص في الشفافية قد يقوض الثقة، ويصعّب كشف التحيزات الخفية، ويعقّد مراجعات ما حدث لاحقاً.

فتح صندوق الأسود لقرارات الذكاء الاصطناعي
يقترح المؤلفون إطار عمل يُدعى SLIRA يجعل تخصيص الموارد المدفوع بالذكاء الاصطناعي فعالاً وقابلاً للتفسير. بدلاً من مجرد إخبار الشبكة بكيفية تقسيم النطاق الترددي، ينتج النظام دائماً شيئين معاً: توصية وشرح للعوامل التي أدت إلى تلك التوصية. يفعل ذلك باستخدام أداتين منشورتين جيداً للتفسير. الأولى، المعروفة باسم SHAP، تقدم رؤية «شاملة» للعوامل—مثل طلب المستخدم، وأولوية المهمة، أو ازدحام الشبكة—التي تهم النظام بشكل عام عبر الكل. الأخرى، المسماة LIME، تغوص في قرارات فردية، موضحة لماذا عومل مستخدم محدد في لحظة معينة بطريقة معينة.
تحويل التفسيرات إلى مقود تحكم
بدلاً من إضافة التفسيرات بعد الوقائع، يبني SLIRA هذه التفسيرات في صميم عملية اتخاذ القرار. في كل خطوة زمنية، يحوّل نموذج تنبؤي حالة الشبكة الحالية—من يحتاج ماذا، ومدى الإلحاح، وجودة الاتصالات—إلى جدول من «درجات الجاذبية» لتعيين كل مورد لكل مستخدم. ثم يقوم SHAP وLIME بتحليل هذه الدرجات ودمج رؤاهما في إشارة توجيه واحدة. تدفع هذه الإشارة التخصيصات مع مرور الوقت نحو أنماط تبقى مفهومة ومستقرة وعادلة، بدلاً من مطاردة مكاسب قصيرة الأجل قد يصعب تبريرها لاحقاً. بالتوازي، تتحقق قواعد العدالة من عدم تفضيل أو إهمال مجموعة مستخدمين بشكل منهجي، ليس في لحظة واحدة فقط بل على امتداد عمليات طويلة.
بناء الحيطة عبر نمذجة عدم اليقين والعدالة
الكوارث فوضوية، وبيانات وصفها غالباً ما تكون مضوضبة أو غير مكتملة. لمواجهة ذلك، يضيف SLIRA طبقة من نمذجة عدم اليقين البايزية، التي تُرفق درجة من الثقة بكل من قرارات الذكاء الاصطناعي وتفسيراتها. عملياً، يتيح ذلك للمشغلين معرفة متى يكون النظام واثقاً من اختياراته ومتى «يُموّه رهاناته» لأن الظروف غير واضحة. يراقب الإطار أيضاً كيف تتغير التفسيرات مع الزمن؛ فقد تشير تقلبات مفاجئة وغير مفسرة في العوامل التي يعتبرها الذكاء الاصطناعي مهمة إلى سلوك غير مستقر أو حتى إلى هجمات محتملة على النظام. من خلال إبقاء التفسيرات موجزة والتركيز على أكثر العوامل تأثيراً، يهدف SLIRA إلى أن يكون شيئاً يمكن لصانع قرار بشري استيعابه واقعياً أثناء حدث سريع الحركة.

وضع الإطار على المحك
لاختبار أداء هذا النهج، يحاكي المؤلفون سيناريوهات اتصالات طوارئ واقعية مع حركة متقلبة، وأدوار مستجيبين مختلطة، ومجموعات مستخدمين محمية لفحوصات العدالة. يقارنون SLIRA بعدة بدائل: محلل رياضي مثالي، طرق بسيطة قائمة على القواعد، وأنظمة ذكاء اصطناعي قياسية مع تفسيرات بعدية أو من دونها. بينما يحقق المحلل المثالي كفاءة خام أعلى قليلاً في بيئات ثابتة ومعروفة تماماً، فهو بطيء ولا يقدم أي رؤية لقراراته. بالمقابل، يقترب SLIRA بحوالي 1–2 بالمئة من تلك الكفاءة المثلى، لكنه يقلّص فجوات العدالة بأكثر من 40 بالمئة ويحسّن بشكل كبير استقرار القرارات مع مرور الوقت—وكل ذلك أثناء تشغيله بسرعة كافية للاستخدام في الوقت الحقيقي.
ما الذي يعنيه هذا لمستقبل الاستجابة للطوارئ
لغير المتخصصين، الخلاصة الأساسية هي أن هذا البحث يظهر كيف يمكن تصميم الذكاء الاصطناعي ليس فقط لاستخراج أداء أعلى من شبكات الاتصال الحرجة، بل للقيام بذلك بطريقة مفهومة وقابلة للتدقيق وعادلة. في SLIRA، ليست التفسيرات مجرد إضافات تجميلية؛ بل تشكّل فعلياً كيفية تصرُّف النظام، مما يساعد على ضمان مشاركة موارد الراديو والبيانات النادرة بطريقة يمكن الدفاع عنها أمام المستجيبين والمنظمين والجمهور. إذا طُوّر هذا النظام أكثر واختُبر ببيانات من العالم الحقيقي، فيمكن لنظم التخصيص القابلة للتفسير هذه أن تساعد خدمات الطوارئ على الاستجابة بشكل أسرع وأكثر إنصافاً عندما تكون الأرواح على المحك.
الاستشهاد: Alammar, M., Al Ayidh, A., Abbas, M. et al. Explainable AI (XAI) for transparent resource allocation in public safety communications networks. Sci Rep 16, 14180 (2026). https://doi.org/10.1038/s41598-026-43440-9
الكلمات المفتاحية: شبكات السلامة العامة, الذكاء الاصطناعي القابل للتفسير, تخصيص الموارد, العدالة الخوارزمية, اتصالات الطوارئ