Clear Sky Science · ar
تحديث أطر تنظيمية عالمية للذكاء الاصطناعي التوليدي في الأجهزة الطبية أصبح أولوية ملحّة
لماذا يهم هذا لصحتك
يتجه الذكاء الاصطناعي التوليدي، بما في ذلك أدوات مثل برامج الدردشة المتقدمة، بسرعة إلى عيادات الأطباء والمستشفيات. يمكن لهذه الأنظمة أن تُعدّ ملاحظات العيادة، وتجيب عن أسئلة صحية، وحتى تقترح تشخيصات. تشرح هذه المراجعة لماذا القواعد الحالية للأجهزة الطبية غير جاهزة لتقنيات مرنة وغير متوقعة كهذه، ولماذا من الضروري تحديثها لضمان رعاية آمنة وعادلة وموثوقة على مستوى العالم. 
أدوات جديدة تؤدي أكثر من وظيفة واحدة
كان برنامج الأجهزة الطبية القديمة مصممًا لأداء مهمة واحدة محددة بوضوح، مثل اكتشاف ورم في صورة مسحية. أما الذكاء الاصطناعي التوليدي ونماذج اللغة الكبيرة، فيمكنها، بالمقابل، التعامل مع مهام متعددة، من تلخيص السجلات الطبية إلى تقديم نصائح حول خيارات العلاج. تُدرّب هذه النماذج على مجموعات ضخمة من النصوص والصور والبيانات الأخرى المتاحة على الإنترنت، ما يمنحها قوة ولكنه يجعلها أيضًا صعبة الفهم أو السيطرة الكاملة عليها. وبما أن إجاباتها قد تتغير من استخدام لآخر، وقد تتضمن أخطاء واثقة أو "هلوسات"، فهي لا تتلاءم بسهولة مع فئات الأجهزة الطبية الحالية المصممة لأدوات أكثر قابلية للتنبؤ.
لماذا القواعد الحالية للسلامة لا تكفي
حاول المنظمون مواكبة التطور باستخدام نهج "دورة حياة المنتج الكاملة" الذي يتتبع الجهاز من التصميم وحتى الاستخدام في العالم الحقيقي. هذا يساعد مع أنواع عديدة من أنظمة الذكاء الاصطناعي، لكن الورقة تجادل بأنه لا يكفي مع نماذج اللغة الكبيرة. من شبه المستحيل فحص جميع بيانات التدريب للبحث عن أخطاء أو معلومات شخصية مخفية. كما أن تقييم مدى جودة عمل هذه الأنظمة معقد، لأن إجاباتها الطويلة والمفتوحة النهاية يصعب قياسها باختبارات دقة بسيطة. تظهر الدراسات أن بعض النماذج تؤدي جيدًا في أسئلة على نمط الامتحانات لكنها تعاني في حالات الحياة الواقعية الفوضوية، وقد تؤدي أسوأ من الممارسين في مهام رئيسية. علاوة على ذلك، لا توجد طريقة متفق عليها لقياس أو مراقبة الانحياز، مما يعني أن الأنظمة قد تعمل بصورة أقل فعالية لصالح مجموعات معينة من المرضى دون أن يُلاحظ ذلك.
مخاطر مخفية بعد النشر
عند إطلاق أدوات نماذج اللغة الكبيرة، يصبح تتبع سلامتها أكثر تعقيدًا. تُبنى العديد من النماذج على أنظمة أساسية مشتركة، ثم تُعدل أو تُعاد تدريبها بواسطة شركات مختلفة، مما يصعّب معرفة البيانات والتغييرات الكامنة تحت السطح. تصل بعض الأدوات مباشرة إلى المرضى كتطبيقات نصائح صحية دون موافقة رسمية. قد تمر المشكلات دون إبلاغ، خصوصًا عندما تُخفى الأخطاء داخل ملاحظات عيادة طويلة صاغها كاتب آلي. قد تُساء استخدام طرق الموافقة الحالية التي تعتمد على إظهار "التشابه" مع منتجات أقدم لأدوات هي في الواقع مختلفة إلى حد كبير. في الوقت نفسه، تُعالج المسائل الأخلاقية مثل الخصوصية والاستقلالية والثقة وتأثيرها على علاقة الطبيب بالمريض جزئيًا فقط في اللوائح الحالية. 
بناء رقابة أذكى وأكثر عدالة
يبرز المؤلفون أفكارًا ناشئة لجعل التنظيم أكثر مرونة وفاعلية. تتيح "صناديق الاختبار التنظيمية" اختبار أدوات الذكاء الاصطناعي الجديدة تحت إشراف في بيئات محدودة، حتى يتعلم المنظمون والمطورون من الخبرة ويعدّلوا القواعد بسرعة. مفاهيم جديدة مثل "البرمجيات كخدمة طبية" تهدف إلى معاملة الوكلاء الآليين عاليي التشغيل الآلي كخدمات صحية مستمرة أكثر منها منتجات ثابتة. تؤكد الورقة أيضًا على أهمية فهم سلسلة التوريد الكاملة، من جمع البيانات وبناء النماذج إلى الاستضافة السحابية والأجهزة، حتى تظل أنظمة الرعاية الصحية مرنة عند فشل الأدوات الرقمية أو تعرضها لهجوم. تبدأ شبكات عالمية من المنظمين والباحثين وأنظمة الصحة بمشاركة قوائم فحص ومعايير اختبار ومختبرات رقابية لمواءمة جهودهم.
الحفاظ على العدالة في المحور
إحدى المخاوف الرئيسية هي كيفية أن الذكاء الاصطناعي التوليدي قد يوسع أو يضيق الفجوة الصحية بين المناطق الغنية والفقيرة. إذا دُرِّبت النماذج في الغالب على بيانات من دول ذات دخل مرتفع، فقد تؤدي أداءً ضعيفًا في بيئات منخفضة الموارد أو للمجتمعات غير الممثلة بكفاية. تدعو الورقة إلى إدراج مقصود لوجهات النظر والبيانات من دول منخفضة ومتوسطة الدخل، وإلى دعم هذه المناطق لبناء ونشر أدواتها الخاصة بالذكاء الاصطناعي بأمان. يمكن لمعايير تقارير وتقييم تركز على العدالة الصحية أن تكشف الانحيازات الخفية، بينما تساعد الشراكات على نقل الذكاء الاصطناعي الناجح من مشاريع تجريبية إلى عيادات فعلية دون ترك الفئات الضعيفة خلف الركب.
ماذا يعني هذا للمستقبل
بعبارة بسيطة، تختتم المقالة بأن الذكاء الاصطناعي التوليدي في الطب يتقدم أسرع من قوائم القواعد الحالية. لحماية المرضى وكسب الثقة، تحتاج الدول إلى التعاون على أطر تنظيمية جديدة وقابلة للتكيّف يمكنها مجاراة النماذج المتغيرة مع حماية الخصوصية والسلامة والعدالة. يتصور المؤلفون هيئات عالمية مستقلة تضع معايير مشتركة، على غرار تلك الموجودة للأمن السيبراني، حتى تستفيد المستشفيات والمرضى في كل مكان من هذه الأدوات دون التعرض لأضرار يمكن تجنبها.
الاستشهاد: Ong, J.C.L., Ning, Y., Liu, M. et al. Innovating global regulatory frameworks for generative AI in medical devices is an urgent priority. npj Digit. Med. 9, 364 (2026). https://doi.org/10.1038/s41746-026-02552-2
الكلمات المفتاحية: الذكاء الاصطناعي التوليدي, الأجهزة الطبية, تنظيم الرعاية الصحية, نماذج اللغة الكبيرة, عدالة صحية