Clear Sky Science · ar
التحديات في تطبيق استثناءات البحث في قانون الاتحاد الأوروبي للذكاء الاصطناعي على أبحاث الذكاء الاصطناعي المعاصرة
لماذا تهم قواعد جديدة للذكاء الاصطناعي الجميع
يتقلص الذكاء الاصطناعي بسرعة من مختبرات البحث إلى المستشفيات والبنوك والمدارس والوكالات العامة. ولحماية الناس مع الحفاظ على حافز الابتكار، أطلقت الاتحاد الأوروبي أول قانون واسع في العالم يركز كلياً على الذكاء الاصطناعي، المعروف باسم قانون الاتحاد الأوروبي للذكاء الاصطناعي. ينظر هذا المقال عن كثب إلى زاوية تبدو ضيقة لكنها حاسمة في ذلك القانون: الاستثناءات الخاصة بالبحث. يجادل المؤلفون بأنه في عالم الذكاء الاصطناعي المعاصر، الخط الفاصل بين «مجرد بحث» و«استخدام في العالم الواقعي» ضبابي، وأن هذه الضبابية قد تخنق العلم المفيد أو تفتح الباب لتطبيقات خطرة تتخطى الضمانات.

كيف يحاول القانون الجديد للذكاء الاصطناعي حمايتنا
يضع قانون الاتحاد الأوروبي إطار عمل واسع النطاق يغطي معظم الأطراف المشاركة في بناء وبيع واستخدام أنظمة الذكاء الاصطناعي، حتى لو عملت خارج أوروبا لكنها تؤثر على أشخاص داخل الاتحاد. ضمن هذا النطاق الواسع، يقترح القانون استثناءين رئيسيين للبحث. ينطبق أحدهما عندما تكون أنظمة الذكاء الاصطناعي لا تزال في مرحلة التطوير ولم تُعرض بعد في السوق أو تُستخدم لغرضها المقصود؛ وينطبق الآخر على الأنظمة المكتملة المصممة والمستخدمة لأغراض البحث العلمي فقط. على الورق، تهدف هذه الاستثناءات إلى منع البيروقراطية من خنق التجريب، مع ضمان أن الأنظمة المستخدمة في الحياة اليومية تفي بمتطلبات صارمة تتعلّق بالسلامة والشفافية واحترام الحقوق الأساسية.
أين ينتهي المختبر وتبدأ الحياة الواقعية
يفترض الاستثناء الأول، المتعلق بمرحلة التطوير، وجود فصل واضح بين الاختبار المخبري والاستخدام في العالم الواقعي. ينص القانون على أن الأنشطة التي تسبق «وضع النظام في السوق» أو «تشغيله» تقع خارج نطاقه، لكنه يستثني صراحةً الاختبار في ظروف العالم الواقعي من هذه المنطقة الآمنة. يبدو ذلك بسيطاً إلى أن نأخذ بعين الاعتبار ممارسات الذكاء الاصطناعي الشائعة: مثلاً تشغيل نموذج أولي بهدوء في مستشفى، وجمع بيانات مباشرة دون عرض أي مخرجات للأطباء. هل يظل ذلك عملاً «مختبرياً» أم أصبح «اختباراً في العالم الواقعي»؟ يوضح المؤلفون أن الجواب يتوقف على الغرض المقصود من النظام. إذا كان النظام المخفي يُجرّب للتشخيص، فمن المرجح أن يُعتبر اختباراً في العالم الواقعي ويجب أن يفعّل الحماية القانونية، بما في ذلك الموافقات والرقابة والحدود الزمنية الصارمة.

عندما يتداخل البحث والأعمال التجارية
يحاول الاستثناء الثاني، الخاص بالاستخدام العلمي، حماية الذكاء الاصطناعي الذي يُطوّر ويُستخدم حصراً لأغراض البحث. عملياً، يصعب تحديد هذا المطلب بدقة. كثيراً ما تتطور العلم الحديث عبر شراكات بين الجامعات والمستشفيات والشركات والهيئات العامة. قد تُحوّل الأدوات المبنية في المختبر لاحقاً إلى منتجات تجارية، أو قد تبيع شركة نظاماً تستخدمه جامعة لأغراض البحث فقط. يسرد المقال سيناريوهات ملموسة توضح كيف يمكن لصياغة القانون أن تؤدي إلى نتائج غريبة أو غامضة — على سبيل المثال أداة صُممت أصلاً لرعاية المرضى لكنها استُخدمت في نهاية المطاف فقط لتحليل الصور في دراسة. يحذر المؤلفون من أن مفاهيم غامضة مثل «الغرض الحصري» تتيح كلًا من الارتباك الصادق والسلوك الاستراتيجي، مثل تقديم المنتج بوصفه «بحثاً» لتأجيل الامتثال.
خطر الثغرات والبطيء
تكتسب هذه المناطق الرمادية أهمية لأنها تحدد من يجب أن يلتزم بالقواعد الأكثر صرامة في قانون الذكاء الاصطناعي. إذا كانت التعريفات فضفاضة للغاية، قد يقوم بعض الفاعلين بإجراء اختبارات قريبة من النشر على أشخاص حقيقيين دون الرقابة التي يقصدها القانون، أو نقل أجزاء من خط إنتاجهم إلى دول أخرى لتفادي الالتزامات. وإذا كانت التعريفات صارمة للغاية أو تُطبق بلا مرونة، قد يُجبر الباحثون — وبخاصة في البيئات العامة أو غير الربحية — على تحمل أعباء تنظيمية ثقيلة حتى عندما لا يوجد بعدُ جانب تجاري وفائدة عامة واضحة، كما في نمذجة المناخ أو التنبؤ بالأمراض. يجادل المؤلفون بأن هذا التوتر بين تجنب الثغرات وتفادي البيروقراطية غير الضرورية يمر عبر كلا الاستثناءين ويتفاقم بسبب نقص تعريف مشترك على مستوى الاتحاد الأوروبي لـ«البحث العلمي».
ما الذي يجب تغييره من أجل ذكاء اصطناعي أكثر أماناً وذكاءً
في الختام، يستنتج المقال أن استثناءات البحث في قانون الاتحاد الأوروبي للذكاء الاصطناعي تقوم على صورة قديمة للبحث باعتباره شيئاً منفصلاً بوضوح عن التأثير في العالم الواقعي والمصلحة التجارية. في الذكاء الاصطناعي المعاصر، البيانات الحية والنشرات التجريبية والمشروعات المختلطة بين القطاعين العام والخاص هي القاعدة وليست الاستثناء. يدعو المؤلفون إلى تعريفات أوضح لأفكار رئيسية مثل «ظروف العالم الواقعي» و«البحث العلمي»، وإرشادات عملية حول كيف ومتى يتجاوز نظام الذكاء الاصطناعي عتبة الاستخدام الخاضع للتنظيم، وضمانات أقوى ضد إساءة استخدام الاستثناءات. يجادلون بأنه بدون مثل هذه التحسينات، يواجه القانون إما خطر تقويض حماية الأشخاص أو دفع الأبحاث القيمة إلى مناطق أقل تنظيماً — ما يترك الناس عرضة لأنظمة عالية المخاطر كان من الممكن ضبطها بشكل أفضل لو أن القواعد أكثر واقعية ومتوافقة مع كيفية تطوير الذكاء الاصطناعي اليوم.
الاستشهاد: Meszaros, J., Huys, I. & Ioannidis, J.P.A. Challenges in applying the EU AI act research exemptions to contemporary AI research. npj Digit. Med. 9, 288 (2026). https://doi.org/10.1038/s41746-025-02263-0
الكلمات المفتاحية: قانون الاتحاد الأوروبي للذكاء الاصطناعي, تنظيم الذكاء الاصطناعي, استثناءات البحث, الطب الرقمي, أخلاقيات الذكاء الاصطناعي