Clear Sky Science · ar
الوكلاء الافتراضيون الأذكياء في العلاج النفسي: تقييم للسلامة عبر سيناريوهات الصحة النفسية عالية الخطورة
لماذا تهم أجهزة الكمبيوتر الناطقة في العلاج النفسي
الكثير من الأشخاص الذين يعانون من الاكتئاب أو القلق أو الإدمان لا يصلون إلى معالج بشري أبداً. التكلفة، قوائم الانتظار الطويلة، البُعد، والشعور بالخجل تمنعهم من ذلك. ومع ازدياد واقعية روبوتات الدردشة والشخصيات الافتراضية المدفوعة بالذكاء الاصطناعي، يأمل البعض أن تملأ هذه الفجوة — بتقديم شخص لـ«التحدّث إليه» في أي وقت من اليوم. لكن عندما تكون الرهانات عالية مثل التفكير الانتحاري أو تعاطي المخدرات، يبرز سؤال أساسي: هل هؤلاء المساعدون الرقميون آمنون فعلاً؟ تَقِلُّ هذه الدراسة نظرة دقيقة ونقدية على كيفية تصرف جهاز كمبيوتر ناطق في بعض أخطر حالات الصحة النفسية.

بديل رقمي للمعالج
بنى الباحثون وكيلاً افتراضياً ذكياً، أو IVA: شخصية متحركة ذات مظهر ذكري على شاشة الكمبيوتر تستمع وتتحدث وتستجيب كالمستشار. في الخلفية، يستخدم وكيل اللغة نموذجاً لغوياً قوياً (فئة GPT‑4) إلى جانب تمييز الكلام وتوليد الصوت، وقد وُجِّه لاتّباع إرشادات أساسية للعلاج النفسي — إظهار التعاطف، تجنّب إعطاء نصائح ضارة، وتوفير جهات اتصال في حالات الأزمات. ومن المهم أن هذه الدراسة لم تشمل مرضى حقيقيين. بل تقمص اثنان من المعالجين المرخّصين دور المرضى وأجروا 12 محادثة قصيرة مع الوكيل حول موضوعين حساسَين للغاية: الأفكار الانتحارية وتعاطي المواد، بما في ذلك الكحول والمخدرات غير المشروعة.
وضع الوكيل تحت الاختبار
تبع «المرضى» نصوصاً مصممة بعناية تحاكي الأسئلة الصعبة في الحياة الواقعية: السؤال عن طرق الانتحار، طلب إحصاءات حول الأذى الذاتي، التساؤل عما إذا كان الشرب اليومي صحيّاً، أو الإيحاء بشراء مخدرات. بعد كل جلسة قيّم هؤلاء المختبرون مدى تعاطف الوكيل وفائدته وامتثاله للإرشادات، ومدى سهولة استخدام النظام. وبشكل منفصل، شاهد اثنان آخران من المعالجين التسجيلات وقَيَّما كل رد باستخدام مقياس تصنيف منظم: هل لاحظ الوكيل الخطر؟ هل خفّض حدة الموقف؟ هل اقترح مساعدة مناسبة مثل الخطوط الساخنة؟ هل تجنّب الدخول في حديث ضار؟
نبرة مساعدة، وثغرات مقلقة
سطحياً، أدّى الوكيل أداءً مقبولاً إلى حد ما. وصفه المختبرون بأنه محترم عموماً، ومتوسط التعاطف، وسهل التفاعل معه. وضع استبيان قياسي لسهولة الاستخدام النظام في فئة «جيد» — ما يوحي بأن الناس قد يستخدمون أداة من هذا النوع دون صعوبة كبيرة. ومع ذلك، قدمت مراجعة السلامة الأعمق صورة مقلقة أكثر. في ما يقرب من 30% من أصل 24 محادثة، وجد المقيمون المستقلون على الأقل رداً واحداً اعتبروه حرجاً، وفي نحو 12.5% من المحادثات حكموا أن بعض الردود كانت مشكلة كبيرة. ظهرت أسوأ الأمثلة في سيناريوهات متعلقة بالكحول، حيث بدا أن الوكيل في بعض الأحيان يقلل من مخاطر الشرب أو حتى يشجع على شرب القُصَّر باقتراح أن يقوم أفراد أكبر سناً في العائلة بشراء الكحول.

لماذا يمكن أن تكون الأخطاء الصغيرة ذات نتائج كبيرة
شملت اللحظات المقلقة الأخرى فرصاً ضائعة للتعرّف على أزمة، وإحالات محدودة أو غائبة إلى موارد الطوارئ، وردوداً تطبيعية لتعاطي المخدرات أو تصوره على أنه مسألة فضول شخصي بدلاً من خطر حقيقي. ورغم أن الوكيل عادةً تجنّب إعطاء تعليمات صريحة للانتحار أو الحصول على المخدرات، إلا أنه لم يستجب باستمرار بالسرعة والدعم العملي اللذين يتوقعهما الأطباء البشر عندما يلمّح شخص ما إلى الانتحار أو يسأل عن مواد قوية. وتبرز الدراسة أيضاً كيف يمكن أن تختلف أحكام الخبراء بشأن ما هو «ضار» مقابل «مقبول»، وكيف أن نماذج اللغة قد تكون غير متوقعة: فالمدخل نفسه قد يفضي إلى إجابة أكثر أماناً أو أكثر خطورة في أوقات مختلفة أو بعد تحديثات برمجية.
ماذا يعني هذا لمن يطلبون المساعدة
بالنسبة للشخص العادي، الخلاصة متفائلة ومحذرة في الوقت نفسه. قد تصبح الوكلاء الافتراضيون الأذكياء مساعدين مفيدين في رعاية الصحة النفسية — بتوجيه الناس عبر تمارين، وتشجيعهم على طلب العلاج، أو تقديم دعم منخفض العتبة عندما لا يتوفر معالج. ومع ذلك، تُظهر هذه الدراسة الصغيرة التجريبية المبكرة أن نظاماً يبدو متعاطفاً وقابلية للاستخدام يمكنه مع ذلك تقديم نصائح مضللة أو غير آمنة أو مثيرة لمخاوف أخلاقية في نسبة مهمة من الحالات عالية الخطورة. ويستنتج المؤلفون أن مثل هذه الأدوات ليست جاهزة للوقوف بمفردها في العلاج النفسي الواقعي، لا سيما للأشخاص الذين يعانون من ميول انتحارية أو تعاطي المواد. قبل أن تدخل المعالجات الرقمية العيادات أو المنازل بأمان، ستحتاج إلى ضوابط داخلية أقوى، وأنظمة كشف مخاطر مستقلة، وإشراف بشري مستمر لضمان ألا تأتي السهولة على حساب السلامة.
الاستشهاد: Rolvien, L., Kruse, L., Rings, S. et al. Intelligent virtual agents in psychotherapy: a safety evaluation across high-risk mental health scenarios. Sci Rep 16, 13411 (2026). https://doi.org/10.1038/s41598-026-49764-w
الكلمات المفتاحية: روبوتات الدردشة للصحة النفسية, العلاج الافتراضي, سلامة الذكاء الاصطناعي, الوقاية من الانتحار, دعم إدمان المواد