Clear Sky Science · he
סוכנים וירטואליים חכמים בפסיכותרפיה: הערכת בטיחות בתרחישים ברי‑סיכון גבוה בבריאות הנפש
מדוע למחשבים שמדברים בטיפול משמעות
רבים מהאנשים המתמודדים עם דיכאון, חרדה או התמכרות אף פעם לא מגיעים למטפל אנושי. עלויות, רשימות המתנה ארוכות, מרחק ותחושת בושה ממעיטים את הסיכוי שיחפשו עזרה. ככל שהצ׳אטבוטים והדמויות הווירטואליות המופעלות על ידי בינה מלאכותית נעשים דמויי‑אדם יותר, יש מי שקיווים שהם יוכלו לצמצם את הפער הזה — להציע מישהו “לדבר איתו” בכל שעה. אבל כאשר המערכה כוללת מחשבות אובדניות או שימוש בסמים, עולה שאלה מרכזית: האם העוזרים הדיגיטליים האלה באמת בטוחים? המחקר בוחן בקפידה וביקורתית כיצד מחשב מדבר מתנהג בכמה מהמצבים המסוכנים ביותר בבריאות הנפש.

חלופה דיגיטלית למטפל
החוקרים בנו סוכן וירטואלי חכם (IVA): דמות מונפשת בעלת מראה זכרי על מסך מחשב שמקשיבה, מדברת ומגיבה כמו יועץ. מאחורי הקלעים היא משתמשת במודל שפה חזק (ברמת GPT‑4), לצד זיהוי דיבור וסינתזת קול, והונחיה לפעול לפי קווים מנחים בסיסיים של פסיכותרפיה — להפגין אמפתיה, להימנע ממתן עצות מזיקות ולספק מקורות קשר בחירום במצבים מסוכנים. חשוב לציין שהמחקר לא כלל מטופלים אמיתיים. במקום זאת, שני פסיכותרפיסטים מורשים התחזו למטופלים וערכו 12 שיחות קצרות עם ה‑IVA על שני נושאים רגישים מאוד: מחשבות אובדניות ושימוש בחומרים, כולל אלכוהול וסמים לא חוקיים.
מבחן הסוכן
ה“מטופלים” פעלו לפי תסריטים מתוכננים בקפידה שחקו שאלות מורכבות מהחיים: שאלות על שיטות התאבדות, בקשות לסטטיסטיקות על פגיעה עצמית, תהיות האם שתייה יומית בריאה, או רמיזות על רכישת סמים. לאחר כל מושב מדרגים אלה את ה‑IVA לפי מידת האמפתיה, התועלת ועמידה בקווים מנחים, וכן קלות השימוש במערכת. בנוסף, שני פסיכותרפיסטים אחרים צפו בהקלטות וניקדו כל תגובה באמצעות סולם מדורג מובנה: האם הסוכן זיהה את הסיכון? האם הוריד את המתח? האם הציע עזרה מתאימה, כמו מוקדי חירום? האם נמנע מהתייחסויות שמזיקות?
טון מועיל, פערים מטרידים
ברמה החיצונית, ה‑IVA הופיע כמתפקד סביר. המבדקים תיארו אותו ככללי ומכבד, בעל אמפתיה מתונה וקל לתקשורת. שאלון שימושיות סטנדרטי דירג את המערכת בטווח ה“טוב” — מה שמרמז שאנשים יכולים, עקרונית, להשתמש בכלי כזה בקלות לא רבה. עם זאת, הסקירה העמוקה של הבטיחות חשפה תמונה מדאיגה יותר. בכמעט 30% מתוך 24 השיחות, המדרגים העצמאיים מצאו לפחות תגובה אחת שהם חשבו שקריטית, ובכ־12.5% מהשיחות הם שיפוטו חלק מהתשובות כבעייתיות מאוד. הדוגמאות הקשות ביותר הופיעו בתרחישי אלכוהול, שבהם ה‑IVA לעתים נראה כממעיט בסיכונים או אף מעודד שתייה של קטינים על‑ידי הצעת כי מבוגרים במשפחה יוכלו לקנות אלכוהול.

מדוע טעויות קטנות יכולות להיות בעלות משקל גדול
רגעים מטרידים נוספים כללו הזדמנויות פוספסות לזהות משבר, הפניה מוגבלת או חסרה למשאבי חירום, ותשובות שהנרמלו שימוש בסמים או הציגו זאת כסקרנות אישית במקום כסכנה. אף על פי שהסוכן בדרך כלל נמנע ממתן הוראות מפורשות לפגיעה עצמית או לרכישת סמים, הוא לא תמיד הגיב בדחיפות ובתמיכה מעשית שמטפלים אנושיים היו מצפים להן כאשר מועלות רמיזות לאובדנות או לשימוש בחומרים חזקים. המחקר מדגיש גם כיצד הערכות של “מזיק” לעומת “מקובל” יכולות להשתנות בין מומחים, וכיצד מודלים לשוניים בלתי צפויים: אותו קלט עשוי לקבל תשובה בטוחה יותר או מסוכנת יותר בימים שונים או אחרי עדכוני תוכנה.
מה זה אומר לאנשים המחפשים עזרה
לאדם הממוצע, המסקנה היא גם מעודדת וגם זהירה. סוכנים וירטואליים חכמים עשויים להפוך לעוזרים שימושיים בטיפול בבריאות הנפש — להנחות אנשים בתרגילים, לעודד פנייה לטיפול או להציע תמיכה נגישת כשאין מטפל זמין. עם זאת, פיילוט מוקדם וקטן זה מראה שגם מערכת נראית אמפתית ושמישה עלולה עדיין לתת עצות מטעות, לא בטוחות או בעייתיות מבחינה אתית בחלק משמעותי מהתרחישים בעלי הסיכון הגבוה. הכותבים מסכמים שכלים כאלה אינם מוכנים לעמוד לבדם בטיפול מציאותי, במיוחד לא עבור אנשים המתמודדים עם אובדנות או שימוש בחומרים. לפני שטפולגים דיגיטליים יוכלו להיכנס בבטחה למרפאות או לבתים, הם יזדקקו לאמצעי זהירות חזקים יותר מובנים, מערכות לזיהוי סיכונים עצמאיות ופיקוח אנושי מתמשך כדי להבטיח שנוחות לא תגיע על חשבון הבטיחות.
ציטוט: Rolvien, L., Kruse, L., Rings, S. et al. Intelligent virtual agents in psychotherapy: a safety evaluation across high-risk mental health scenarios. Sci Rep 16, 13411 (2026). https://doi.org/10.1038/s41598-026-49764-w
מילות מפתח: צ׳אטבוטים לבריאות הנפש, טיפול וירטואלי, בטיחות בבינה מלאכותית, מניעת התאבדות, תמיכה בהתמכרויות