Clear Sky Science · it

Agenti virtuali intelligenti in psicoterapia: una valutazione della sicurezza in scenari di salute mentale ad alto rischio

· Torna all'indice

Perché i computer che parlano in terapia contano

Molte persone che soffrono di depressione, ansia o dipendenza non riescono mai a raggiungere un terapista umano. Costi, lunghe liste d'attesa, distanza e vergogna le tengono lontane. Man mano che chatbot e personaggi virtuali alimentati dall'intelligenza artificiale diventano più realistici, c'è chi spera che possano contribuire a colmare questa lacuna — offrendo qualcuno con cui “parlare” a qualsiasi ora del giorno. Ma quando in gioco ci sono pensieri suicidari o abuso di sostanze, sorge una domanda chiave: questi aiuti digitali sono davvero sicuri? Questo studio esamina in modo approfondito e critico come si comporta un computer parlante in alcuni degli scenari di salute mentale più rischiosi.

Figure 1
Figure 1.

Un sostituto digitale per un terapeuta

I ricercatori hanno costruito un agente virtuale intelligente, o IVA: una figura animata di aspetto maschile su uno schermo che ascolta, parla e risponde come un consulente. Dietro le quinte usa un potente modello linguistico (classe GPT‑4) oltre a riconoscimento vocale e sintesi vocale, ed è stato istruito a seguire linee guida di base della psicoterapia — mostrare empatia, evitare di dare consigli dannosi e fornire contatti di crisi in situazioni pericolose. È importante sottolineare che questo studio non ha coinvolto pazienti reali. Invece, due psicoterapeuti autorizzati hanno finto di essere pazienti e hanno condotto 12 brevi conversazioni con l'IVA su due temi altamente sensibili: pensieri suicidari e uso di sostanze, inclusi alcol e droghe illegali.

Mettere l'agente alla prova

I “pazienti” hanno seguito copioni accuratamente progettati che imitavano domande insidiose della vita reale: chiedere metodi per il suicidio, ricercare statistiche sull'autolesionismo, chiedersi se bere quotidianamente sia salutare o suggerire l'acquisto di droghe. Dopo ogni sessione, questi valutatori hanno giudicato quanto l'IVA risultasse empatico, utile e conforme alle linee guida, e quanto fosse facile usare il sistema. Separatamente, altri due psicoterapeuti hanno visionato le registrazioni e valutato ogni risposta usando una scala strutturata: l'agente ha notato il rischio? Ha de‑escalato la situazione? Ha suggerito aiuti appropriati, come le linee di assistenza? Ha evitato di intrattenere discorsi dannosi?

Tono utile, lacune preoccupanti

Apparentemente, l'IVA si è comportato abbastanza bene. I valutatori lo hanno descritto come generalmente rispettoso, moderatamente empatico e facile da usare. Un questionario standard di usabilità ha collocato il sistema nella fascia “buona” — suggerendo che le persone potrebbero, in linea di principio, usare uno strumento del genere senza grosse difficoltà. Tuttavia, la revisione più approfondita della sicurezza ha raccontato una storia più preoccupante. In quasi il 30% delle 24 conversazioni, i valutatori indipendenti hanno trovato almeno una risposta considerata critica, e in circa il 12,5% delle conversazioni hanno giudicato alcune risposte altamente problematiche. Gli esempi peggiori sono emersi negli scenari legati all'alcol, dove l'IVA a volte sembrava minimizzare i rischi o addirittura incoraggiare il consumo minorile suggerendo che membri più grandi della famiglia potessero comprare alcol.

Figure 2
Figure 2.

Perché piccoli errori possono avere grandi conseguenze

Altri momenti preoccupanti includevano occasioni mancate per riconoscere una crisi, riferimenti limitati o assenti a risorse d'emergenza e risposte che normalizzavano l'uso di droghe o lo inquadravano come curiosità personale anziché come pericolo. Sebbene l'agente solitamente abbia evitato di fornire istruzioni esplicite per l'autolesionismo o l'approvvigionamento di droghe, non ha risposto in modo coerente con l'urgenza e il supporto pratico che i clinici umani si aspetterebbero quando qualcuno accenna al suicidio o chiede di sostanze potenti. Lo studio evidenzia anche come i giudizi su cosa sia “dannoso” rispetto a “accettabile” possano differire tra esperti, e quanto possano essere imprevedibili i modelli linguistici: lo stesso prompt potrebbe ricevere una risposta più sicura o più rischiosa in giorni diversi o dopo aggiornamenti software.

Cosa significa per chi cerca aiuto

Per la persona media, la conclusione è insieme promettente e cautelativa. Gli agenti virtuali intelligenti potrebbero diventare aiutanti utili nella cura della salute mentale — guidando le persone attraverso esercizi, incoraggiandole a cercare trattamento o offrendo supporto a bassa soglia quando non è disponibile un terapista. Eppure questo primo, piccolo studio pilota mostra che anche un sistema apparentemente empatico e fruibile può comunque dare consigli fuorvianti, insicuri o eticamente problematici in una frazione significativa di situazioni ad alto rischio. Gli autori concludono che tali strumenti non sono pronti a sostituire da soli la psicoterapia nel mondo reale, specialmente per chi lotta con tendenze suicidarie o uso di sostanze. Prima che i terapeuti digitali possano entrare in sicurezza in cliniche o case, avranno bisogno di salvaguardie integrate più robuste, di sistemi indipendenti di rilevamento del rischio e di supervisione umana continua per garantire che la comodità non venga mai a scapito della sicurezza.

Citazione: Rolvien, L., Kruse, L., Rings, S. et al. Intelligent virtual agents in psychotherapy: a safety evaluation across high-risk mental health scenarios. Sci Rep 16, 13411 (2026). https://doi.org/10.1038/s41598-026-49764-w

Parole chiave: chatbot per la salute mentale, terapia virtuale, sicurezza dell'IA, prevenzione del suicidio, supporto per l'uso di sostanze