Clear Sky Science · it
Orientarsi nella complessità dell’adozione dell’IA in psicoterapia identificando facilitatori e ostacoli chiave
Colmare il divario nella terapia
In tutto il mondo, milioni di persone aspettano settimane o mesi per ricevere cure per la salute mentale, mentre depressione e ansia diventano sempre più diffuse. Allo stesso tempo, nuovi strumenti basati sull’intelligenza artificiale (IA) promettono aiuto on‑demand tramite app, chatbot e ausili decisionali intelligenti per i terapeuti. Questo articolo esplora una domanda semplice ma urgente: cosa vogliono davvero da questi strumenti pazienti e terapeuti, e cosa li induce a esitare nel loro utilizzo?
Perché i nuovi strumenti risultano attraenti
L’IA in psicoterapia può fare molto più che fissare appuntamenti. Può guidare le persone attraverso esercizi di autoaiuto, monitorare l’umore, analizzare schemi nella vita quotidiana e persino suggerire quale tipo di trattamento potrebbe funzionare meglio. Per i terapeuti, l’IA può assumersi compiti che richiedono tempo, come la gestione della documentazione e l’analisi dei dati, permettendo loro di concentrarsi sulle conversazioni reali. In linea di principio, questo tipo di supporto potrebbe accorciare le liste d’attesa e offrire aiuto tra una seduta e l’altra o mentre le persone sono in attesa di trattamento. Sia pazienti sia terapeuti nello studio hanno riconosciuto vantaggi evidenti: accesso più semplice al supporto in qualsiasi momento e luogo, esercizi e informazioni più personalizzati e, potenzialmente, cure più efficienti.

Mantenere il contatto umano
Nonostante questi benefici, i partecipanti sono tornati ripetutamente a un’unica preoccupazione centrale: nulla dovrebbe sostituire la relazione umana al cuore della terapia. I pazienti temevano che un’app o un chatbot potesse risultare freddo e meccanico, rendendo più difficile aprirsi su esperienze dolorose. I terapeuti temevano di perdere il controllo sul processo terapeutico se un sistema digitale fornisse consigli che non potevano comprendere o supervisionare pienamente. Molti hanno inoltre sottolineato che alcune condizioni, in particolare disturbi gravi o crisi come la suicidarietà o la psicosi, richiedono un’attenzione accurata e in presenza. In queste situazioni, l’IA è vista al massimo come un supporto per monitorare i rischi o offrire un aiuto semplice — non come fonte primaria di cura.
Progettare tecnologie che siano davvero utili
Parlando di ciò che funzionerebbe davvero, entrambi i gruppi hanno enfatizzato caratteristiche pratiche e concrete. Hanno preferito strumenti facili da usare, visivamente semplici e adattabili a diverse età, lingue e situazioni di vita. Idee popolari includevano il monitoraggio dell’umore, diari, pulsanti di crisi che attivano esercizi calmanti, promemoria per i compiti tra una seduta e l’altra e materiale educativo chiaro sulla salute mentale. La personalizzazione era importante: le persone volevano strumenti che rispondessero alla loro storia specifica e al loro stile di coping piuttosto che consigli uguali per tutti. Fondamentalmente, l’IA è stata accolta come complemento — qualcosa che supporta e amplia le sedute di terapia regolari offrendo continuità tra le visite e dopo la fine del trattamento.

Ostacoli dietro lo schermo
Sotto queste preferenze personali si nascondono grandi sfide strutturali. I terapeuti hanno descritto carichi di lavoro eccessivi, scarso tempo per la formazione e spesso infrastrutture digitali inadeguate — persino il Wi‑Fi di base può mancare in alcune cliniche. Entrambi i gruppi hanno sollevato preoccupazioni sulla protezione dei dati, sugli interessi commerciali e su regole poco chiare riguardo a chi sia responsabile se uno strumento di IA commette un errore, ad esempio nella rilevazione del rischio di suicidio. Hanno anche avvertito che un aiuto digitale costante e on‑demand potrebbe creare dipendenza malsana o permettere a persone con fobie sociali di evitare il contatto nel mondo reale, rallentando una vera ripresa. Copertura assicurativa, prezzi equi e forti tutele sulla privacy sono emersi come condizioni essenziali prima che tali strumenti possano essere ampiamente considerati affidabili.
Trovare una via d’equilibrio
Nel complesso, lo studio mostra che il futuro dell’IA in psicoterapia non è né un semplice sì né un semplice no. Pazienti e terapeuti sono disposti a usare strumenti intelligenti — soprattutto per problemi più lievi, per lo screening precoce, come supporto in attesa del trattamento, tra le sedute e durante l’aftercare — a condizione che tali strumenti siano chiaramente dimostrati efficaci, facili da usare e inseriti in un solido quadro giuridico ed etico. Allo stesso tempo, vogliono garanzie concrete che il contatto umano resti centrale e che la tecnologia non spinga silenziosamente la terapia verso soluzioni rapide e a basso costo. In termini chiari, le persone non chiedono un terapeuta robot; chiedono assistenti digitali ben progettati che aiutino terapeuti reali e pazienti reali a lavorare insieme in modo più efficace.
Citazione: Cecil, J., Schaffernak, I., Evangelou, D. et al. Navigating the complexity of AI adoption in psychotherapy by identifying key facilitators and barriers. npj Mental Health Res 5, 17 (2026). https://doi.org/10.1038/s44184-026-00199-1
Parole chiave: intelligenza artificiale in psicoterapia, strumenti digitali per la salute mentale, app e chatbot per la terapia, accesso alle cure per la salute mentale, prospettive di pazienti e terapeuti