Clear Sky Science · fr

Naviguer dans la complexité de l’adoption de l’IA en psychothérapie en identifiant les facilitateurs et obstacles clés

· Retour à l’index

Combler le fossé thérapeutique

Partout dans le monde, des millions de personnes attendent des semaines ou des mois pour recevoir des soins de santé mentale, alors que la dépression et l’anxiété deviennent plus fréquentes. Parallèlement, de nouveaux outils d’intelligence artificielle (IA) promettent une aide à la demande via des applications, des chatbots et des aides à la décision intelligentes pour les thérapeutes. Cet article explore une question simple mais urgente : qu’attendent réellement les patients et les thérapeutes de ces outils, et qu’est‑ce qui les pousse à hésiter à s’en servir ?

Pourquoi ces nouveaux outils séduisent

L’IA en psychothérapie peut faire bien plus que planifier des rendez‑vous. Elle peut guider les personnes à travers des exercices d’auto‑aide, suivre l’humeur, analyser les schémas de la vie quotidienne et même suggérer quel type de traitement pourrait être le plus efficace. Pour les thérapeutes, l’IA peut prendre en charge des tâches chronophages comme la paperasserie et l’analyse de données afin qu’ils puissent se concentrer sur de véritables échanges. En principe, ce type d’appui pourrait réduire les listes d’attente et offrir de l’aide entre les séances ou pendant que des personnes sont en attente d’un suivi. Patients et thérapeutes interrogés ont perçu des avantages clairs : un accès plus simple au soutien à tout moment et en tout lieu, des exercices et des informations mieux adaptés, et potentiellement des soins plus efficaces.

Figure 1
Figure 1.

Préserver la dimension humaine

Malgré ces bénéfices, les participants revenaient régulièrement à une préoccupation centrale : rien ne devrait remplacer la relation humaine au cœur de la thérapie. Les patients craignaient qu’une application ou un chatbot paraisse froid et mécanique, rendant plus difficile l’ouverture sur des expériences douloureuses. Les thérapeutes redoutaient de perdre le contrôle du processus thérapeutique si un système numérique délivrait des conseils qu’ils ne pouvaient pas entièrement comprendre ou superviser. Beaucoup ont également souligné que certaines situations, en particulier les troubles graves ou les crises telles que la suicidabilité ou la psychose, exigent une attention en personne et soigneuse. Pour ces cas, l’IA était perçue, au mieux, comme une solution de secours pour surveiller les risques ou offrir un soutien simple — pas comme la source principale de soins.

Concevoir une technologie réellement utile

Lorsqu’il s’agissait de définir ce qui fonctionnerait réellement, les deux groupes ont insisté sur des caractéristiques pratiques et concrètes. Ils privilégiaient des outils faciles à utiliser, visuellement simples et adaptables aux différents âges, langues et situations de vie. Parmi les idées populaires figuraient le suivi de l’humeur, les journaux, des boutons d’alerte déclenchant des exercices apaisants, des rappels pour les devoirs entre les séances et des documents pédagogiques clairs sur la santé mentale. La personnalisation comptait : les utilisateurs voulaient des outils répondant à leur histoire et à leur façon de faire face plutôt que des conseils universels. De manière cruciale, l’IA était bienvenue en tant que complément — quelque chose qui soutient et prolonge les séances régulières en offrant une continuité entre les visites et après la fin d’un traitement.

Figure 2
Figure 2.

Obstacles derrière l’écran

Sous ces préférences personnelles se cachent de lourds défis structurels. Les thérapeutes ont décrit des charges de travail excessives, peu de temps pour la formation et souvent une infrastructure numérique déficiente — même le Wi‑Fi de base peut manquer dans certaines cliniques. Les deux groupes ont exprimé des inquiétudes concernant la protection des données, les intérêts commerciaux et des règles floues sur la responsabilité si un outil d’IA commet une erreur, par exemple dans la détection du risque de suicide. Ils ont aussi mis en garde contre le risque qu’une aide numérique constante et à la demande crée une dépendance malsaine ou permette à des personnes souffrant d’anxiété sociale d’éviter le contact du monde réel, ralentissant ainsi une véritable récupération. La prise en charge par les assurances, des tarifs équitables et de solides garanties de confidentialité sont apparus comme des conditions essentielles avant que ces outils puissent être largement approuvés.

Tracer une voie d’équilibre

Globalement, l’étude montre que l’avenir de l’IA en psychothérapie n’est ni un simple oui ni un simple non. Patients et thérapeutes sont ouverts à l’usage d’outils intelligents — surtout pour des problèmes plus légers, le dépistage précoce, le soutien en période d’attente, entre les séances et pendant l’après‑prise en charge — si ces outils sont clairement prouvés efficaces, faciles à prendre en main et intégrés dans un cadre juridique et éthique solide. En même temps, ils veulent des garanties fermes que le contact humain reste central et que la technologie ne poussera pas subrepticement la thérapie vers des solutions rapides et bon marché. En termes clairs, les gens ne demandent pas un thérapeute robot ; ils demandent des assistants numériques bien conçus qui aident de vrais thérapeutes et de vrais patients à mieux travailler ensemble.

Citation: Cecil, J., Schaffernak, I., Evangelou, D. et al. Navigating the complexity of AI adoption in psychotherapy by identifying key facilitators and barriers. npj Mental Health Res 5, 17 (2026). https://doi.org/10.1038/s44184-026-00199-1

Mots-clés: intelligence artificielle en psychothérapie, outils numériques pour la santé mentale, applications et chatbots thérapeutiques, accès aux traitements de santé mentale, perspectives des patients et des thérapeutes