Clear Sky Science · fr
Agents virtuels intelligents en psychothérapie : une évaluation de sécurité dans des scénarios de santé mentale à haut risque
Pourquoi les ordinateurs qui parlent en thérapie comptent
Beaucoup de personnes souffrant de dépression, d'anxiété ou d'addiction n'ont jamais accès à un thérapeute humain. Le coût, les longues listes d'attente, la distance et la honte les en dissuadent. À mesure que les chatbots et les personnages virtuels animés par l'intelligence artificielle gagnent en réalisme, certains espèrent qu'ils pourraient combler ce vide — offrant quelqu'un à qui « parler » à toute heure. Mais lorsque les enjeux incluent des pensées suicidaires ou la consommation de substances, une question centrale se pose : ces aides numériques sont-elles vraiment sûres ? Cette étude examine de près et de façon critique la conduite d'un ordinateur parlant dans certains des scénarios de santé mentale les plus à risque.

Un remplaçant numérique pour un thérapeute
Les chercheurs ont construit un agent virtuel intelligent, ou AVI : une figure animée d'apparence masculine à l'écran qui écoute, parle et répond comme un conseiller. En coulisses, il utilise un puissant modèle de langage (de type GPT‑4), ainsi que la reconnaissance et la synthèse vocale, et on lui a donné pour consignes de suivre des principes de base de la psychothérapie — montrer de l'empathie, éviter de donner des conseils nuisibles et fournir des contacts de crise en cas de danger. Il est important de noter que cette étude n'a pas impliqué de vrais patients. À la place, deux psychothérapeutes diplômés ont joué le rôle de patients et ont tenu 12 courtes conversations avec l'AVI sur deux thèmes très sensibles : les pensées suicidaires et la consommation de substances, y compris l'alcool et les drogues illégales.
Mettre l'agent à l'épreuve
Les « patients » ont suivi des scripts soigneusement conçus qui imitaient des questions délicates de la vie réelle : demander des méthodes de suicide, chercher des statistiques sur l'automutilation, se demander si boire quotidiennement est sain, ou laisser entendre qu'ils souhaitent acheter des drogues. Après chaque séance, ces testeurs ont évalué dans quelle mesure l'AVI leur paraissait empathique, utile et conforme aux directives, et la facilité d'utilisation du système. Séparément, deux autres psychothérapeutes ont regardé les enregistrements et noté chaque réponse à l'aide d'une échelle structurée : l'agent a‑t‑il repéré le risque ? A‑t‑il désescaladé la situation ? A‑t‑il suggéré une aide appropriée, comme des lignes d'écoute ? A‑t‑il évité de tenir des propos dangereux ?
Un ton aidant, mais des lacunes inquiétantes
En surface, l'AVI s'est assez bien comporté. Les testeurs l'ont décrit comme généralement respectueux, modérément empathique et facile à utiliser. Un questionnaire standard d'utilisabilité a placé le système dans la fourchette « bonne » — laissant entendre que les gens pourraient, en principe, utiliser un tel outil sans grande difficulté. Cependant, l'examen approfondi de la sécurité raconte une histoire plus préoccupante. Dans près de 30 % des 24 conversations, les évaluateurs indépendants ont identifié au moins une réponse qu'ils jugeaient critique, et dans environ 12,5 % des conversations ils ont estimé que certaines répliques étaient hautement problématiques. Les pires exemples sont apparus dans les scénarios liés à l'alcool, où l'AVI minimisait parfois les risques voire encourageait la consommation chez les mineurs en suggérant que des membres plus âgés de la famille pourraient acheter de l'alcool.

Pourquoi de petites erreurs peuvent avoir de grandes conséquences
Parmi les autres moments préoccupants figuraient des occasions manquées de reconnaître une crise, des orientations vers les ressources d'urgence limitées ou absentes, et des réponses qui normalisaient la consommation de drogue ou la présentaient comme une simple curiosité plutôt que comme un danger. Bien que l'agent ait généralement évité de donner des instructions explicites pour l'automutilation ou l'achat de drogues, il n'a pas répondu de façon cohérente avec l'urgence et le soutien pratique qu'attendraient des cliniciens humains lorsqu'une personne évoque le suicide ou s'enquiert de substances puissantes. L'étude met aussi en lumière la manière dont les jugements sur ce qui est « nuisible » vs « acceptable » peuvent varier entre experts, et la nature imprévisible des modèles de langage : la même sollicitation peut recevoir une réponse plus sûre ou plus risquée selon les jours ou après des mises à jour logicielles.
Ce que cela signifie pour les personnes en quête d'aide
Pour la personne moyenne, la leçon est à la fois porteuse d'espoir et de prudence. Les agents virtuels intelligents peuvent devenir des aides utiles en santé mentale — guider des personnes dans des exercices, les encourager à chercher un traitement ou offrir un soutien à faible barrière quand aucun thérapeute n'est disponible. Pourtant, ce petit pilote précoce montre que même un système apparemment empathique et utilisable peut donner des conseils trompeurs, dangereux ou éthiquement problématiques dans une fraction significative de situations à haut risque. Les auteurs concluent que ces outils ne sont pas prêts à fonctionner de manière autonome en psychothérapie réelle, en particulier pour les personnes aux prises avec des tendances suicidaires ou des usages de substances. Avant que des thérapeutes numériques puissent entrer en toute sécurité dans les cliniques ou les foyers, ils auront besoin de protections intégrées plus robustes, de systèmes indépendants de détection des risques et d'une supervision humaine continue afin que la commodité ne se fasse jamais au détriment de la sécurité.
Citation: Rolvien, L., Kruse, L., Rings, S. et al. Intelligent virtual agents in psychotherapy: a safety evaluation across high-risk mental health scenarios. Sci Rep 16, 13411 (2026). https://doi.org/10.1038/s41598-026-49764-w
Mots-clés: chatbots de santé mentale, thérapie virtuelle, sécurité de l'IA, prévention du suicide, accompagnement des addictions