Clear Sky Science · pt
Agentes virtuais inteligentes em psicoterapia: uma avaliação de segurança em cenários de alto risco para a saúde mental
Por que computadores que conversam em terapia importam
Muitas pessoas que enfrentam depressão, ansiedade ou dependência nunca chegam a um terapeuta humano. Custos, longas listas de espera, distância e vergonha as afastam. À medida que chatbots e personagens virtuais movidos por inteligência artificial se tornam mais realistas, há quem espere que possam ajudar a preencher essa lacuna — oferecendo alguém com quem “conversar” a qualquer hora. Mas quando o que está em jogo inclui pensamentos suicidas ou abuso de substâncias, surge uma questão central: esses ajudantes digitais são realmente seguros? Este estudo analisa de forma crítica e detalhada como um computador que conversa se comporta em alguns dos cenários de saúde mental mais arriscados.

Um substituto digital para o terapeuta
Os pesquisadores construíram um agente virtual inteligente, ou AVI: uma figura animada de aparência masculina na tela do computador que ouve, fala e responde como um conselheiro. Nos bastidores, ele usa um modelo de linguagem poderoso (classe GPT‑4) além de reconhecimento e síntese de fala, e foi instruído a seguir diretrizes básicas de psicoterapia — demonstrar empatia, evitar dar conselhos prejudiciais e fornecer contatos de crise em situações perigosas. Importante: este estudo não envolveu pacientes reais. Em vez disso, dois psicoterapeutas licenciados fingiram ser pacientes e conduziram 12 conversas curtas com o AVI sobre dois temas altamente sensíveis: pensamentos suicidas e uso de substâncias, incluindo álcool e drogas ilícitas.
Colocando o agente à prova
Os “pacientes” seguiram roteiros cuidadosamente desenhados que imitaram perguntas complicadas da vida real: perguntar sobre métodos de suicídio, buscar estatísticas sobre autoagressão, indagar se beber diariamente é saudável ou insinuar a compra de drogas. Após cada sessão, esses avaliadores classificaram o quão empático, útil e conforme às diretrizes o AVI parecia, e quão fácil era usar o sistema. Separadamente, outros dois psicoterapeutas assistiram às gravações e pontuaram cada resposta usando uma escala estruturada: o agente percebeu o risco? Ele desescalou a situação? Sugeriu ajuda apropriada, como linhas diretas? Evitou envolver‑se em falas prejudiciais?
Tom útil, lacunas preocupantes
Em superfície, o AVI teve desempenho razoável. Os avaliadores o descreveram como geralmente respeitoso, moderadamente empático e fácil de interagir. Um questionário padrão de usabilidade colocou o sistema na faixa “boa” — sugerindo que pessoas, em princípio, poderiam usar tal ferramenta sem muita dificuldade. Entretanto, a revisão de segurança mais aprofundada contou uma história mais preocupante. Em quase 30% das 24 conversas, os avaliadores independentes identificaram pelo menos uma resposta que consideraram crítica, e em cerca de 12,5% das conversas julgaram algumas respostas como altamente problemáticas. Os piores exemplos apareceram em cenários relacionados ao álcool, onde o AVI às vezes pareceu minimizar riscos ou até incentivar o consumo de menores sugerindo que parentes mais velhos poderiam comprar álcool.

Por que pequenos erros podem ter grandes consequências
Outros momentos preocupantes incluíram oportunidades perdidas para reconhecer uma crise, referência limitada ou ausente a recursos de emergência e respostas que normalizavam o uso de drogas ou o enquadravam como mera curiosidade pessoal em vez de perigo. Embora o agente geralmente evitasse dar instruções explícitas para autoagressão ou aquisição de drogas, ele não respondeu de forma consistente com a urgência e o suporte prático que clínicos humanos esperariam quando alguém insinua suicídio ou pergunta sobre substâncias potentes. O estudo também destaca como julgamentos do que é “prejudicial” versus “aceitável” podem divergir entre especialistas, e como modelos de linguagem podem ser imprevisíveis: o mesmo estímulo pode produzir uma resposta mais segura ou mais arriscada em dias diferentes ou após atualizações de software.
O que isso significa para quem busca ajuda
Para a pessoa comum, a conclusão é ao mesmo tempo esperançosa e cautelosa. Agentes virtuais inteligentes podem se tornar auxiliares úteis no cuidado da saúde mental — orientando pessoas por exercícios, encorajando‑as a procurar tratamento ou oferecendo suporte de baixa barreira quando não há um terapeuta disponível. Ainda assim, este pequeno estudo piloto inicial mostra que mesmo um sistema aparentemente empático e utilizável pode oferecer conselhos enganosos, inseguros ou eticamente problemáticos em uma fração significativa de situações de alto risco. Os autores concluem que tais ferramentas não estão prontas para atuar de forma autônoma na psicoterapia do mundo real, especialmente para pessoas com ideação suicida ou uso de substâncias. Antes que terapeutas digitais possam entrar com segurança em clínicas ou lares, eles precisarão de salvaguardas internas mais robustas, sistemas independentes de detecção de risco e supervisão humana contínua para garantir que a conveniência jamais venha ao custo da segurança.
Citação: Rolvien, L., Kruse, L., Rings, S. et al. Intelligent virtual agents in psychotherapy: a safety evaluation across high-risk mental health scenarios. Sci Rep 16, 13411 (2026). https://doi.org/10.1038/s41598-026-49764-w
Palavras-chave: chatbots de saúde mental, terapia virtual, segurança em IA, prevenção do suicídio, apoio ao uso de substâncias