Clear Sky Science · pt
Navegando na complexidade da adoção de IA na psicoterapia ao identificar facilitadores e barreiras-chave
Fechando a lacuna do tratamento
Em todo o mundo, milhões de pessoas esperam semanas ou meses por atendimento de saúde mental, enquanto depressão e ansiedade se tornam mais comuns. Ao mesmo tempo, novas ferramentas de inteligência artificial (IA) prometem ajuda sob demanda por meio de aplicativos, chatbots e auxiliares de decisão inteligentes para terapeutas. Este artigo explora uma pergunta simples, porém urgente: o que pacientes e terapeutas realmente querem dessas ferramentas, e o que os faz hesitar em usá‑las?
Por que as novas ferramentas são atraentes
A IA na psicoterapia pode fazer muito mais do que agendar consultas. Ela pode guiar pessoas em exercícios de autoajuda, monitorar o humor, analisar padrões do cotidiano e até sugerir qual tipo de tratamento pode funcionar melhor. Para os terapeutas, a IA pode assumir tarefas demoradas, como papelada e análise de dados, permitindo que se concentrem em conversas reais. Em princípio, esse tipo de apoio poderia reduzir as listas de espera e oferecer ajuda entre sessões ou enquanto as pessoas aguardam atendimento. Tanto pacientes quanto terapeutas no estudo identificaram vantagens claras: acesso mais fácil ao suporte a qualquer hora e em qualquer lugar, exercícios e informações mais personalizados e, potencialmente, cuidados mais eficientes.

Preservando o contato humano
Apesar desses benefícios, os participantes voltaram repetidamente a uma preocupação central: nada deve substituir a relação humana no coração da terapia. Pacientes temiam que um aplicativo ou chatbot parecesse frio e mecânico, tornando mais difícil abrir‑se sobre experiências dolorosas. Terapeutas receavam perder o controle sobre o processo terapêutico se um sistema digital fornecesse conselhos que não pudessem compreender ou supervisionar completamente. Muitos também observaram que algumas condições, especialmente transtornos graves ou crises como ideação suicida ou psicose, exigem atenção presencial cuidadosa. Nesses casos, a IA foi vista, na melhor das hipóteses, como um recurso de apoio para monitorar riscos ou oferecer suporte simples — não como a fonte principal de cuidado.
Projetando tecnologia que realmente ajuda
Ao falar sobre o que funcionaria de fato, ambos os grupos enfatizaram características práticas e realistas. Preferiram ferramentas fáceis de usar, visualmente simples e adaptáveis a diferentes idades, idiomas e situações de vida. Ideias populares incluíam monitoramento de humor, diários, botões de crise que acionam exercícios de calma, lembretes para tarefas entre sessões e material educativo claro sobre saúde mental. A personalização importava: as pessoas queriam ferramentas que respondessem ao seu histórico e estilo de enfrentamento específicos, em vez de conselhos prontos para todos. De modo crucial, a IA foi bem‑vinda como um complemento — algo que apoia e estende as sessões regulares de terapia, oferecendo continuidade entre as visitas e após o término do tratamento.

Obstáculos por trás da tela
Por trás dessas preferências pessoais existem grandes desafios estruturais. Terapeutas descreveram cargas de trabalho excessivas, pouco tempo para treinamento e infraestrutura digital frequentemente precária — até mesmo Wi‑Fi básico pode faltar em algumas clínicas. Ambos os grupos levantaram preocupações sobre proteção de dados, interesses comerciais e regras pouco claras sobre quem é responsável se uma ferramenta de IA cometer um erro, por exemplo na detecção de risco suicida. Também alertaram que ajuda digital constante e sob demanda pode criar dependência prejudicial ou permitir que pessoas com fobias sociais evitem contato no mundo real, retardando a recuperação genuína. Cobertura por seguros, preços justos e fortes proteções de privacidade surgiram como condições essenciais antes que tais ferramentas pudessem ser amplamente confiáveis.
Encontrando um caminho equilibrado
No geral, o estudo mostra que o futuro da IA na psicoterapia não é um simples sim nem um não. Pacientes e terapeutas estão abertos a usar ferramentas inteligentes — especialmente para problemas mais leves, triagem precoce, apoio enquanto aguardam tratamento, entre sessões e durante o acompanhamento — se essas ferramentas tiverem eficácia comprovada, forem fáceis de manusear e estiverem inseridas em um sólido marco legal e ético. Ao mesmo tempo, querem garantias firmes de que o contato humano permanecerá central e que a tecnologia não empurrará silenciosamente a terapia para soluções rápidas e de baixo custo. Em termos simples, as pessoas não pedem um terapeuta robô; pedem assistentes digitais bem projetados que ajudem terapeutas reais e pacientes reais a trabalharem juntos de forma mais eficaz.
Citação: Cecil, J., Schaffernak, I., Evangelou, D. et al. Navigating the complexity of AI adoption in psychotherapy by identifying key facilitators and barriers. npj Mental Health Res 5, 17 (2026). https://doi.org/10.1038/s44184-026-00199-1
Palavras-chave: inteligência artificial na psicoterapia, ferramentas digitais de saúde mental, apps e chatbots para terapia, acesso ao tratamento de saúde mental, perspectivas de pacientes e terapeutas