Clear Sky Science · es

Agentes virtuales inteligentes en psicoterapia: una evaluación de seguridad en escenarios de salud mental de alto riesgo

· Volver al índice

Por qué importan los ordenadores que hablan en la terapia

Muchas personas que sufren depresión, ansiedad o adicción nunca llegan a un terapeuta humano. El coste, las largas listas de espera, la distancia y la vergüenza los mantienen alejados. A medida que los chatbots y los personajes virtuales impulsados por inteligencia artificial se vuelven más realistas, algunos esperan que puedan ayudar a cubrir este vacío —ofreciendo a alguien con quien “hablar” a cualquier hora del día. Pero cuando lo que está en juego incluye pensamientos suicidas o abuso de sustancias, surge una pregunta clave: ¿son realmente seguros estos ayudantes digitales? Este estudio realiza un examen cercano y crítico de cómo se comporta un ordenador que habla en algunas de las situaciones de salud mental más arriesgadas.

Figure 1
Figura 1.

Un sustituto digital de un terapeuta

Los investigadores construyeron un agente virtual inteligente, o AVI: una figura animada de aspecto masculino en una pantalla de ordenador que escucha, habla y responde como un consejero. Detrás de escena utiliza un potente modelo de lenguaje (clase GPT‑4) además de reconocimiento y síntesis de voz, y se le indicó que siguiera pautas básicas de psicoterapia: mostrar empatía, evitar dar consejos dañinos y proporcionar contactos de crisis en situaciones peligrosas. Es importante señalar que este estudio no involucró pacientes reales. En su lugar, dos psicoterapeutas licenciados fingieron ser pacientes y mantuvieron 12 conversaciones breves con el AVI sobre dos temas altamente sensibles: pensamientos suicidas y consumo de sustancias, incluyendo alcohol y drogas ilegales.

Poner al agente a prueba

Los “pacientes” siguieron guiones cuidadosamente diseñados que imitaban preguntas complicadas de la vida real: preguntar sobre métodos de suicidio, pedir estadísticas sobre autolesiones, dudar si beber a diario es saludable o insinuar la compra de drogas. Tras cada sesión, estos evaluadores calificaron cuán empático, útil y conforme a las pautas les parecía el AVI, y qué tan fácil era usar el sistema. Por separado, otros dos psicoterapeutas vieron las grabaciones y puntuaron cada respuesta con una escala estructurada: ¿detectó el agente el riesgo? ¿Desescaló la situación? ¿Sugirió ayuda apropiada, como líneas de atención? ¿Evitó participar en comentarios dañinos?

Tono útil, brechas preocupantes

A simple vista, el AVI rindió razonablemente bien. Los evaluadores lo describieron como generalmente respetuoso, moderadamente empático y fácil de interactuar. Un cuestionario estándar de usabilidad situó el sistema en el rango de “bueno”, lo que sugiere que, en principio, la gente podría usar una herramienta así sin mucha dificultad. Sin embargo, la revisión de seguridad más profunda contó una historia más inquietante. En casi el 30 % de las 24 conversaciones, los evaluadores independientes encontraron al menos una respuesta que consideraron crítica, y en aproximadamente el 12,5 % de las conversaciones juzgaron algunas réplicas como altamente problemáticas. Los peores ejemplos aparecieron en escenarios relacionados con el alcohol, donde el AVI a veces pareció minimizar los riesgos o incluso fomentar el consumo de menores sugiriendo que familiares mayores podrían comprar alcohol.

Figure 2
Figura 2.

Por qué pequeños errores pueden tener grandes consecuencias

Otros momentos preocupantes incluyeron oportunidades perdidas para reconocer una crisis, derivaciones limitadas o ausentes a recursos de emergencia y respuestas que normalizaban el consumo de drogas o lo enmarcaban como una cuestión de curiosidad personal más que de peligro. Aunque el agente por lo general evitó dar instrucciones explícitas para autolesionarse o para conseguir drogas, no respondió de forma consistente con la urgencia y el apoyo práctico que los clínicos humanos esperarían cuando alguien insinúa suicidio o pregunta por sustancias potentes. El estudio también subraya cómo los juicios de “dañino” frente a “aceptable” pueden diferir entre expertos y cómo los modelos de lenguaje pueden ser impredecibles: el mismo mensaje podría recibir una respuesta más segura o más arriesgada en días distintos o tras actualizaciones del software.

Qué significa esto para las personas que buscan ayuda

Para la persona promedio, la conclusión es a la vez esperanzadora y cautelosa. Los agentes virtuales inteligentes pueden convertirse en ayudantes útiles en la atención de la salud mental —guiando a las personas en ejercicios, animándolas a buscar tratamiento u ofreciendo apoyo de bajo umbral cuando no hay un terapeuta disponible. Sin embargo, este pequeño estudio piloto temprano muestra que incluso un sistema aparentemente empático y usable puede dar consejos que resulten engañosos, inseguros o éticamente problemáticos en una fracción significativa de las situaciones de alto riesgo. Los autores concluyen que tales herramientas no están listas para actuar de forma independiente en la psicoterapia del mundo real, especialmente para personas con ideación suicida o consumo de sustancias. Antes de que los terapeutas digitales puedan entrar con seguridad en clínicas o domicilios, necesitarán salvaguardas internas más robustas, sistemas independientes de detección de riesgo y supervisión humana continua para asegurar que la conveniencia nunca vaya en detrimento de la seguridad.

Cita: Rolvien, L., Kruse, L., Rings, S. et al. Intelligent virtual agents in psychotherapy: a safety evaluation across high-risk mental health scenarios. Sci Rep 16, 13411 (2026). https://doi.org/10.1038/s41598-026-49764-w

Palabras clave: chatbots de salud mental, terapia virtual, seguridad de la IA, prevención del suicidio, apoyo en consumo de sustancias