Clear Sky Science · de
Die Komplexität der KI‑Einführung in der Psychotherapie entschlüsseln: Schlüsselbegleiter und Barrieren identifizieren
Die Therapie‑Lücke schließen
Weltweit warten Millionen Menschen Wochen oder Monate auf psychologische Versorgung, während Depression und Angststörungen zunehmen. Gleichzeitig versprechen neue Werkzeuge mit künstlicher Intelligenz (KI) bedarfsgerechte Hilfe über Apps, Chatbots und intelligente Entscheidungsunterstützung für Therapeutinnen und Therapeuten. Dieser Artikel untersucht eine einfache, aber drängende Frage: Was wünschen sich Patientinnen, Patienten und Therapeutinnen bzw. Therapeuten tatsächlich von diesen Tools, und was zögert sie bei deren Nutzung?
Warum neue Werkzeuge attraktiv sind
KI in der Psychotherapie kann weit mehr als Termine koordinieren. Sie kann Menschen durch Selbsthilfeübungen führen, Stimmung verfolgen, Muster im Alltag analysieren und sogar vorschlagen, welche Behandlungsform am besten passen könnte. Für Therapeutinnen und Therapeuten kann KI zeitaufwändige Aufgaben wie Dokumentation und Datenanalyse übernehmen, damit sie sich auf die eigentlichen Gespräche konzentrieren können. Grundsätzlich könnte diese Art von Unterstützung Wartezeiten verkürzen und zwischen den Sitzungen oder während einer Warteliste Hilfe bieten. Sowohl Patientinnen und Patienten als auch Therapeutinnen und Therapeuten in der Studie sahen klare Vorteile: leichterer Zugang zu Unterstützung jederzeit und überall, stärker angepasste Übungen und Informationen sowie potenziell effizientere Versorgung.

Den menschlichen Kontakt bewahren
Trotz dieser Vorteile kehrten die Teilnehmenden immer wieder zu einer zentralen Sorge zurück: Nichts sollte die menschliche Beziehung im Kern der Therapie ersetzen. Patientinnen und Patienten befürchteten, eine App oder ein Chatbot könne kalt und mechanisch wirken und es schwerer machen, sich über schmerzhafte Erfahrungen zu öffnen. Therapeutinnen und Therapeuten fürchteten, die Kontrolle über den Behandlungsverlauf zu verlieren, wenn ein digitales System Ratschläge gibt, die sie nicht vollständig nachvollziehen oder überwachen können. Viele wiesen zudem darauf hin, dass manche Zustände, besonders schwere Störungen oder Krisen wie Suizidalität oder Psychosen, sorgfältige persönliche Betreuung erfordern. Für solche Situationen wurde KI bestenfalls als ergänzende Überwachung zur Risikokontrolle oder als einfache Unterstützung gesehen – nicht als primäre Behandlungsquelle.
Technologie entwerfen, die wirklich hilft
Im Gespräch darüber, was tatsächlich funktionieren würde, betonten beide Gruppen praktische, bodenständige Funktionen. Sie bevorzugten Werkzeuge, die einfach zu bedienen, visuell klar und an unterschiedliche Altersgruppen, Sprachen und Lebenssituationen anpassbar sind. Beliebte Ideen waren Stimmungstracking, Tagebücher, Krisen‑Buttons, die beruhigende Übungen auslösen, Erinnerungen für Aufgaben zwischen den Sitzungen und verständliches Informationsmaterial zur psychischen Gesundheit. Personalisierung war wichtig: Die Menschen wünschten sich Tools, die auf ihre individuelle Vorgeschichte und Bewältigungsstile reagieren, statt allgemeiner Standardratschläge. Entscheidend war, dass KI als Ergänzung willkommen war – etwas, das reguläre Therapiesitzungen unterstützt und erweitert, indem es Kontinuität zwischen Besuchen sowie nach dem Ende der Behandlung bietet.

Hindernisse hinter dem Bildschirm
Unter diesen persönlichen Präferenzen liegen große strukturelle Herausforderungen. Therapeutinnen und Therapeuten beschrieben übervolle Arbeitspläne, wenig Zeit für Fortbildung und häufig mangelhafte digitale Infrastruktur – selbst grundlegendes WLAN fehlt in manchen Einrichtungen. Beide Gruppen äußerten Bedenken zu Datenschutz, kommerziellen Interessen und unklaren Regeln darüber, wer verantwortlich ist, wenn ein KI‑Tool einen Fehler macht, etwa bei der Erkennung suizidaler Risiken. Sie warnten auch davor, dass ständige, bedarfsgerechte digitale Hilfe ungesunde Abhängigkeiten fördern oder Menschen mit sozialen Ängsten erlauben könnte, den realen Kontakt zu vermeiden und so eine echte Erholung zu verzögern. Versicherungsdeckung, faire Preise und starke Datenschutzgarantien erschienen als wesentliche Voraussetzungen, bevor solche Werkzeuge breit Vertrauen genießen könnten.
Ein ausgewogener Weg nach vorn
Insgesamt zeigt die Studie, dass die Zukunft der KI in der Psychotherapie kein einfaches Ja oder Nein ist. Patientinnen und Patienten sowie Therapeutinnen und Therapeuten sind offen für den Einsatz intelligenter Werkzeuge – insbesondere bei milderen Problemen, für Frühscreenings, Unterstützung während der Wartezeit, zwischen Sitzungen und in der Nachsorge – sofern diese Tools nachweislich wirken, einfach zu handhaben sind und in einen soliden rechtlichen und ethischen Rahmen eingebettet werden. Gleichzeitig verlangen sie verbindliche Zusagen, dass der menschliche Kontakt zentral bleibt und Technologie nicht heimlich die Therapie in Richtung schneller, kostengünstiger Lösungen drängt. Auf den Punkt gebracht: Die Menschen fordern keinen Robotertherapeuten; sie wünschen gut gestaltete digitale Assistenten, die realen Therapeutinnen und Therapeuten und echten Patientinnen und Patienten helfen, effektiver zusammenzuarbeiten.
Zitation: Cecil, J., Schaffernak, I., Evangelou, D. et al. Navigating the complexity of AI adoption in psychotherapy by identifying key facilitators and barriers. npj Mental Health Res 5, 17 (2026). https://doi.org/10.1038/s44184-026-00199-1
Schlüsselwörter: künstliche Intelligenz in der Psychotherapie, digitale Hilfsmittel für die psychische Gesundheit, Therapie‑Apps und Chatbots, Zugang zu psychischen Gesundheitsbehandlungen, Patienten‑ und Therapeutensicht