Clear Sky Science · pl

Nawigowanie po złożoności wdrażania AI w psychoterapii przez identyfikację kluczowych ułatwień i barier

· Powrót do spisu

Zamykanie luki w terapii

Na całym świecie miliony osób czekają tygodniami lub miesiącami na opiekę zdrowia psychicznego, podczas gdy depresja i lęki stają się coraz częstsze. Jednocześnie nowe narzędzia oparte na sztucznej inteligencji (AI) obiecują pomoc na żądanie przez aplikacje, chatboty i inteligentne wsparcie decyzyjne dla terapeutów. Artykuł bada proste, lecz palące pytanie: czego tak naprawdę oczekują pacjenci i terapeuci od tych narzędzi i co sprawia, że wahają się przed ich użyciem?

Dlaczego nowe narzędzia są atrakcyjne

AI w psychoterapii może robić znacznie więcej niż umawianie wizyt. Może prowadzić osoby przez ćwiczenia samopomocowe, monitorować nastrój, analizować wzorce w codziennym życiu, a nawet sugerować, jaki rodzaj terapii może działać najlepiej. Dla terapeutów AI może przejmować czasochłonne zadania, takie jak dokumentacja czy analiza danych, tak by mogli skupić się na rzeczywistych rozmowach. W teorii takie wsparcie mogłoby skrócić listy oczekujących i oferować pomoc między sesjami lub w czasie oczekiwania na terapię. Zarówno pacjenci, jak i terapeuci uczestniczący w badaniu dostrzegali wyraźne korzyści: łatwiejszy dostęp do wsparcia w dowolnym czasie i miejscu, bardziej dopasowane ćwiczenia i informacje oraz potencjalnie bardziej efektywna opieka.

Figure 1
Figure 1.

Utrzymanie ludzkiego wymiaru

Pomimo tych zalet uczestnicy wielokrotnie wracali do jednej zasadniczej obawy: nic nie powinno zastępować ludzkiej relacji będącej sednem terapii. Pacjenci obawiali się, że aplikacja lub chatbot będzie wydawać się chłodny i mechaniczny, co utrudni otwieranie się na bolesne doświadczenia. Terapeuci bali się utraty kontroli nad procesem leczenia, jeśli system cyfrowy będzie dostarczał porad, których nie będą w stanie w pełni zrozumieć lub nadzorować. Wielu zwracało też uwagę, że niektóre stany, szczególnie poważne zaburzenia lub kryzysy, takie jak myśli samobójcze czy psychoza, wymagają starannej, osobistej opieki. W takich sytuacjach AI postrzegano co najwyżej jako wsparcie do monitorowania ryzyka lub oferowania prostych form pomocy — nie jako główne źródło opieki.

Projektowanie technologii, która naprawdę pomaga

Rozmawiając o tym, co faktycznie by się sprawdziło, obie grupy podkreślały praktyczne, przyziemne cechy. Preferowano narzędzia łatwe w użyciu, wizualnie proste i dostosowujące się do różnych grup wiekowych, języków i sytuacji życiowych. Popularne pomysły obejmowały monitorowanie nastroju, dzienniki, przyciski kryzysowe uruchamiające ćwiczenia uspokajające, przypomnienia o zadaniach domowych między sesjami oraz jasne materiały edukacyjne o zdrowiu psychicznym. Personalizacja miała znaczenie: ludzie chcieli narzędzi reagujących na ich konkretną historię i styl radzenia sobie, a nie uniwersalnych porad. Kluczowe było to, że AI wita się jako dodatek — coś, co wspiera i rozszerza regularne sesje terapeutyczne, oferując ciągłość między wizytami i po zakończeniu leczenia.

Figure 2
Figure 2.

Przeszkody za ekranem

Pod tymi osobistymi preferencjami kryją się duże wyzwania strukturalne. Terapeuci opisywali przeładowane grafiki, niedostatek czasu na szkolenia i często słabą infrastrukturę cyfrową — nawet podstawowy dostęp do Wi‑Fi bywa w niektórych placówkach niedostępny. Obie grupy wyrażały obawy dotyczące ochrony danych, interesów komercyjnych i niejasnych zasad odpowiedzialności, jeśli narzędzie AI popełni błąd, na przykład w wykrywaniu ryzyka samobójczego. Ostrzegano także, że ciągła, dostępna na żądanie pomoc cyfrowa może prowadzić do niezdrowego uzależnienia lub pozwolić osobom z lękami społecznymi unikać kontaktów w świecie rzeczywistym, co spowalniałoby prawdziwe zdrowienie. Ubezpieczenie, uczciwe ceny i silne zabezpieczenia prywatności pojawiły się jako niezbędne warunki, zanim takie narzędzia mogłyby zyskać szerokie zaufanie.

Znajdowanie zrównoważonej drogi naprzód

Ogólnie rzecz biorąc, badanie pokazuje, że przyszłość AI w psychoterapii nie jest ani prostym tak, ani prostym nie. Pacjenci i terapeuci są otwarci na korzystanie z inteligentnych narzędzi — zwłaszcza przy łagodniejszych problemach, wczesnym przesiewie, wsparciu w czasie oczekiwania na terapię, między sesjami i podczas opieki po zakończeniu leczenia — pod warunkiem, że narzędzia te mają udowodnioną skuteczność, są łatwe w obsłudze i osadzone w solidnych ramach prawnych i etycznych. Jednocześnie domagają się twardych gwarancji, że kontakt ludzki pozostanie centralny i że technologia nie będzie cichcem skierowywać terapii ku szybkich, tanim rozwiązaniom. Mówiąc wprost, ludzie nie proszą o robota‑terapeutę; chcą dobrze zaprojektowanych asystentów cyfrowych, którzy pomagają prawdziwym terapeutom i prawdziwym pacjentom lepiej współpracować.

Cytowanie: Cecil, J., Schaffernak, I., Evangelou, D. et al. Navigating the complexity of AI adoption in psychotherapy by identifying key facilitators and barriers. npj Mental Health Res 5, 17 (2026). https://doi.org/10.1038/s44184-026-00199-1

Słowa kluczowe: sztuczna inteligencja w psychoterapii, cyfrowe narzędzia zdrowia psychicznego, aplikacje terapeutyczne i chatboty, dostęp do leczenia zdrowia psychicznego, perspektywy pacjentów i terapeutów