Clear Sky Science · ru
Навигация по сложности внедрения ИИ в психотерапию: выявление ключевых факторов и препятствий
Сокращение разрыва в доступе к терапии
Во всем мире миллионы людей ждут недели или месяцы, чтобы получить помощь в сфере психического здоровья, в то время как депрессия и тревожные расстройства становятся всё более распространёнными. Одновременно новые инструменты на основе искусственного интеллекта (ИИ) обещают помощь по требованию через приложения, чат‑ботов и интеллектуальные решения для принятия решений терапевтами. В этой статье рассматривается простой, но важный вопрос: что на самом деле хотят от этих инструментов пациенты и терапевты и что заставляет их колебаться перед использованием?
Почему новые инструменты привлекают
ИИ в психотерапии способен на большее, чем просто назначать приёмы. Он может сопровождать человека в выполнении упражнений самопомощи, отслеживать настроение, анализировать шаблоны повседневной жизни и даже предлагать, какое лечение может подойти лучше всего. Для терапевтов ИИ может взять на себя трудоёмкие задачи, такие как заполнение документации и анализ данных, чтобы они могли сосредоточиться на живом общении. В принципе такая поддержка может сократить списки ожидания и обеспечить помощь между сеансами или пока человек находится в очереди на приём. И пациенты, и терапевты в исследовании отмечали очевидные преимущества: более лёгкий доступ к поддержке в любое время и в любом месте, более персонализированные упражнения и информация и потенциально более эффективная помощь.

Сохранение человеческого измерения
Несмотря на эти преимущества, участники неоднократно возвращались к одному ключевому беспокойству: ничто не должно заменять человеческие отношения, лежащие в основе терапии. Пациенты опасались, что приложение или чат‑бот будут казаться холодными и механическими, что затруднит открытость в разговоре о болезненных переживаниях. Терапевты боялись утраты контроля над лечебным процессом, если цифровая система будет давать советы, которые они не смогут полностью понять или проконтролировать. Многие также отмечали, что некоторые состояния, особенно тяжёлые расстройства или кризисы, такие как суицидальные тенденции или психоз, требуют внимательного очного вмешательства. В таких ситуациях ИИ рассматривали, в лучшем случае, как резерв для мониторинга рисков или оказания простой поддержки — но не как основной источник помощи.
Проектирование технологий, которые действительно помогают
Говоря о том, что действительно сработает, обе группы подчёркивали прагматичные, приземлённые функции. Они отдавали предпочтение инструментам, которые просты в использовании, визуально лаконичны и адаптируются к разным возрастам, языкам и жизненным ситуациям. Популярными идеями были отслеживание настроения, дневники, «кнопки кризиса», запускающие успокаивающие упражнения, напоминания о домашних заданиях между сеансами и понятные образовательные материалы о психическом здоровье. Персонализация имела значение: люди хотели инструменты, которые реагируют на их конкретную историю и стиль преодоления, а не на универсальные советы. Критически важным считалось, что ИИ приветствуется как дополнение — нечто, что поддерживает и расширяет обычные терапевтические сеансы, обеспечивая непрерывность между визитами и после завершения лечения.

Препятствия за экраном
Под этими личными предпочтениями скрываются серьёзные структурные проблемы. Терапевты описывали перегруженность рабочим временем, недостаток времени на обучение и часто плохую цифровую инфраструктуру — даже базового Wi‑Fi может не хватать в некоторых клиниках. Обе группы выражали обеспокоенность по поводу защиты данных, коммерческих интересов и неясных правил о том, кто несёт ответственность, если ИИ‑инструмент совершит ошибку, например при выявлении риска суицида. Они также предупреждали, что постоянная цифровая помощь по требованию может породить нездоровую зависимость или позволить людям с социальными страхами избегать контактов в реальном мире, замедляя подлинное восстановление. Страховка, справедливая стоимость и надёжная защита конфиденциальности стали ключевыми условиями, прежде чем такие инструменты смогут вызывать широкое доверие.
Поиск сбалансированного пути вперёд
В целом исследование показывает, что будущее ИИ в психотерапии не сводится к простому «да» или «нет». Пациенты и терапевты открыты к использованию умных инструментов — особенно при лёгких проблемах, для ранней скрининговой оценки, поддержки во время ожидания лечения, между сеансами и в послетерапевтической помощи — при условии, что эти инструменты ясно доказали свою эффективность, просты в обращении и встроены в прочную правовую и этическую рамку. В то же время они хотят твёрдых гарантий того, что человеческий контакт останется центральным и что технологии не подведут терапию к быстрой, дешёвой замене. Проще говоря, люди не просят робота‑терапевта; они просят хорошо спроектированных цифровых помощников, которые помогают реальным терапевтам и реальным пациентам работать вместе эффективнее.
Цитирование: Cecil, J., Schaffernak, I., Evangelou, D. et al. Navigating the complexity of AI adoption in psychotherapy by identifying key facilitators and barriers. npj Mental Health Res 5, 17 (2026). https://doi.org/10.1038/s44184-026-00199-1
Ключевые слова: искусственный интеллект в психотерапии, цифровые инструменты для психического здоровья, приложения и чат‑боты для терапии, доступ к лечению психических расстройств, точки зрения пациентов и терапевтов