Clear Sky Science · ru
Качественное интервью-исследование взглядов пациентов, медработников и разработчиков на внедрение ориентированных на пациента ИИ-систем в реальной практике
Почему это важно для обычных семей
По мере того как компьютеры становятся умнее, многие надеются, что искусственный интеллект (ИИ) поможет врачам раньше выявлять проблемы со здоровьем и индивидуализировать лечение. Тем не менее даже очень точные ИИ-инструменты часто не дают реального эффекта в жизни людей, когда покидают лаборатории. Это исследование внимательно изучает, что, по мнению пациентов, медицинских специалистов и разработчиков, нужно для внедрения ориентированных на пациента ИИ в повседневную помощь, используя инструмент, прогнозирующий риск послеродовой депрессии во время беременности, в качестве реального примера.

Слушая три группы одновременно
Исследователи опросили 36 человек: беременных или недавно родивших пациенток, медицинских специалистов, которые за ними ухаживают, и разработчиков ИИ, знакомых с проблемами психического или репродуктивного здоровья. Вместо того чтобы только оценивать точность алгоритма, команда сосредоточилась на том, как он фактически впишется в жизнь людей и клинические процедуры. Они спросили каждую группу, как они относятся к просмотру или использованию ИИ-оценок риска послеродовой депрессии, как должна передаваться эта информация и кто должен нести ответственность, если что-то пойдёт не так. Объединяя эти голоса в одной рамке, исследование выявило противоречия и общие позиции, которые трудно заметить, опрашивая только одну группу.
Страхи вреда и надежды на реальную помощь
Повсеместно участники соглашались, что любой ориентированный на пациента ИИ должен приносить больше пользы, чем вреда. Пациенты опасались, что высокий риск депрессии может усилить стигму или даже привести к вмешательству служб по защите детей. Медики беспокоились о риске смещённости или низкого качества данных, особенно если некоторые расовые или социальные группы недостаточно представлены. Разработчики подчёркивали необходимость выявлять и уменьшать эти проблемы ещё на этапе разработки, а не после развертывания. В то же время все отмечали, что инструмент должен приводить к понятным и полезным действиям — например, облегчать направление к специалистам по психическому здоровью или социальную поддержку — а не оставаться просто ещё одной цифрой в карте. Когда оценки риска показывали без очевидных дальнейших шагов, и пациенты, и клиницисты не знали, как реагировать.
Как должна передаваться информация
У людей были сильные и разнообразные мнения о том, как результаты ИИ должны доходить до пациентов. Некоторые хотели видеть свои оценки риска заранее через онлайн-портал, чтобы подготовить вопросы и пережить эмоции в приватной обстановке. Другие предпочитали узнавать результаты только в разговоре с доверенным врачом, который мог бы объяснить их значение. Все группы согласились, что объяснения должны быть простыми и понятными, без медицинского или технического жаргона, и что пациентам потребуется руководство, чтобы интерпретировать, что означает тот или иной процент или диапазон риска для их жизни. Многие пациентки хотели знать, какие конкретные факторы — например, прошлый анамнез или текущий стресс — повлияли на их оценку, чтобы обсудить с командой по уходу, что можно было бы изменить.
Доверие, конфиденциальность и разделённая ответственность
Доверие к ИИ оказалось тесно связано с вопросами конфиденциальности и подотчётности. Участники хотели уверенности, что персональные данные, особенно чувствительная информация о психическом здоровье и беременности, будут храниться и использоваться безопасно. Пациенты часто предполагали, что всё, что видно в их онлайн-записи, уже проверено и верно, что повышает риск последствий ошибок. Медики опасались, что их будут обвинять, если они следовали — или решили не следовать — рекомендациям ИИ, которые позже оказались неверными. Разработчики утверждали, что ответственность должна быть распределена: медицинские системы, регуляторы, клиницисты и создатели ИИ все играют роль в проверке смещений, мониторинге производительности со временем и принятии решений о том, как и когда инструменты должны использоваться в уходе.

Что нужно изменить дальше
Из этих разговоров авторы выделяют несколько практических шагов, чтобы сделать ИИ по-настоящему ориентированным на пациента. Медицинским специалистам нужны обучение, время и вспомогательные инструменты для интерпретации вывода ИИ и обсуждения его с пациентами. Пациенты и клиницисты первого звена должны быть вовлечены на ранних этапах проектирования и тестирования ИИ-систем, чтобы вопросы справедливости, полезности и коммуникации решались с самого начала. Результаты ИИ следует представлять в гибких, легко понятных форматах, которые подчёркивают варианты действий, а не только уровни риска. Наконец, необходимы ясные многоуровневые правила и надзор для защиты конфиденциальности и распределения ответственности между учреждениями, регуляторами и разработчиками. Вместе эти изменения могут помочь перенести ИИ от впечатляющих лабораторных результатов к более безопасной и значимой поддержке семей во время беременности и после неё.
Цитирование: Benda, N., Desai, P., Reza, Z. et al. A qualitative interview study investigating patient, health professional, and developer perspectives on real-world implementation of patient-centered AI systems. npj Digit. Med. 9, 352 (2026). https://doi.org/10.1038/s41746-026-02587-5
Ключевые слова: искусственный интеллект в здравоохранении, послеродовая депрессия, ориентированная на пациента помощь, этика цифрового здравоохранения, скрининг психического здоровья