Clear Sky Science · ru

Роль агентного искусственного интеллекта в здравоохранении: обзор области

· Назад к списку

Умные помощники за кулисами больницы

Представьте цифрового ассистента в больнице, который не просто отвечает на вопросы, а тихо наблюдает за происходящим, решает, что нужно сделать дальше, и выполняет действия, не дожидаясь каждого запроса. В этой статье рассматривается появляющийся тип технологий — «агентный ИИ» — и оценивается, насколько близко мы к тому, чтобы такие системы могли безопасно помогать врачам, медсестрам и пациентам в реальной клинической практике.

Figure 1
Figure 1.

От простых программ к целенаправленным партнёрам

Компьютеры в медицине начинали как калькуляторы и жёсткие исполнители правил: они могли классифицировать изображение или пометить аномальные результаты анализов, но только при чётких инструкциях. Новые «генеративные» системы, такие как чат-боты, умеют порождать текст, изображения или код, но всё ещё ждут подсказок от человека. Агентный ИИ идёт дальше. Такие системы строятся вокруг целей — например, улучшить реакцию бригады при травме, персонализировать лечение рака или помочь ребёнку в терапии. Они собирают информацию из разных источников, планируют действие, самостоятельно вызывают другие программные инструменты и корректируют свои действия в зависимости от развития ситуации, при этом люди остаются ответственными за ключевые решения.

Где тестируют этих цифровых агентов

Авторы просмотрели пять крупных научных баз данных и обнаружили всего семь исследований в мире, которые действительно использовали более независимый стиль ИИ в здравоохранении. Проекты охватывали неотложную помощь, лечение и диагностику рака, медицинскую визуализацию, реабилитацию и анализ белков для открытия лекарств. Одна система отслеживала травматические случаи в реальном времени, формировала более полные отчёты и запускала оповещения при отклонениях жизненных показателей. Другая отправляла персонализированные ежедневные сообщения выжившим после рака, чтобы стимулировать ходьбу. Виртуальная игра подстраивала сложность, чтобы помогать детям с синдромом Дауна развивать моторные и социальные навыки. Другие системы сосредоточились на чтении рентгенограмм грудной клетки, планировании лучевой терапии, обнаружении рака печени по крошечным частицам в крови и автоматическом анализе сложных белковых данных, важных для новых терапий.

Figure 2
Figure 2.

В чём эти системы хороши — и где у них провалы

В этих экспериментах агентные системы показали способность действовать с определённой степенью независимости: они преследовали чётко поставленные цели, проявляли инициативу в проведении анализов или вызове других программ и в некоторых случаях объединяли усилия нескольких взаимодействующих ИИ‑«агентов». Результаты зачастую впечатляли. Один инструмент отличал рак печени от нераковых случаев с точностью более 94 процентов, включая пациентов с вводящим в заблуждение обычным маркером в крови. Другой сопоставим или превосходил планировщиков-экспертов при проектировании лучевой терапии, а система рассуждения по рентгену грудной клетки достигла передовых показателей без дообучения под каждый новый вопрос. Однако эти успехи были жёстко привязаны к узким задачам. Большинство систем работали лишь в контролируемых условиях, на тщательно подготовленных данных, и ни одна реально не могла учиться и улучшаться длительное время или осмысленно помнить прошлых пациентов.

Безопасность, доверие и человеческий фактор

Обзор также выделяет важные риски. Поскольку эти агенты могут действовать самостоятельно — получать данные, предлагать планы, даже запускать сигналы тревоги — ошибки или плохая координация могут иметь серьёзные последствия, особенно в таких времени‑чувствительных областях, как онкология. Во многих исследованиях риск систематической ошибки был умеренным или серьёзным, и инструменты не тестировались в повседневной клинической практике. Существуют также опасения по поводу скрытого обоснования решений («чёрный ящик»), кибербезопасности и ответственности, если автономная система косвенно приведёт к вреду. Регуляторы в США и Европе начинают относить медицинский ИИ к «высокорисковым» системам, но текущие правила не были написаны с учётом высоконезависимого, целенаправленного ПО. Авторы настаивают, что надзор человека должен оставаться центральным, и что нужны более ясные правила о том, насколько далеко такие системы могут действовать самостоятельно.

Что нужно делать дальше

Пока что агентный ИИ в здравоохранении скорее многообещающий прототип, чем готовый продукт. Обзор показывает, что эти системы могут помогать в широком круге задач — от мониторинга пациентов и поддержки реабилитации до планирования сложных протоколов лечения рака — но лишь одно исследование включало реальных пациентов в контролируемом испытании. Авторы призывают к общим определениям того, что считать «агентным», стандартным методам оценки безопасности и пользы, а также к более масштабным клиническим исследованиям в реальной практике. Больницам потребуется улучшить системы данных, усилить защиту конфиденциальности и ввести чёткие руководства, сохраняющие врачей в роли ответственных лиц. Если эти основы будут выстроены аккуратно, агентный ИИ может превратиться в надёжного цифрового напарника, снижающего нагрузку, улучшая решения и, в конечном счёте, повышая качество помощи пациентам, а не в таинственную «чёрную коробку», принимающую решения самостоятельно.

Цитирование: Collaco, B.G., Haider, S.A., Prabha, S. et al. The role of agentic artificial intelligence in healthcare: a scoping review. npj Digit. Med. 9, 345 (2026). https://doi.org/10.1038/s41746-026-02517-5

Ключевые слова: агентный ИИ, автоматизация в здравоохранении, клиническая поддержка принятия решений, ИИ для медицинской визуализации, цифровое здоровье