Clear Sky Science · pt

O papel da inteligência artificial agencial na saúde: uma revisão de escopo

· Voltar ao índice

Assistentes mais inteligentes nos bastidores do hospital

Imagine um assistente digital no hospital que não apenas responde perguntas, mas observa silenciosamente o que acontece, decide o que precisa ser feito a seguir e age sem ser solicitado a cada vez. Este artigo explora esse tipo emergente de tecnologia — chamado “IA agencial” — e analisa quão perto estamos de ter sistemas assim apoiando de forma segura médicos, enfermeiros e pacientes no atendimento clínico real.

Figure 1
Figure 1.

De programas simples a parceiros orientados por metas

Os computadores na medicina começaram como calculadoras e seguidores rígidos de regras: podiam classificar uma imagem ou sinalizar um resultado laboratorial anômalo, mas somente quando lhes era dito exatamente o que fazer. Sistemas “generativos” mais recentes, como chatbots, conseguem produzir texto, imagens ou código, mas ainda aguardam comandos humanos. A IA agencial vai um passo adiante. Esses sistemas são projetados em torno de metas — como melhorar a resposta de uma equipe de trauma, personalizar tratamentos contra o câncer ou ajudar uma criança a progredir na terapia. Eles coletam informações de várias fontes, planejam um curso de ação, acionam outras ferramentas de software por conta própria e ajustam o que fazem conforme os acontecimentos, tudo isso enquanto os humanos permanecem responsáveis pelas decisões maiores.

Onde esses agentes digitais estão sendo testados

Os autores pesquisaram cinco grandes bases de dados e encontraram apenas sete estudos no mundo que realmente usaram esse estilo mais independente de IA em saúde. Os projetos abrangeram atendimento de emergência, tratamento e diagnóstico do câncer, imagem médica, reabilitação e análise de proteínas para descoberta de fármacos. Um sistema monitorou casos de trauma em tempo real, criando relatórios mais completos e acionando alertas quando sinais vitais saíam do esperado. Outro enviava mensagens diárias personalizadas a sobreviventes de câncer para incentivá-los a caminhar. Um jogo de realidade virtual ajustava sua dificuldade para ajudar crianças com síndrome de Down a desenvolver habilidades motoras e sociais. Outros sistemas se concentraram na leitura de radiografias de tórax, no planejamento de tratamentos por radiação, na detecção de câncer de fígado a partir de partículas minúsculas no sangue e na análise automática de dados complexos de proteínas relevantes para novas terapias.

Figure 2
Figure 2.

O que esses sistemas fazem bem — e onde falham

Nos experimentos, os sistemas agenciais demonstraram que podem operar com certo grau de independência: perseguiam metas bem definidas, tomavam a iniciativa de rodar análises ou acionar outros programas e, em alguns casos, combinaram os esforços de vários “agentes” de IA cooperantes. Os resultados foram frequentemente impressionantes. Uma ferramenta distinguiu câncer de fígado de casos não cancerosos com mais de 94% de acurácia, incluindo pacientes cujo marcador sanguíneo usual era enganoso. Outra igualou ou superou planejadores especialistas na elaboração de tratamentos por radiação, e um sistema de raciocínio sobre radiografias de tórax atingiu desempenho de ponta sem ser retreinado para cada nova pergunta. Ainda assim, esses sucessos estavam estritamente vinculados a tarefas estreitas. A maioria dos sistemas funcionou apenas em ambientes controlados, com dados cuidadosamente preparados, e nenhum pôde realmente aprender e melhorar ao longo de longos períodos ou lembrar pacientes passados de maneira significativa.

Segurança, confiança e o toque humano

A revisão também destaca riscos importantes. Porque esses agentes podem agir por conta própria — recuperar dados, sugerir planos, até acionar alertas — erros ou má coordenação podem ter consequências sérias, especialmente em áreas sensíveis ao tempo, como o cuidado oncológico. Muitos dos estudos apresentaram risco de viés de moderado a sério e não testaram as ferramentas na prática clínica cotidiana. Há também preocupações sobre raciocínio oculto (comportamento de “caixa-preta”), segurança cibernética e quem é responsável se um sistema autônomo contribuir para danos. Reguladores nos Estados Unidos e na Europa começam a tratar a IA médica como “alto risco”, mas as regras atuais não foram escritas pensando em software altamente independente e orientado a metas. Os autores argumentam que a supervisão humana deve permanecer central e que regras mais claras são necessárias sobre até onde esses sistemas podem ir por conta própria.

O que precisa acontecer a seguir

Por enquanto, a IA agencial em saúde é mais um protótipo promissor do que um produto acabado. A revisão mostra que esses sistemas podem ajudar em uma ampla gama de tarefas — desde monitorar pacientes e apoiar a reabilitação até planejar tratamentos complexos contra o câncer — mas apenas um estudo envolveu pacientes reais em um ensaio controlado. Os autores pedem definições compartilhadas do que conta como “agencial”, formas padronizadas de medir segurança e benefícios e estudos clínicos maiores e em contexto real. Hospitais também precisarão de sistemas de dados melhores, proteções de privacidade mais robustas e diretrizes claras que mantenham os clínicos no comando. Se essas bases forem construídas com cuidado, a IA agencial pode amadurecer para se tornar uma parceira digital confiável que alivia cargas de trabalho, aprimora decisões e, em última instância, melhora o cuidado ao paciente, em vez de uma caixa-preta misteriosa tomando decisões por conta própria.

Citação: Collaco, B.G., Haider, S.A., Prabha, S. et al. The role of agentic artificial intelligence in healthcare: a scoping review. npj Digit. Med. 9, 345 (2026). https://doi.org/10.1038/s41746-026-02517-5

Palavras-chave: IA agencial, automação em saúde, apoio à decisão clínica, IA em imagem médica, saúde digital