Clear Sky Science · pt

Aprimorando a governança de IA na saúde por meio de um modelo de maturidade abrangente baseado em revisão sistemática

· Voltar ao índice

Por que regras mais inteligentes para IA médica importam

Hospitais estão acelerando o uso da inteligência artificial para identificar doenças mais cedo, reduzir burocracia e tornar o cuidado mais eficiente. Mas se essas ferramentas forem escolhidas ou gerenciadas de forma inadequada, podem cometer erros silenciosos, aprofundar desigualdades ou desperdiçar recursos preciosos. Este artigo explica como uma equipe de pesquisadores examinou dezenas de manuais existentes para IA médica e construiu um roteiro prático que qualquer organização de saúde — de uma pequena clínica a um hospital de pesquisa de ponta — pode usar para aplicar IA de forma segura e justa.

Entendendo um cenário de orientações fragmentadas

Nos últimos anos, especialistas ao redor do mundo propuseram listas de verificação, diretrizes e estruturas de supervisão sobre como a IA deve ser usada na saúde. Os autores revisaram sistematicamente 35 desses frameworks publicados entre 2019 e 2024, reduzindo para 29 que ofereciam orientação concreta e em múltiplas etapas, em vez de focar em uma única questão, como a ética. Concluíram que, embora muitos documentos tratassem de como desenvolver um algoritmo ou monitorá‑lo ao longo do tempo, bem menos abordavam as realidades organizacionais: quem deve ser responsável? Como os hospitais devem escolher entre produtos concorrentes? E como sistemas de saúde com menos recursos conseguem acompanhar? Esse mosaico de recomendações, muitas vezes escrito pensando em grandes centros acadêmicos, deixou organizações menores sem um caminho claro a seguir.

Figure 1
Figure 1.

Sete blocos de construção para uma boa supervisão de IA

A partir da revisão, os pesquisadores destilaram sete áreas essenciais que precisam ser abordadas para que a IA seja integrada de forma responsável ao cuidado do paciente. Isso inclui ter uma estrutura de liderança clara; definir cuidadosamente o problema clínico antes de recorrer à tecnologia; entender como o algoritmo é construído e treinado; verificar produtos externos antes da compra; testar o desempenho da ferramenta na população local de pacientes; integrá‑la de forma pensada aos fluxos de trabalho clínicos diários; e acompanhar seu desempenho uma vez em uso. Na literatura havia forte ênfase em tarefas como formulação do problema, desenvolvimento do modelo e monitoramento contínuo. Ainda assim, os autores observaram cobertura mais fraca sobre como avaliar produtos externos e como desenhar corpos de governança que reflitam as perspectivas de clínicos, especialistas técnicos, pacientes e profissionais de direito e ética.

Da teoria para um roteiro em etapas

Para transformar essa orientação dispersa em algo mais utilizável, a equipe criou a Avaliação de Prontidão para Governança de IA em Saúde, ou HAIRA — um “modelo de maturidade” de cinco níveis que descreve como é uma governança capaz em estágios crescentes de sofisticação. No Nível 1, a organização tem apenas consciência básica e depende em grande parte das garantias dos fornecedores para ferramentas prontas, com testes internos ou integração mínimos. No Nível 2, existem procedimentos documentados, um comitê de supervisão simples, seleção mais estruturada de ferramentas e monitoramento básico de desempenho. O Nível 3 descreve sistemas regionais ou comunitários que podem validar modelos de forma independente, avaliar riscos como vieses, integrar a IA a programas de melhoria de qualidade e gerir mudanças de forma sistemática à medida que as ferramentas entram na prática clínica.

Crescendo para práticas avançadas e de vanguarda

Os Níveis 4 e 5 capturam o que os autores consideram governança avançada e de vanguarda. No Nível 4, tipicamente visto em grandes centros médicos acadêmicos, as organizações têm líderes executivos dedicados à IA, estruturas robustas de ética, infraestrutura de dados avançada e fortes capacidades internas de desenvolvimento e avaliação, incluindo monitoramento em tempo real. O Nível 5 representa instituições que não apenas gerenciam bem a IA, mas também ajudam a definir padrões da indústria. Essas organizações conduzem estudos multicêntricos para comprovar segurança e benefício, experimentam novos tipos de aplicações de IA e compartilham aprendizados por meio de centros de excelência e colaborações. Importante: o modelo usa uma regra do “elo mais fraco”: o nível geral de uma organização é limitado pelo domínio menos desenvolvido entre os sete, refletindo a realidade de que uma única salvaguarda ausente — como monitoramento deficiente — pode comprometer esforços por outra parte sofisticados.

Figure 2
Figure 2.

O que isso significa para pacientes e profissionais

Para os pacientes, o modelo HAIRA pretende garantir que as ferramentas de IA sejam introduzidas de formas que realmente melhorem o cuidado, em vez de adicionar riscos ocultos. Para clínicos e líderes de sistemas de saúde, oferece uma escada realista: uma pequena prática pode mirar primeiro o Nível 2 documentando como escolhe e verifica ferramentas de fornecedores, enquanto um sistema maior pode trabalhar para níveis superiores investindo em equipes de dados, métodos de avaliação justos e monitoramento contínuo. Os autores enfatizam que nem todo hospital precisa de capacidades de ponta, mas todos deveriam atender a padrões básicos de segurança, equidade e responsabilidade. Ao ajustar expectativas de governança aos recursos disponíveis, o framework busca tornar a IA médica confiável viável em diferentes contextos de saúde, em vez de restrita apenas às instituições mais bem financiadas.

Citação: Hussein, R., Zink, A., Ramadan, B. et al. Advancing healthcare AI governance through a comprehensive maturity model based on systematic review. npj Digit. Med. 9, 236 (2026). https://doi.org/10.1038/s41746-026-02418-7

Palavras-chave: inteligência artificial em saúde, governança de IA, suporte à decisão clínica, política de saúde digital, justiça algorítmica