Clear Sky Science · pt
Inovar os marcos regulatórios globais para IA generativa em dispositivos médicos é uma prioridade urgente
Por que isso importa para sua saúde
A inteligência artificial generativa, incluindo ferramentas como chatbots avançados, está rapidamente entrando em consultórios e hospitais. Esses sistemas podem redigir notas clínicas, responder a perguntas de saúde e até sugerir diagnósticos. Esta revisão explica por que nossas regras atuais para dispositivos médicos não estão preparadas para tecnologias tão flexíveis e imprevisíveis, e por que atualizá-las é essencial para cuidados seguros, justos e confiáveis em todo o mundo. 
Novas ferramentas que fazem muito mais que uma tarefa
O software médico mais antigo foi projetado para realizar uma tarefa claramente definida, como detectar um tumor em uma imagem. A IA generativa e os grandes modelos de linguagem, em contraste, podem executar muitas funções diferentes, desde resumir prontuários médicos até aconselhar sobre opções de tratamento. Eles são treinados em enormes coleções de textos, imagens e outros dados online, o que os torna poderosos, mas também difíceis de entender ou controlar completamente. Como suas respostas podem variar a cada uso e incluir erros confiantes ou "alucinações", eles não se encaixam facilmente nas categorias existentes de dispositivos médicos, que foram concebidas para ferramentas mais previsíveis.
Por que as regras de segurança atuais são insuficientes
Os reguladores tentaram acompanhar usando uma abordagem de "ciclo de vida total do produto" que acompanha um dispositivo desde o projeto até o uso no mundo real. Isso ajuda em muitos tipos de IA, mas o artigo argumenta que não basta para grandes modelos de linguagem. É quase impossível inspecionar todos os dados de treinamento em busca de erros ou informações pessoais ocultas. Avaliar o desempenho desses sistemas também é complicado, porque suas respostas longas e abertas são difíceis de pontuar com testes simples de acurácia. Estudos mostram que alguns modelos se saem bem em questões no estilo de exames, mas têm dificuldade com casos desordenados da vida real, e podem ter desempenho inferior ao dos clínicos em tarefas-chave. Além disso, não há um método acordado para medir ou monitorar viés, o que significa que os sistemas podem funcionar pior, de forma silenciosa, para certos grupos de pacientes.
Riscos ocultos após a implementação
Uma vez que ferramentas baseadas em grandes modelos de linguagem são liberadas, acompanhar sua segurança torna-se ainda mais complexo. Muitos modelos são construídos sobre sistemas base compartilhados, depois ajustados ou re-treinados por diferentes empresas, tornando difícil saber exatamente quais dados e mudanças estão por baixo. Algumas ferramentas chegam aos pacientes diretamente como aplicativos de aconselhamento de saúde sem aprovação formal. Problemas podem ficar sem relato, especialmente quando erros estão enterrados em notas clínicas longas redigidas por um escrevente de IA. Rotas de aprovação existentes que dependem de demonstrar "semelhança" com produtos antigos podem ser utilizadas indevidamente para ferramentas que, de fato, são bastante diferentes. Ao mesmo tempo, questões éticas como privacidade, autonomia, confiança e o impacto na relação médico-paciente são apenas parcialmente abordadas nas regulações atuais. 
Construindo supervisão mais inteligente e justa
Os autores destacam ideias emergentes para tornar a regulação mais flexível e eficaz. "Sandboxes regulatórios" permitem que novas ferramentas de IA sejam testadas sob supervisão em ambientes limitados, para que reguladores e desenvolvedores aprendam com a experiência e ajustem regras rapidamente. Conceitos novos como "software como serviço médico" visam tratar agentes de IA altamente automatizados mais como serviços de saúde contínuos do que como produtos fixos. O artigo também enfatiza a importância de entender toda a cadeia de fornecimento, desde a coleta de dados e construção de modelos até hospedagem em nuvem e hardware, para que os sistemas de saúde possam permanecer resilientes quando ferramentas digitais falham ou são atacadas. Redes globais de reguladores, pesquisadores e sistemas de saúde começam a compartilhar listas de verificação, padrões de teste e laboratórios de supervisão para alinhar seus esforços.
Mantendo a equidade no centro
Uma preocupação central é como a IA generativa pode ampliar ou reduzir a desigualdade em saúde entre regiões ricas e pobres. Se os modelos são treinados principalmente com dados de países de alta renda, podem ter desempenho ruim em contextos de poucos recursos ou para comunidades sub-representadas. O artigo defende a inclusão deliberada de perspectivas e dados de países de baixa e média renda, e apoio para ajudar essas regiões a construir e implantar suas próprias ferramentas de IA com segurança. Padrões de relato e ferramentas de avaliação focados em equidade em saúde podem revelar vieses ocultos, enquanto colaborações podem ajudar a levar IA bem-sucedida de projetos-piloto para clínicas reais sem deixar grupos vulneráveis para trás.
O que isso significa daqui para frente
Em termos simples, o artigo conclui que a IA generativa na medicina está avançando rápido demais para os manuais existentes. Para proteger pacientes e conquistar confiança, os países precisam trabalhar juntos em novos marcos regulatórios adaptativos que possam acompanhar modelos em mudança, protegendo ao mesmo tempo privacidade, segurança e justiça. Os autores imaginam corpos globais independentes definindo padrões compartilhados, semelhante ao que existe para cibersegurança, para que hospitais e pacientes em todo o mundo possam se beneficiar dessas ferramentas sem serem expostos a danos evitáveis.
Citação: Ong, J.C.L., Ning, Y., Liu, M. et al. Innovating global regulatory frameworks for generative AI in medical devices is an urgent priority. npj Digit. Med. 9, 364 (2026). https://doi.org/10.1038/s41746-026-02552-2
Palavras-chave: IA generativa, dispositivos médicos, regulação da saúde, modelos de linguagem grande, equidade em saúde