Clear Sky Science · pt
Screenathon 2.0: triagem colaborativa humano–IA aplicada a dados de saúde gerados por pacientes
Por que isso importa para a pesquisa em saúde do dia a dia
A medicina moderna depende de vasculhar montanhas de artigos científicos para descobrir o que realmente funciona. Mas o volume de novos estudos cresceu tanto que até equipes de pesquisa organizadas têm dificuldade para acompanhar. Este artigo descreve uma nova forma de unir pessoas e inteligência artificial (IA) para acelerar essa “triagem” de artigos, mantendo, ao mesmo tempo, o julgamento humano no comando. A abordagem, chamada Screenathon 2.0, mostra como multidões de especialistas e softwares inteligentes podem trabalhar juntas para lidar com tarefas de leitura enormes em apenas alguns dias.

De leitura solo para um esporte de equipe
Tradicionalmente, pesquisadores realizam revisões sistemáticas fazendo com que pelo menos duas pessoas leiam o título e o resumo de cada artigo e decidam se ele corresponde à pergunta do estudo. Esse processo cuidadoso ajuda a garantir conclusões confiáveis, mas é dolorosamente lento e difícil de ampliar na medida em que o número de artigos explodiu. Anteriormente, o mesmo grupo de pesquisadores tentou transformar a triagem em um “Screenathon”, onde dezenas de especialistas trabalhavam lado a lado por vários dias para dividir a carga de trabalho. Esse primeiro evento provou que o trabalho em equipe ajuda, mas ainda dependia inteiramente do esforço humano e não conseguia escapar totalmente da fadiga, da experiência desigual e de erros de rotulagem.
Adicionar a IA como um colega útil
No Screenathon 2.0, a equipe aprimorou o processo integrando a IA diretamente ao fluxo de trabalho. Eles se concentraram em pesquisas sobre dados de saúde gerados por pacientes — informações que as pessoas coletam por conta própria usando ferramentas como rastreadores de atividade, monitores de glicose ou aplicativos de saúde. Usando o programa de código aberto ASReview, o modelo de IA aprendeu em tempo real a partir de cada julgamento feito pelos revisores humanos: cada vez que uma pessoa marcava um artigo como relevante ou não, o sistema atualizava suas regras internas e reordenava os artigos restantes, empurrando os mais promissores para o início da fila. Dessa forma, os humanos continuaram sendo os responsáveis pelas decisões, enquanto a IA atuava como um guia em constante aprimoramento, decidindo quais artigos deveriam ser verificados a seguir.
Um grande experimento em dois dias movimentados
Os pesquisadores testaram essa parceria humano–IA durante um encontro de três dias de um consórcio europeu de saúde. Vinte e sete especialistas de 27 organizações parceiras triaram quase 7.000 registros científicos distribuídos por 11 áreas de doença, do câncer às doenças cardíacas e transtornos neurológicos. No primeiro dia, os participantes receberam treinamento sobre as regras de inclusão e uma introdução de como o sistema de IA funcionava. No segundo dia, concentraram-se na triagem colaborativa intensiva, às vezes até continuando de forma informal em espaços compartilhados. Ao final, haviam rotulado 487 registros como relevantes e mais de 6.000 como irrelevantes, com algumas pessoas triando apenas alguns artigos e outras processando milhares, todos alimentando modelos de IA compartilhados para cada tema de doença.

Verificando o resultado máquina–humano
A velocidade por si só seria insignificante se estudos importantes fossem perdidos, por isso a equipe construiu uma fase forte de “pós-cuidado”. Uma vez encerrado o evento principal, passaram várias semanas verificando e refinando os resultados. Reatribuiram artigos que haviam sido colocados no grupo de doença errado, releram casos incertos e executaram rodadas adicionais de triagem usando regras rígidas de parada, como continuar até aparecerem dezenas de artigos irrelevantes consecutivos. Por fim, usaram um método especial para reexaminar registros previamente rejeitados que poderiam ter sido rotulados incorretamente. Essa fase cuidadosa de limpeza revelou mais de 200 estudos relevantes adicionais entre os tópicos, demonstrando que a triagem rápida assistida por IA ainda pode ser combinada com um controle de qualidade rigoroso.
Como as pessoas se sentiram ao trabalhar com IA
Ao longo do evento, os participantes responderam a questionários sobre sua confiança, motivação e confiança na revisão assistida por IA. No geral, relataram alta motivação e satisfação com a experiência, e mais da metade disse que preferia a triagem auxiliada por IA em vez dos métodos totalmente tradicionais. Importante: a confiança deles na revisão suportada por IA aumentou depois que realmente trabalharam com o sistema. Muitos elogiaram a simplicidade e a clareza do software, embora também tenham sugerido melhorias, como melhores opções de filtragem e sinais visuais mais transparentes sobre como a IA estava priorizando os artigos.
O que essa nova abordagem nos diz
Para um leitor geral, a mensagem principal é que o desafio de acompanhar a pesquisa médica não exige escolher entre humanos e máquinas. O Screenathon 2.0 mostra que mesclar o julgamento de especialistas com IA adaptativa pode ajudar equipes de pesquisa a encontrar rapidamente os estudos mais relevantes sem sacrificar o cuidado e a supervisão. A IA acelera a busca, mas os humanos continuam a fazer as decisões finais e a conferir os resultados. Com treinamento sólido e checagens pós-processo robustas, esse tipo de parceria humano–IA pode tornar a coleta de evidências mais rápida, mais confiável e mais sustentável à medida que a informação em saúde continua a crescer.
Citação: Bergmann, J., Azzi, T., Neeleman, R. et al. Screenathon 2.0: human–AI collaborative screening applied to patient-generated health data. Sci Rep 16, 14487 (2026). https://doi.org/10.1038/s41598-026-45385-5
Palavras-chave: revisões sistemáticas, colaboração humano–IA, dados de saúde gerados por pacientes, aprendizado ativo, triagem da literatura