Clear Sky Science · pt

Um estudo qualitativo por entrevistas investigando as perspectivas de pacientes, profissionais de saúde e desenvolvedores sobre a implementação no mundo real de sistemas de IA centrados no paciente

· Voltar ao índice

Por que isso importa para famílias do dia a dia

À medida que os computadores ficam mais inteligentes, muitas pessoas esperam que a inteligência artificial (IA) ajude médicos a detectar problemas de saúde precocemente e a personalizar o cuidado para cada pessoa. Ainda assim, mesmo ferramentas de IA muito precisas frequentemente deixam de fazer diferença concreta na vida das pessoas quando saem do laboratório de pesquisa. Este estudo analisa de perto o que pacientes, profissionais de saúde e desenvolvedores de IA acreditam ser necessário para incorporar IA centrada no paciente ao cuidado cotidiano, usando como exemplo prático uma ferramenta que prevê o risco de depressão pós-parto durante a gravidez.

Figure 1
Figure 1.

Ouvindo três grupos ao mesmo tempo

Os pesquisadores entrevistaram 36 pessoas: pacientes grávidas ou recentemente grávidas, profissionais de saúde que as atendem e desenvolvedores de IA familiarizados com saúde mental ou reprodutiva. Em vez de apenas medir se o algoritmo era preciso, a equipe concentrou-se em como ele realmente se encaixaria na vida das pessoas e nas rotinas clínicas. Perguntaram a cada grupo como se sentiriam ao ver ou usar escores de risco gerados por IA para depressão pós-parto, como essa informação deveria ser compartilhada e quem deveria ser responsabilizado se algo desse errado. Ao combinar essas vozes dentro de um único quadro, o estudo revelou tensões e pontos em comum que são difíceis de perceber quando se consulta apenas um grupo.

Medos de danos e esperanças de ajuda real

De modo geral, os participantes concordaram que qualquer IA centrada no paciente deve trazer mais benefícios do que danos. Pacientes temiam que um escore alto de risco para depressão pudesse aprofundar o estigma ou até mesmo levar à intervenção dos serviços de proteção à criança. Profissionais de saúde destacaram o perigo de dados enviesados ou de baixa qualidade, especialmente se certos grupos raciais ou sociais estivessem sub-representados. Desenvolvedores enfatizaram a necessidade de identificar e reduzir esses problemas enquanto as ferramentas estão sendo construídas, não apenas após o seu uso. Ao mesmo tempo, todos ressaltaram que a ferramenta precisa levar a ações claras e úteis — como encaminhamentos mais fáceis para apoio em saúde mental ou assistência social — em vez de ser apenas mais um número no prontuário. Quando os escores de risco eram mostrados sem etapas óbvias seguintes, tanto pacientes quanto clínicos ficaram inseguros sobre como reagir.

Como a informação deve ser compartilhada

As pessoas expressaram opiniões fortes e diversas sobre como os resultados da IA deveriam chegar aos pacientes. Alguns quiseram ver seus escores de risco antes das consultas por meio de um portal online, para que pudessem preparar perguntas e processar emoções em privado. Outros preferiram saber dos resultados apenas em conversa com um clínico de confiança que pudesse explicar o significado. Todos os grupos concordaram que as explicações devem estar em linguagem clara, sem jargão médico ou técnico, e que os pacientes precisariam de orientação para interpretar o que uma certa porcentagem ou faixa de risco realmente significa para suas vidas. Muitos pacientes queriam saber quais fatores específicos, como histórico de saúde ou estresse atual, estavam influenciando seu escore para poderem discutir com a equipe de cuidado o que poderia ser modificado.

Confiança, privacidade e responsabilidade compartilhada

A confiança na IA mostrou-se fortemente ligada a questões de privacidade e responsabilização. Os participantes queriam garantia de que os dados pessoais, especialmente informações sensíveis sobre saúde mental e gravidez, seriam armazenados e usados com segurança. Pacientes frequentemente presumiam que qualquer coisa visível em seu prontuário online já havia sido verificada e era precisa, o que aumenta as consequências de eventuais erros. Profissionais de saúde se preocuparam em ser responsabilizados se seguissem — ou optassem por não seguir — uma sugestão da IA que depois resultasse em desfecho ruim. Desenvolvedores defenderam que a responsabilidade deve ser compartilhada: sistemas de saúde, reguladores, clínicos e criadores de IA têm papéis no controle de vieses, monitoramento do desempenho ao longo do tempo e na decisão de como e quando as ferramentas devem ser usadas no cuidado.

Figure 2
Figure 2.

O que precisa mudar a seguir

A partir dessas conversas, os autores descrevem várias medidas práticas para tornar a IA genuinamente mais centrada no paciente. Profissionais de saúde precisam de treinamento, tempo e ferramentas de apoio para interpretar a saída da IA e discuti-la com os pacientes. Pacientes e clínicos da linha de frente devem ser envolvidos desde cedo no desenho e nos testes dos sistemas de IA, de modo que questões de equidade, utilidade e comunicação sejam tratadas desde o início. As saídas da IA devem ser apresentadas em formatos flexíveis e de fácil compreensão que destaquem opções de ação, não apenas níveis de risco. Por fim, regras claras e supervisão em múltiplas camadas são necessárias para proteger a privacidade e distribuir responsabilidade entre instituições, reguladores e desenvolvedores. Juntas, essas mudanças podem ajudar a transferir a IA de resultados impressionantes em laboratório para um apoio mais seguro e significativo às famílias durante a gravidez e além.

Citação: Benda, N., Desai, P., Reza, Z. et al. A qualitative interview study investigating patient, health professional, and developer perspectives on real-world implementation of patient-centered AI systems. npj Digit. Med. 9, 352 (2026). https://doi.org/10.1038/s41746-026-02587-5

Palavras-chave: inteligência artificial na saúde, depressão pós-parto, cuidado centrado no paciente, ética da saúde digital, triagem em saúde mental