Clear Sky Science · fr

Une étude d’entretiens qualitatifs explorant les points de vue des patients, des professionnels de santé et des développeurs sur la mise en œuvre réelle de systèmes d’IA centrés sur le patient

· Retour à l’index

Pourquoi cela compte pour les familles au quotidien

À mesure que les ordinateurs deviennent plus intelligents, beaucoup espèrent que l’intelligence artificielle (IA) aidera les médecins à détecter précocement les problèmes de santé et à adapter les soins à chaque personne. Pourtant, même des outils d’IA très précis ne parviennent souvent pas à avoir un impact réel dans la vie des gens une fois sortis du laboratoire de recherche. Cette étude examine de près ce que patients, professionnels de santé et développeurs d’IA estiment nécessaire pour intégrer une IA centrée sur le patient dans les soins courants, en utilisant comme exemple concret un outil qui prédit le risque de dépression post-partum pendant la grossesse.

Figure 1
Figure 1.

Écouter trois groupes à la fois

Les chercheurs ont interviewé 36 personnes : des patientes enceintes ou récemment enceintes, des professionnels de santé qui s’occupent d’elles et des développeurs d’IA familiers de la santé mentale ou de la santé reproductive. Plutôt que de se limiter à mesurer la précision de l’algorithme, l’équipe s’est concentrée sur la façon dont il s’intègrerait réellement dans la vie des personnes et dans les routines cliniques. Ils ont demandé à chaque groupe ce qu’ils pensaient de la visualisation ou de l’utilisation de scores de risque générés par l’IA pour la dépression post-partum, comment ces informations devraient être partagées et qui devrait être responsable en cas de problème. En combinant ces voix au sein d’un même cadre, l’étude a mis au jour des tensions et des points communs difficiles à percevoir quand on interroge un seul groupe.

Peur des préjudices et espoirs d’un véritable soutien

De façon générale, les participants ont convenu que toute IA centrée sur le patient doit produire plus de bénéfices que de torts. Les patientes craignaient qu’un score de risque élevé pour la dépression n’accentue la stigmatisation ou ne déclenche l’intervention des services de protection de l’enfance. Les professionnels de santé se sont inquiétés du danger lié à des données biaisées ou de faible qualité, notamment si certains groupes raciaux ou sociaux étaient sous-représentés. Les développeurs ont insisté sur la nécessité d’identifier et de réduire ces problèmes pendant la conception des outils, et non après leur déploiement. Parallèlement, tous ont souligné que l’outil doit conduire à des actions claires et utiles — comme des orientations plus faciles vers la santé mentale ou le soutien social — au lieu de n’être qu’un chiffre de plus dans le dossier. Lorsque les scores de risque étaient présentés sans étapes évidentes à suivre, patientes et cliniciens ne savaient pas comment réagir.

Comment l’information devrait être partagée

Les avis sur la manière dont les résultats de l’IA devraient parvenir aux patientes étaient forts et variés. Certaines souhaitaient consulter leur score avant les rendez-vous via un portail en ligne pour préparer des questions et traiter leurs émotions en privé. D’autres préféraient apprendre les résultats uniquement en entretien avec un clinicien de confiance capable d’expliquer leur signification. Tous les groupes ont convenu que les explications devaient être en langage clair, non en jargon médical ou technique, et que les patientes auraient besoin d’orientations pour interpréter ce qu’un certain pourcentage ou une certaine tranche de risque signifie réellement pour leur vie. Beaucoup de patientes souhaitaient savoir quels facteurs spécifiques, comme les antécédents médicaux ou le stress actuel, expliquaient leur score afin d’en discuter avec leur équipe soignante sur ce qui pourrait être modifiable.

Confiance, vie privée et responsabilité partagée

La confiance dans l’IA s’est révélée étroitement liée aux questions de confidentialité et de responsabilité. Les participants voulaient des garanties que les données personnelles, en particulier les informations sensibles sur la santé mentale et la grossesse, seraient stockées et utilisées de manière sécurisée. Les patientes supposaient souvent que toute information visible dans leur dossier en ligne avait déjà été vérifiée et était exacte, ce qui augmente les enjeux en cas d’erreur. Les professionnels de santé craignaient d’être tenus pour responsables s’ils suivaient — ou décidaient de ne pas suivre — une recommandation de l’IA qui s’avérait ensuite préjudiciable. Les développeurs estimaient que la responsabilité devait être partagée : systèmes de santé, autorités de régulation, cliniciens et créateurs d’IA ont tous un rôle à jouer pour contrôler les biais, surveiller les performances dans le temps et décider comment et quand ces outils doivent être utilisés dans les soins.

Figure 2
Figure 2.

Ce qui doit changer ensuite

À partir de ces entretiens, les auteurs dégagent plusieurs mesures pratiques pour rendre l’IA véritablement plus centrée sur le patient. Les professionnels de santé ont besoin de formation, de temps et d’outils d’aide pour interpréter les sorties de l’IA et en discuter avec les patientes. Les patientes et les cliniciens de première ligne devraient être impliqués tôt dans la conception et l’évaluation des systèmes d’IA afin que les questions d’équité, d’utilité et de communication soient prises en compte dès le départ. Les sorties de l’IA devraient être présentées sous des formats flexibles et faciles à comprendre qui mettent en évidence les options d’action, pas seulement les niveaux de risque. Enfin, des règles et une supervision claires et multi-niveaux sont nécessaires pour protéger la vie privée et répartir la responsabilité entre institutions, régulateurs et développeurs. Ensemble, ces changements pourraient aider à faire passer l’IA des résultats impressionnants en laboratoire à un soutien plus sûr et plus significatif pour les familles pendant la grossesse et au-delà.

Citation: Benda, N., Desai, P., Reza, Z. et al. A qualitative interview study investigating patient, health professional, and developer perspectives on real-world implementation of patient-centered AI systems. npj Digit. Med. 9, 352 (2026). https://doi.org/10.1038/s41746-026-02587-5

Mots-clés: intelligence artificielle en santé, dépression post-partum, soins centrés sur le patient, éthique de la santé numérique, dépistage en santé mentale