Clear Sky Science · it

Uno studio di interviste qualitative sulle prospettive di pazienti, professionisti sanitari e sviluppatori sull'implementazione reale di sistemi di IA centrati sul paziente

· Torna all'indice

Perché questo conta per le famiglie di tutti i giorni

Man mano che i computer diventano più intelligenti, molti sperano che l’intelligenza artificiale (IA) aiuti i medici a individuare precocemente i problemi di salute e a personalizzare le cure per ciascuna persona. Tuttavia, anche strumenti di IA molto accurati spesso non riescono a fare una reale differenza nella vita delle persone una volta usciti dal laboratorio di ricerca. Questo studio esamina in modo approfondito cosa pensano pazienti, professionisti sanitari e sviluppatori di IA sia necessario per portare nella pratica quotidiana sistemi di IA centrati sul paziente, usando come esempio concreto uno strumento che predice il rischio di depressione post-partum durante la gravidanza.

Figure 1
Figure 1.

Ascoltare tre gruppi contemporaneamente

I ricercatori hanno intervistato 36 persone: pazienti in gravidanza o appena dopo il parto, professionisti sanitari che se ne occupano e sviluppatori di IA esperti in salute mentale o riproduttiva. Invece di limitarsi a misurare se l’algoritmo fosse accurato, il team si è concentrato su come si sarebbe effettivamente inserito nella vita delle persone e nelle routine cliniche. Hanno chiesto a ciascun gruppo come si sentirebbero nel vedere o usare punteggi di rischio generati dall’IA per la depressione post-partum, come dovrebbero essere comunicati quei dati e chi dovrebbe essere responsabile se qualcosa andasse storto. Combinando queste voci in un unico quadro, lo studio ha fatto emergere tensioni e punti in comune difficili da cogliere quando si interroga un solo gruppo.

Paure di danno e speranze di aiuto reale

Su questo tutti erano d’accordo: qualsiasi IA centrata sul paziente deve portare più benefici che danni. I pazienti temevano che un punteggio elevato di rischio per la depressione potesse aggravare lo stigma o perfino innescare l’intervento dei servizi di protezione dei minori. I professionisti sanitari si sono concentrati sul pericolo di dati distorti o di scarsa qualità, soprattutto se certi gruppi razziali o sociali fossero sottorappresentati. Gli sviluppatori hanno sottolineato la necessità di identificare e ridurre questi problemi durante la costruzione degli strumenti, non dopo il loro impiego. Allo stesso tempo, tutti hanno ribadito che lo strumento deve condurre a azioni chiare e utili — come indirizzamenti più semplici verso servizi di salute mentale o supporto sociale — e non restare solo un numero nella cartella clinica. Quando i punteggi di rischio venivano mostrati senza passi successivi evidenti, sia pazienti che clinici non sapevano come rispondere.

Come dovrebbe essere condivisa l’informazione

Le opinioni su come i risultati dell’IA dovessero raggiungere i pazienti sono state forti e variegate. Alcuni volevano vedere i propri punteggi di rischio prima delle visite tramite un portale online, per poter preparare domande ed elaborare emozioni in privato. Altri preferivano apprendere i risultati solo in conversazione con un clinico di fiducia che potesse spiegare il loro significato. Tutti i gruppi concordavano sul fatto che le spiegazioni dovessero essere in linguaggio chiaro, non in gergo medico o tecnico, e che i pazienti avrebbero bisogno di indicazioni per interpretare cosa significhi realmente una certa percentuale o fascia di rischio per la loro vita. Molti pazienti volevano sapere quali fattori specifici, come la storia clinica o lo stress attuale, stavano determinando il loro punteggio in modo da poter discutere con il team di cura su cosa potesse essere modificabile.

Fiducia, privacy e responsabilità condivisa

La fiducia nell’IA si è rivelata strettamente legata a questioni di privacy e responsabilità. I partecipanti volevano garanzie che i dati personali, in particolare informazioni sensibili su salute mentale e gravidanza, sarebbero stati conservati e utilizzati in sicurezza. I pazienti spesso presumevano che quanto visibile nella loro cartella online fosse già verificato e accurato, aumentando così la posta in gioco in caso di errori. I professionisti sanitari temevano di essere ritenuti responsabili se avessero seguito — o deciso di non seguire — un suggerimento dell’IA che poi si fosse rivelato dannoso. Gli sviluppatori ritenevano che la responsabilità dovesse essere condivisa: sistemi sanitari, regolatori, clinici e creatori di IA hanno tutti un ruolo nel verificare i bias, monitorare le prestazioni nel tempo e decidere come e quando gli strumenti debbano essere usati nella cura.

Figure 2
Figure 2.

Cosa deve cambiare dopo

Dalle conversazioni emergono diversi passaggi pratici che gli autori delineano per rendere l’IA davvero più centrata sul paziente. I professionisti sanitari necessitano di formazione, tempo e strumenti di supporto per interpretare l’output dell’IA e discuterne con i pazienti. Pazienti e operatori in prima linea dovrebbero essere coinvolti presto nella progettazione e nei test dei sistemi di IA, in modo che questioni di equità, utilità e comunicazione vengano affrontate fin dall’inizio. Gli output dell’IA dovrebbero essere presentati in formati flessibili e facili da comprendere che mettano in evidenza opzioni d’azione, non solo livelli di rischio. Infine, sono necessarie norme e supervisione chiare e multilivello per proteggere la privacy e condividere la responsabilità tra istituzioni, regolatori e sviluppatori. Insieme, questi cambiamenti potrebbero aiutare a spostare l’IA dai risultati impressionanti del laboratorio a un supporto più sicuro e significativo per le famiglie durante la gravidanza e oltre.

Citazione: Benda, N., Desai, P., Reza, Z. et al. A qualitative interview study investigating patient, health professional, and developer perspectives on real-world implementation of patient-centered AI systems. npj Digit. Med. 9, 352 (2026). https://doi.org/10.1038/s41746-026-02587-5

Parole chiave: intelligenza artificiale in sanità, depressione post-partum, assistenza centrata sul paziente, etica della salute digitale, screening salute mentale