Clear Sky Science · it
Il ruolo dell’intelligenza artificiale agentica nella sanità: una revisione esplorativa
Assistenti più intelligenti dietro le quinte dell’ospedale
Immaginate un assistente digitale in ospedale che non si limita a rispondere a domande, ma osserva silenziosamente quanto accade, decide quale sia la prossima azione necessaria e interviene senza dover essere interpellato ogni volta. Questo articolo esplora quel tipo emergente di tecnologia—chiamata “IA agentica”—e valuta quanto siamo vicini ad avere sistemi del genere che supportino in sicurezza medici, infermieri e pazienti nella pratica clinica reale.

Da programmi semplici a partner orientati agli obiettivi
I computer in medicina sono nati come calcolatori e seguaci rigidi di regole: potevano classificare un’immagine o segnalare un valore di laboratorio anomalo, ma solo quando gli si diceva esattamente cosa fare. I sistemi più recenti “generativi”, come i chatbot, possono produrre testo, immagini o codice, ma attendono comunque prompt umani. L’IA agentica fa un passo oltre. Questi sistemi sono progettati attorno a obiettivi—come migliorare la risposta di un team di traumatologia, personalizzare il trattamento del cancro o aiutare un bambino a progredire in terapia. Raccogliono informazioni da molte fonti, pianificano un corso d’azione, chiamano autonomamente altri strumenti software e adattano il proprio comportamento in base all’evoluzione degli eventi, mentre gli esseri umani restano responsabili delle decisioni chiave.
Dove vengono testati questi agenti digitali
Gli autori hanno cercato in cinque grandi banche dati di ricerca e hanno trovato solo sette studi nel mondo che abbiano usato veramente questo stile più indipendente di IA in ambito sanitario. I progetti hanno riguardato il pronto soccorso, la cura e la diagnosi del cancro, l’imaging medico, la riabilitazione e l’analisi di proteine per la scoperta di farmaci. Un sistema tracciava in tempo reale i casi di traumatologia, generando report più completi e attivando allarmi quando i segni vitali uscivano dai parametri. Un altro inviava messaggi giornalieri personalizzati ai sopravvissuti al cancro per incoraggiarli a camminare. Un gioco in realtà virtuale adattava la difficoltà per aiutare bambini con sindrome di Down a sviluppare abilità motorie e sociali. Altri sistemi si sono concentrati sulla lettura delle radiografie del torace, sulla pianificazione di trattamenti radioterapici, sull’individuazione del cancro al fegato da minuscole particelle nel sangue e sull’analisi automatica di dati proteici complessi rilevanti per nuove terapie.

In cosa questi sistemi eccellono — e dove invece falliscono
In questi esperimenti i sistemi agentici hanno dimostrato di poter operare con un grado di indipendenza: perseguivano obiettivi chiaramente definiti, prendevano l’iniziativa per eseguire analisi o invocare altri programmi e, in alcuni casi, combinavano gli sforzi di diversi “agenti” IA cooperanti. I risultati sono spesso stati impressionanti. Uno strumento ha distinto il cancro al fegato dai casi non cancerosi con oltre il 94% di accuratezza, includendo pazienti il cui marcatore ematico abituale era fuorviante. Un altro ha pareggiato o superato pianificatori esperti nella progettazione di trattamenti radioterapici, e un sistema di ragionamento sulle radiografie toraciche ha raggiunto prestazioni all’avanguardia senza essere riaddestrato per ogni nuova domanda. Tuttavia questi successi erano strettamente legati a compiti ristretti. La maggior parte dei sistemi funzionava solo in contesti controllati, su dati accuratamente preparati, e nessuno è stato in grado di apprendere e migliorare nel lungo periodo o di ricordare i pazienti passati in modo significativo.
Sicurezza, fiducia e il tocco umano
La revisione segnala anche rischi importanti. Poiché questi agenti possono agire autonomamente—recuperando dati, suggerendo piani o addirittura attivando allarmi—errori o scarsa coordinazione potrebbero avere conseguenze gravi, soprattutto in campi sensibili al tempo come l’oncologia. Molti studi presentavano rischio da moderato a serio di bias e non hanno testato gli strumenti nella pratica clinica quotidiana. Ci sono inoltre preoccupazioni riguardo al ragionamento nascosto (comportamento “scatola nera”), alla sicurezza informatica e a chi sia responsabile se un sistema autonomo contribuisce a un danno. I regolatori negli Stati Uniti e in Europa stanno cominciando a considerare l’IA medica come “ad alto rischio”, ma le normative attuali non sono state scritte pensando a software altamente autonomi e orientati a obiettivi. Gli autori sostengono che la supervisione umana deve rimanere centrale e che sono necessarie regole più chiare su quanto questi sistemi possano agire da soli.
Cosa bisogna fare dopo
Per ora, l’IA agentica in sanità è più un prototipo promettente che un prodotto finito. La revisione mostra che questi sistemi possono aiutare in una vasta gamma di compiti—dal monitoraggio dei pazienti e supporto alla riabilitazione alla pianificazione di trattamenti oncologici complessi—ma solo uno studio ha coinvolto pazienti reali in una prova controllata. Gli autori chiedono definizioni condivise di cosa si intenda per “agentico”, metodi standard per misurare sicurezza e beneficio e studi clinici più ampi nel mondo reale. Gli ospedali avranno inoltre bisogno di sistemi informativi migliori, protezioni della privacy più robuste e linee guida chiare che mantengano i clinici al centro delle decisioni. Se queste fondamenta saranno costruite con cura, l’IA agentica potrebbe maturare in un compagno digitale affidabile che alleggerisce i carichi di lavoro, migliora le decisioni e, in ultima istanza, accresce la qualità delle cure, anziché rimanere una misteriosa scatola nera che prende decisioni da sola.
Citazione: Collaco, B.G., Haider, S.A., Prabha, S. et al. The role of agentic artificial intelligence in healthcare: a scoping review. npj Digit. Med. 9, 345 (2026). https://doi.org/10.1038/s41746-026-02517-5
Parole chiave: IA agentica, automazione sanitaria, supporto alle decisioni cliniche, IA per imaging medico, salute digitale