Clear Sky Science · it
Le sfide nell’applicare le esenzioni per la ricerca dell’AI Act dell’UE alla ricerca AI contemporanea
Perché le nuove regole sull’IA riguardano tutti
L’intelligenza artificiale sta passando rapidamente dai laboratori di ricerca agli ospedali, alle banche, alle scuole e alle amministrazioni pubbliche. Per proteggere le persone senza però soffocare l’innovazione, l’Unione Europea ha creato la prima legge ampia al mondo interamente dedicata all’IA, nota come AI Act dell’UE. Questo saggio esamina da vicino un angolo apparentemente limitato ma cruciale della legge: le esenzioni speciali per la ricerca. Gli autori sostengono che, nel mondo reale dell’IA moderna, la linea tra “solo ricerca” e “uso reale” è sfumata, e che questa ambiguità può sia soffocare scienza utile sia aprire la porta ad applicazioni rischiose che eludono le salvaguardie.

Come la nuova legge sull’IA cerca di proteggerci
L’AI Act dell’UE istituisce un quadro normativo ampio che copre la maggior parte degli attori coinvolti nella costruzione, vendita e uso dei sistemi di IA, anche se operano al di fuori dell’Europa ma incidono sulle persone nell’UE. All’interno di questo ampio ambito, la legge prevede due esenzioni chiave per la ricerca. Una si applica quando i sistemi di IA sono ancora in fase di sviluppo e non sono stati messi sul mercato né impiegati per lo scopo previsto; l’altra riguarda sistemi completi progettati e utilizzati esclusivamente per la ricerca scientifica. Su carta, queste esenzioni mirano a evitare che la burocrazia soffochi la sperimentazione, garantendo al contempo che l’IA utilizzata nella vita quotidiana rispetti requisiti stringenti di sicurezza, trasparenza e tutela dei diritti fondamentali.
Dove finisce il laboratorio e inizia la vita reale
La prima esenzione, relativa alla fase di sviluppo, presuppone una netta separazione tra test di laboratorio e uso nel mondo reale. La legge stabilisce che le attività svolte prima che un sistema sia “immesso sul mercato” o “messo in servizio” sono fuori dal suo campo di applicazione, ma esclude esplicitamente dai casi protetti i test svolti in condizioni reali. Questo sembra semplice fino a quando non consideriamo pratiche comuni nell’IA: per esempio, far funzionare un prototipo in modo nascosto in un ospedale, raccogliendo dati in tempo reale senza mostrare ai medici alcun output. È ancora lavoro «di laboratorio» o ormai «test nel mondo reale»? Gli autori spiegano che la risposta dipende dallo scopo previsto del sistema. Se il sistema nascosto è sperimentato per la diagnosi, è probabile che si consideri un test nel mondo reale e debba attivare le protezioni previste dalla legge, incluse approvazioni, supervisione e limiti temporali rigorosi.

Quando ricerca e imprese si sovrappongono
La seconda esenzione, per l’uso scientifico, cerca di proteggere l’IA sviluppata e utilizzata esclusivamente per la ricerca. In pratica, questo requisito è difficile da definire con precisione. La scienza moderna spesso si svolge attraverso partnership tra università, ospedali, imprese e enti pubblici. Strumenti costruiti in laboratorio possono poi trasformarsi in prodotti commerciali, oppure un’azienda può vendere un sistema che un’università usa soltanto per ricerca. Il documento esamina scenari concreti mostrando come la formulazione della legge possa portare a risultati strani o poco chiari — per esempio, uno strumento originariamente pensato per l’assistenza ai pazienti ma infine usato solo per analisi di immagini in uno studio. Gli autori avvertono che nozioni vaghe come «scopo esclusivo» invitano sia a confusione genuina sia a comportamenti strategici, come presentare un prodotto come «ricerca» per rimandare la conformità.
Il rischio di scappatoie e rallentamenti
Queste zone grigie sono importanti perché determinano chi deve rispettare le regole più severe dell’AI Act. Se le definizioni sono troppo larghe, alcuni attori potrebbero condurre silenziosamente test vicino alla messa in produzione su persone reali senza la supervisione che la legge intende, o spostare parti della loro catena produttiva in altri paesi per evitare obblighi. Se le definizioni sono troppo rigide o applicate senza flessibilità, i ricercatori — specialmente in contesti pubblici o non profit — potrebbero essere costretti a sopportare oneri normativi pesanti anche quando non esiste un interesse commerciale e il beneficio pubblico è evidente, come nella modellizzazione climatica o nella previsione delle malattie. Gli autori sostengono che questa tensione tra evitare scappatoie e evitare burocrazia inutile attraversa entrambe le esenzioni ed è aggravata dalla mancanza di una definizione condivisa a livello UE di «ricerca scientifica».
Che cosa va cambiato per un’IA più sicura e più intelligente
In conclusione, il documento afferma che le esenzioni per la ricerca dell’AI Act dell’UE si basano su un quadro obsoleto della ricerca come qualcosa nettamente separato dall’impatto reale e dall’interesse commerciale. Nell’IA contemporanea, dati live, deploy pilota e progetti misti pubblico‑privati sono la norma, non l’eccezione. Gli autori chiedono definizioni più chiare di concetti chiave come «condizioni reali» e «ricerca scientifica», linee guida pratiche su come e quando un sistema di IA varca la soglia verso un uso regolamentato, e salvaguardie più robuste contro l’abuso delle esenzioni. Sostengono che senza tali affinamenti la legge rischia o di minare le proprie protezioni o di spingere la ricerca preziosa verso regioni meno regolamentate — lasciando le persone esposte a sistemi ad alto rischio che avrebbero potuto essere meglio controllati se le regole fossero più realistiche e meglio allineate con il modo in cui l’IA viene effettivamente sviluppata oggi.
Citazione: Meszaros, J., Huys, I. & Ioannidis, J.P.A. Challenges in applying the EU AI act research exemptions to contemporary AI research. npj Digit. Med. 9, 288 (2026). https://doi.org/10.1038/s41746-025-02263-0
Parole chiave: AI Act dell’UE, regolamentazione dell’IA, esenzioni per la ricerca, medicina digitale, etica dell’IA