Clear Sky Science · sv

Utmaningar med att tillämpa EU:s AI‑lagstiftningens forskningsundantag på samtida AI‑forskning

· Tillbaka till index

Varför nya regler för AI är viktiga för alla

Artificiell intelligens rör sig snabbt från forskningslaboratorier in i sjukhus, banker, skolor och offentliga myndigheter. För att skydda människor samtidigt som innovation främjas har Europeiska unionen skapat världens första breda lagstiftning helt inriktad på AI, känd som EU:s AI‑lag. Denna text granskar noggrant ett till synes smalt men avgörande hörn av lagen: de särskilda undantagen för forskning. Författarna menar att gränsen mellan "bara forskning" och "verklig användning" i modern AI är suddig, och att denna otydlighet antingen kan kväva användbar vetenskap eller öppna dörren för riskfyllda tillämpningar som kringgår skyddsåtgärder.

Figure 1
Figure 1.

Hur den nya AI‑lagen försöker skydda oss

EU:s AI‑lag etablerar ett långtgående ramverk som täcker de flesta aktörer som bygger, säljer och använder AI‑system, även om de verkar utanför Europa men ändå påverkar personer i EU. Inom detta breda omfång skapar lagen två viktiga undantag för forskning. Det ena gäller när AI‑system fortfarande är under utveckling och ännu inte har satts på marknaden eller tagits i drift; det andra gäller färdiga system som är utformade och används enbart för vetenskaplig forskning. I praktiken syftar dessa undantag till att hålla byråkrati borta från experimenterande, samtidigt som AI som används i vardagen uppfyller strikta krav på säkerhet, transparens och respekt för grundläggande rättigheter.

Var slutar laboratoriet och där börjar verkliga livet

Det första undantaget, för utvecklingsfasen, förutsätter en tydlig skiljelinje mellan laboratorietester och verklig användning. Lagen säger att aktiviteter innan ett system "sätts på marknaden" eller "tas i drift" faller utanför dess tillämpningsområde, men utesluter uttryckligen tester i verkliga förhållanden från denna skyddszon. Det låter enkelt tills man beaktar vanliga AI‑praxis: till exempel att köra en prototyp diskret i ett sjukhus och samla in levande data utan att visa någon utdata för läkare. Är det fortfarande "labbarbete" eller redan "verklighetstestning"? Författarna förklarar att svaret beror på systemets avsedda ändamål. Om det dolda systemet testas för diagnos räknas det sannolikt som verklighetstestning och bör utlösa lagens skydd, inklusive godkännanden, tillsyn och strikta tidsbegränsningar.

Figure 2
Figure 2.

När forskning och affärer överlappar

Det andra undantaget, för vetenskaplig användning, försöker skydda AI som både utvecklas och används uteslutande för forskning. I praktiken är detta krav svårt att precisera. Modern vetenskap utvecklas ofta genom partnerskap mellan universitet, sjukhus, företag och offentliga organ. Verktyg som byggs i ett laboratorium kan senare förvandlas till kommersiella produkter, eller ett företag kan sälja ett system som ett universitet endast använder i forskningssyfte. Texten går igenom konkreta scenarier som visar hur lagens ordalydelse kan leda till märkliga eller oklara resultat — till exempel ett verktyg ursprungligen utformat för patientvård men som i slutändan endast används för bildanalys i en studie. Författarna varnar för att vaga begrepp som "ensamt syfte" inbjuder både ärlig förvirring och strategiskt beteende, såsom att presentera en produkt som "forskning" för att skjuta upp efterlevnad.

Risken för kryphål och fördröjningar

Dessa gråzoner är viktiga eftersom de avgör vem som måste följa AI‑lagens tuffare regler. Om definitionerna är för lösa kan vissa aktörer tyst testa närapå driftsatta system på riktiga människor utan den tillsyn lagen avser, eller flytta delar av sin pipeline till andra länder för att undkomma skyldigheter. Om definitionerna är för strikta eller tillämpas oflexibelt kan forskare — särskilt de i offentliga eller icke‑vinstdrivande miljöer — tvingas bära tunga regleringsbördor även när det inte finns någon kommersiell vinkel och tydlig samhällsnytta, såsom inom klimatsimuleringar eller sjukdomsprognoser. Författarna hävdar att denna spänning mellan att undvika kryphål och att undvika onödig byråkrati genomsyrar båda undantagen och förvärras av avsaknaden av en gemensam EU‑omfattande definition av "vetenskaplig forskning."

Vad som behöver förändras för en säkrare, klokare AI

Avslutningsvis drar texten slutsatsen att EU:s AI‑lags forskningsundantag vilar på en föråldrad bild av forskning som något tydligt skilt från verklig påverkan och kommersiella intressen. I samtida AI är levande data, pilotimplementationer och blandade offentlig‑privata projekt normen, inte undantaget. Författarna efterlyser tydligare definitioner av nyckelbegrepp som "verkliga förhållanden" och "vetenskaplig forskning", praktisk vägledning för hur och när ett AI‑system korsar gränsen till reglerad användning, och starkare skydd mot missbruk av undantag. De argumenterar för att utan sådana förfiningar riskerar lagen antingen att underminera sina egna skydd eller att driva värdefull forskning till mindre reglerade regioner — vilket lämnar människor utsatta för högrisk‑system som hade kunnat kontrolleras bättre om reglerna varit mer realistiska och bättre anpassade till hur AI faktiskt utvecklas idag.

Citering: Meszaros, J., Huys, I. & Ioannidis, J.P.A. Challenges in applying the EU AI act research exemptions to contemporary AI research. npj Digit. Med. 9, 288 (2026). https://doi.org/10.1038/s41746-025-02263-0

Nyckelord: EU:s AI‑lag, AI‑reglering, forskningsundantag, digital medicin, AI‑etik