Clear Sky Science · pl

Wyzwania we stosowaniu wyłączeń badawczych z unijnej ustawy o AI do współczesnych badań nad AI

· Powrót do spisu

Dlaczego nowe przepisy dotyczące AI dotyczą nas wszystkich

Sztuczna inteligencja szybko wychodzi z laboratoriów badawczych do szpitali, banków, szkół i urzędów publicznych. Aby chronić ludzi, a jednocześnie wspierać innowacje, Unia Europejska stworzyła pierwsze na świecie kompleksowe prawo skoncentrowane wyłącznie na AI, znane jako unijna ustawa o AI (EU AI Act). Ten tekst przygląda się uważnie pozornie wąskiemu, lecz kluczowemu wycinkowi tego prawa: specjalnym wyłączeniom dla badań. Autorzy twierdzą, że w realiach współczesnej AI granica między „tylko badaniami” a „użytkowaniem w świecie rzeczywistym” jest nieostra, a ta nieostrość może albo tłumić użyteczną naukę, albo otwierać drzwi dla ryzykownych zastosowań omijających zabezpieczenia.

Figure 1
Figure 1.

Jak nowe prawo o AI próbuje nas chronić

Ustawa o AI ustanawia szerokie ramy obejmujące większość podmiotów zaangażowanych w tworzenie, sprzedaż i użytkowanie systemów AI, także gdy działają poza Europą, lecz wpływają na osoby w UE. W ramach tego szerokiego zakresu prawo przewiduje dwa kluczowe wyłączenia dla badań. Jedno dotyczy systemów będących wciąż w fazie opracowywania, które nie zostały jeszcze wprowadzone na rynek ani użyte do zamierzonego celu; drugie odnosi się do gotowych systemów zaprojektowanych i wykorzystywanych wyłącznie do celów naukowych. Na papierze te wyłączenia mają zapobiegać nadmiernej biurokracji, która mogłaby zdusić eksperymentowanie, przy jednoczesnym zapewnieniu, że AI używana w codziennym życiu spełnia rygorystyczne wymagania dotyczące bezpieczeństwa, przejrzystości i poszanowania praw podstawowych.

Gdzie kończy się laboratorium, a zaczyna życie codzienne

Pierwsze wyłączenie, dotyczące fazy rozwoju, zakłada wyraźny podział między testowaniem w laboratorium a użyciem w świecie rzeczywistym. Prawo mówi, że działania przed „wprowadzeniem produktu na rynek” lub „oddaniem go do użytku” leżą poza jego zakresem, ale wyraźnie wyłącza z tej strefy testy w warunkach rzeczywistych. To brzmi prosto, dopóki nie weźmiemy pod uwagę powszechnych praktyk w AI: na przykład uruchomienia prototypu w szpitalu, zbierania danych na żywo bez pokazywania lekarzom jakichkolwiek wyników. Czy to nadal praca laboratoryjna, czy już test w świecie rzeczywistym? Autorzy wyjaśniają, że odpowiedź zależy od zamierzonego celu systemu. Jeśli ukryty system jest testowany pod kątem diagnostyki, prawdopodobnie będzie to traktowane jako test w świecie rzeczywistym i powinno uruchamiać ochrony przewidziane przez prawo, w tym zatwierdzenia, nadzór i surowe limity czasowe.

Figure 2
Figure 2.

Gdy badania i biznes się przecinają

Drugie wyłączenie, dotyczące celów naukowych, ma chronić AI, która jest zarówno opracowywana, jak i używana wyłącznie do badań. W praktyce ten wymóg trudno jednoznacznie określić. Współczesna nauka często rozwija się w partnerstwach uczelni, szpitali, firm i instytucji publicznych. Narzędzia stworzone w laboratorium mogą później zostać przekształcone w produkty komercyjne, a firma może sprzedać system, którego uczelnia używa wyłącznie do badań. Tekst analizuje konkretne scenariusze pokazujące, jak sformułowanie prawa może prowadzić do dziwnych lub niejasnych rezultatów — na przykład narzędzie pierwotnie zaprojektowane do opieki nad pacjentem, które ostatecznie jest używane jedynie do analizy obrazów w badaniu. Autorzy ostrzegają, że nieprecyzyjne pojęcia, takie jak „wyłączny cel”, sprzyjają zarówno uczciwemu zamieszaniu, jak i zachowaniom strategicznym, np. przedstawianiu produktu jako „badawczego”, aby odroczyć obowiązki zgodności.

Ryzyko luka prawnych i opóźnień

Te szare strefy mają znaczenie, ponieważ decydują, kto musi stosować się do surowszych reguł AI Act. Jeśli definicje będą zbyt luźne, niektórzy aktorzy mogą po cichu przeprowadzać testy bliskie wdrożeniu na prawdziwych ludziach bez nadzoru, jaki przewiduje prawo, lub przenosić elementy swojego procesu do innych krajów, by uniknąć obowiązków. Jeśli definicje będą zbyt ostre lub stosowane bez elastyczności, badacze — zwłaszcza działający w sektorze publicznym lub non‑profit — mogą zostać zmuszeni do ponoszenia ciężkich obciążeń regulacyjnych nawet tam, gdzie nie ma aspektu komercyjnego i występuje wyraźny publiczny pożytek, na przykład w modelowaniu klimatu czy prognozowaniu chorób. Autorzy twierdzą, że napięcie między unikaniem luk a unikaniem zbędnej biurokracji przebiega przez oba wyłączenia i jest spotęgowane przez brak wspólnej, ogólnoeuropejskiej definicji „badań naukowych”.

Co trzeba zmienić, by AI była bezpieczniejsza i mądrzejsza

W końcu autorzy dochodzą do wniosku, że wyłączenia badawcze w EU AI Act opierają się na przestarzałym obrazie badań jako czegoś wyraźnie oddzielonego od wpływu w świecie rzeczywistym i interesów komercyjnych. We współczesnej AI normą, a nie wyjątkiem, są dane na żywo, pilotażowe wdrożenia i mieszane projekty publiczno‑prywatne. Autorzy apelują o jaśniejsze definicje kluczowych pojęć, takich jak „warunki rzeczywiste” i „badania naukowe”, praktyczne wytyczne określające, kiedy i w jaki sposób system AI przekracza granicę do użytkowania regulowanego, oraz silniejsze zabezpieczenia przeciwko nadużywaniu wyłączeń. Twierdzą, że bez takich dopracowań prawo ryzykuje albo osłabienie własnych mechanizmów ochronnych, albo wypchnięcie cennego badania do mniej regulowanych jurysdykcji — narażając ludzi na systemy wysokiego ryzyka, które można by lepiej kontrolować, gdyby przepisy były bardziej realistyczne i lepiej zgodne z tym, jak AI jest dziś faktycznie rozwijana.

Cytowanie: Meszaros, J., Huys, I. & Ioannidis, J.P.A. Challenges in applying the EU AI act research exemptions to contemporary AI research. npj Digit. Med. 9, 288 (2026). https://doi.org/10.1038/s41746-025-02263-0

Słowa kluczowe: EU AI Act, regulacja AI, wyłączenia badawcze, medycyna cyfrowa, etyka AI