Clear Sky Science · pl
Innowacja globalnych ram regulacyjnych dla generatywnej sztucznej inteligencji w urządzeniach medycznych to pilny priorytet
Dlaczego to ma znaczenie dla twojego zdrowia
Generatywna sztuczna inteligencja, w tym zaawansowane chatboty, szybko wchodzi do gabinetów lekarskich i szpitali. Systemy te mogą tworzyć notatki z wizyt, odpowiadać na pytania zdrowotne, a nawet sugerować rozpoznania. Ten przegląd wyjaśnia, dlaczego obecne zasady dotyczące urządzeń medycznych nie nadążają za tak elastycznymi i nieprzewidywalnymi technologiami oraz dlaczego ich aktualizacja jest niezbędna dla bezpiecznej, sprawiedliwej i godnej zaufania opieki na całym świecie. 
Nowe narzędzia, które robią znacznie więcej niż jedną rzecz
Starsze oprogramowanie medyczne było zaprojektowane do wykonywania jednej jasno określonej funkcji, na przykład wykrywania guza na skanie. Generatywna SI i duże modele językowe potrafią natomiast wykonywać wiele różnych zadań — od streszczania dokumentacji medycznej po doradzanie w kwestiach leczenia. Są trenowane na ogromnych zbiorach tekstów, obrazów i innych danych dostępnych online, co daje im dużą moc, ale też utrudnia pełne zrozumienie i kontrolę. Ponieważ ich odpowiedzi mogą się zmieniać przy każdym użyciu i zawierać pewne, chociaż błędne, stwierdzenia („halucynacje”), nie mieszczą się one łatwo w istniejących kategoriach urządzeń medycznych, które zostały zaprojektowane dla bardziej przewidywalnych narzędzi.
Dlaczego obecne zasady bezpieczeństwa zawodzą
Organy regulacyjne próbowały nadążać, stosując podejście „cyklu życia produktu”, które śledzi urządzenie od projektowania po użytkowanie w świecie rzeczywistym. To pomaga w przypadku wielu typów SI, ale artykuł wskazuje, że to za mało dla dużych modeli językowych. Praktycznie niemożliwe jest sprawdzenie całych zbiorów treningowych pod kątem błędów lub ukrytych danych osobowych. Ocena skuteczności tych systemów jest też skomplikowana, ponieważ ich długie, otwarte odpowiedzi trudno ocenić prostymi testami dokładności. Badania pokazują, że niektóre modele dobrze radzą sobie z pytaniami w stylu egzaminów, ale mają trudności w chaotycznych przypadkach z życia codziennego i mogą wypadać gorzej od klinicystów w kluczowych zadaniach. Dodatkowo brak jest powszechnie przyjętej metody pomiaru lub monitorowania uprzedzeń, co oznacza, że systemy te mogą po cichu działać gorzej dla niektórych grup pacjentów.
Ukryte ryzyka po wdrożeniu
Gdy narzędzia oparte na dużych modelach językowych trafiają do użytku, śledzenie ich bezpieczeństwa staje się jeszcze bardziej skomplikowane. Wiele modeli opiera się na wspólnych podstawowych systemach, a następnie jest modyfikowanych lub doszkalanych przez różne firmy, co utrudnia poznanie dokładnych danych i zmian leżących u podstaw. Niektóre narzędzia trafiają bezpośrednio do pacjentów jako aplikacje doradcze bez formalnej zgody. Problemy mogą pozostać niezgłoszone, zwłaszcza gdy błędy są ukryte w długich notatkach klinicznych tworzonych przez asystenta AI. Istniejące ścieżki dopuszczenia, które opierają się na wykazaniu „podobieństwa” do starszych produktów, mogą być nadużywane dla narzędzi, które w rzeczywistości są zupełnie inne. Równocześnie kwestie etyczne, takie jak prywatność, autonomia, zaufanie i wpływ na relację lekarz–pacjent, są tylko częściowo uwzględniane w obecnych regulacjach. 
Budowanie mądrzejszego i sprawiedliwszego nadzoru
Autorzy podkreślają pojawiające się pomysły, które mają uczynić regulacje bardziej elastycznymi i skutecznymi. „Regulatory sandboxes” (piaskownice regulacyjne) pozwalają testować nowe narzędzia SI pod nadzorem w ograniczonych warunkach, dzięki czemu regulatorzy i twórcy mogą uczyć się na doświadczeniach i szybko dostosowywać przepisy. Nowe koncepcje, takie jak „oprogramowanie jako usługa medyczna”, mają traktować wysoko zautomatyzowane agentury SI bardziej jak ciągłe usługi zdrowotne niż produkty o stałej formie. Artykuł podkreśla też znaczenie zrozumienia całego łańcucha dostaw — od zbierania danych i budowy modelu po hosting w chmurze i sprzęt — aby systemy zdrowotne mogły pozostać odporne, gdy narzędzia cyfrowe zawodzą lub są atakowane. Globalne sieci regulatorów, badaczy i systemów zdrowotnych zaczynają dzielić się listami kontrolnymi, standardami testów i laboratoriami nadzorczymi, by zharmonizować działania.
Utrzymanie równości w centrum uwagi
Głównym niepokojem jest to, jak generatywna SI może poszerzać lub zmniejszać lukę zdrowotną między bogatymi a biedniejszymi regionami. Jeśli modele są trenowane głównie na danych z krajów o wysokich dochodach, mogą działać słabo w warunkach o ograniczonych zasobach lub dla niedostatecznie reprezentowanych społeczności. Artykuł apeluje o świadome włączenie perspektyw i danych z krajów o niskich i średnich dochodach oraz o wsparcie, które pomoże tym regionom bezpiecznie budować i wdrażać własne narzędzia SI. Standardy raportowania i narzędzia oceniające ukierunkowane na równość zdrowotną mogą ujawnić ukryte uprzedzenia, a współpraca może pomóc przenieść udane rozwiązania SI z projektów pilotażowych do realnych klinik, nie pozostawiając w tyle grup wrażliwych.
Co to oznacza na przyszłość
Mówiąc wprost, artykuł konkluduje, że generatywna SI w medycynie rozwija się szybciej niż istniejące podręczniki regulacyjne. Aby chronić pacjentów i zdobyć zaufanie, kraje muszą współpracować nad nowymi, adaptacyjnymi ramami regulacyjnymi, które nadążą za zmieniającymi się modelami, jednocześnie chroniąc prywatność, bezpieczeństwo i sprawiedliwość. Autorzy wyobrażają sobie niezależne globalne ciała ustanawiające wspólne standardy, podobne do tych istniejących w dziedzinie cyberbezpieczeństwa, tak aby szpitale i pacjenci na całym świecie mogli korzystać z tych narzędzi bez narażania się na uniknione szkody.
Cytowanie: Ong, J.C.L., Ning, Y., Liu, M. et al. Innovating global regulatory frameworks for generative AI in medical devices is an urgent priority. npj Digit. Med. 9, 364 (2026). https://doi.org/10.1038/s41746-026-02552-2
Słowa kluczowe: generatywna SI, urządzenia medyczne, regulacje w opiece zdrowotnej, duże modele językowe, równość zdrowotna