Clear Sky Science · pl

Postęp w zarządzaniu AI w opiece zdrowotnej dzięki kompleksowemu modelowi dojrzałości opartego na przeglądzie systematycznym

· Powrót do spisu

Dlaczego mądrzejsze zasady dla medycznej AI mają znaczenie

Szpitale masowo wdrażają sztuczną inteligencję, by wcześniej wykrywać choroby, zmniejszyć biurokrację i uczynić opiekę bardziej efektywną. Jednak jeśli narzędzia te są wybierane lub zarządzane w sposób niedbały, mogą po cichu popełniać błędy, pogłębiać nierówności lub marnować cenne zasoby. Artykuł wyjaśnia, jak zespół badaczy przeanalizował dziesiątki istniejących wytycznych dotyczących medycznej AI i opracował praktyczną mapę drogową, z której może skorzystać każda organizacja opieki zdrowotnej — od małej przychodni po czołowy szpital naukowy — aby wdrażać AI bezpiecznie i sprawiedliwie.

Orientowanie się w zatłoczonym pejzażu zaleceń

W ostatnich latach eksperci z całego świata proponowali listy kontrolne, wytyczne i struktury nadzoru dotyczące stosowania AI w opiece zdrowotnej. Autorzy przeprowadzili systematyczny przegląd 35 takich ram opublikowanych w latach 2019–2024, zawężając analizę do 29 dokumentów, które oferowały konkretne, wieloetapowe wskazówki, zamiast koncentrować się wyłącznie na jednej kwestii, jak etyka. Stwierdzili, że choć wiele materiałów opisywało, jak opracować algorytm lub monitorować go w czasie, znacznie mniej zajmowało się realiami organizacyjnymi: kto powinien sprawować nadzór? Jak szpitale powinny wybierać między rywalizującymi produktami? I jak systemy o mniejszych zasobach mają nadążać? Ten patchwork zaleceń, często pisany z myślą o dużych ośrodkach akademickich, pozostawiał mniejsze organizacje bez jasnej ścieżki działania.

Figure 1
Figure 1.

Siedem bloków konstrukcyjnych dobrego nadzoru nad AI

Z przeglądu badacze wydestylowali siedem kluczowych obszarów, które trzeba uwzględnić, aby AI została odpowiedzialnie włączona do opieki nad pacjentem. Należą do nich jasna struktura kierownicza, staranne zdefiniowanie problemu klinicznego przed sięgnięciem po technologię, zrozumienie, jak algorytm jest zbudowany i trenowany, sprawdzenie produktów zewnętrznych przed zakupem, testowanie skuteczności narzędzia w lokalnej populacji pacjentów, przemyślane włączenie go w codzienne przepływy pracy oraz śledzenie jego wyników po uruchomieniu. W literaturze silny nacisk kładziono na zadania takie jak formułowanie problemu, rozwój modeli i ciągły monitoring. Jednocześnie autorzy zauważyli słabsze omówienie oceny produktów zewnętrznych oraz projektowania ciał zarządzających, które odzwierciedlałyby perspektywy klinicystów, ekspertów technicznych, pacjentów oraz specjalistów prawa i etyki.

Od teorii do etapowej mapy drogowej

Aby przekształcić rozproszone zalecenia w coś bardziej użytecznego, zespół stworzył Healthcare AI Governance Readiness Assessment, czyli HAIRA — pięciopoziomowy „model dojrzałości”, opisujący, jak wygląda kompetentny nadzór na kolejnych etapach zaawansowania. Na Poziomie 1 organizacja ma jedynie podstawową świadomość i w większości polega na zapewnieniach dostawców przy narzędziach gotowych do użycia, z minimalnymi wewnętrznymi testami lub integracją. Na Poziomie 2 istnieją udokumentowane procedury, prosty komitet nadzorczy, bardziej ustrukturyzowany wybór narzędzi i podstawowy monitoring wydajności. Poziom 3 opisuje systemy regionalne lub lokalne, które potrafią niezależnie walidować modele, oceniać ryzyka takie jak uprzedzenia, integrować AI z programami poprawy jakości oraz systematycznie zarządzać zmianą w miarę wdrażania narzędzi do praktyki klinicznej.

Rozwój w kierunku zaawansowanej i wiodącej praktyki

Poziomy 4 i 5 obejmują to, co autorzy uznają za zaawansowany i wiodący nadzór. Na Poziomie 4, typowym dla dużych ośrodków akademickich, organizacje mają kierownictwo wykonawcze dedykowane AI, solidne struktury etyczne, zaawansowaną infrastrukturę danych oraz silne zdolności do wewnętrznego rozwoju i ewaluacji, w tym monitorowanie w czasie rzeczywistym. Poziom 5 reprezentuje instytucje, które nie tylko dobrze zarządzają AI, ale także współtworzą standardy branżowe. Organizacje te prowadzą badania wieloośrodkowe potwierdzające bezpieczeństwo i korzyści, eksperymentują z nowymi typami zastosowań AI i dzielą się doświadczeniem poprzez centra doskonałości i współpracę. Co istotne, model stosuje zasadę „najsłabszego ogniwa”: ogólny poziom organizacji jest ograniczony przez najmniej rozwinięty z siedmiu obszarów, co odzwierciedla rzeczywistość, że pojedynczy brakujący zabezpieczenie — na przykład słaby monitoring — może podważyć inaczej zaawansowane działania.

Figure 2
Figure 2.

Co to oznacza dla pacjentów i świadczeniodawców

Dla pacjentów model HAIRA ma zapewnić, że narzędzia AI są wprowadzane w sposób rzeczywiście poprawiający opiekę, a nie wprowadzający ukryte ryzyka. Dla klinicystów i kadry zarządzającej systemami opieki zdrowotnej model oferuje realistyczną drabinę: niewielka praktyka może najpierw dążyć do osiągnięcia Poziomu 2, dokumentując sposób wyboru i weryfikacji narzędzi dostawców, podczas gdy większy system może pracować nad wyższymi poziomami, inwestując w zespoły danych, metody sprawiedliwej ewaluacji i ciągły monitoring. Autorzy podkreślają, że nie każdy szpital potrzebuje najnowocześniejszych możliwości, ale wszystkie placówki powinny spełniać podstawowe standardy bezpieczeństwa, równości i odpowiedzialności. Dopasowując oczekiwania wobec zarządzania do dostępnych zasobów, ich ramy dążą do uczynienia wiarygodnej medycznej AI osiągalną w różnych środowiskach opieki zdrowotnej, a nie tylko w najlepiej finansowanych instytucjach.

Cytowanie: Hussein, R., Zink, A., Ramadan, B. et al. Advancing healthcare AI governance through a comprehensive maturity model based on systematic review. npj Digit. Med. 9, 236 (2026). https://doi.org/10.1038/s41746-026-02418-7

Słowa kluczowe: sztuczna inteligencja w opiece zdrowotnej, zarządzanie AI, wsparcie decyzji klinicznych, polityka zdrowia cyfrowego, sprawiedliwość algorytmiczna