Clear Sky Science · pl
Rola agentycznej sztucznej inteligencji w opiece zdrowotnej: przegląd zakresowy
Sprytniejsi pomocnicy za kulisami szpitala
Wyobraź sobie cyfrowego asystenta w szpitalu, który nie tylko odpowiada na pytania, lecz dyskretnie obserwuje przebieg zdarzeń, decyduje, co należy zrobić dalej, i podejmuje działania bez konieczności każdorazowego polecenia. Ten artykuł bada ten rosnący typ technologii — zwany „agentyczną SI” — i ocenia, jak blisko jesteśmy wdrożenia takich systemów, które w bezpieczny sposób będą wspierać lekarzy, pielęgniarki i pacjentów w rzeczywistej opiece klinicznej.

Od prostych programów do partnerów ukierunkowanych na cele
Komputery w medycynie zaczynały jako kalkulatory i sztywne systemy reguł: potrafiły klasyfikować obraz lub sygnalizować nieprawidłowy wynik laboratoryjny, ale tylko wtedy, gdy dokładnie powiedziano im, co robić. Nowsze systemy „generatywne”, takie jak chatboty, potrafią tworzyć tekst, obrazy czy kod, lecz wciąż czekają na polecenia człowieka. Agentyczna SI idzie o krok dalej. Systemy te są projektowane wokół celów — na przykład poprawy reakcji zespołu ratunkowego, dostosowania leczenia onkologicznego czy wspierania postępów dziecka w terapii. Zbierają informacje z wielu źródeł, planują działania, samodzielnie uruchamiają inne narzędzia programowe i korygują swoje działania w zależności od przebiegu zdarzeń, przy czym ludzie zachowują kontrolę nad najważniejszymi decyzjami.
Gdzie testuje się tych cyfrowych agentów
Autorzy przeszukali pięć głównych baz badań i znaleźli zaledwie siedem prac na świecie, które rzeczywiście zastosowały ten bardziej niezależny styl SI w opiece zdrowotnej. Projekty obejmowały opiekę ratunkową, leczenie i diagnostykę nowotworów, obrazowanie medyczne, rehabilitację oraz analizę białek w kontekście odkrywania leków. Jeden system śledził przypadki urazowe w czasie rzeczywistym, tworząc pełniejsze raporty i wywołując alerty, gdy wartości życiowe odbiegały od normy. Inny wysyłał spersonalizowane codzienne wiadomości do osób po leczeniu onkologicznym, by zachęcić je do chodzenia. Gra wirtualnej rzeczywistości dostosowywała poziom trudności, by pomóc dzieciom z zespołem Downa rozwijać umiejętności motoryczne i społeczne. Inne systemy koncentrowały się na odczycie zdjęć klatki piersiowej, planowaniu napromieniania, wykrywaniu raka wątroby z wykorzystaniem drobnych cząstek we krwi oraz automatycznej analizie złożonych danych białkowych istotnych dla nowych terapii.

Co te systemy potrafią dobrze — i gdzie zawodzą
W tych eksperymentach systemy agentyczne pokazały, że potrafią działać z pewnym stopniem niezależności: realizowały jasno określone cele, inicjowały analizy lub uruchamiały inne programy, a w niektórych przypadkach łączyły wysiłki kilku współpracujących „agentów” SI. Wyniki były często imponujące. Jedno narzędzie odróżniało raka wątroby od przypadków bez nowotworu z ponad 94-procentową dokładnością, także u pacjentów, u których standardowy marker krwi wprowadzał w błąd. Inne dorównywało lub przewyższało ekspertów w planowaniu napromieniania, a system rozumujący nad zdjęciami klatki piersiowej osiągnął stan wiedzy najwyższej klasy bez konieczności retreningu dla każdego nowego pytania. Jednak te sukcesy były ściśle związane z wąskimi zadaniami. Większość systemów działała tylko w kontrolowanych warunkach, na starannie przygotowanych danych, i żaden nie potrafił naprawdę uczyć się i poprawiać przez długie okresy ani zapamiętywać przeszłych pacjentów w sposób znaczący.
Bezpieczeństwo, zaufanie i ludzki element
Przegląd identyfikuje również istotne ryzyka. Ponieważ agenci mogą działać samodzielnie — pobierać dane, sugerować plany, a nawet wywoływać alerty — błędy lub słaba koordynacja mogą mieć poważne konsekwencje, zwłaszcza w dziedzinach wrażliwych na czas, takich jak leczenie onkologiczne. Wiele badań wykazywało umiarkowane do poważnych ryzyko stronniczości i nie testowało narzędzi w codziennej praktyce klinicznej. Istnieją też obawy dotyczące ukrytego rozumowania („czarna skrzynka”), cyberbezpieczeństwa oraz odpowiedzialności, jeśli system autonomiczny przyczyni się do szkody. Organy regulacyjne w USA i Europie zaczynają traktować medyczną SI jako „wysokie ryzyko”, ale obecne przepisy nie były pisane z myślą o wysoce niezależnym, dążącym do celów oprogramowaniu. Autorzy argumentują, że nadzór ludzki musi pozostać centralny, a potrzebne są jaśniejsze reguły określające, jak daleko takie systemy mogą działać samodzielnie.
Co należy zrobić dalej
Na razie agentyczna SI w opiece zdrowotnej to raczej obiecujący prototyp niż gotowy produkt. Przegląd pokazuje, że systemy te mogą pomagać w szerokim zakresie zadań — od monitorowania pacjentów i wspierania rehabilitacji po planowanie złożonych terapii onkologicznych — ale tylko jedno badanie obejmowało rzeczywistych pacjentów w kontrolowanym badaniu. Autorzy wzywają do wspólnych definicji tego, co kwalifikuje się jako „agentyczne”, standardowych metod mierzenia bezpieczeństwa i korzyści oraz większych badań klinicznych w warunkach rzeczywistych. Szpitale będą też potrzebować lepszych systemów danych, silniejszych zabezpieczeń prywatności i jasnych wytycznych, które utrzymają klinicystów w roli decydentów. Jeśli te fundamenty zostaną starannie zbudowane, agentyczna SI może dojrzeć do roli niezawodnego cyfrowego współpracownika, który odciąży pracę, poprawi jakość decyzji i ostatecznie ulepszy opiekę nad pacjentem, zamiast być tajemniczą czarną skrzynką podejmującą decyzje na własną rękę.
Cytowanie: Collaco, B.G., Haider, S.A., Prabha, S. et al. The role of agentic artificial intelligence in healthcare: a scoping review. npj Digit. Med. 9, 345 (2026). https://doi.org/10.1038/s41746-026-02517-5
Słowa kluczowe: agentyczna SI, automatyzacja opieki zdrowotnej, wspomaganie decyzji klinicznych, SI w obrazowaniu medycznym, zdrowie cyfrowe