Clear Sky Science · pl

Badanie jakościowe oparte na wywiadach: perspektywy pacjentów, specjalistów i twórców dotyczące wdrożenia w praktyce systemów AI zorientowanych na pacjenta

· Powrót do spisu

Dlaczego to ma znaczenie dla zwykłych rodzin

W miarę jak komputery stają się coraz mądrzejsze, wiele osób liczy na to, że sztuczna inteligencja (AI) pomoże lekarzom wykrywać problemy zdrowotne wcześniej i dopasowywać opiekę do indywidualnych potrzeb. Jednak nawet bardzo dokładne narzędzia AI często nie przekładają się na realną poprawę życia poza laboratorium badawczym. Badanie to dokładnie przygląda się, co pacjenci, profesjonaliści opieki zdrowotnej i twórcy AI uważają za niezbędne, by wprowadzić systemy AI zorientowane na pacjenta do codziennej opieki, używając jako przykładu narzędzia przewidującego ryzyko depresji poporodowej w czasie ciąży.

Figure 1
Figure 1.

Słuchając jednocześnie trzech grup

Naukowcy przeprowadzili wywiady z 36 osobami: pacjentkami w ciąży lub niedawno rodzącymi, specjalistami opieki zdrowotnej, którzy się nimi zajmują, oraz twórcami AI znającymi się na zdrowiu psychicznym lub reprodukcyjnym. Zamiast tylko oceniać, czy algorytm jest dokładny, zespół skupił się na tym, jak narzędzie mogłoby rzeczywiście wpisać się w życie ludzi i rutyny kliniczne. Pytano każdą grupę, jak czuliby się wobec widoku lub użycia generowanych przez AI wyników ryzyka depresji poporodowej, jak ta informacja powinna być przekazywana i kto ponosi odpowiedzialność, jeśli coś pójdzie nie tak. Połączenie tych głosów w jednym badaniu ujawniło napięcia i punkty porozumienia, których trudno dostrzec, pytając tylko jedną grupę.

Obawy przed szkodą i nadzieje na realną pomoc

W większości uczestnicy zgodzili się, że każde AI zorientowane na pacjenta musi przynosić więcej korzyści niż szkód. Pacjentki obawiały się, że wysoki wynik ryzyka depresji może pogłębić stygmatyzację, a nawet spowodować interwencję służb opieki nad dzieckiem. Specjaliści zwracali uwagę na niebezpieczeństwo uprzedzeń lub niskiej jakości danych, zwłaszcza jeśli pewne grupy rasowe czy społeczne są niedoreprezentowane. Twórcy podkreślali konieczność identyfikowania i ograniczania tych problemów podczas procesu budowy narzędzi, a nie dopiero po wdrożeniu. Jednocześnie wszyscy podkreślali, że narzędzie musi prowadzić do jasnych, użytecznych działań — na przykład uproszczonych skierowań do wsparcia psychicznego lub społecznego — zamiast być po prostu kolejną liczbą w dokumentacji. Gdy wyniki ryzyka były pokazywane bez oczywistych dalszych kroków, zarówno pacjentki, jak i klinicyści nie wiedzieli, jak zareagować.

Jak powinna być przekazywana informacja

Ludzie mieli silne i zróżnicowane poglądy na temat sposobu, w jaki wyniki AI powinny trafiać do pacjentów. Niektórzy chcieli zobaczyć swoje wyniki przed wizytą w portalu online, by móc przygotować pytania i przeżyć emocje w prywatności. Inni woleli dowiedzieć się o wynikach dopiero podczas rozmowy z zaufanym klinicystą, który mógłby wyjaśnić ich znaczenie. Wszystkie grupy zgadzały się, że wyjaśnienia powinny być napisane prostym językiem, bez medycznego czy technicznego żargonu, oraz że pacjentki będą potrzebowały wskazówek, jak interpretować, co dany procent lub kategoria ryzyka naprawdę oznacza dla ich życia. Wiele pacjentek chciało wiedzieć, które konkretne czynniki, takie jak wcześniejsza historia zdrowotna czy obecny stres, wpływały na wynik, aby mogły porozmawiać z zespołem opieki o tym, co mogłoby zostać zmienione.

Zaufanie, prywatność i współdzielona odpowiedzialność

Zaufanie do AI okazało się ściśle powiązane z kwestiami prywatności i odpowiedzialności. Uczestnicy chcieli mieć pewność, że dane osobowe, zwłaszcza wrażliwe informacje o zdrowiu psychicznym i ciąży, będą bezpiecznie przechowywane i używane. Pacjentki często zakładały, że wszystko, co widoczne w ich elektronicznej dokumentacji, zostało już sprawdzone i jest dokładne, co podnosi stawkę w przypadku błędów. Specjaliści obawiali się, że mogą zostać obwinieni, jeśli postępują zgodnie z sugestią AI — lub z niej nie skorzystają — a wynik okaże się negatywny. Twórcy argumentowali, że odpowiedzialność powinna być współdzielona: systemy ochrony zdrowia, regulatorzy, klinicyści i twórcy AI wszyscy mają rolę w wykrywaniu uprzedzeń, monitorowaniu wydajności w czasie i decydowaniu, jak i kiedy narzędzia powinny być stosowane w opiece.

Figure 2
Figure 2.

Co trzeba zmienić dalej

Z tych rozmów autorzy wyprowadzili kilka praktycznych kroków, aby AI rzeczywiście stała się bardziej zorientowana na pacjenta. Specjaliści potrzebują szkoleń, czasu i wspierających narzędzi, by interpretować wyniki AI i omawiać je z pacjentkami. Pacjentki i pracownicy pierwszej linii powinni być zaangażowani wcześnie w projektowanie i testowanie systemów AI, tak aby kwestie sprawiedliwości, użyteczności i komunikacji były rozwiązywane od początku. Wyniki AI powinny być prezentowane w elastycznych, łatwych do zrozumienia formatach, które podkreślają opcje działania, nie tylko poziomy ryzyka. Wreszcie potrzebne są jasne, wielowarstwowe zasady i nadzór chroniące prywatność oraz rozdzielające odpowiedzialność między instytucje, regulatorów i twórców. Razem te zmiany mogą pomóc przesunąć AI z imponujących wyników laboratoryjnych ku bezpieczniejszemu i bardziej znaczącemu wsparciu dla rodzin w czasie ciąży i później.

Cytowanie: Benda, N., Desai, P., Reza, Z. et al. A qualitative interview study investigating patient, health professional, and developer perspectives on real-world implementation of patient-centered AI systems. npj Digit. Med. 9, 352 (2026). https://doi.org/10.1038/s41746-026-02587-5

Słowa kluczowe: sztuczna inteligencja w opiece zdrowotnej, depresja poporodowa, opieka ukierunkowana na pacjenta, etyka zdrowia cyfrowego, skryning zdrowia psychicznego