Clear Sky Science · pl

Badanie oczekiwań i potrzeb dotyczących wykorzystania dużych modeli językowych w bawarskich klinikach uniwersyteckich

· Powrót do spisu

Dlaczego to ma znaczenie dla pacjentów i profesjonalistów

Szpitale zaczynają eksperymentować z tymi samymi chatbotami, których wiele osób używa w domu, ale w znacznie poważniejszych zastosowaniach. Badanie analizuje, jak lekarze, studenci medycyny i personel szpitalny w bawarskich klinikach uniwersyteckich postrzegają te narzędzia: do czego już je wykorzystują, czego oczekują i co budzi ich niepokój. Zrozumienie ich opinii pomaga kształtować sposób wprowadzania sztucznej inteligencji w rzeczywistych klinikach, gdzie stawka to zarówno bezpieczeństwo pacjenta, jak i zaufanie.

Figure 1
Figure 1.

Do kogo skierowano pytania i co już robią

Naukowcy przeprowadzili ankietę wśród 120 osób z pięciu szpitali uniwersyteckich w Bawarii: 70 studentów medycyny, 36 lekarzy i 14 pracowników administracyjnych. Wielu respondentów już wykorzystuje duże modele językowe w codziennej pracy lub podczas nauki, zwłaszcza studenci i lekarze. Sięgają po te narzędzia, aby wyszukiwać literaturę, generować pomysły, tłumaczyć teksty, tworzyć szkice e‑maili i raportów, streszczać długie dokumenty oraz wyjaśniać nieznane pojęcia. Personel administracyjny używa ich rzadziej, ale wykazuje zainteresowanie pomocami w transkrypcji mowy i obsłudze dokumentów. Jednocześnie znacząca część — około jedna czwarta studentów i lekarzy oraz jedna trzecia pracowników administracyjnych — deklaruje, że w ogóle nie korzysta z takich narzędzi, a wielu studentów uważa, że ich rozumienie technologii pozostaje w tyle za rówieśnikami.

Co uważają za przydatne

Zapytani o najbardziej istotne przyszłe zastosowania, respondenci ze wszystkich grup wskazywali pomoc w tłumaczeniu raportów medycznych i zamianie mowy na tekst. Cennie oceniano także automatyczne tworzenie szkiców raportów klinicznych, streszczanie długich dokumentów i upraszczanie języka technicznego, aby pacjenci mogli łatwiej go zrozumieć. W przeciwieństwie do tego bardziej złożone role — takie jak sugerowanie diagnoz czy przedstawianie szczegółowego rozumowania medycznego — oceniono jako mniej ważne, zwłaszcza wśród pracowników administracyjnych. Odpowiadanie bezpośrednio na pytania pacjentów było najmniej pociągające, jednak większość stwierdziła, że zgodziłaby się, by chatbot sporządzał szkice odpowiedzi w sytuacji kryzysowej, pod warunkiem, że ekspert ludzki zweryfikuje je najpierw. Ten wzorzec sugeruje, że profesjonaliści chętnie przyjmują wsparcie w rutynowych, tekstowo intensywnych zadaniach, ale chcą zachować ścisłą kontrolę ludzką nad decyzjami klinicznymi i komunikacją.

Jak dużej zmiany się spodziewają

Większość uczestników wierzy, że modele językowe będą miały pozytywny wpływ na ich dziedzinę, a wielu już zauważa wyraźny efekt dzisiaj lub spodziewa się go w ciągu najbliższej dekady. Przewidują, że automatyzacja powtarzalnej papierologii mogłaby uwolnić czas na bezpośrednią opiekę nad pacjentem oraz wspierać bardziej oparte na dowodach, spersonalizowane leczenie, co potencjalnie zwiększy efektywność kosztową opieki. Opinie są bardziej podzielone, jeśli chodzi o to, w jakim stopniu technologia przekształci zapotrzebowanie na personel. Niektórzy przewidują zmniejszenie liczby pracowników, zwłaszcza w rolach administracyjnych, ale połowa respondentów uważa, że ogólne zapotrzebowanie na pracowników pozostanie mniej więcej na tym samym poziomie. Standardy dokładności również zależą od zadania: przy wczesnym przesiewaniu prowadzonym przez osoby nienależące do specjalistów respondenci są skłonni zaakceptować wydajność zbliżoną do średniego lekarza, natomiast w przypadku narzędzi wspierających decyzje terapeutyczne dla przeszkolonych lekarzy oczekują wyraźnie lepszej skuteczności.

Co ich najbardziej niepokoi

Mimo optymizmu uczestnicy wyrazili poważne obawy. Lekarze i studenci najbardziej obawiali się „czarnej skrzynki” tych systemów: nie mogą łatwo zobaczyć, jak osiągnięto wniosek, a mimo to muszą wziąć na siebie odpowiedzialność za działanie na jego podstawie. Obawiali się też zagrożeń dla prywatności danych, zważywszy że dokumentacja medyczna zawiera wyjątkowo wrażliwe informacje, oraz bali się nadmiernego uzależnienia opieki zdrowotnej od dużych firm technologicznych. Studenci dodatkowo niepokoiły szkody dla relacji opartej na zaufaniu między lekarzem a pacjentem, jeśli maszyny będą wydawać się podejmować kluczowe decyzje. Pracownicy administracyjni byli szczególnie zaniepokojeni wpływem automatyzacji na bezpieczeństwo zatrudnienia. We wszystkich grupach widoczna była wyraźna potrzeba narzędzi, które wyjaśniają swoje rozumowanie, chronią poufne dane i wspierają, a nie zastępują, sądzenia ludzkiego.

Figure 2
Figure 2.

Jak gotowe są szpitale — i co trzeba zmienić

Najwyraźniejszy sygnał ostrzegawczy z ankiety jest taki, że większość respondentów uważa, iż ich instytucje nie są gotowe na wprowadzenie narzędzi opartych na modelach językowych. Chociaż wielu już prywatnie używa takich systemów do pracy, często robi to bez wytycznych, szkoleń czy zatwierdzonej infrastruktury, co rodzi poważne ryzyka dla prywatności i bezpieczeństwa. Zapytani, co powinno się zmienić, najczęściej prosili o edukację: kursy i seminaria wyjaśniające, co te modele potrafią i czego nie potrafią oraz jak korzystać z nich odpowiedzialnie. Respondenci domagali się także inwestycji w bezpieczną infrastrukturę techniczną, lepszej dokumentacji cyfrowej zamiast pisanych odręcznie notatek, jasnych zasad dotyczących odpowiedzialności prawnej oraz bliższej współpracy z działami IT szpitala. Wielu podkreślało też, że systemy muszą dobrze działać po niemiecku i płynnie integrować się z istniejącym oprogramowaniem szpitalnym.

Co to oznacza na przyszłość

Dla laika główny przekaz jest taki, że wiele osób w szpitalach już postrzega chatboty i powiązane narzędzia jako przydatnych asystentów, szczególnie w ograniczaniu żmudnej papierologii i poprawie sposobu przekazywania informacji pacjentom. Jednocześnie są równie świadomi niebezpieczeństw związanych z pospieszanym wdrażaniem bez odpowiednich zabezpieczeń. Badanie sugeruje, że jeśli szpitale zapewnią szkolenia, solidne zabezpieczenia prywatności i dobrze zintegrowane systemy, które pozostawiają lekarzom ostateczną kontrolę, modele językowe mogą wspierać bardziej efektywną i spersonalizowaną opiekę, zamiast zastępować ludzką ekspertyzę. Innymi słowy, przyszłość, którą wyobrażają sobie profesjonaliści, to nie „robot‑lekarz”, lecz mądrzejsze narzędzia, które pomagają ludzkim klinicystom wykonywać pracę lepiej i bezpieczniej.

Cytowanie: Vladika, J., Fichtl, A. & Matthes, F. Investigating expectations and needs regarding the use of large language models at Bavarian university clinics. Sci Rep 16, 10505 (2026). https://doi.org/10.1038/s41598-026-45245-2

Słowa kluczowe: duże modele językowe w opiece zdrowotnej, wdrażanie sztucznej inteligencji w medycynie, cyfrowa transformacja szpitali, postawy personelu klinicznego, Sztuczna inteligencja i prywatność pacjentów