Clear Sky Science · de

Die Rolle agentischer künstlicher Intelligenz im Gesundheitswesen: ein Scoping-Review

· Zurück zur Übersicht

Intelligentere Helfer hinter den Krankenhauskulissen

Stellen Sie sich einen digitalen Assistenten im Krankenhaus vor, der nicht nur Fragen beantwortet, sondern still beobachtet, was geschieht, entscheidet, was als Nächstes getan werden muss, und handelt, ohne jedes Mal um Erlaubnis gefragt zu werden. Dieser Artikel untersucht diese aufkommende Technologie — genannt „agentische KI“ — und beleuchtet, wie nahe wir daran sind, solche Systeme sicher Ärzte, Pflegekräfte und Patientinnen und Patienten in der tatsächlichen klinischen Versorgung unterstützen zu lassen.

Figure 1
Figure 1.

Von einfachen Programmen zu zielorientierten Partnern

Rechner in der Medizin begannen als Taschenrechner und sture Regelbefolger: Sie konnten ein Bild klassifizieren oder einen auffälligen Laborwert markieren, aber nur, wenn ihnen genau gesagt wurde, was zu tun ist. Neuere „generative“ Systeme, wie Chatbots, können Texte, Bilder oder Code erzeugen, warten aber weiterhin auf menschliche Eingaben. Agentische KI geht einen Schritt weiter. Diese Systeme sind um Ziele herum konzipiert — etwa die Reaktion eines Traumateams zu verbessern, eine Krebsbehandlung zu personalisieren oder einem Kind im Therapieverlauf zu helfen. Sie sammeln Informationen aus vielen Quellen, planen Handlungsabläufe, rufen eigenständig andere Software-Tools auf und passen ihr Verhalten an den Verlauf an, während Menschen die großen Entscheidungen behalten.

Wo diese digitalen Agenten getestet werden

Die Autorinnen und Autoren durchsuchten fünf große Forschungsdatenbanken und fanden weltweit nur sieben Studien, die tatsächlich diesen unabhängigeren KI-Stil im Gesundheitswesen einsetzten. Die Projekte umfassten die Notfallversorgung, Krebstherapie und -diagnose, medizinische Bildgebung, Rehabilitation und Proteinanalysen für die Wirkstoffforschung. Ein System verfolgte Traumafälle in Echtzeit, erstellte vollständigere Berichte und löste Alarme aus, wenn Vitalwerte aus dem Ruder liefen. Ein anderes schickte individualisierte tägliche Nachrichten an Krebspatientinnen und -patienten zur Motivationssteigerung beim Gehen. Ein Virtual-Reality-Spiel passte seine Schwierigkeit an, um Kindern mit Down-Syndrom motorische und soziale Fähigkeiten zu fördern. Weitere Systeme konzentrierten sich auf das Lesen von Thoraxröntgenaufnahmen, die Planung von Strahlentherapien, die Erkennung von Leberkrebs anhand winziger Partikel im Blut und die automatische Analyse komplexer Proteindaten, die für neue Therapien relevant sind.

Figure 2
Figure 2.

Was diese Systeme gut können — und wo sie versagen

In diesen Experimenten zeigten die agentischen Systeme, dass sie mit einem gewissen Maß an Eigenständigkeit arbeiten können: Sie verfolgten klar definierte Ziele, ergriffen die Initiative, Analysen durchzuführen oder andere Programme aufzurufen, und kombinierten in einigen Fällen die Arbeit mehrerer kooperierender KI‑„Agenten“. Die Ergebnisse waren oft beeindruckend. Ein Werkzeug unterschied Leberkrebs von Nicht-Krebs-Fällen mit über 94 Prozent Genauigkeit, einschließlich Patientinnen und Patienten, bei denen der übliche Blutmarker irreführend war. Ein anderes erreichte bei der Planung von Strahlentherapien die Leistungen oder übertraf Expertinnen und Experten, und ein System zur Schlussfolgerung aus Thoraxröntgenaufnahmen erreichte Spitzenleistungen, ohne für jede neue Fragestellung neu trainiert werden zu müssen. Diese Erfolge waren jedoch stark auf enge Aufgaben beschränkt. Die meisten Systeme funktionierten nur in kontrollierten Umgebungen, mit sorgfältig aufbereiteten Daten, und keines konnte wirklich über lange Zeiträume lernen und sich verbessern oder sich in sinnvoller Weise an frühere Patientinnen und Patienten erinnern.

Sicherheit, Vertrauen und der menschliche Faktor

Der Review weist auch auf bedeutende Risiken hin. Da diese Agenten eigenständig handeln können — etwa Daten abrufen, Pläne vorschlagen oder Alarme auslösen — könnten Fehler oder schlechte Koordination schwerwiegende Folgen haben, besonders in zeitkritischen Bereichen wie der Krebsbehandlung. Viele der Studien wiesen ein moderates bis hohes Verzerrungsrisiko auf und testeten die Werkzeuge nicht in der alltäglichen klinischen Praxis. Es bestehen zudem Bedenken hinsichtlich versteckter Entscheidungswege („Black‑Box“-Verhalten), Cybersicherheit und der Frage, wer verantwortlich ist, wenn ein autonomes System zu Schaden beiträgt. Regulierungsbehörden in den USA und Europa beginnen, medizinische KI als „hohes Risiko“ zu behandeln, doch die aktuellen Regeln wurden nicht mit hochgradig unabhängiger, zielgerichteter Software im Blick geschrieben. Die Autorinnen und Autoren argumentieren, dass die menschliche Aufsicht zentral bleiben muss und klarere Regeln nötig sind, wie weit solche Systeme eigenständig gehen dürfen.

Was als Nächstes geschehen muss

Derzeit ist agentische KI im Gesundheitswesen eher ein vielversprechender Prototyp als ein fertiges Produkt. Der Review zeigt, dass diese Systeme bei einer Vielzahl von Aufgaben helfen können — von der Überwachung von Patientinnen und Patienten und der Unterstützung in der Rehabilitation bis hin zur Planung komplexer Krebstherapien — doch nur eine Studie beinhaltete echte Patientinnen und Patienten in einer kontrollierten Studie. Die Autorinnen und Autoren fordern gemeinsame Definitionen dessen, was als „agentisch“ gilt, standardisierte Methoden zur Messung von Sicherheit und Nutzen sowie größere klinische Studien in realen Umgebungen. Krankenhäuser benötigen außerdem bessere Datensysteme, stärkeren Datenschutz und klare Richtlinien, die die klinisch Tätigen in der Verantwortung halten. Werden diese Grundlagen sorgfältig gelegt, könnte agentische KI zu einem verlässlichen digitalen Teamkollegen reifen, der Arbeitslasten verringert, Entscheidungen präzisiert und letztlich die Patientenversorgung verbessert — statt eine rätselhafte Black Box zu sein, die eigenständig Entscheidungen trifft.

Zitation: Collaco, B.G., Haider, S.A., Prabha, S. et al. The role of agentic artificial intelligence in healthcare: a scoping review. npj Digit. Med. 9, 345 (2026). https://doi.org/10.1038/s41746-026-02517-5

Schlüsselwörter: agentische KI, Automatisierung im Gesundheitswesen, klinische Entscheidungsunterstützung, KI in der medizinischen Bildgebung, digitale Gesundheit