Clear Sky Science · de

Eine qualitative Interviewstudie zu Perspektiven von Patientinnen, Fachpersonen und Entwicklerinnen zur Realwelt-Implementierung patientenzentrierter KI-Systeme

· Zurück zur Übersicht

Warum das für Alltagfamilien wichtig ist

Während Computer immer leistungsfähiger werden, hoffen viele, dass künstliche Intelligenz (KI) Ärztinnen und Ärzten hilft, Gesundheitsprobleme früh zu erkennen und die Versorgung individuell anzupassen. Doch selbst sehr genaue KI‑Werkzeuge schaffen es häufig nicht, im Alltag einen echten Unterschied zu machen, sobald sie das Forschungslabor verlassen. Diese Studie untersucht genau, was Patientinnen, Gesundheitsfachpersonen und KI‑Entwickelnde dafür halten, damit patientenzentrierte KI in die tägliche Versorgung gelangt, und verwendet ein Instrument zur Vorhersage des Risikos postpartaler Depressionen während der Schwangerschaft als konkretes Praxisbeispiel.

Figure 1
Figure 1.

Drei Gruppen gleichzeitig zuhören

Die Forschenden führten Interviews mit 36 Personen: Schwangeren oder kürzlich Schwangeren, Gesundheitsfachpersonen, die sie betreuen, und KI‑Entwickelnden mit Erfahrung in psychischer oder reproduktiver Gesundheit. Statt nur die Genauigkeit des Algorithmus zu messen, konzentrierte sich das Team darauf, wie er tatsächlich ins Leben der Menschen und in klinische Abläufe passt. Sie fragten jede Gruppe, wie sie es empfindet, KI‑generierte Risikowerte für postpartale Depressionen zu sehen oder zu verwenden, wie diese Informationen geteilt werden sollten und wer verantwortlich sein sollte, wenn etwas schiefgeht. Durch die Zusammenführung dieser Stimmen in einem Rahmen zeigte die Studie Spannungen und Gemeinsamkeiten auf, die schwer zu erkennen sind, wenn nur eine Gruppe befragt wird.

Angst vor Schaden und Hoffnung auf echte Hilfe

Über alle Gruppen hinweg herrschte Einigkeit, dass jede patientenzentrierte KI mehr Nutzen als Schaden bringen muss. Patientinnen befürchteten, dass ein hoher Risikowert für Depressionen die Stigmatisierung vertiefen oder sogar das Einschalten des Jugendamts nach sich ziehen könnte. Gesundheitsfachpersonen betonten die Gefahr von verzerrten oder qualitativ schlechten Daten, besonders wenn bestimmte rassische oder soziale Gruppen unterrepräsentiert sind. Entwickelnde hoben hervor, dass diese Probleme bereits während der Entwicklung identifiziert und reduziert werden müssen, nicht erst nach der Einführung. Gleichzeitig betonten alle, dass das Werkzeug zu klaren, nützlichen Maßnahmen führen muss – etwa einfacheren Überweisungen zu psychischer oder sozialer Unterstützung – und nicht nur einer weiteren Zahl in der Akte. Wenn Risikowerte ohne erkennbare nächste Schritte gezeigt wurden, wussten weder Patientinnen noch Klinikerinnen, wie sie reagieren sollten.

Wie Informationen geteilt werden sollten

Die Teilnehmenden hatten starke und unterschiedliche Meinungen dazu, wie KI‑Ergebnisse Patientinnen erreichen sollten. Einige wollten ihre Risikowerte vor Terminen über ein Online‑Portal sehen, um Fragen vorzubereiten und Gefühle privat zu verarbeiten. Andere zogen es vor, Ergebnisse nur im Gespräch mit einer vertrauten Fachperson zu erfahren, die erklären kann, was sie bedeuten. Alle Gruppen waren sich einig, dass Erklärungen in verständlicher Sprache und nicht in medizinischem oder technischem Jargon erfolgen sollten und dass Patientinnen Anleitung benötigen, um zu interpretieren, was ein bestimmter Prozentsatz oder eine Risikokategorie konkret für ihr Leben bedeutet. Viele Patientinnen wollten wissen, welche konkreten Faktoren – etwa frühere Krankengeschichte oder aktueller Stress – ihren Score beeinflussen, damit sie mit ihrem Versorgungsteam darüber sprechen können, was veränderbar sein könnte.

Vertrauen, Datenschutz und geteilte Verantwortung

Das Vertrauen in KI war eng verknüpft mit Fragen des Datenschutzes und der Rechenschaftspflicht. Die Teilnehmenden wünschten sich die Zusicherung, dass persönliche Daten, insbesondere sensible Informationen zu psychischer Gesundheit und Schwangerschaft, sicher gespeichert und verwendet werden. Patientinnen gingen oft davon aus, dass alles, was in ihrer Online‑Akte sichtbar ist, bereits geprüft und korrekt sei, was die Bedeutung von Fehlern erhöht. Gesundheitsfachpersonen fürchteten, für Schäden verantwortlich gemacht zu werden, wenn sie einer KI‑Empfehlung folgten – oder sie nicht befolgten – und sich dies später als falsch herausstellte. Entwickelnde argumentierten, Verantwortung müsse geteilt werden: Gesundheitssysteme, Aufsichtsbehörden, Klinikerinnen und KI‑Produzenten spielen alle eine Rolle bei der Prüfung auf Bias, der Überwachung der Leistung im Zeitverlauf und der Entscheidung, wie und wann Werkzeuge in der Versorgung eingesetzt werden sollten.

Figure 2
Figure 2.

Was sich als Nächstes ändern muss

Aus diesen Gesprächen leiten die Autorinnen und Autoren mehrere praktische Schritte ab, um KI wirklich patientenzentrierter zu machen. Gesundheitsfachpersonen benötigen Schulung, Zeit und unterstützende Instrumente, um KI‑Ergebnisse zu interpretieren und mit Patientinnen zu besprechen. Patientinnen und Angehörige der Versorgung sollten früh in die Gestaltung und Prüfung von KI‑Systemen eingebunden werden, damit Fragen der Fairness, Nützlichkeit und Kommunikation von Anfang an adressiert werden. KI‑Ergebnisse sollten in flexiblen, leicht verständlichen Formaten präsentiert werden, die Handlungsoptionen hervorheben und nicht nur Risikostufen. Schließlich sind klare, mehrschichtige Regeln und Aufsicht erforderlich, um den Datenschutz zu schützen und Verantwortung zwischen Institutionen, Aufsichtsbehörden und Entwickelnden zu teilen. Zusammen könnten diese Änderungen dazu beitragen, KI von eindrucksvollen Laborergebnissen zu sichererer, sinnvollerer Unterstützung für Familien während der Schwangerschaft und darüber hinaus zu bewegen.

Zitation: Benda, N., Desai, P., Reza, Z. et al. A qualitative interview study investigating patient, health professional, and developer perspectives on real-world implementation of patient-centered AI systems. npj Digit. Med. 9, 352 (2026). https://doi.org/10.1038/s41746-026-02587-5

Schlüsselwörter: künstliche Intelligenz im Gesundheitswesen, postpartale Depression, patientenzentrierte Versorgung, Ethik digitaler Gesundheitsanwendungen, Screening psychischer Gesundheit