Clear Sky Science · de

Ärztinnen und Ärzte für klinische Studien mit KI zusammenbringen

· Zurück zur Übersicht

Warum es wichtig ist, die richtigen Ärztinnen und Ärzte für Studien zu finden

Jedes neue Medikament oder jeder neue Impfstoff muss in sorgfältig gestalteten klinischen Studien getestet werden. Dennoch haben viele Studien Schwierigkeiten, genügend Freiwillige zu finden, oder sie rekrutieren Patientinnen und Patienten, die die reale Population, die die Behandlung später nutzen wird, nicht widerspiegeln. Die Autorinnen und Autoren dieser Studie entwickelten ein System der künstlichen Intelligenz namens DocTr, das Studienorganisatoren dabei hilft zu entscheiden, welche Ärztinnen, Ärzte und Kliniken eine Studie durchführen sollten. Indem dieser Schritt der „Standortauswahl" verbessert wird, zielt das System darauf ab, den Zugang zu neuen Therapien zu beschleunigen und die Forschung zugleich inklusiver und kosteneffizienter zu gestalten.

Figure 1
Figure 1.

Der verborgene Engpass in der medizinischen Forschung

Klinische Studien scheitern oft nicht, weil eine Behandlung unwirksam ist, sondern weil die passenden Patientinnen und Patienten nie eingeschlossen werden. Traditionell verlassen sich Pharmaunternehmen auf manuelle Recherchen, persönliche Netzwerke und Vermutungen, um zu entscheiden, welche Ärztinnen und Ärzte sie einladen. Dieser Prozess kann langsam sein, zu einer Voreingenommenheit gegenüber einem kleinen Kreis bekannter Prüfärzte führen und vielversprechende Zentren übersehen, die vielfältige Gemeinschaften versorgen. Das Ergebnis ist ernüchternd: Viele Studienstandorte rekrutieren weit weniger Patientinnen und Patienten als geplant, einige rekrutieren gar niemanden, und Verzögerungen können Sponsoren tagtäglich Hunderttausende bis Millionen Dollar kosten.

Wie man einem Computer beibringt, Ärztinnen und Ärzte mit Studien zu verbinden

DocTr geht das Problem an, indem es aus mehreren großen, realen Datenquellen lernt. Erstens liest es öffentliche Studienbeschreibungen von ClinicalTrials.gov, einschließlich der untersuchten Krankheiten und der Einschlusskriterien. Zweitens nutzt es anonymisierte Versicherungsansprüche, um für jede Ärztin bzw. jeden Arzt ein Profil zu erstellen, basierend auf den Arten von Patientinnen und Patienten, die sie bzw. er behandelt—im Wesentlichen eine Fünfjahresaufnahme ihrer Praxis. Drittens greift es auf die US-OpenPayments-Datenbank zu, die Zahlungen der Industrie an Kliniker dokumentiert, die mit bestimmten Studien verknüpft sind. Diese vergangenen Zahlungsbezüge dienen als Stellvertreter dafür, welche Ärztinnen und Ärzte tatsächlich an welchen Studien gearbeitet haben, und liefern dem System Beispiele erfolgreicher Zuordnungen, aus denen es lernen kann.

Wie die KI aus Text, Zahlen und Netzwerken lernt

Um diese Komponenten zu kombinieren, bauten die Forschenden ein Modell, das sowohl Sprache als auch Muster in Daten versteht. Ein Bestandteil verwendet eine medizinische Version des BERT-Sprachmodells, um Studienzusammenfassungen und Einschlusskriterien in mathematische Vektoren zu überführen, die Bedeutung erfassen. Ein anderer Bestandteil fasst die Mischung der Diagnosen der Patientinnen und Patienten einer Ärztin bzw. eines Arztes in einer kompakten Repräsentation zusammen. Ein drittes Element betrachtet die Historie von Studie und Ärztin/Arzt als Netzwerk und nutzt Graph-Learning-Techniken, um abzubilden, wer mit wem und in welchen Bereichen zusammengearbeitet hat. DocTr bündelt diese Signale zu einem einzelnen Matching-Score für jedes potenzielle Studien–Ärztin/Arzt-Paar und erstellt daraus Ranglisten von Klinikerinnen und Klinikern für jede neue Studie.

Bessere Zuordnungen, gerechtere Einschlüsse und weniger Interessenkonflikte

Getestet an fast 25.000 US-Klinikerinnen und Kliniker sowie mehr als 5.000 Studien lieferte DocTr empfohlene Listen von Ärztinnen und Ärzten, die etwa 58 % ähnlicher zu den realen Studienbesetzungen waren als die besten bisherigen Methoden. Entscheidenderweise schaut das System über reine Genauigkeit hinaus. Ein eingebauter Optimierungsschritt ordnet die besten Kandidatinnen und Kandidaten neu, um Vielfalt in Bezug auf Rasse, Ethnizität und Geografie zu fördern und gleichzeitig Ärztinnen und Ärzte zu vermeiden, die bereits mit vielen anderen Studien ausgelastet sind. Dieser Prozess erhöhte die Diversitätswerte im Vergleich zur gegenwärtigen Praxis und reduzierte die durchschnittliche Anzahl sich überschneidender Studien für empfohlene Klinikerinnen und Kliniker nahezu auf null, ohne die Matching-Qualität zu beeinträchtigen.

Figure 2
Figure 2.

Weitsicht bei Kosten und Planung

Da DocTr auch aus Zahlungsdaten lernt, kann es abschätzen, wie teuer die Rekrutierung für eine neue Studie oder für eine bestimmte Ärztin bzw. einen bestimmten Arzt sein könnte. Indem es vergangene Studien und Ärztinnen/Ärzte mit ähnlichen Profilen findet, erstellt es Kosten- und Rekrutierungsprognosen, die reale Daten recht genau nachvollziehen. Diese Prognosen sind zwar keine vollständigen Budgets, bieten Sponsoren aber eine Möglichkeit, Optionen zu vergleichen, ungewöhnlich teure Pläne zu erkennen und Rekrutierungsstrategien zu wählen, die Geschwindigkeit, Diversität und Aufwand ausbalancieren.

Was das für Patientinnen und Patienten und die Zukunft bedeutet

Die Studie zeigt, dass die kluge Nutzung vorhandener Daten klinische Studien verlässlicher, schneller und gerechter machen kann. DocTr kann nicht jede Quelle von Verzerrung beheben—etwa restriktive Einschlusskriterien, die in einem Protokoll verankert sind—aber es kann den Kreis der in Betracht gezogenen Ärztinnen und Ärzte erweitern und helfen, Gemeinschaften einzubeziehen, die in der Forschung oft ausgegrenzt wurden. Wenn solche Systeme übernommen und sorgfältig reguliert werden, könnten sie den Weg von Laborergebnissen zu realen Behandlungen verkürzen und gleichzeitig mehr Patientinnen und Patienten die Chance geben, an der Gestaltung zukünftiger Medikamente teilzunehmen.

Zitation: Gao, J., Xiao, C., Glass, L.M. et al. Matching clinicians with clinical trials using AI. Nat. Health 1, 290–299 (2026). https://doi.org/10.1038/s44360-026-00073-6

Schlüsselwörter: Rekrutierung für klinische Studien, Künstliche Intelligenz in der Medizin, Auswahl von Prüfzentren, Gesundheitsgerechtigkeit, Analyse medizinischer Daten