Clear Sky Science · de
Herausforderungen bei der Anwendung der Forschungsausnahmen des EU‑KI‑Gesetzes auf zeitgenössische KI‑Forschung
Warum neue Regeln für KI alle betreffen
Künstliche Intelligenz bewegt sich schnell von Forschungslaboren in Krankenhäuser, Banken, Schulen und öffentliche Stellen. Um Menschen zu schützen und gleichzeitig Innovation zu fördern, hat die Europäische Union das weltweit erste umfassende Gesetz entwickelt, das sich vollständig auf KI konzentriert: das EU‑KI‑Gesetz. Dieses Papier analysiert eingehend eine scheinbar enge, aber entscheidende Ecke dieses Rechts: die speziellen Ausnahmen für die Forschung. Die Autorinnen und Autoren argumentieren, dass in der realen Welt moderner KI die Grenze zwischen „nur Forschung“ und „Einsatz in der Praxis“ verschwimmt und dass diese Unschärfe entweder nützliche Wissenschaft ersticken oder riskante Anwendungen ermöglichen könnte, die ohne Schutzmechanismen in den Alltag gelangen.

Wie das neue KI‑Gesetz uns zu schützen versucht
Das EU‑KI‑Gesetz legt einen breit angelegten Rahmen fest, der die meisten Akteure abdeckt, die KI‑Systeme entwickeln, verkaufen und nutzen, selbst wenn sie außerhalb Europas tätig sind, aber Auswirkungen auf Menschen in der EU haben. Innerhalb dieses weiten Rahmens enthält das Gesetz zwei zentrale Ausnahmen für die Forschung. Eine greift, wenn KI‑Systeme noch in der Entwicklung sind und weder auf dem Markt angeboten noch für ihren beabsichtigten Zweck eingesetzt werden; die andere gilt für fertige Systeme, die ausschließlich für wissenschaftliche Forschung entworfen und genutzt werden. Auf dem Papier sollen diese Ausnahmen verhindern, dass Bürokratie Experimente erstickt, während zugleich sichergestellt wird, dass im Alltag eingesetzte KI strengen Anforderungen an Sicherheit, Transparenz und den Schutz grundlegender Rechte genügt.
Wo das Labor endet und das echte Leben beginnt
Die erste Ausnahme, die die Entwicklungsphase betrifft, setzt eine klare Trennung zwischen Labortests und Nutzung in der Praxis voraus. Das Gesetz sagt, dass Aktivitäten vor dem „Inverkehrbringen“ oder dem „Inbetriebnehmen“ außerhalb seines Geltungsbereichs liegen, schließt jedoch ausdrücklich Tests unter realen Bedingungen von dieser sicheren Zone aus. Das klingt einfach, bis man gängige KI‑Praktiken betrachtet: Beispielsweise ein Prototyp, der still in einem Krankenhaus betrieben wird und Live‑Daten sammelt, ohne Ärzten Ausgaben zu zeigen. Handelt es sich dabei noch um „Laborarbeit“ oder bereits um „Tests in der Praxis“? Die Autorinnen und Autoren erklären, dass die Antwort vom beabsichtigten Verwendungszweck des Systems abhängt. Wenn das verborgene System für Diagnosen erprobt wird, zählt das höchstwahrscheinlich als Test in der Praxis und sollte die Schutzmechanismen des Gesetzes auslösen, einschließlich Genehmigungen, Aufsicht und strikter zeitlicher Begrenzungen.

Wenn Forschung und Geschäft sich überschneiden
Die zweite Ausnahme, für die wissenschaftliche Nutzung, soll KI schützen, die sowohl entwickelt als auch ausschließlich für Forschungszwecke eingesetzt wird. In der Praxis ist diese Voraussetzung schwer zu fassen. Moderne Wissenschaft entsteht oft in Partnerschaften zwischen Universitäten, Krankenhäusern, Unternehmen und öffentlichen Stellen. Werkzeuge, die im Labor gebaut werden, können später zu kommerziellen Produkten werden, oder ein Unternehmen verkauft ein System, das eine Universität nur zu Forschungszwecken nutzt. Das Papier führt konkrete Szenarien durch, die zeigen, wie die Formulierung des Gesetzes zu seltsamen oder unklaren Ergebnissen führen kann — zum Beispiel ein ursprünglich für die Patientenversorgung entwickeltes Werkzeug, das letztlich nur für Bildanalysen in einer Studie verwendet wird. Die Autorinnen und Autoren warnen davor, dass vage Begriffe wie „ausschließlicher Zweck“ sowohl ehrliche Verwirrung als auch strategisches Verhalten einladen, etwa ein Produkt als „Forschung“ darzustellen, um die Einhaltungspflichten hinauszuzögern.
Das Risiko von Schlupflöchern und Verzögerungen
Diese Grauzonen sind wichtig, weil sie bestimmen, wer den strengeren Regeln des KI‑Gesetzes folgen muss. Sind die Definitionen zu weit gefasst, könnten einige Akteure im Verborgenen tests kurz vor dem Einsatz an realen Personen durchführen, ohne die vom Gesetz vorgesehenen Aufsichtsmechanismen, oder Teile ihrer Wertschöpfungskette in andere Länder verlagern, um Pflichten zu umgehen. Sind die Definitionen zu strikt oder werden sie unflexibel angewandt, könnten Forschende — besonders in öffentlichen oder gemeinnützigen Einrichtungen — mit schweren regulatorischen Lasten belastet werden, selbst wenn kein kommerzielles Interesse besteht und ein klarer öffentlicher Nutzen vorliegt, etwa in der Klimamodellierung oder Krankheitsvorhersage. Die Autorinnen und Autoren argumentieren, dass diese Spannung zwischen dem Vermeiden von Schlupflöchern und dem Vermeiden unnötiger Bürokratie beide Ausnahmen durchzieht und durch das Fehlen einer einheitlichen EU‑weiten Definition von „wissenschaftlicher Forschung“ noch verstärkt wird.
Was sich ändern muss für eine sicherere, klügere KI
Am Ende kommt das Papier zu dem Schluss, dass die Forschungsausnahmen des EU‑KI‑Gesetzes auf einem veralteten Bild von Forschung beruhen, das Forschung sauber von realen Auswirkungen und kommerziellen Interessen trennt. In der zeitgenössischen KI sind Live‑Daten, Pilot‑Einsätze und gemischte öffentlich‑private Projekte die Regel, nicht die Ausnahme. Die Autorinnen und Autoren fordern klarere Definitionen zentraler Begriffe wie „reale Bedingungen“ und „wissenschaftliche Forschung“, praxisnahe Leitlinien dafür, wie und wann ein KI‑System die Grenze zur regulierten Nutzung überschreitet, sowie stärkere Schutzmechanismen gegen den Missbrauch von Ausnahmen. Sie argumentieren, dass ohne solche Präzisierungen das Gesetz entweder seine eigenen Schutzmechanismen untergräbt oder wertvolle Forschung in weniger regulierte Regionen drängt — und damit Menschen risikoreichen Systemen aussetzt, die besser kontrolliert worden wären, wenn die Regeln realistischer und besser an die tatsächliche Entwicklung von KI angepasst wären.
Zitation: Meszaros, J., Huys, I. & Ioannidis, J.P.A. Challenges in applying the EU AI act research exemptions to contemporary AI research. npj Digit. Med. 9, 288 (2026). https://doi.org/10.1038/s41746-025-02263-0
Schlüsselwörter: EU KI‑Gesetz, KI‑Regulierung, Forschungsausnahmen, digitale Medizin, KI‑Ethik