Clear Sky Science · de

Wahrung der akademischen Integrität: eine explorative Studie zur KI-gestützten Erkennung unautorisierter Nutzung maschineller Übersetzung in Schülerübersetzungen

· Zurück zur Übersicht

Warum das für Lernende und Lehrende wichtig ist

Da Online-Übersetzer und Chatbots zu alltäglichen Lernwerkzeugen werden, fällt es Lehrkräften immer schwerer zu beurteilen, ob eine Schülerarbeit tatsächlich die eigenen Fähigkeiten des Lernenden widerspiegelt. Dieser Artikel untersucht, ob ein Schreibanalyseprogramm Lehrkräfte dabei unterstützen kann, verdeckte Nutzung maschineller Übersetzung im Sprachunterricht zu erkennen, und was das für Fairness und Vertrauen in der Bildung bedeutet.

Der Aufstieg digitaler Helfer im Sprachlernen

Werkzeuge wie Google Translate und große Chatbots erzeugen inzwischen in Sekunden flüssige, oft beeindruckende Übersetzungen. Klug eingesetzt können sie Lesen, Hören und sogar Schreibübungen unterstützen. Wenn Lernende diese Ausgaben jedoch stillschweigend in Aufgaben einfügen, die ihre eigene Fähigkeit demonstrieren sollen, verwischen die Grenzen zwischen „nützlicher Hilfe“ und „Betrug“. Die Autor*innen definieren „unautorisierte“ Nutzung als das Kopieren von satznahen oder längeren Passagen aus solchen Tools in schriftliche Arbeiten ohne Erlaubnis oder erforderliche Offenlegung. Das ist relevant, weil es verschleiern kann, was Lernende tatsächlich können, und die Ehrlichkeit und Fairness untergräbt, auf denen akademische Integrität basiert.

Wie die Studie aufgebaut war

Um zu untersuchen, ob Technologie Lehrkräfte bei der Erkennung dieser Form verdeckter Hilfe unterstützen kann, führten die Forschenden ein zweistufiges Experiment an einer chinesischen Universität durch. Zuerst erledigten 39 Englischlernende mit mittleren bis oberen Mittelstufenfertigkeiten zwei kurze Übersetzungsaufgaben von Chinesisch nach Englisch. Eine Gruppe übersetzte vollständig selbst, eine Gruppe bearbeitete nachträglich Ausgaben von Google Translate und eine weitere Gruppe überarbeitete Ausgaben von ChatGPT. So entstanden 78 Schülerübersetzungen unter drei verschiedenen Bedingungen. In einem zweiten Schritt wurden 78 Englischlehrkräfte gebeten zu beurteilen, ob jede ihnen vorgelegte Probe maschinenunterstützt war oder nicht, und die sprachlichen Hinweise zu notieren, auf die sie sich stützten. Die Hälfte der Lehrkräfte traf diese Entscheidungen ohne Hilfsmittel. Der anderen Hälfte wurde ein kompakter Bericht von ProWritingAid zur Verfügung gestellt, einem KI-gestützten Tool, das Merkmale wie Grammatikgenauigkeit, typische Satzlänge und die Häufigkeit von Verknüpfungswörtern zusammenfasst.

Figure 1
Figure 1.

Was der KI-Bericht veränderte

Das zentrale Ergebnis ist, dass Lehrkräfte mit Zugang zum KI-Bericht deutlich treffsicherer urteilten. Im Durchschnitt lagen die ungestützten Lehrkräfte etwa halb so oft richtig, während diejenigen mit ProWritingAid in etwa drei von vier Fällen korrekt lagen. Das Tool nannte nicht explizit, welche Texte maschinenunterstützt waren; stattdessen machte es messbare Muster im Schreiben sichtbar. Beispielsweise zeigten einige Übersetzungen ungewöhnlich hohe Korrektheit, komplexe Formulierungen oder dichte Verwendung von Verbindungswörtern im Vergleich zu dem, was Lehrkräfte von dieser Lernergruppe erwartet hätten. Der Bericht erleichterte es, diese Kontraste über mehrere Proben hinweg zu erkennen und gab Lehrkräften eine stärkere Grundlage für Misstrauen oder Entwarnung.

Verschiedene Werkzeuge, verschiedene Spuren

Die Studie ergab außerdem, dass nicht alle maschinenunterstützten Texte gleichermaßen leicht zu entdecken waren. In diesem Setting wurden Übersetzungen, die durch ChatGPT geprägt waren, am häufigsten identifiziert, diejenigen mit Google Translate am seltensten, und rein menschliche Arbeiten lagen dazwischen. Ein wahrscheinlicher Grund ist, dass die Ausgaben von ChatGPT in Wortschatz und Sprachfluss manchmal „zu gut für dieses Niveau“ wirkten und dadurch einen starken Kontrast zur typischen Schülerarbeit bildeten. Leicht nachbearbeitete Google-Translate-Ausgaben konnten hingegen dem ähneln, was ein Lernender auf mittlerem Niveau realistisch produzieren würde, und ließen sich deshalb schwerer von echten Arbeiten unterscheiden. Die Forschenden warnen, dass diese Ergebnisse an die konkrete Aufgabe, das Sprachpaar und die Lernergruppe gebunden sind und anderswo anders ausfallen könnten.

Figure 2
Figure 2.

Die Hinweise, die Lehrkräfte tatsächlich nutzen

Als Lehrkräfte ihre Entscheidungen erläuterten, verwiesen die meisten nicht auf auffällige Fehler, sondern auf Stärken, die untypisch erschienen: anspruchsvolle Wortwahl, sehr polierte Sätze, starke Kohäsion und ein nahezu vollständiges Fehlen von Fehlern. Klassische Maschinen„patzer“ wie seltsame Formulierungen oder falsche Wortwahl wurden viel seltener genannt. Lehrkräfte mit Zugang zum KI-Bericht nannten pro Entscheidung eine größere Mischung von Hinweisen, was darauf hindeutet, dass das Tool sie ermunterte, mehrere Aspekte des Textes gegeneinander abzuwägen, statt sich auf eine einzelne Ahnung zu stützen. Während dieser breitere Blick die Gesamttrefferquote verbesserte, birgt er auch ein Risiko: wirklich hervorragende Schülerarbeiten können fälschlich als verdächtig eingestuft werden, nur weil sie die Erwartungen übertreffen.

Was das für faire Bewertung bedeutet

Für Lesende außerhalb des Fachgebiets ist die wichtigste Schlussfolgerung, dass KI Lehrkräfte tatsächlich dabei helfen kann, verdeckte Nutzung maschineller Übersetzung aufzuspüren, dass sie aber kein magischer Lügendetektor ist. Selbst mit Analytikunterstützung werden einige echte Arbeiten fälschlich markiert und einige maschinenunterstützte Arbeiten bleiben unentdeckt. Die Autor*innen plädieren dafür, solche Werkzeuge als Leitfaden und nicht als Ersatz menschlichen Urteils zu nutzen, und dass jede „rote Flagge“ zu einer sorgfältigen Überprüfung statt zu automatischen Sanktionen führen sollte. Sie fordern außerdem klare Regeln im Unterricht, wann und wie Übersetzungswerkzeuge verwendet werden dürfen, sowie Schulungen, die Lehrkräften und Lernenden die Stärken und Grenzen dieser Technologien vermitteln. Auf ausgeglichene Weise eingesetzt kann KI ehrlicheres, transparenteres Sprachenlernen unterstützen, anstatt ihm zu widersprechen.

Zitation: Zhou, X., Wang, X. Upholding academic integrity: an exploratory study of AI-assisted detection of unauthorised machine translation use in student translations. Humanit Soc Sci Commun 13, 331 (2026). https://doi.org/10.1057/s41599-026-06827-7

Schlüsselwörter: akademische Integrität, maschinelle Übersetzung, Sprachbewertung, KI-Schreibanalytik, Übersetzungsdidaktik