Clear Sky Science · fr
Préserver l’intégrité académique : une étude exploratoire sur la détection assistée par IA de l’utilisation non autorisée de la traduction automatique dans les traductions d’étudiants
Pourquoi cela compte pour les étudiants et les enseignants
À mesure que les traducteurs en ligne et les chatbots deviennent des outils d’étude quotidiens, il devient plus difficile pour les enseignants de savoir quand un travail d’étudiant reflète réellement les compétences du apprenant. Cet article examine si un programme d’analyse d’écriture peut aider les enseignants à repérer l’usage dissimulé de la traduction automatique dans les cours de langues, et ce que cela implique pour l’équité et la confiance dans l’éducation.
L’essor des aides numériques dans l’apprentissage des langues
Des outils comme Google Translate et de grands chatbots peuvent désormais produire des traductions fluides et souvent impressionnantes en quelques secondes. Utilisés à bon escient, ils peuvent soutenir la lecture, l’écoute et même la pratique de l’écriture. Mais lorsque des étudiants copient discrètement ces productions dans des devoirs qui sont censés montrer leur propre capacité, la frontière entre « aide intelligente » et « tricherie » s’estompe. Les auteurs définissent l’usage « non autorisé » comme la copie de segments phrase par phrase ou plus longs issus de ces outils dans un travail écrit sans autorisation ni déclaration requise. Cela importe parce que cela peut masquer les véritables compétences des étudiants et compromettre l’honnêteté et l’équité sur lesquelles repose l’intégrité académique.
Comment l’étude a été conçue
Pour explorer si la technologie peut aider les enseignants à repérer ce type d’aide dissimulée, les chercheurs ont mené une expérience en deux étapes dans une université chinoise. D’abord, 39 apprenants d’anglais de niveau intermédiaire à intermédiaire supérieur ont réalisé deux courtes tâches de traduction du chinois vers l’anglais. Un groupe a traduit entièrement seul, un groupe a post-édité la sortie de Google Translate et un autre a post-édité la sortie de ChatGPT. Cela a produit 78 traductions d’étudiants dans trois conditions différentes. Ensuite, 78 enseignants d’anglais ont été invités à juger si chaque échantillon qu’ils voyaient avait été aidé par une machine ou non, et à indiquer les indices linguistiques sur lesquels ils s’appuyaient. La moitié des enseignants ont pris ces décisions sans aide. L’autre moitié a reçu un rapport concis de ProWritingAid, un outil alimenté par l’IA qui résume des caractéristiques telles que la justesse grammaticale, la longueur de phrase typique et la fréquence d’utilisation des mots de liaison.

Ce que le rapport d’IA a changé
La conclusion centrale est que les enseignants disposant du rapport d’IA étaient nettement plus précis dans leurs jugements. En moyenne, les enseignants sans aide avaient raison environ la moitié du temps, tandis que ceux utilisant ProWritingAid avaient raison dans environ trois cas sur quatre. L’outil ne leur disait pas quels textes étaient assistés par la machine ; il mettait en évidence des motifs mesurables dans l’écriture. Par exemple, certaines traductions montraient une correction exceptionnellement élevée, un vocabulaire complexe ou un usage dense des connecteurs, comparé à ce que les enseignants attendaient de ce groupe d’apprenants. Le rapport a rendu ces contrastes plus faciles à repérer sur plusieurs échantillons à la fois, donnant aux enseignants une base plus solide pour soupçonner ou se rassurer.
Outils différents, empreintes différentes
L’étude a également montré que tous les textes aidés par une machine n’étaient pas également faciles à détecter. Dans ce contexte, les traductions façonnées par ChatGPT ont été identifiées le plus souvent, celles impliquant Google Translate le moins, et les travaux exclusivement humains se situaient entre les deux. Une raison probable est que la production de ChatGPT paraissait parfois « trop bonne pour ce niveau » en termes de vocabulaire et de fluidité, créant un contraste net avec le travail typique des étudiants. En revanche, une sortie de Google Translate légèrement éditée pouvait ressembler à ce qu’un apprenant intermédiaire produirait de façon réaliste, rendant la distinction plus difficile. Les chercheurs soulignent que ces résultats sont liés à cette tâche, à cette paire de langues et à ce groupe d’étudiants, et pourraient se manifester différemment ailleurs.

Les indices réellement utilisés par les enseignants
Lorsque les enseignants ont expliqué leurs décisions, la plupart ont cité non pas des erreurs flagrantes mais des forces qui semblaient hors de propos : choix lexicaux avancés, phrases très soignées, forte cohésion et quasi-absence d’erreurs. Les « bévues » classiques des machines, comme des formulations étranges ou des choix de mot inappropriés, ont été mentionnées beaucoup moins souvent. Les enseignants ayant accès au rapport d’IA ont cité un mélange plus large d’indices par décision, ce qui suggère que l’outil les encourageait à recouper plusieurs aspects du texte plutôt qu’à se fier à une intuition unique. Si cette vue d’ensemble a amélioré la précision globale, elle comporte aussi un risque : un travail réellement excellent d’un étudiant peut être interprété à tort comme suspect simplement parce qu’il dépasse les attentes.
Ce que cela signifie pour une évaluation équitable
Pour les lecteurs extérieurs au domaine, l’essentiel est que l’IA peut effectivement aider les enseignants à repérer l’utilisation dissimulée de la traduction automatique, mais ce n’est pas un détecteur de mensonges magique. Même avec l’appui des analyses, certains travaux authentiques sont signalés à tort et certains travaux assistés par machine passent inaperçus. Les auteurs soutiennent que ces outils doivent guider, et non remplacer, le jugement humain, et que tout « signal d’alerte » devrait conduire à un examen attentif plutôt qu’à une sanction automatique. Ils appellent aussi à des règles claires en classe sur le moment et la manière dont les outils de traduction peuvent être utilisés, et à des formations qui aident enseignants et étudiants à comprendre les forces et les limites de ces technologies. Utilisée de manière équilibrée, l’IA peut soutenir un apprentissage des langues plus honnête et transparent plutôt que de s’y opposer.
Citation: Zhou, X., Wang, X. Upholding academic integrity: an exploratory study of AI-assisted detection of unauthorised machine translation use in student translations. Humanit Soc Sci Commun 13, 331 (2026). https://doi.org/10.1057/s41599-026-06827-7
Mots-clés: intégrité académique, traduction automatique, évaluation linguistique, analytique d’écriture par IA, enseignement de la traduction