Clear Sky Science · nl
Behoud van academische integriteit: een verkennende studie naar AI-ondersteunde detectie van ongeoorloofd gebruik van automatische vertaling in vertalingen door studenten
Waarom dit ertoe doet voor studenten en docenten
Naarmate online vertaalprogramma’s en chatbots alledaagse studietools worden, wordt het voor docenten moeilijker om te bepalen wanneer een stuk werk van een student werkelijk de eigen vaardigheid van de leerling weerspiegelt. Dit artikel onderzoekt of een schrijf-analyseprogramma docenten kan helpen verborgen gebruik van machinevertaling in taallessen te herkennen, en wat dit betekent voor eerlijkheid en vertrouwen in het onderwijs.
De opkomst van digitale hulpmiddelen in taalleren
Tools zoals Google Translate en grote chatbots kunnen nu in enkele seconden vloeiende, vaak indrukwekkende vertalingen produceren. Doordacht gebruikt kunnen ze steun bieden bij lezen, luisteren en zelfs schrijftraining. Maar wanneer studenten deze outputs ongemerkt in opdrachten plakken die bedoeld zijn om hun eigen kunnen te tonen, vervaagt de grens tussen “handige hulp” en “valsspelen”. De auteurs definiëren “ongeoorloofd” gebruik als het kopiëren van zinsniveau of langere stukken uit zulke tools in geschreven werk zonder toestemming of verplichte melding. Dit is belangrijk omdat het kan verhullen wat studenten echt kunnen en de eerlijkheid en integriteit schadelijk maakt waarop academische integriteit berust.
Hoe de studie was opgezet
Om te onderzoeken of technologie docenten kan helpen dit soort verborgen hulp te herkennen, voerden de onderzoekers een tweefasig experiment uit aan een Chinese universiteit. Eerst voltooiden 39 Engelsleerlingen met een gemiddeld tot hoger gemiddeld niveau twee korte Chinese-naar-Engelse vertaaltaken. De ene groep vertaalde volledig zelfstandig, een andere groep bewerkte de output van Google Translate na (post-editing) en een derde groep bewerkte de output van ChatGPT. Dit leverde 78 studentenvertalingen op onder drie verschillende condities. Ten tweede werden 78 Engelse docenten gevraagd te oordelen of elk getoond voorbeeld met machinehulp tot stand was gekomen en welke taalkundige aanwijzingen zij gebruikten. De helft van de docenten maakte deze beslissingen zonder hulpmiddelen. De andere helft kreeg een compact rapport van ProWritingAid, een AI-gestuurde tool die kenmerken samenvat zoals grammaticanauwkeurigheid, typische zinslengte en hoe vaak verbindingswoorden worden gebruikt.

Wat het AI-rapport veranderde
De belangrijkste bevinding is dat docenten die toegang hadden tot het AI-rapport veel nauwkeuriger waren in hun beoordelingen. Gemiddeld zaten de onondersteunde docenten ongeveer half het aantal keren goed, terwijl degenen die ProWritingAid gebruikten in ongeveer drie van de vier gevallen juist waren. De tool zei niet expliciet welke teksten met machinehulp waren gemaakt; in plaats daarvan benadrukte zij meetbare patronen in het schrijven. Sommige vertalingen lieten bijvoorbeeld ongewoon hoge correctheid, complex woordgebruik of een geconcentreerd gebruik van verbindingswoorden zien, vergeleken met wat docenten van deze groep leerlingen zouden verwachten. Het rapport maakte deze contrasten makkelijker zichtbaar over meerdere voorbeelden tegelijk, waardoor docenten een sterker fundament kregen voor achterdocht of geruststelling.
Verschillende tools, verschillende sporen
De studie toonde ook aan dat niet alle machine-ondersteunde teksten even makkelijk te detecteren waren. In deze setting werden vertalingen die door ChatGPT waren gevormd het vaakst geïdentificeerd, die met Google Translate het minst vaak, en puur menselijk werk viel ertussenin. Een waarschijnlijke reden is dat de output van ChatGPT soms “te goed voor dit niveau” leek qua woordenschat en vloeiendheid, waardoor een scherp contrast met typisch studentwerk ontstond. Licht bewerkte Google Translate-output daarentegen kon lijken op wat een tussenniveau-leerling realistisch zou produceren, wat het lastiger maakte om het van echt werk te onderscheiden. De onderzoekers waarschuwen dat deze resultaten gebonden zijn aan deze specifieke taak, taalkoppeling en studentengroep, en elders anders kunnen uitpakken.

De aanwijzingen die docenten echt gebruiken
Toen docenten hun beslissingen toelichtten, wezen de meesten niet op opvallende fouten maar op kwaliteiten die ongewoon leken: geavanceerde woordkeuze, zeer verzorgde zinnen, sterke samenhang en vrijwel geen fouten. Klassieke machine-“blunders” zoals vreemde formuleringen of verkeerde woordkeuze werden veel minder vaak genoemd. Docenten met toegang tot het AI-rapport noemden per beslissing een bredere mix van aanwijzingen, wat suggereert dat de tool hen aanspoorde meerdere aspecten van de tekst te vergelijken in plaats van op één onderbuikgevoel te vertrouwen. Hoewel dit bredere perspectief de algemene nauwkeurigheid verbeterde, brengt het ook een risico met zich mee: echt uitstekend studentwerk kan ten onrechte als verdacht worden gezien simpelweg omdat het de verwachtingen overtreft.
Wat dit betekent voor eerlijke beoordeling
Voor lezers buiten het vakgebied is de belangrijkste conclusie dat AI docenten inderdaad kan helpen verborgen gebruik van machinevertaling te ontdekken, maar het is geen magische leugendetector. Zelfs met ondersteuning van analytics wordt een deel van het echte werk onterecht gemarkeerd en glipt een deel van het machine-ondersteunde werk door de mazen. De auteurs betogen dat zulke tools moeten sturen, niet vervangen, menselijke oordeelsvorming, en dat elke “alarmvlag” moet leiden tot zorgvuldig onderzoek in plaats van automatische bestraffing. Ze pleiten ook voor duidelijke klasregels over wanneer en hoe vertaalttools mogen worden gebruikt, en voor training die zowel docenten als studenten helpt de sterke en zwakke punten van deze technologieën te begrijpen. Op deze evenwichtige manier gebruikt kan AI eerlijker en transparanter taalonderwijs ondersteunen in plaats van ertegen te werken.
Bronvermelding: Zhou, X., Wang, X. Upholding academic integrity: an exploratory study of AI-assisted detection of unauthorised machine translation use in student translations. Humanit Soc Sci Commun 13, 331 (2026). https://doi.org/10.1057/s41599-026-06827-7
Trefwoorden: academische integriteit, machinevertaling, taalevaluatie, AI schrijfanalytics, vertalingsonderwijs