Clear Sky Science · fr
L’IA générative dans la rédaction académique : comparaison entre titres d’articles rédigés par des humains et générés par ChatGPT
Pourquoi la façon dont on intitule les articles scientifiques compte
Quand vous cherchez des travaux de recherche médicale en ligne, la première chose que vous voyez est le titre de l’article. En quelques mots seulement, il doit indiquer de quoi traite l’étude et pourquoi elle est importante. Avec des outils d’IA générative comme ChatGPT aidant désormais les chercheurs à rédiger des textes, cette étude pose une question d’actualité : l’IA peut‑elle vraiment imiter la manière dont les spécialistes conçoivent ces titres cruciaux, et qu’est‑ce qui peut être perdu ou gagné si on s’en remet à elle ?
Étudier l’IA et les humains côte à côte
Les chercheurs ont constitué deux corpus de titres soigneusement appariés en médecine générale. L’un contenait 300 titres écrits par des humains et publiés dans trois des revues médicales les plus influentes au monde : The Lancet, JAMA et The BMJ. L’autre contenait 300 titres générés par ChatGPT, chacun à partir du résumé du même article. Ce dispositif a permis aux auteurs de comparer directement les choix humains et ceux de l’IA tout en maintenant l’étude sous‑jacente constante. Ils ont ensuite analysé les titres au moyen de comptages simples et de tests statistiques, en se concentrant sur la longueur des titres, leur structure et le type d’informations qu’ils mettaient en avant.

À quel point les titres de l’IA ressemblent‑ils à ceux des humains ?
En surface, les titres de ChatGPT ressemblaient remarquablement à ceux rédigés par des chercheurs médicaux. La longueur moyenne était presque identique, les deux séries de titres tournant autour de vingt mots. Les humains comme l’IA ont largement privilégié les titres en deux parties, et presque tous prenaient la forme de syntagmes nominaux compacts plutôt que de phrases complètes. Ce style, bien établi en médecine, permet d’inclure beaucoup de détails tout en gardant le titre grammaticalement simple. La forte similitude montre que ChatGPT a intégré ces usages de genre à partir des textes sur lesquels il a été entraîné et peut les reproduire avec une certaine précision.
Différences cachées de style et d’axe
Sous cette similarité générale, cependant, des différences importantes sont apparues. ChatGPT a utilisé encore davantage les titres en deux parties que les auteurs humains, signalant une propension à favoriser des formats très informatifs et élaborés. Lorsqu’ils ont analysé ce que les titres choisissaient de mettre en avant, humains et IA ont majoritairement souligné les méthodes de recherche, conformément à l’accent fort de la médecine sur le plan d’étude et la transparence. Pourtant l’IA a produit proportionnellement plus de titres centrés sur les sources de données et les résultats explicites, et moins de titres qui se contentaient d’indiquer le sujet ou qui combinaient de manière plus souple méthodes et informations sur les jeux de données. Les auteurs humains, en revanche, ont utilisé un mélange de stratégies légèrement plus varié : ils optaient parfois pour des titres plus courts, limités au sujet, ou pour des variations subtiles mettant en avant certains aspects de l’étude.

Ce que cela signifie pour la rédaction assistée par l’IA
Ces tendances indiquent une qualité à double tranchant dans la rédaction assistée par l’IA. D’une part, la proximité entre les pratiques de ChatGPT et celles des humains suggère que l’IA générative peut être un outil utile pour proposer des titres conformes aux normes médicales établies, en particulier pour des étudiants ou des chercheurs rédigeant dans une langue seconde. D’autre part, la forte inclinaison du modèle vers certains schémas familiers — titres en plusieurs parties, centrés sur le nom, axés sur les méthodes et souvent étroitement liés aux jeux de données ou aux résultats — risque de rendre les titres plus formatés au fil du temps. Si les rédacteurs s’appuient trop sur les suggestions de l’IA sans les interroger, la variété et la créativité des titres scientifiques pourraient progressivement se réduire, avec des effets subtils sur la façon dont la recherche est présentée, retrouvée et interprétée.
Concilier l’aide des machines et le jugement humain
En termes simples, l’étude conclut que ChatGPT est très compétent pour imiter la manière dont les titres médicaux sont habituellement rédigés, mais moins apte à assouplir ou à dépasser ces règles de façon réfléchie. Il suit la norme plutôt que de réinventer le discours. Les auteurs soutiennent que les enseignants et les chercheurs doivent développer ce qu’ils appellent une littératie critique de l’IA : l’habitude de traiter les titres générés par l’IA comme des brouillons à évaluer et à réviser, et non comme des produits finaux à accepter sans critique. Utilisée de cette manière, l’IA générative peut aider les rédacteurs à apprendre et à suivre les conventions disciplinaires tandis que le jugement humain préserve la nuance, l’accentuation et l’inventivité occasionnelle qui maintiennent la communication scientifique vivante et claire.
Citation: Ibrahim, S.K.M., Mahmoud, Z.A.Z. Generative AI in academic writing: a comparison of human-authored and ChatGPT-generated research article titles. Humanit Soc Sci Commun 13, 394 (2026). https://doi.org/10.1057/s41599-026-06956-z
Mots-clés: IA générative, rédaction académique, recherche médicale, titres d’articles, ChatGPT