Clear Sky Science · fr

Influence de l’efficacité de la solution et de la tonalité des consignes sur les stratégies additionnelles et soustractives chez les humains, GPT-4 et GPT-4o

· Retour à l’index

Pourquoi faire moins est étonnamment difficile

Lorsque nous cherchons à améliorer des choses au quotidien — réécrire un courriel, réorganiser une pièce, refondre une politique — nous pensons généralement à ce qu’il faut ajouter, pas à ce qu’il faut enlever. Cette tendance discrète à accumuler plutôt qu’à réduire peut encombrer notre vie d’objets inutiles, alourdir des logiciels et complexifier des règles. L’article analyse la force de cette habitude du « plus c’est mieux » et interroge si les nouvelles intelligences artificielles comme GPT-4 et GPT-4o partagent, atténuent ou renforcent ce biais humain.

Figure 1
Figure 1.

Pourquoi ajouter l’emporte sur soustraire dans nos esprits

Les psychologues ont montré que les gens négligent souvent les solutions qui impliquent d’enlever des éléments, même lorsque la soustraction serait plus simple ou plus efficace. Ajouter paraît naturel et est renforcé par la culture et le langage : des mots comme « plus » et « meilleur » sont associés à l’amélioration et au succès, tandis que « moins » peut évoquer la perte ou l’échec. Ce biais se manifeste dans de nombreux domaines, depuis les soins de santé qui favorisent des traitements additionnels plutôt que l’arrêt d’habitudes nocives, jusqu’aux politiques environnementales qui mettent l’accent sur le recyclage plutôt que sur la réduction de la production de déchets. La recherche actuelle examine si cette inclination humaine pour l’addition apparaît également dans de puissants modèles de langage entraînés sur d’immenses corpus de textes.

Tester les humains et l’IA sur des énigmes simples

Les chercheurs ont mené deux grandes études comparant des participants humains avec GPT-4 puis avec son successeur GPT-4o. Les humains et les IA ont affronté deux types de problèmes. Dans une tâche spatiale de « symétrie », ils devaient rendre un petit motif en grille parfaitement symétrique en basculant des cases on ou off, ce qui pouvait se faire soit en remplissant des cases supplémentaires (addition), soit en effaçant des cases existantes (soustraction). Dans une tâche linguistique de « résumé », ils recevaient un article de presse et un résumé existant et devaient le modifier sous contrainte du nombre de mots, autorisant là encore soit l’ajout soit la suppression de mots. L’équipe a aussi manipulé deux facteurs clés : si l’ajout et la suppression étaient également efficaces ou si la soustraction demandait clairement moins d’étapes, et si les consignes étaient formulées de manière neutre (« modifier ») ou avec une tonalité positive (« améliorer »).

Figure 2
Figure 2.

Ce que faisaient les humains versus ce que faisaient les machines

Dans les deux études, un schéma clair est apparu : humains et modèles de langage préféraient tous des solutions additives, mais les modèles le faisaient beaucoup plus fortement. Les humains montraient une attirance nette pour l’ajout de cases ou de mots, tout en tenant compte de l’efficacité. Lorsque la soustraction était la voie la plus rapide, ils étaient nettement plus disposés à retirer des éléments. En revanche, GPT-4 se comportait souvent de façon opposée — produisant encore plus de réponses additives précisément lorsque la soustraction aurait été plus efficace. GPT-4o a quelque peu réduit ce décalage dans la tâche de résumé textuel, où ses choix suivaient davantage le comportement humain, mais dans la tâche de grille il a encore largement ignoré l’efficacité. Dans de nombreuses conditions, en particulier pour GPT-4o, les réponses additives atteignaient des niveaux proches du plafond.

Comment une formulation positive influence les choix

La tonalité émotionnelle des consignes importait également, mais de manière spécifique. Dans la tâche spatiale de grille, passer du verbe neutre (« modifier ») au verbe positif (« améliorer ») n’a pas modifié de façon fiable les stratégies chez les humains ou les modèles. Dans la tâche de résumé, en revanche, l’effet était différent. Lorsque les consignes utilisaient à plusieurs reprises un langage positif, les deux modèles GPT et, dans la seconde étude, les participants humains ont produit davantage de réponses additives. Cela concorde avec des statistiques linguistiques plus générales montrant que les mots liés à l’amélioration sont plus souvent associés à l’idée d’ajouter qu’à celle d’enlever. Cela suggère qu’un cadrage émotionnel subtil dans les consignes peut pousser à la fois les personnes et l’IA vers le « plus » alors que le « moins » suffirait.

Pourquoi ces résultats comptent pour les décisions quotidiennes

Pour un lecteur non spécialiste, le message clé est que nos cerveaux, et les IA que nous concevons, partagent une forte préférence pour des solutions qui ajoutent plutôt que pour celles qui soustraient — et les modèles de langage actuels amplifient souvent cette tendance. Les humains conservent une certaine flexibilité, s’adaptant lorsque la soustraction est clairement plus efficace, mais les modèles suivent largement des schémas incorporés dans le langage sur lequel ils ont été entraînés. À mesure que ces systèmes aident de plus en plus à rédiger des politiques, concevoir des systèmes ou proposer des améliorations quotidiennes, ils peuvent nous orienter subtilement vers des réponses plus complexes et plus encombrées. Reconnaître ce « biais d’addition » partagé est une première étape pour concevoir des outils et des habitudes qui nous rappellent de ne pas seulement demander « Que pouvons-nous ajouter ? » mais aussi « Que pouvons-nous retirer ? »

Citation: Uhler, L., Jordan, V., Buder, J. et al. Influence of solution efficiency and valence of instruction on additive and subtractive solution strategies in humans, GPT-4, and GPT-4o. Commun Psychol 4, 41 (2026). https://doi.org/10.1038/s44271-026-00403-0

Mots-clés: biais d’addition, raisonnement soustractif, grands modèles de langue, comparaison humain–IA, prise de décision