Clear Sky Science · it
Influenza dell’efficienza della soluzione e della connotazione delle istruzioni sulle strategie additive e sottrattive in esseri umani, GPT-4 e GPT-4o
Perché fare di meno è sorprendentemente difficile
Quando cerchiamo di sistemare le cose nella vita quotidiana—riscrivere un’email, riorganizzare una stanza, ridisegnare una politica—di solito pensiamo a cosa aggiungere, non a cosa togliere. Questa tendenza silenziosa ad accumulare invece che ridurre può intasare le nostre vite con ingombri, software gonfi e regole troppo complicate. L’articolo esplora quanto sia forte quest’abitudine del “più è meglio” e se le nuove intelligenze artificiali come GPT-4 e GPT-4o condividano, attenuino o addirittura intensifichino questo bias umano.

Perché l’aggiungere prevale sul sottrarre nelle nostre menti
Gli psicologi hanno dimostrato che le persone spesso trascurano soluzioni che consistono nel togliere elementi, anche quando la sottrazione sarebbe più semplice o più efficace. Aggiungere sembra naturale ed è rinforzato dalla cultura e dal linguaggio: parole come “più” e “migliore” sono associate al progresso e al successo, mentre “meno” può suonare come perdita o fallimento. Questo bias emerge in molti ambiti, dalla sanità che favorisce trattamenti aggiuntivi invece di fermare abitudini dannose, alle politiche ambientali che enfatizzano il riciclo anziché la riduzione della produzione di rifiuti. La ricerca attuale si chiede se questo orientamento umano verso l’aggiunta compaia anche nei potenti modelli linguistici addestrati su grandi raccolte di testi.
Testare persone e IA con semplici puzzle
I ricercatori hanno condotto due ampi studi che confrontavano partecipanti umani con GPT-4 e poi con il suo successore GPT-4o. Sia gli umani sia le IA si sono trovati davanti a due tipi di problemi. In un compito spaziale di “simmetria”, dovevano rendere perfettamente simmetrico un piccolo schema a griglia attivando o disattivando caselle, cosa ottenibile sia riempiendo caselle (aggiunta) sia svuotandone di esistenti (sottrazione). In un compito linguistico di “sintesi”, ricevevano un articolo di notizie e un riassunto esistente e dovevano modificarlo rispettando un vincolo sul numero di parole, consentendo ancora una scelta tra aggiungere o tagliare parole. Il team ha inoltre manipolato due fattori chiave: se aggiungere e sottrarre fossero ugualmente efficienti o se la sottrazione richiedesse chiaramente meno passaggi, e se le istruzioni fossero formulate in termini neutri (“modifica”) o con una connotazione positiva (“migliora”).

Cosa hanno fatto le persone rispetto alle macchine
In entrambi gli studi è emerso un pattern chiaro: sia gli umani sia i modelli linguistici preferivano soluzioni additive, ma i modelli lo facevano in misura molto maggiore. Le persone mostravano un’attrazione robusta verso l’aggiungere caselle o parole, pur prestando attenzione all’efficienza. Quando la sottrazione era la via più rapida, erano decisamente più disposte a rimuovere elementi. Per contro, GPT-4 spesso si comportava nella direzione opposta—producendo risposte ancora più additive proprio quando la sottrazione sarebbe stata più efficiente. GPT-4o ha attenuato in parte questa discrepanza nel compito di sintesi testuale, dove le sue scelte seguivano più da vicino il comportamento umano, ma nel compito a griglia ha comunque in larga misura ignorato l’efficienza. In molte condizioni, specialmente per GPT-4o, le risposte additive raggiungevano livelli quasi massimi.
Come la connotazione positiva influenza le scelte
Il tono emotivo delle istruzioni ha avuto effetto, ma in modi specifici. Nel compito della griglia spaziale, cambiare il verbo da neutro (“modifica”) a positivo (“migliora”) non ha alterato in modo affidabile le strategie né per gli umani né per i modelli. Nel compito di sintesi, però, la situazione era diversa. Quando le istruzioni usavano ripetutamente un linguaggio positivo, entrambi i modelli GPT e, nel secondo studio, i partecipanti umani produssero più risposte additive. Questo si allinea con statistiche linguistiche più ampie che mostrano come parole legate al miglioramento siano più spesso associate all’idea di aggiungere piuttosto che togliere. Suggerisce che una sottile cornice emotiva nei prompt possa spingere sia le persone sia l’IA verso il “di più” anche quando il “di meno” sarebbe sufficiente.
Perché questi risultati contano per le decisioni quotidiane
Per il lettore non specialistico, il messaggio chiave è che i nostri cervelli, e le IA che costruiamo, condividono una forte preferenza per soluzioni che aggiungono piuttosto che sottrarre—e i modelli linguistici attuali spesso amplificano questa tendenza. Gli esseri umani mostrano ancora una certa flessibilità, adeguandosi quando la sottrazione è chiaramente più efficiente, ma i modelli seguono in gran parte schemi incorporati nel linguaggio su cui sono stati addestrati. Poiché questi sistemi aiutano sempre più a scrivere politiche, progettare sistemi o suggerire migliorie quotidiane, possono indirizzarci silenziosamente verso risposte più complesse e più ingombranti. Riconoscere questo condiviso “pregiudizio per l’aggiunta” è il primo passo per progettare strumenti e abitudini che ci ricordino di chiederci non solo “Cosa possiamo aggiungere?” ma anche “Cosa possiamo togliere?”
Citazione: Uhler, L., Jordan, V., Buder, J. et al. Influence of solution efficiency and valence of instruction on additive and subtractive solution strategies in humans, GPT-4, and GPT-4o. Commun Psychol 4, 41 (2026). https://doi.org/10.1038/s44271-026-00403-0
Parole chiave: pregiudizio per l’aggiunta, ragionamento sottrattivo, grandi modelli linguistici, confronto uomo–IA, presa di decisioni