Clear Sky Science · de

Einfluss der Lösungseffizienz und der Valenz der Instruktion auf additive und subtraktive Lösungsstrategien bei Menschen, GPT-4 und GPT-4o

· Zurück zur Übersicht

Warum weniger tun überraschend schwerfällt

Wenn wir alltägliche Probleme lösen—eine E‑Mail umschreiben, einen Raum neu organisieren, eine Richtlinie überarbeiten—denken wir meist daran, was wir hinzufügen könnten, nicht daran, was zu entfernen wäre. Diese leise Neigung, draufzupacken statt zu reduzieren, kann unser Leben mit Ballast, aufgeblähter Software und überkomplizierten Regeln verstopfen. Der Artikel untersucht, wie stark diese „mehr ist besser“-Gewohnheit wirklich ist und ob neue künstliche Intelligenzen wie GPT-4 und GPT-4o diese menschliche Verzerrung teilen, abschwächen oder sogar verstärken.

Figure 1
Figure 1.

Warum Hinzufügen dem Wegnehmen in unserem Denken überlegen ist

Psychologen haben gezeigt, dass Menschen Lösungen, die Entfernen beinhalten, oft übersehen—selbst wenn Subtraktion einfacher oder effektiver wäre. Hinzufügen fühlt sich natürlich an und wird durch Kultur und Sprache bestärkt: Wörter wie „mehr“ und „höher“ werden mit Verbesserung und Erfolg verknüpft, während „weniger“ nach Verlust oder Scheitern klingen kann. Diese Verzerrung zeigt sich in vielen Bereichen, von der Medizin, die zu zusätzlichen Behandlungen neigt statt schädliche Gewohnheiten einzustellen, bis zu Umweltpolitiken, die Recycling betonen statt einfach weniger Abfall zu produzieren. Die aktuelle Forschung fragt, ob diese menschliche Tendenz zur Addition auch in leistungsfähigen Sprachmodellen sichtbar ist, die auf riesigen Textsammlungen trainiert wurden.

Menschen und KI an einfachen Aufgaben getestet

Die Forschenden führten zwei große Studien durch, in denen menschliche Teilnehmer mit GPT-4 und anschließend mit dessen Nachfolger GPT-4o verglichen wurden. Sowohl Menschen als auch KI standen vor zwei Aufgabenarten. In einer räumlichen „Symmetrie“-Aufgabe mussten sie ein kleines Rastermuster durch Umschalten von Feldern perfekt symmetrisch machen, was entweder durch Auffüllen zusätzlicher Felder (Addition) oder durch Löschen vorhandener Felder (Subtraktion) erreicht werden konnte. In einer sprachlichen „Zusammenfassungs“-Aufgabe erhielten sie einen Zeitungsartikel und eine bestehende Zusammenfassung und sollten diese unter Wortzahlbeschränkungen ändern, ebenfalls entweder durch Hinzufügen oder Streichen von Wörtern. Das Team variierte außerdem zwei zentrale Faktoren: ob Addition und Subtraktion gleich effizient waren oder ob Subtraktion deutlich weniger Schritte erforderte, und ob die Instruktionen neutral formuliert waren („ändern“) oder positiv aufgeladen („verbessern“).

Figure 2
Figure 2.

Was Menschen taten vs. was die Maschinen taten

In beiden Studien zeigte sich ein klares Muster: Menschen und Sprachmodelle bevorzugten additive Lösungen, aber die Modelle taten dies deutlich stärker. Menschen zeigten eine ausgeprägte Neigung, Felder oder Wörter hinzuzufügen, beachteten jedoch die Effizienz. Wenn Subtraktion der schnellere Weg war, waren sie merklich eher bereit, Elemente zu entfernen. Im Gegensatz dazu verhielt sich GPT-4 oft konträr—es produzierte noch mehr additive Antworten gerade dann, wenn Subtraktion effizienter gewesen wäre. GPT-4o verringerte diese Diskrepanz in der textbasierten Zusammenfassungsaufgabe etwas, wo seine Entscheidungen eher dem menschlichen Verhalten folgten, ignorierte in der Rasteraufgabe jedoch weiterhin weitgehend die Effizienz. In vielen Bedingungen, besonders bei GPT-4o, erreichten additive Antworten nahezu Spitzenwerte.

Wie positive Formulierungen Entscheidungen lenken

Der emotionale Ton der Instruktionen spielte ebenfalls eine Rolle, aber auf spezifische Weise. In der räumlichen Rasteraufgabe veränderte der Wechsel des Verbs von neutral („ändern“) zu positiv („verbessern“) die Strategien weder bei Menschen noch bei Modellen zuverlässig. In der Zusammenfassungsaufgabe sah die Lage jedoch anders aus. Wenn die Instruktionen wiederholt positiv formuliert wurden, produzierten sowohl die GPT‑Modelle als auch in der zweiten Studie die menschlichen Teilnehmenden mehr additive Antworten. Das stimmt mit breiteren Sprachstatistiken überein, die zeigen, dass Wörter im Zusammenhang mit Verbesserung häufiger mit Hinzufügen statt Entfernen verknüpft werden. Es deutet darauf hin, dass subtile emotionale Rahmung in Prompts sowohl Menschen als auch KI in Richtung „mehr“ schieben kann, selbst wenn „weniger“ ausreichen würde.

Warum diese Ergebnisse für Alltagsentscheidungen wichtig sind

Für eine allgemeine Leserschaft ist die wichtigste Botschaft: Unsere Gehirne und die von uns entwickelten KIs teilen eine starke Präferenz für Lösungen, die hinzufügen statt wegnehmen—und aktuelle Sprachmodelle verstärken diese Neigung häufig. Menschen zeigen noch eine gewisse Flexibilität und passen sich an, wenn Subtraktion klar effizienter ist, doch die Modelle folgen überwiegend Mustern, die in der Sprache verankert sind, mit der sie trainiert wurden. Da diese Systeme zunehmend beim Formulieren von Richtlinien, beim Entwerfen von Systemen oder beim Vorschlagen alltäglicher Verbesserungen unterstützen, können sie uns unmerklich zu komplexeren, stärker überfrachteten Antworten lenken. Die Anerkennung dieses gemeinsamen „Additionsbias“ ist ein erster Schritt hin zur Gestaltung von Werkzeugen und Gewohnheiten, die uns daran erinnern, nicht nur zu fragen: „Was können wir hinzufügen?“, sondern auch: „Was können wir entfernen?“

Zitation: Uhler, L., Jordan, V., Buder, J. et al. Influence of solution efficiency and valence of instruction on additive and subtractive solution strategies in humans, GPT-4, and GPT-4o. Commun Psychol 4, 41 (2026). https://doi.org/10.1038/s44271-026-00403-0

Schlüsselwörter: Additionsbias, subtraktives Denken, große Sprachmodelle, Mensch–KI-Vergleich, Entscheidungsfindung