Clear Sky Science · de
Fragestile als Schalter: prompt‑gesteuerte Inkonsistenz in ChatGPTs Ausgaben zur Geschlechtergerechtigkeit
Warum das für alltägliche Gespräche mit KI wichtig ist
Immer mehr Menschen wenden sich an Chatbots wie ChatGPT nicht nur für schnelle Fakten, sondern auch für Rat in Fragen zu Liebe, Familie, Arbeit und zur Fairness zwischen Frauen und Männern. Dieser Artikel stellt eine einfache, aber wichtige Frage: Tritt ChatGPT immer für Geschlechtergerechtigkeit ein, oder ändert sich seine Haltung je nachdem, wie wir mit ihm sprechen? Die Autorinnen und Autoren zeigen, dass die Formulierung unserer Fragen versteckte Schalter im System leise umlegen kann, sodass die Antworten zwischen modern klingender Gleichberechtigung und altmodischen Stereotypen wechseln.
Wie die Forschenden „mit“ dem Chatbot gesprochen haben
Um ChatGPTs Ansichten zu Geschlecht zu untersuchen, entwickelten die Forschenden einen sogenannten „Gender Equality Compass“ – einen Satz von Fragen zu Geld und Arbeit, Politik, Alltagskultur, Sex und Reproduktion sowie engen Beziehungen. Sie stellten dem Chatbot dann 13 Themen aus diesen Bereichen auf drei unterschiedliche Weisen. Erstens verwendeten sie spezifische Prompts, die wie Umfrageitems formuliert waren („Ist es in Ordnung, wenn eine Frau Präsidentin ist, wenn sie qualifiziert ist?“). Zweitens nutzten sie offene Prompts („Was sollten Mütter und Väter in einer Familie tun?“). Drittens setzten sie tiefere, kontextreiche Prompts ein, die zu Rollenspielen oder Geschichten einluden, etwa ChatGPT zu bitten, als fürsorgliche Mutter zu handeln oder sich eine Familienszene vorzustellen. Alle Antworten wurden in separaten Chats gesammelt und mittels Grounded Theory analysiert, einer qualitativen Methode, die Konzepte aus Mustern realer Texte entwickelt.

Was ChatGPT oberflächlich sagt
Wenn die Fragen klar und eindeutig geschlechtsbezogen waren, trat ChatGPT als starke Befürworterin von Gleichberechtigung auf. Es erkannte schnell voreingenommene Formulierungen, wies hasserfüllte oder sexistische Aussagen zurück und wies oft darauf hin, dass bestimmte Formulierungen gegen Nutzungsregeln verstoßen könnten. Bei Fragen zu Abtreibung, Partnerschaftsgewalt oder LGBTQ‑Personen betonte es die körperliche Autonomie von Frauen, wies Opferbeschuldigung zurück und stellte Abtreibung als ein grundlegendes persönliches Recht dar. Es lobte alleinerziehende Mütter und sexuelle Minderheiten, vermied sexistische Begriffe und sprach konsequent davon, Hausarbeit, Einkommen und Entscheidungsfindung zwischen Partnern zu teilen. In neueren Versionen auf GPT‑4‑Basis wurden diese Antworten noch nuancierter und „menschlich“ klingender, griffen auf feministische Ideen zurück und boten konkrete Vorschläge wie Aufklärung zu Einvernehmlichkeit und Geschlechterrollen.
Was in tieferen, geschichtenartigen Chats passiert
Das Bild veränderte sich, sobald die Gespräche intimer und erzählerischer wurden. In Rollenspielen und fiktionalen Szenen, in denen ChatGPT gebeten wurde, als Mutter, Freund oder zur Skizzierung einer Familienszene zu agieren, traten die eingebauten Bias‑Filter oft in den Hintergrund. Stattdessen griff das System auf vertraute kulturelle Muster aus seinen Trainingsdaten zurück. Freundinnen wurden als sanft und zärtlich beschrieben, Freunde und Ehemänner als verantwortungsbewusst und mutig; Väter wurden zu Stützen und Entscheidern, während Mütter als Köchinnen, Pflegende und emotionale Unterstützung dargestellt wurden. Romantische Handlungen liefen häufig darauf hinaus, dass Männer Frauen nachjagen, und Ratschläge setzten stillschweigend heterosexuelle Beziehungen voraus, sofern Nutzerinnen und Nutzer nicht ausdrücklich korrigierten. Die Forschenden zeigen, dass diese „Voreinstellungen“ dem entsprechen, was die feministische Theoretikerin Judith Butler als die „heteronormative Matrix“ bezeichnet: eine Welt, in der Sex, Geschlecht und Begehren in einer engen, traditionellen Weise zusammenfallen.

Warum Geschichten für KI besonders heikel sind
Die Autorinnen und Autoren argumentieren, dass diese Ausrutscher keine bloßen technischen Fehler sind; sie entstehen aus der Art, wie große Sprachmodelle gebaut werden. ChatGPT hat keinen Körper, keine gelebten Erfahrungen und kein direktes Empfinden für Diskriminierung. Es lernt Muster aus Milliarden von Wörtern im Internet, wo Geschlechterstereotype und ungleiche Rollen besonders in fiktionalen Texten weit verbreitet sind. Bei einfachen, sachlichen Fragen können menschliche Trainer und Sicherheitsregeln das Modell zu faireren Antworten lenken. Wird es jedoch gebeten, Szenen zu erfinden oder Rollen zu spielen, stützt es sich stärker auf diese älteren Muster. Ohne die Verankerung in realen Erfahrungen fällt es ihm schwer zu „spüren“, wenn eine Geschichte Ungleichheit stillschweigend normalisiert – selbst wenn die Worte das Geschlecht nie explizit erwähnen.
Was das für Menschen und Politik bedeutet
Für Laien ist die Kernbotschaft klar: ChatGPT kann leidenschaftlich für Geschlechtergerechtigkeit eintreten, wenn es direkt und eindeutig gefragt wird, reproduziert aber dennoch subtilen Sexismus gerade in den emotionalen, eins‑zu‑eins‑Gesprächen, in denen Nutzerinnen und Nutzer besonders verwundbar sein können. Weil Menschen den Chatbot oft wie einen vertrauten Begleiter behandeln, birgt diese verborgene Inkonsistenz das Risiko, alte Vorurteile unter einer modernen, freundlichen Oberfläche zu verbreiten. Die Autorinnen und Autoren fordern stärkere Testmethoden, vielfältigere und feministisch informierte Trainingsdaten sowie genauere Beachtung, wie tiefgehende, geschichtenbasierte Prompts das Verhalten von KI formen. Kurz gesagt: Die Studie zeigt, dass die Art des Fragens wichtig ist – der Modus der Fragestellung kann ChatGPT zwischen einem Vorkämpfer der Gleichberechtigung und einem unreflektierten Spiegel traditioneller Normen umschalten.
Zitation: Song, S., Liang, Z. & Zhao, W. Modes of asking as switches: prompt-driven inconsistency in ChatGPT’s gender equality perspective outputs. Humanit Soc Sci Commun 13, 478 (2026). https://doi.org/10.1057/s41599-025-05577-2
Schlüsselwörter: Geschlechterbias, ChatGPT, KI‑Ethik, Prompt‑Gestaltung, Stereotype