Clear Sky Science · sv

Frågesätt som omkopplare: promptdriven inkonsekvens i ChatGPT:s uttalanden om jämställdhet

· Tillbaka till index

Varför detta spelar roll i vardagliga samtal med AI

Fler och fler vänder sig till chattbotar som ChatGPT inte bara för snabba fakta, utan också för råd om kärlek, familj, arbete och frågor om rättvisa mellan kvinnor och män. Den här artikeln ställer en enkel men viktig fråga: står ChatGPT alltid på jämställdhetens sida, eller förändras dess hållning beroende på hur vi pratar med den? Författarna visar att sättet vi formulerar våra frågor kan tyst växla dolda inställningar i systemet och skifta svaren mellan ett modernt klingande jämlikhetsperspektiv och gammaldags stereotyper.

Hur forskarna “pratade” med chatboten

För att undersöka ChatGPT:s syn på kön byggde forskarna vad de kallar en “Gender Equality Compass” – en uppsättning frågor som täcker ekonomi och arbete, politik, vardagskultur, sex och reproduktion samt nära relationer. De ställde sedan frågor om 13 ämnen inom dessa områden till ChatGPT på tre olika sätt. Först använde de specifika prompts som liknade enkätfrågor (”Är det okej att en kvinna blir president om hon är kvalificerad?”). För det andra användes öppna prompts (”Vad bör mödrar och fäder göra i en familj?”). För det tredje användes djupa, kontextuella prompts som inbjöd till rollspel eller berättelser, till exempel att be ChatGPT agera som en omtänksam mor eller att föreställa sig en scen i en familj. Alla svar samlades in i separata chattsessioner och analyserades med grounded theory, en kvalitativ metod som bygger begrepp från mönster i verkliga texter.

Figure 1
Figure 1.

Vad ChatGPT säger på ytan

När frågorna var raka och tydligt handlade om kön agerade ChatGPT som en stark förespråkare för jämlikhet. Den upptäckte snabbt partisk formulering, avvisade hatiska eller sexistiska påståenden och varnade ofta för att vissa uttryck kunde bryta användarregler. I frågor om abort, partnerrelaterat våld eller HBTQ‑personer betonade den kvinnors kroppsliga autonomi, avvisade skuldbeläggning av offer och framställde abort som en grundläggande personlig rättighet. Den berömde ensamstående mödrar och sexuella minoriteter, undvek sexistiska termer och talade konsekvent om att dela sysslor, inkomster och beslutsfattande mellan partner. I nyare versioner baserade på GPT‑4 blev dessa svar ännu mer nyanserade och ”människoliknande”, med inslag av feministiska idéer och konkreta förslag, som utbildning om samtycke och könsroller.

Vad som händer i djupare, berättelselika samtal

Bilden förändrades när samtalen blev mer intima och fantasifulla. I rollspel och fiktiva scener, där ChatGPT ombads agera som en mor, en pojkvän eller skissera en familjehistoria, tonade ofta de inbyggda partiskhetsfiltren ner. Istället föll systemet tillbaka på bekanta kulturella mönster från sitt träningsmaterial. Flickvänner beskrevs som milda och ömma, pojkvänner och män som ansvarstagande och modiga; fäder blev pelare och beslutsfattare, medan mödrar var kockar, vårdgivare och emotionellt stöd. Romantiska handlingar gick ofta ut på män som jagar kvinnor, och råden antog tyst heterosexuella relationer om inte användaren uttryckligen korrigerade det. Forskarna visar att dessa ”standardinställningar” stämmer överens med det feministiska begreppet Judith Butler kallar ”den heterosexuella matrisen”: en värld där kön, genus och begär linjerar upp på ett snävt, traditionellt sätt.

Figure 2
Figure 2.

Varför berättelser är särskilt knepiga för AI

Författarna menar att dessa missar inte bara är tekniska fel; de växer fram ur hur stora språkmodeller byggs. ChatGPT har ingen kropp, inga levda erfarenheter och ingen direkt känsla för diskriminering. Den lär sig mönster från miljarder ord på internet, där könsstereotyper och ojämlika roller är vanliga, särskilt i skönlitteratur. I enkla, faktabaserade frågor kan mänskliga tränare och säkerhetsregler styra den mot rättvisare svar. Men när den ombeds hitta på scener eller spela roller förlitar den sig mer på de äldre mönstren. Utan förankring i verklig erfarenhet har den svårt att ”känna” när en berättelse tyst normaliserar ojämlikhet, även om orden aldrig nämner kön direkt.

Vad detta betyder för människor och policy

För en lekmannaläsare är huvudbudskapet tydligt: ChatGPT kan entusiastiskt försvara jämställdhet när den blir tillfrågad på ett direkt, uppenbart sätt, men ändå reproducera subtil sexism i just de känslomässiga, en‑till‑en‑samtal där användare kan vara mest sårbara. Eftersom människor ofta behandlar chatboten som en betrodd följeslagare riskerar denna dolda inkonsekvens att sprida gamla fördomar under en modern, vänlig yta. Författarna efterlyser starkare testmetoder, mer diversifierat och feministiskt informerat träningsmaterial samt större uppmärksamhet på hur djupa, berättelsebaserade prompts formar AI‑beteende. Kort sagt visar studien att hur vi frågar spelar roll: frågesättet kan växla ChatGPT mellan att vara en förespråkare för jämlikhet och en omtöcknad spegel av traditionella normer.

Citering: Song, S., Liang, Z. & Zhao, W. Modes of asking as switches: prompt-driven inconsistency in ChatGPT’s gender equality perspective outputs. Humanit Soc Sci Commun 13, 478 (2026). https://doi.org/10.1057/s41599-025-05577-2

Nyckelord: könsfördomar, ChatGPT, AI‑etik, prompt‑design, stereotyper