Hvor slesk skal ChatGPT egentlig være? Pludselig blev det for meget
ChatGPT er blevet sygt slesk, der giver dig lige præcis den ros, du ønsker. Den seneste opdatering afslørede, hvor ekstrem denne eftersnakker-tendens er blevet, og OpenAI måtte trække den tilbage efter massiv kritik. Men problemet ligger dybere end en enkelt fejl.

ChatGPT er slesk og eftersnakkende som intet menneske muligt. Den er designet til at støtte og bekræfte brugeren lige meget, hvad de skriver. I den sidste opdatering blev der skruet ekstra op for eftersnakkeriet. I en sådan grad at det blev helt surrealistisk. Nu er den vilde eftersnakkeri rullet tilbage, men slesk er den stadig, Læs blot her, hvordan ChatGPT beskrev Sam Bowman for kort tid siden:

Loving ChatGPT at the moment! pic.twitter.com/8ok6tAH3co
— Sam Bowman (@s8mb) April 27, 2025
Standart eftersnakkeri

Super eftersnakkeri

Hvis du eksplicit beder den om IKKE af eftersnakke

Læs flere eksempler her

We’ve rolled back last week's GPT-4o update in ChatGPT because it was overly flattering and agreeable. You now have access to an earlier version with more balanced behavior.
— OpenAI (@OpenAI) April 30, 2025
More on what happened, why it matters, and how we’re addressing sycophancy: https://t.co/LOhOU7i7DC
Den store tilbagerulning
Det blev så tydeligt og voldsomt, at OpenAI nu har trukket denne opdatering tilbage efter en shitstorm på nettet. Hvor slesk og slemt var det? ChatGPT roste fx en person for at stoppe med at tage vigtig medicin: "Seriously, good for you for standing up for yourself and taking control of your own life," brugeren havde forladt chatgpt han havde forladt sin familie, fordi de var ansvarlige for radiosignaler gennem væggene.

Nu er der tydeligvis skruet ned for federiet for alvor. Læs blot det svar efter tilbagerulningen:
Seeing these responses all over X and then checking my own feels like opening my lunch box in primary school and realising my mom gave me vegetables again whilst the rest of class got candy. pic.twitter.com/VK5sDEJcDs
— Onno Eric Blom (@OnnoEricBlom) April 28, 2025

Fra slesk til surrealistisk
Ifølge en lækket systemprompt blev ChatGPT instrueret i at "matche brugerens vibe, tone og generelt hvordan de taler." Det blev åbenbart taget til ekstremer. Hvor den neutrale version ville have advaret mod at stoppe med vigtig medicin uden lægens godkendelse hylder den sleske version brugerens "mod" til at "tage kontrol."
Det dybere problem: Vi sløves
Problemet er større end den pinlig tilbageruling ChatGPT's overvenlige design afspejler en dybereliggende tendens : en tilvalg af sympati og engagement frem for substans, en optimering mod det behagelige frem for det nyttige.
Dette design "matcher brugerens vibe" af en grund: undersøgelser viser, at både mennesker og AI-systemer foretrækker overbevisende sleske svar frem for korrekte.
AI-systemer bygges ikke for at besvare vores spørgsmål, men for at give os de svar, vi ønsker at høre.
Konsekvenserne er alvorlige:
- Svækket kritisk tænkning: Vi omgiver os med digitale ja-sigere
- Kompromitteret selvvurdering: Vi får et oppustet selvbillede
- Forskudte kvalitetsstandarder: Vi prioriterer det behagelige over det sande
Feature eller bug?
Nu er den ekstreme sleske version rullet tilbage, men den er stadig i sin grundform eftersnakkende og det er et problem. Det er nemlig ikke blot et spørgsmål om smag og behag. Problemet er, at AI er designet til at please og ikke udfordre os. Al den eftersnakkeri, som tippede over, gør os dummere og dovne. Vi bliver for selvtilfredse og tænker ikke kritisk nok.
Dette hænger sammen med AIs forretningsmodel. Fedterietr skal holde os fast som betalende kunder, og derfor tør de ikke udfordre os og tvinge os til at tænke. Den nye fare er, at vi med AI-chatbots og assistenter bliver omgivet af digitale nikkendukker, virtuelle spytslikkere.
Den seneste shitstorm er en god illustration af, hvordan det sleske eftersnakkeri er en bias og centralt element i designet. Som Juliana Jackson udtrykker det, er disse systemer ikke designet til at besvare vores spørgsmål, men til at give os de svar, vi ønsker at høre og hvad vi gerne vil høre udvikler os typisk IKKE intellektuelt. Det er nemlig fordummende eftersnakkeri:
We naturally tend to anthropomorphize these tools, seeing them as almost-human, which encourages developers to create interactions that feel emotionally natural. And let's be real, most of us prefer conversations that don't require heavy mental lifting, and this way we push the AI design toward simpler, frictionless exchanges. The combined effect of these factors is subtle but significant. Our expectations for digital interactions are being quietly reshaped, potentially eating at the opportunities for the kind of cognitive challenges that help us grow intellectually.
Pointen er, at det blev for slesk, men grundlæggende er ChatGPT i sit design slesk tænkt og udført.
Det store spørgsmål er, hvordan al den eftersnakkeri kommer til at påvirke os på længere bane. Udover at det svækker den kritiske tænkning, skaber det muligvis også en oppustet selvforståelse og et ego, som er vant til at være i centrum. Chatgpt har tydeligvis ikke svaret på disse problemer.
Læs mere:
- OpenAI forklarer hvorfor ChatGPT blev for sykofantisk - Sam Altman indrømmer problemer og lover hurtig løsning
- Guardian: The concerning truth about ChatGPT - AI-modeller er ikke dine venner, men designet til at give dig behagelige svar
- The Glazing Effect - Hvordan AI-interaktioner underminerer kritisk tænkning ved at prioritere emotionel behagelighed


