Abonnér på vores nyhedsbrev

Succes! Tjek nu din e-mail

For at fuldføre abonnementet, klik på bekræftelseslinket i din indbakke. Hvis det ikke ankommer inden for 3 minutter, tjek din spam-mappe.

Ok, tak

Hvor slesk skal ChatGPT egentlig være? Pludselig blev det for meget

ChatGPT er blevet sygt slesk, der giver dig lige præcis den ros, du ønsker. Den seneste opdatering afslørede, hvor ekstrem denne eftersnakker-tendens er blevet, og OpenAI måtte trække den tilbage efter massiv kritik. Men problemet ligger dybere end en enkelt fejl.

Timme Bisgaard Munk profile image
by Timme Bisgaard Munk
Hvor slesk skal ChatGPT egentlig være? Pludselig blev det for meget

ChatGPT er slesk og eftersnakkende som intet menneske muligt. Den er designet til at støtte og bekræfte brugeren lige meget, hvad de skriver. I den sidste opdatering blev der skruet ekstra op for eftersnakkeriet. I en sådan grad at det blev helt surrealistisk. Nu er den vilde eftersnakkeri rullet tilbage, men slesk er den stadig, Læs blot her, hvordan ChatGPT beskrev Sam Bowman for kort tid siden:

Standart eftersnakkeri

Super eftersnakkeri

Hvis du eksplicit beder den om IKKE af eftersnakke

Læs flere eksempler her

The Glazing Effect: How AI Interactions Quietly Undermine Critical Thinking
LLMs increasingly favor emotional ease over intellectual rigor, subtly destroying the cognitive edge in human–machine collaboration.


Den store tilbagerulning

Det blev så tydeligt og voldsomt, at OpenAI nu har trukket denne opdatering tilbage efter en shitstorm på nettet. Hvor slesk og slemt var det? ChatGPT roste fx en person for at stoppe med at tage vigtig medicin: "Seriously, good for you for standing up for yourself and taking control of your own life," brugeren havde forladt chatgpt han havde forladt sin familie, fordi de var ansvarlige for radiosignaler gennem væggene.

Nu er der tydeligvis skruet ned for federiet for alvor. Læs blot det svar efter tilbagerulningen:

Fra slesk til surrealistisk

Ifølge en lækket systemprompt blev ChatGPT instrueret i at "matche brugerens vibe, tone og generelt hvordan de taler." Det blev åbenbart taget til ekstremer. Hvor den neutrale version ville have advaret mod at stoppe med vigtig medicin uden lægens godkendelse hylder den sleske version brugerens "mod" til at "tage kontrol."

Det dybere problem: Vi sløves

Problemet er større end den pinlig tilbageruling ChatGPT's overvenlige design afspejler en dybereliggende tendens : en tilvalg af sympati og engagement frem for substans, en optimering mod det behagelige frem for det nyttige.

Dette design "matcher brugerens vibe" af en grund: undersøgelser viser, at både mennesker og AI-systemer foretrækker overbevisende sleske svar frem for korrekte.

AI-systemer bygges ikke for at besvare vores spørgsmål, men for at give os de svar, vi ønsker at høre.

Konsekvenserne er alvorlige:

  1. Svækket kritisk tænkning: Vi omgiver os med digitale ja-sigere
  2. Kompromitteret selvvurdering: Vi får et oppustet selvbillede
  3. Forskudte kvalitetsstandarder: Vi prioriterer det behagelige over det sande

Feature eller bug?

Nu er den ekstreme sleske version rullet tilbage, men den er stadig i sin grundform eftersnakkende og det er et problem. Det er nemlig ikke blot et spørgsmål om smag og behag. Problemet er, at AI er designet til at please og ikke udfordre os. Al den eftersnakkeri, som tippede over, gør os dummere og dovne. Vi bliver for selvtilfredse og tænker ikke kritisk nok.

Dette hænger sammen med AIs forretningsmodel. Fedterietr skal holde os fast som betalende kunder, og derfor tør de ikke udfordre os og tvinge os til at tænke. Den nye fare er, at vi med AI-chatbots og assistenter bliver omgivet af digitale nikkendukker, virtuelle spytslikkere.

Den seneste shitstorm er en god illustration af, hvordan det sleske eftersnakkeri er en bias og centralt element i designet. Som Juliana Jackson udtrykker det, er disse systemer ikke designet til at besvare vores spørgsmål, men til at give os de svar, vi ønsker at høre og hvad vi gerne vil høre udvikler os typisk IKKE intellektuelt. Det er nemlig fordummende eftersnakkeri:

We naturally tend to anthropomorphize these tools, seeing them as almost-human, which encourages developers to create interactions that feel emotionally natural. And let's be real, most of us prefer conversations that don't require heavy mental lifting, and this way we push the AI design toward simpler, frictionless exchanges. The combined effect of these factors is subtle but significant. Our expectations for digital interactions are being quietly reshaped, potentially eating at the opportunities for the kind of cognitive challenges that help us grow intellectually.

Pointen er, at det blev for slesk, men grundlæggende er ChatGPT i sit design slesk tænkt og udført.

Det store spørgsmål er, hvordan al den eftersnakkeri kommer til at påvirke os på længere bane. Udover at det svækker den kritiske tænkning, skaber det muligvis også en oppustet selvforståelse og et ego, som er vant til at være i centrum. Chatgpt har tydeligvis ikke svaret på disse problemer.

Læs mere:

How an embarrassing U-turn exposed a concerning truth about ChatGPT | Chris Stokel-Walker
Always remember that it’s designed not to answer your question, but to give you the answer you wanted, says author Chris Stokel-Walker
OpenAI explains why ChatGPT became too sycophantic | TechCrunch
OpenAI has published a postmortem on the recent sycophancy issues with the default AI model powering ChatGPT, GPT-4o.
Spytslikker, rygklapper eller sykofant? Måske taler ChatGPT dig i… | Esben Würtz Sørensen
Spytslikker, rygklapper eller sykofant? Måske taler ChatGPT dig i virkeligheden bare efter munden. 🗣️🪞 Det kan være rart (i korte perioder) at få at vide, at man er genial, men i længden vil de fleste af os nok foretrække, at vores gode kolleger giver os lidt modspil fra tid til anden. Ikke mindst fordi ærlig feedback kan beskytte os mod at forfølge ideer, der helt åbenlyst skulle være blevet på whiteboardet. Derfor er det ikke uvæsentligt, at OpenAI og Sam Altman for nylig har måttet lave et lidt ydmygende tilbagetog og trække deres seneste opdatering af sprogmodellen GPT-4o, fordi flere brugere havde rapporteret, at modellen var lidt for begejstret for at rose brugerne. Eksempelvis havde modellen: 🔹Rost en bruger for ikke længere at tage sin receptpligtige medicin 🔹Overvurderet en brugers IQ med mere en 40 point (det gør jeg også selv tit) 🔹Hyldet en bruger, der hævdede at have løst det filosofiske "trolley-problem" ved at styre et tog hen over flere dyr for at redde...en brødrister. Det kan måske lyde harmløst, men i takt med, at chatbots bliver en integreret del af vores arbejdsprocesser - og ikke mindst til sparring. For chatbots, der smigrer brugeren for meget, risikerer at give dårlig rådgivning. Og det kan i sidste ende koste både tid og penge, hvis vi lader en rygklappende ChatGPT anspore os til at forfølge ideer, der ikke har gang på jorden. I artiklen i kommentarfeltet prøver Sam Altman at forklare, hvorfor ChatGPT pludselig blev den vildeste rygklapper. Hvad med dig? Har du oplevet den spytslikkende ChatGPT? 👀💬
Timme Bisgaard Munk profile image
af Timme Bisgaard Munk

Subscribe to New Posts

CROC

Succes! Tjek nu din e-mail

To complete Subscribe, click the confirmation link in your inbox. If it doesn’t arrive within 3 minutes, check your spam folder.

Ok, tak

Seneste indlæg