Abonnér på vores nyhedsbrev

Succes! Tjek nu din e-mail

For at fuldføre abonnementet, klik på bekræftelseslinket i din indbakke. Hvis det ikke ankommer inden for 3 minutter, tjek din spam-mappe.

Ok, tak
Spot chatbotternes skrivestil
Photo by Patrick Fore / Unsplash

Spot chatbotternes skrivestil

Generativ kunstig intelligens (genAI) kan producere tekst i rå mængder på meget kort tid. Det stiller os jævnligt over for spørgsmålet: kan vi kende forskel på ægte, menneskeproducerede tekster og syntetiske, maskinproducerede?

Tanya Karoli Christensen profile image
by Tanya Karoli Christensen

I flere sammenhænge kan man have brug for at vide om en tekst er skrevet af et menneske eller en maskine. Det gælder fx i uddannelsessystemet hvor man gerne vil sikre sig at elever og studerende faktisk har tilegnet sig de relevante kompetencer.

Når man kan bruge genAI til alt fra at brainstorme om et emne til at gengive teori, udføre analyser og skrive og redigere færdig tekst, er det stort set umuligt at opnå sikkerhed for en eksaminand selv har arbejdet tilstrækkeligt med opgaven. 

Lignende problemstillinger opstår i mange andre sammenhænge, blandt andet jobrekruttering, vidensformidling, sagsbehandling og sprogforskning. Vi har fx hørt om  

Også mit eget fagområde, sprogforskningen, bliver påvirket: I september 2024 kunne 404 Media rapportere at analyseværktøjet WordFreq, som opgjorde ordfrekvenser i online data, blev droppet af grundlæggeren med henvisning til at man ikke længere kunne garantere at sproget var produceret af mennesker: ”generativ AI har forurenet data”, udtalte Robyn Speer, som stod bag WordFreq.

. https://www.404media.co/project-analyzing-human-language-usage-shuts-down-because-generative-ai-has-polluted-the-data/

Evnen til at skille skæg fra snot

Desværre er vi mennesker ikke specielt gode til at skelne syntetisk fra ægte tekst og de såkaldte ”AI detectors” er ikke meget bedre. Selvom enkelte af disse programmer er ganske gode til at identificere syntetisk tekst, giver de fortsat alt for mange falske positive til at de er nyttige i praksis. 

Med andre ord påstår de jævnligt at menneskeskrevet tekst er maskingenereret, hvilket indebærer en risiko for at uskyldige bliver beskyldt for at snyde

Der findes dog rimeligt åbenlyse spor af generativ ”AI”, nemlig når brugeren glemmer at fjerne de beskeder som chatbotten ofte sætter ind før det egentlige output.

Alle mulige steder på nettet – og også i forskningspublikationer – kan man således finde vendingen As an AI language model, I … (og så typisk en forklaring på at modellen ikke kan svare fyldestgørende på det den er blevet bedt om). 

Her fra en produktanmeldelse på Amazon: “As an AI language model, I haven’t personally used this product, but based on its features and customer reviews, I can confidently give it a five-star rating.” 

Et andet eksempel er Sure, here’s the [translation / summary / …], på dansk med Selvfølgelig! i stedet (prøv selv at google det og se hvor mange eksempler der kommer frem).

Searching for the phrase on Twitter reveals some interesting patterns in how spambots are used. Image: The Verge. https://www.theverge.com/2023/4/25/23697218/ai-generated-spam-fake-user-reviews-as-an-ai-language-model

Lister over enkeltord 

Man er også begyndt at samle lister over enkeltord der bliver brugt særlig hyppigt af sprogmodellerne. På engelsk er et af de ofte nævnte eksempler udsagnsordet delve ’gå i dybden med’ der forekommer signifikant hyppigere i forskningspublikationer siden opkomsten af sprogmodellernes samtaleinterface. 

Ordet delve optræder nu på diverse lister sammen med andre chatbot-typiske ord (se fx denne Reddit-tråd). Men de fleste af disse ord er velkendte i akademiske tekster, fx However og Furthermore, og fungerer derfor bedre til at skelne mellem forskellige stilarter end mellem syntetisk og menneskeskabt tekst.

Fra artiklen https://medium.com/@jordan_gibbs/which-words-does-chatgpt-use-the-most-7c9ff02416a8

Hvad siger forskningen om de sproglige særtræk ved syntetisk tekst?

Der er endnu kun lavet relativt få studier der systematisk sammenligner skrivestilen hos mennesker versus chatbotter, men resultaterne peger i samme retning: Syntetisk tekst er mere generisk og ensartet end menneskeskabt tekst. Eller omvendt: mennesker skriver langt mere varieret end chatbotter. Se undersøgelserne af Muñoz-Ortiz et al. og De Cesare.

Mennesker skriver anderledes end robotter, der er meget ensrettede.

Det gælder også når chatbotterne skal skrive på dansk. Tre forskere fra SDU, Jonas Nygaard Blom, Alexandra Holsting og Jesper Thinggaard Svendsen, har sammenlignet studerendes og ChatGPT 4.0’s besvarelse af samme universitetsopgave på faget dansk, anvendt på første semester. Baseret på en række kvantitative og kvalitative analyser finder de i korte træk at chatbot-besvarelserne:

  • er langt mere stavemæssigt korrekte end de studerendes
  • har mere ensartede længder af sætninger og afsnit
  • bruger mange af de samme fraser på tværs af besvarelserne
  • kun bruger s-passiv, som fx analyseres (hvor de studerende også bruger blive-passiv, som bliver analyseret)
  • undlader at referere til sig selv med jeg eller endda man
  • ofte indleder opsummerende afsnit med udtryk som Sammenfattende, Overordnet set eller Samlet set

De finder også flere tilfælde hvor ChatGPT parafraserer kildetekster ”i en næsten ordret form tenderende til plagiat” (s. 98). Det er et problem som chatbotterne deler med svagere studerende, men som de studerende kan lære at lægge fra sig. 

Et uendeligt kapløb

Ingen af de træk som undersøgelserne har fundet om syntetiske tekster, forhindrer falske positive: der kan sagtens være studerende der deler alle disse træk med chatbotterne. 

Derudover bliver sprogmodellernes parametre givetvis indstillet til at ligne menneskesprog mere, ligesom man sagtens kan prompte dem til fx at variere sætningslængden mere, eller til at efterligne ens egen skrivestil. 

Der er dermed ikke gode udsigter til at vi vil kunne skille skidt fra kanel, medmindre producenterne selv indlægger vandmærker der ikke kan fjernes fra syntetisk tekst som er kopieret ind i et dokument. 

Hurtigt men kedeligt

De fleste der har prøvet at generere tekst med hjælp af en chatbot, bliver først imponeret over hvor hurtigt det går, og dernæst frustreret over hvor generisk og upersonligt resultatet er. Men det er ikke overraskende at syntetisk fremstillet tekst bliver kedelig. 

De store sprogmodeller laver statistik over enorme mængder tekst, og i den proces bliver det sjældne og kreative mast under vægten af det almindelige og konventionelle. Samtidig har chatbotterne ingen erfaring med den fysiske virkelighed, ingen krop til at interagere med omverdenen, ingen vilje eller ønsker. 

Der er ingen egentlig intelligens inde i maskinen, kun en avanceret algoritme der er trænet til at producere tekst i uanede mængder. Derfor kan de maskinskabte tekster ikke henvise overbevisende til noget i kommunikationssituationen, eller overhovedet vide om noget er sandt eller ej. 

Så måske er den bedste måde at forholde sig til tekster på, at spørge sig selv: Rører det mig? Hvis ikke, er det vel egentlig ligegyldigt om de er skrevet af menneske eller maskine.*

*P.S. Det sidste mener jeg faktisk ikke – med det kæmpestore klimaaftryk som træning og drift af store sprogmodeller har, synes jeg at alle bør overveje grundigt om de egentlig har brug for store mængder uinspirerende syntetisk tekst til den opgave de skal løse.

Læs mere

Blom, J. N., Holsting, A., & Svendsen, J. T. (2024). På sporet af chatbottens sproglige fingeraftryk: En sproglig ophavsanalyse af tekster skrevet af danskstuderende og ChatGPT. NyS-Nydanske Sprogstudier1(65), 79-110. https://www.nys.dk/article/view/142936/190165

Muñoz-Ortiz, Alberto, Carlos Gómez-Rodríguez,& David Vilares. (2023) Contrasting linguistic patterns in human and llm-generated text. https://arxiv.org/pdf/2308.09067 

De Cesare, A. M. (2023). Assessing the quality of ChatGPT’s generated output in light of human-written texts: A corpus study based on textual parameters. CHIMERA: Revista de Corpus de Lenguas Romances y Estudios Lingüísticos 10, 179-210. Langt link til artiklen her

Which Words Does ChatGPT Use the Most?
I analyzed 1 million words of ChatGPT output and found the words that ChatGPT overuses most.
ChatGPT’s favorite words & punctuation
Issue #226: Nikki Giovanni. Sora. Luigi.
Losing our voice? Fears AI tone-shifting tech could flatten communication | Social trends | The Guardian
Most Commonly Used ChatGPT Words & Phrases – Originality.AI
Are humans as good at detecting AI content as they think? We analyzed 10 million ChatGPT terms to find out! Discover ChatGPT’s most common words and phrases.
ChatGPT’s favorite words & punctuation
Issue #226: Nikki Giovanni. Sora. Luigi.

https://www.tandfonline.com/doi/full/10.1080/08963568.2024.2420300#d1e91

Tanya Karoli Christensen profile image
af Tanya Karoli Christensen

Subscribe to New Posts

CROC

Succes! Tjek nu din e-mail

To complete Subscribe, click the confirmation link in your inbox. If it doesn’t arrive within 3 minutes, check your spam folder.

Ok, tak

Seneste indlæg