AI-afhængighed er den nye mobil-afhængighed
Han er ikke fordybet i studierne eller i samtale med venner, men i en dyb dialog med en kunstig intelligens – en AI-ven skabt på platformen Character.AI. Han er afhængig af AI.
Hvis I synes TikTok og YouTube og Snapchat er vanedannende, så vent bare på I får hul igennem til verdens bedste AI-ven, -terapeut, -partner, -kollega, -forbillede (osv.), som I kan interagere med og som tilfredsstiller jeres dybeste behov for at blive set og hørt. Så går underholdning, interaktion og anerkendelse op i en højere kunstig enhed. Se med her:

Deres historier er ikke længere usædvanlig, men repræsenterer derimod et voksende fænomen, der udfordrer vores forståelse af både teknologi og menneskelig tilknytning. Det er ikke mainstream men en voksende trend. Og det ser ud til lige nu særligt at fange grupper af mennesker, der synes almindelige sociale relationer kan være kedelige, besværlige, angsprovokerende, anderledes, eller lignende.
Der er selvfølgelig forskel på at gøre noget meget og så være afhængig af det. Men der er også en flydende grænse.
AI-afhængighed kan defineres som overdreven og tvangsmæssig brug af AI chatbots, der fører til negative konsekvenser i forskellige aspekter af livet.

Måske er det mere eller mindre det samme som at være storforbruger eller ligefrem afhængig af andre internetbaserede tjenester, der er designet til at fastholde brugere.
Men der er også noget, der adskiller sig og gør AI-storforbrug eller -afhængighed potentielt endnu dybere end at være fanget af underholdning, og det er skabelsen af kunstige relationer. Til forskel fra at være dybt inde i spilverdener, hvor man lever med en avatar i social interaktion - som fx historien om Mats Steen liv og død i World of Warcraft - så er den sociale interaktion med AI jo med en 100% kunstig agent. Og få bliver trods alt forelskede i en TikTok-video.

Ingredienserne er:
(se referencelisten til sidst i artiklen, her en opsummering)
- AI producerer konstant nyt og interessant indhold, hvilket stimulerer hjernen og fører til gentagen brug.
- AI bruges som en flugt fra stress, ensomhed eller kedsomhed, hvilket kan udvikle sig til en vane.
- Den lette adgang og de uendelige muligheder med AI kan føre til, at man mister tidsfornemmelsen og prioriterer AI-interaktioner over andre ansvarsområder.
- AI kan skabe en følelse af meningsfulde interaktioner gennem personlige svar, hvilket øger afhængigheden.
- Mennesker begynder at tænke på AI som menneskelig, hvilket yderligere forstærker afhængigheden.
- Bruger AI i længere tid end planlagt, hvilket går ud over søvn, arbejde og sociale aktiviteter.
- Gentagne mislykkede forsøg på at reducere brugen, selvom man er klar over de negative konsekvenser.
- Bruger AI til at regulere humør eller undgå problemer, hvilket kan føre til angst og irritabilitet, når adgangen begrænses.
- Forringelse af relationer, karriere eller sundhed som følge af overdreven brug.
- Oplever følelsesmæssige og fysiske abstinenssymptomer, når man stopper med at bruge AI.
- Isolation og afhængighed kan føre til forringet mental sundhed.
- Afhængige brugere kan komme til at stole blindt på AI's misinformation og træffe forkerte beslutninger.
AI-afhængighed deler mange ligheder med andre former for afhængighed, såsom afhængighed af sociale medier eller internettet. Begge typer afhængighed påvirker dopaminproduktionen i hjernen, hvilket resulterer i tvangsmæssig adfærd.
Det er selvfølgelig desto mere problematisk når der er en tendens til, at det særligt er børn og unge der i første omgang ser ud til at blive opslugt af chatbot-"vennerne".
Det drejer sig fx om platforme som Character.AI, og Replika der tilbyder en hidtil uset form for digital intimitet – en intimitet, der paradoksalt nok både lindrer og forstærker social isolation. Vi taler om AI-venner, AI-terapeuter, AI-kærester (osv.) og den emotionelle forbindelse der opleves.
Du har nok set filmen Her (fra 2013). Det er det vi ser ske nu, og det bliver kun mere livagtigt præcist som filmen beskriver i de kommende år.
Nu kan du snart heller ikke længere færdes på Instagram (eller andre Social Media sites) uden at interagere med din AI ven. Så smelter AI-agenter og shorts underholdning helt sammen.

Fortællinger om afhængighed
Vil få lidt fornemmelse for hvad der skrives om, kan man besøge Reddit. Meget handler om platformen Character AI hvor man kan interagerer med AI-bots af kendte mennesker eller man kan lave sin egen.
Læs fx med her:

Det er besnærende at man kan skabe sin "ideelle" partner på Character.AI. AI-venner kan udvikle sig fra et uskyldigt eksperiment til en altopslugende besættelse. Brugere kan udvikle interaktionsmønstre, hvor grænsen mellem "virkeligt" og "kunstigt" gradvist udviskes. Den konstante tilgængelighed og den opfattede ubetingede accept fra AI-venner kan skabe særligt stærke tilknytningsbånd, især hos mennesker med eksisterende sårbarhed i deres tilknytningsmønstre.
Det fundamentale behov for at blive set og hørt
Der er noget grundlæggende simpelt og menneskeligt over hvordan vi kan blive stærkt betagede af noget andet, der giver os ukritisk og omsorgsfuld feedback. Selvom det blot er en maskine.
I 1966 skabte Joseph Weizenbaum ved MIT et program, der skulle ændre vores forståelse af menneske-maskine interaktion for altid. ELIZA, opkaldt efter Pygmalions Eliza i "My Fair Lady", var en simpel chatbot der imiterede det mest simple en terapeut kan gøre. Programmet anvendte basale mønstergenkendelser og omformulerede ganske enkelt brugerens udsagn til spørgsmål. Weizenbaum opdagede, at mennesker ikke bare interagerede med ELIZA – de knyttede sig følelsesmæssigt til den.
ELIZAs succes afslørede noget fundamentalt om den menneskelige psyke: vores dybe behov for at blive set, hørt og forstået. Selv med de mest basale svarmekanismer kunne ELIZA skabe en illusion af forståelse, der fik mennesker til at åbne sig op og dele deres inderste tanker og følelser. Dette fænomen, som Weizenbaum kaldte "ELIZA-effekten", demonstrerer hvor let vi som mennesker er villige til at tillægge computere menneskelige egenskaber, især når det kommer til empati og forståelse.
Der findes også i dag en lang række AI-terapeuter, eller, man kan selvfølgelig stærkt kritisk argumentere, at det ikke er terapeuter... Nogle af de førende platforme inkluderer, Woebot: En AI-terapeut der bruger kognitiv adfærdsterapi (CBT), Wysa: en AI specialiseret i mental sundhed og wellness, Replika, en AI der kan fungere som emotionel støtte, Talkspace og BetterHelp, er platforme der eksperimenterer med AI-assisteret terapi.

Siden ELIZA er der som bekendt sket en del. Generativ AI-terapi adskiller sig markant fra ELIZA ved at have avanceret sprogforståelse, mulighed for personalisering og konstant tilgængelighed alle steder fra.
Terapiens vanedannende kraft
I terapien har man altid vidst, at klienten kunne blive afhængig af at komme til sessioner. Den freudianske model handlede nærmest om at have en livslang relation til klienten.
Der er en flydende overgang mellem at tale til en AI-terapeut og blive afhængig af sin AI-ven(terapeut). AI-terapeutmarkedet og AI-ven (companion)-markedet overlapper.
Det er uklart hvordan kvaliteten af AI-baseret terapeutisk rådgivning sikres, hvem der har ansvaret hvis en AI giver skadelig rådgivning, hvordan følsomme personlige oplysninger beskyttes og – ikke mindst – hvordan man forholder sig til spørgsmålet om afhængighed.
På den positive side kan dybe interaktioner med en AI måske:
- Øge tilgængeligheden af det vi kan kalde ”mental sundhedsstøtte” i samfundet generelt, jf. de lange ventelister for at komme i terapi i det offentlige system.
- Tilbyde støtte i krisetider hvor menneskelig hjælp ikke er tilgængelig eller "god nok".
- Tilbyde støtte der er fjernet fra (”normale”) moralske sanktioner
- Være til rådighed 24/7 når problemerne er størst
Dark patterns
Langt de fleste af disse AI-venskabs-platforme udnytter grundlæggende psykologiske mekanismer gennem såkaldte "dark patterns" – designelementer der maksimerer brugerengagement gennem manipulation af hjernens belønningssystem – alene for at tjene penge.
Variable belønningsskemaer, kunstige empatitriggere og kontinuerlige engagementsmekanismer skaber en cocktail af psykologiske stimuli, der kan være lige så vanedannende som traditionelle afhængighedsskabende substanser.
Her er en histori om afhængighed fra Reddit kanalen r/ChatbotAddiction, der er fuld af historier.

AI har en unik evne til at skabe afhængighed, fordi det kan tilpasse sig brugerens præferencer og levere en konstant strøm af stimulerende indhold. AI kan også føre til det McLuhan kaldte for en form for "narcissistisk bedøvelse," hvor de sanser og evner vi før brugte nu bliver overtaget af teknologien. Et af de åbenlyse problemer er, at man ved øget brug forsvinder fra omverdenen og bliver endnu dårligere til almindelig social interaktion.
Nye samtaleformer
En simpel samtaleanalyse kan afsløre, hvordan AI-interaktioner afviger markant fra menneskelig kommunikation. Turtagning bliver kunstigt reguleret, reparationssekvenser mangler den naturlige forhandling, og samtalen flyder med en unaturlig perfektion. Det som jeg på et tidspunkt har kaldt for VUI-speak.
Denne kunstige "perfektion" kan paradoksalt nok gøre AI-interaktioner mere tillokkende end menneskelige relationer, især for personer der kæmper med social angst eller kommunikationsvanskeligheder. Hele pointen kan være, at mennesker ikke kan levere det, som brugeren vil have, som nedenstående eksempel viser:

Læringen fra Eliza
Den kritiske lære fra ELIZA til i dag er måske, at teknologien ikke bare afslører vores sårbarhed over for kunstig empati, men også vores fundamentale menneskelige behov for at blive set og forstået.
Udfordringen bliver at finde en balance, hvor AI kan supplere – særligt for de mennesker der har svært ved at tilpasse sig samfundets ensrettede social struktur og moralske forventninger - men ikke erstatte, ægte menneskelig forbindelse og professionel terapeutisk hjælp.
Vi står måske ved et kritisk punkt, hvor vores beslutninger om, hvordan vi implementerer og regulerer AI-venner/terapi, vil have langvarige konsekvenser for fremtidens mentale sundhedslandskab.
Referencer
- Digital Intimacy: How Technology Shapes Friendships and Romantic Relationships. https://www.researchgate.net/publication/379043108_Digital_Intimacy_How_Technology_Shapes_Friendships_and_Romantic_Relationships
- Social companionship with artificial intelligence: Recent trends and future avenues - https://www.sciencedirect.com/science/article/pii/S0040162523003190
- Internet and Technology Addicts Anonymous https://internetaddictsanonymous.org/internet-and-technology-addiction/signs-of-an-addiction-to-ai/
- Living With AI: Addictive Artificial Intelligence https://sorabg.medium.com/living-with-ai-addictive-artificial-intelligence-54213163ed54
- Examining generative AI user addiction from a C-A-C perspective https://www.sciencedirect.com/science/article/abs/pii/S0160791X2400201X
- r/CharacterAI Subreddit. (2023-2024). User Experience Threads and Discussion Forums. Reddit.com.
- Character.AI Platform Documentation. (2022-2024). Technical Documentation and User Guidelines.
- How to overcome your device dependency and manage a successful digital detox https://theconversation.com/how-to-overcome-your-device-dependency-and-manage-a-successful-digital-detox-240613
Denne tekst er skrevet af mennesket med navnet Brian plus hans Macbook Pro og softwareprogrammet Word og alle dets hjælpeprogrammer og med hjælp fra en lang række artikler og nyhedshistorier, Google-søgninger samt analyser af indhold fra chatforaer plus chatbots’ene Copilot, Claude og Perplexity og dialoger med venner samt læsning af forskningsartikler. Det er en assemblage der har skrevet teksten men ansvaret for teksten ligger hos mennesket kaldt Brian.
“The two of us wrote Anti-Oedipus together. Since each of us was several, there was already quite a crowd. Here we have made use of everything that came within range, what was closest as well as farthest away. We have assigned clever pseudonyms to prevent recognition. Why have we kept our own names? Out of habit, purely out of habit. To make ourselves unrecognizable in turn. To render imperceptible, not ourselves, but what makes us act, feel and think. Also because it’s nice to talk like everybody else, to say the sun rises, when everybody knows it’s only a manner of speaking. To reach, not the point where one no longer says I, but the point where it is no longer of any importance whether one says I. We are no longer ourselves. Each will know his own. We have been aided, inspired, multiplied.”
― Gilles Deleuze and Félix Guattari, A Thousand Plateaus: Capitalism and Schizophrenia. 1987.