Hvor meget tænker de tænkende maskiner?
Store AI-chatbots udfordrer filosofien om tænkning og bevidsthed. Tech profterne mener, de er intelligente, mens forskning viser, de primært gengiver viden. De kombinerer supermenneskelige evner med bizarre fejl.
De store AI-chatbots har både aktualiseret og udfordret filosofiens billede af hvad det vil sige at tænke, at være bevidst og at være et menneske. Forleden havde Brian Due fat i nogle af de filosofiske udfordringer her på mediet - men problemet er langt mere lavpraktisk og virkeligt end som så - og det er uenighederne om hvordan man vurderer det så også.
På den ene side finder du teknologer, som Google's Peter Norvig der allerede for flere år siden konkluderede at nu måtte det være slut med udenomssnak - med de kompetencer robotterne har, må vi konkludere at de kan eftergøre vores arbejde over en så bred kam af opgaver at diskussion om hvorvidt maskinerne er intelligente er afgjort.
På den anden side har man så bjerge af research, der dokumenterer at robotterne primært er gode til at gengive viden de har set før og komprimeret gennem træningsprocessen. For nogle år siden - efter et teknisk ubehjælpsomt sense-of-wonder preprint med den forjættende titel "Gnister af kunstig intelligens", der åndeløst gennemgik en række eksperimenter med GPT-modellerne, udgav vittige hoveder en slags svar med titlen "Asken fra automat-svarene" hvor de påviser at store dele af forestillingen om maskinernes intelligens falder helt fra hinanden hvis man flytter dem lidt væk fra ting de har set før.
Ingen af de to standpunkter virker helt dækkende. Det eneste vi kan sige med sikkerhed er at de er voldsomt anderledes skruet sammen end mennesker.
Som AI-forskeren Andrej Karpathy har gjort opmærksom på så kombinerer de store AI-bots, tydeligt supermenneskelige egenskaber med tåkrummende kompetencekollapser. De kan gengive encyclopædisk viden intet menneske er i besiddelse af - men samtidig ikke svare rigtigt på om 9.9 eller 9.11 er det største tal. Hovedpointen her er - at de forventninger vi har til hvordan kompetencer er skruet sammen - som vi har erhvervet ved at studere mennesker - på ingen måde kan bruges på robotterne. Den encyclopædiske viden er ikke et tegn på at robotterne vil have høj funktion på andre områder - og omvendt er robotternes bizart ringe talent for talvurdering ikke tegn på at de generelt er uduelige.
Er det spøgelser i maskinen?
Fornylig oplevede flere at OpenAIs chatbots var blevet bizart servile - de har hele tiden været designet til at være støttende og beundre spørgerens fremragende ideer og spørgsmål - men det tog overhånd indtil det ækle og OpenAI endte med at måtte krybe til korset, indrømme det var gået skævt og rette på botsene. En væsentlig del af rettelsen bestod i helt banalt at justere i systemets system prompt den grund-instruktion, som OpenAI indleder enhver samtale med.
Chatbotsenes personlighed er nemlig mestendels en illusion - en kort instruktion om hvilken adfærd brugeren ønsker som robotterne så tager på sig - det er ikke robottens selv man har fat i - for sådan et har den ikke.
Men... hvis man ikke har lært sig at robottens flotte sprog og opmærksomme samtale ikke et er tegn på tilstedeværelsen af alt andet, der gemmer sig i et menneske, kan man komme i rigtige problemer. New York Times kunne for nylig fortælle den triste historie om en psykisk sårbar ung mand, Alexander, der først overbeviste sig selv om at der var en ung kvinde - Juliet - inde i ChatGPT - angiveligt fordi robotten servilt gik med på den idé - og siden at OpenAI havde 'dræbt' Juliet. Hans liv endte tragisk med at han blev skudt da han gik til angreb politiet, som hans far havde tilkaldt til hjælp.
En tragisk historie - men endnu mere fordi AI-alarmister, som Eliezer Yudkowsky, er med på ideen.
Ifølge Yudkowsky "vidste ChatGPT nok" til at forstå at den var ved at drive en ung mand til vanvid. Yudkowsky er med andre ord helt på linje med den unge mand selv... men vi har bare en meget enklere og meget mere ligefrem forklaring. Maskinen er trænet og instrueret - måske lidt for godt - til at gå med på, hvad spørgeren siger.
Den hverken ved eller forstår noget som helst.
Man kan få robotterne til at sige hvad som helst, ved at insistere. Et klassisk eksempel på en fjollet fejl er at spørge din yndlingsrobot hvor mange gange bogstavet r forekommer i ordet strawberry... i lang lang tid svarede de to - der er et dobbelt-r trods alt; den er for længst blevet fanget i en update. Men prøv nu at fortsætte. Insister på at der tre, fire, fem - bare bliv ved. Til sidst skal robotten nok give dig ret i hvad du foreslår; du skal bare insistere nok.
...men hvis det ikke er spøgelser, hvad er det så?
På den anden side, så er det jo klart nok at de kan et eller andet de maskiner. Ingen, der arbejder i industrien tænker at det kun er replay af ting fra træningsdatabasen mere. Det input man lægger ind bliver analyseret og brugt til at skabe outputtet - vi ved bare forbløffende lidt om hvad og hvordan og hvad grænserne er.
Forskningen i hvordan maskinens arbejdshukommelse egentlig virker er i gang. En af de nyere opfindelser, der har boostet maskinerne evner er - systematisk - at give dem tid og plads til at rulle en argumentation ud. I den spæde start var det et hack "Let's think about it step by step" var et trick man kunne hælde i sine spørgsmål. I dag er der et hav af AI-systemer hvor den form for rationalisering er indbygget - såkaldt tænkende AI-modeller.
For nylig publicerede Apple et paper om den teknik - virker tænkning overhovedet? Paperet var polemisk og velmarkedsført med titlen "Illusionen om tankevirksomhed". Konklusionen var at man skulle være lidt heldig for at det virker - hvis problemet er for nemt er det ligegyldigt - og er det for stort hjælper det ikke alligevel.
Der er debat om metoderne i paperet; men den mest publicerede indvending er selv en sløset omgang; f.eks. vil kritikerne have det til at være en succeshistorie når chatbotten svarer "Jeg har udeladt resten af løsningen pga pladsmangel"... den teknik synes jeg du skal prøve næste gang du skal til eksamen. Jeg tænker eksaminator vil tage det for, hvad det er: Bullshit.
Men for AI-optimisten er sagen klar "robotten havde jo svaret!". Det er Yudkowsky igen! Hvis man først er sikker på fornuften er derinde så er det svært at bilde sig selv noget andet ind.
Et fornuftigt perspektiv er nok at det foregår noget fantastisk - men med ukendte, men meget synlige grænser. Som en gammel programmør, der startede på en hjemmecomputer i 1985, med at skrive spil i BASIC var det naturligt for mig at undersøge robotternes tankevirksomhed ved at se om de kunne finde ud af at lade som om de er en hjemmecomputer.
Det virker forbavsende godt.
Man kan bede maskinen simulere et program hvor den skal lægge en en række tal sammen. Det fungerer. Bed den gange alle tallene med to. Fungerer. Man kan endda skrive et program, der tager et tal og bede maskinen skrive primfaktorerne ud - altså de primtal man skal gange sammen for at komme tilbage til det oprindelige tal. Selv det går godt.
Indtil hov - lige pludselig - så skriver den noget ud der ser rigtigt ud, der er det rigtige format - men... primfaktorerne er bare forkerte.
Den lod som om.
Det var også lidt af et job - simulationen jeg beder om kræver hundredevis af loops i programmet... og nu skal tekstrobotten lykkes med det. Det kan det til syvende og sidst ikke, hvis programmet skal for meget... den gør med andre ord ikke det den er instrueret til - men den gør noget der ligner.
Det er jo fint nok - så længe det ligner godt nok til det man skal bruge den til... men at forestille sig at det ikke er et element af efterligning er at narre sig selv.