Vi vet ikke hvordan og hvorfor språk oppstod i første omgang, men flere teorier mener at bevissthet spilte en viktig rolle i prosessen. Hvis vi mistenker at bevissthet og språk går hånd i hånd, eller til og med at den ene er avhengig av den andre, kan det føles nærliggende å tro at språkmodeller vil bli de første selvbevisste maskinlæringsmodellene, eller at språk vil være en viktig del av en eventuell fremtidig maskinell bevissthet.
Vi vet ikke hva bevissthet er
Før vi kan spekulere i om noe som helst har bevissthet, hadde det vært nyttig å vite nøyaktig hva vi ser etter. Dessverre er det norske begrepet «bevissthet» vagt på flere måter; i tillegg til at begrepet er vanskelig å definere, har vi den ekstra utfordringen at vi bruker samme ord for flere ulike fenomener. Norske «bevissthet» dekker minimum engelske sentience, self awareness og consciousness.
La oss starte med sentience: The Oxford English Dictionary sier at å ha sentience er å ha «et perspektiv eller en følelse», altså mindre omfattende enn bevissthet. Planter er for eksempel ikke bevisste, men de har likevel sentience, siden de responderer på ytre stimuli – snur seg etter solen og slikt. Skal jeg være en kranglete teknolog, vil jeg påstå at akkurat det samme kan sies om overvåkningskameraer, og for den del alle maskiner som har sensorer: trykk, lys, tid, tyngdekraft, molekylær sammensetning (også kjent som «smak» blant biologiske maskiner) og så videre.
Hvis vi tenker på bevissthet som self awareness, altså en opplevelse av hvordan det er å være en selv, kan jeg fortsette som kranglete teknolog og si: Datamaskiner har en langt bedre evne enn både dyr og mennesker til å observere sine egne indre tilstander. Vi kan lage programmer (som ikke trenger å bruke teknikker fra kunstig intelligens) med direkte tilgang til hver eneste bit informasjon de noen gang har prosessert eller lagret, i tillegg til sin egen kildekode!
Og hvis vi krever at denne indre tilstanden må uttrykkes gjennom et meningsfylt språk for å bli til self awareness, kan vi – etter å ha lært om kunstig språkforståelse og tekstgenerering – si at dette ikke er noe problem, siden maskiner selv kan lære seg å beskrive nærmest hva som helst gjennom menneskelig språk. Slik kan vi holde på lenge.
Vi kan til og med se for oss at vi ender opp som von Neumann, hvor vi krever en helt presis definisjon av bevissthet og sier: «Hvis du forteller meg nøyaktig hva det er en maskin ikke kan gjøre, så kan jeg alltid lage en maskin som gjør nettopp det!» I så fall møter vi raskt på det store problemet at ingen kan fortelle oss nøyaktig hva bevissthet er, og så er vi like langt.
«Kan maskiner tenke?»
I 1962 sa George Armitage Miller, en av grunnleggerne bak kognitiv psykologi og kognisjonsvitenskap: «Bevissthet er et ord som har blitt glattslipt av en million tunger. Avhengig av ordleggingen kan det bety en tilstand, en substans, en prosess, et sted, et epifenomen, et emergent aspekt av materie, eller den eneste sanne virkeligheten.»
Utover å være en vakkert formulert setning er nok innholdet like sant og aktuelt i dag som det var på 60-tallet: Bevissthet, i forstanden consciousness, kan bety et hav av ulike ting, og begrepet er i så utstrakt bruk i dagligtalen at det sannsynligvis har forskjellige betydninger for de aller fleste som bruker det. Og hvis vi ikke klarer å bruke dagligtale til å definere bevissthet, kan vi i alle fall ikke oversette det til noe så presist som en algoritme en datamaskin kan utføre. Dette betyr ikke at det ikke finnes forsøk på definisjoner av bevissthet der ute, men disse er kun nettopp forsøk.
I mangel på en definisjon som gir oss muligheten til å enten lage bevissthet i en datamaskin, eller i det minste kjenne det igjen når vi ser på det, må vi nok ta til takke med vår eventuelle opplevelse av maskiners bevissthet, altså det samme som Alan Turing på sin tid foreslo å gjøre med kunstig intelligens.
I 1950 stilte Turing spørsmålet: «Kan maskiner tenke?» Turing var fantastisk intelligent og på flere områder langt forut for sin tid. Det var han også med dette spørsmålet, som han altså stilte seks år før fagfeltet kunstig intelligens oppstod. Lur som han var, forstod han raskt at å undersøke dette spørsmålet ville innebære å definere hva det vil si å «tenke», og han endret derfor spørsmålet til «kan maskiner gjøre det vi (som tenkende vesener) kan gjøre?».
Enorme fremskritt
For å undersøke dette foreslår han å la dem delta i en viktoriansk festlek, kjent som The Imitation Game. Lekens menneskelige utgave er enkel nok og foregår som følger. En kvinne A og en mann B går inn på hvert sitt hemmelig valgte rom, og leken går ut på at de andre gjestene på festen finner ut hvilket rom henholdsvis kvinnen og mannen befinner seg i.
Oppgaven til A og B er å utgi seg for å være motsatt kjønn, altså å villede gjestene. Turing foreslo å utvide denne testen til å undersøke hvorvidt maskiner kan tenke, ved å la en datamaskin erstatte enten A eller B, uten at gjestene fatter mistanke. Spørsmålet festleken bidrar til å besvare, blir da: «Kan en datamaskin imitere et menneske av motsatt kjønn (hvordan enn vi skal tolke det) like godt som et menneske av motsatt kjønn?» Den er fiffig!
Generaliseringen av denne testen, hvor spørsmålet er «Kan en datamaskin overbevise et menneske om at den er et menneske?», har blitt kjent som Turingtesten, selv om den beskjedne Turing selv ikke stod bak dette navnet. Som Turing sa i sin tid: «Hvis et menneske ikke kunne skille mellom svar fra en maskin og et menneske, kunne denne maskinen anses som ‘intelligent’.»
I dag, i en verden der norsklærere sender bekymringsmelding til Stortinget fordi ChatGPT kan skrive stiler for elever uten at lærerne kan avsløre det, må vi nok anse Turingtesten for å være løst, i det minste for chatboter. Flere uoffisielle Turingtester har også blitt avholdt på ulike steder i verden, og flere ganger har mennesker trodd at de har snakket med et menneske når de i virkeligheten snakket med en maskin. Det er heller ikke mange forskere som anser Turingtesten for å være et godt mål på kunstig intelligens, men den ser ut til å bli en aktuell test for kunstig bevissthet.
Hvor lang tid det tar før språkmodellene blir så overbevisende at de fleste av oss vil føle at det finnes bevissthet i den andre enden når vi snakker med dem? Hvis de enorme fremskrittene vi har sett bare de siste par årene, fortsetter, vil det ta kort tid før vi mennesker får slite hardt med å merke forskjell på menneskelige og kunstige samtalepartnere – og følgelig hvorvidt samtalepartneren vår er bevisst.
Kinesisk-rom-argumentet
Et argument imot den testbaserte måten å undersøke intelligens i maskiner på ble gitt av John Searle, en annen av kognisjonsvitenskapens grunnleggere, på 1980-tallet.
Argumentet er et tankeeksperiment ved navn The Chinese Room Argument, altså kinesisk-rom-argumentet. Tanken er at en person som ikke forstår kinesisk, for eksempel jeg, kan plasseres i et rom fylt med kinesiske ordbøker, og dermed være i stand til å kommunisere skriftlig med omverdenen – på kinesisk. Utstyrt med de nødvendige remediene for å oversette kinesiske tekster kan jeg skrive kinesiske lapper som jeg sender ut av rommet, og slik overbevise alle på utsiden av rommet om at jeg forstår kinesisk, selv om jeg ikke gjør det. Searle brukte tankeeksperimentet for å argumentere imot at ekte forståelse i maskiner vil kunne identifiseres.
Argumentet er at ekte intelligens innebærer å ha evner, fremfor bare å simulere dem, men at vi ikke kan se forskjell på de to. På akkurat samme måte som jeg kan låses inn i et rom og bruke kinesiske ordbøker til å bruke de riktige kinesiske ordene uten å forstå et kvekk av kinesisk selv, kan en datamaskin utføre beregningene som kreves for at vi skal oppfatte den som intelligent, uten faktisk å være intelligent. Verdens tenkere er ikke enige om hvorvidt kinesisk-romargumentet er en god måte å beskrive maskinell bevissthet på. En umiddelbar svakhet ved tankeeksperimentet er at det beror på en feil representasjon av hvordan språk fungerer.
Å beherske et språk handler om å tolke informasjon, og på ingen måte om å følge regler for å velge ord. En kineser, med kinesisk som morsmål, ville nok greid å avsløre at en som kommuniserer på kinesisk kun basert på ordlister, ikke faktisk behersker kinesisk. Et annet problem er at tankeeksperimentet kan brukes til å argumentere for at mennesker heller ikke har bevissthet, men simulerer bevissthet på en overbevisende måte.
Likevel peker det på det dype spørsmålet: «Hva er forskjellen på å simulere evne og å ha en evne?» Og så abstrakt og filosofisk spørsmålet enn er, tror jeg at vi kommer til å bli konfrontert med det oftere og oftere fremover, idet maskiner lærer seg å beherske stadig flere av evnene vi ser på som unikt menneskelige. Om ikke lenge kommer kanskje ingen slike evner – kreativitet, kontekstforståelse, empati – til å skille oss fra maskinene.





