Stadig flere søker emosjonell støtte hos kunstig intelligens.
I Storbritannia svarer en av fire ungdommer at de har brukt KI for mental helsestøtte det siste året.
Rundt en av ti sier at de faktisk ville foretrukket å snakke med en chatbot dersom de trengte emosjonell støtte.
Vi har foreløpig ikke like presise tall fra Norge, men mye tyder på at utviklingen også gjelder her.
Norske ungdommer er digitale, tilgjengelige løsninger er ett tastetrykk unna – og behovet for å bli hørt forsvinner ikke fordi hjelpetilbudet er vanskelig å nå.
For meg som generalsekretær i Ly, organisasjonen for deg med en oppvekst preget av voksnes rus, er dette først og fremst ikke en teknologidebatt. Det er en barnerettighetsdebatt.
For når unge vender seg til en algoritme for å få støtte, forteller det oss noe helt grunnleggende: De leter etter et sted å bli hørt.
Veien til reell hjelp
I vår chattetjeneste møter vi daglig unge som lever med store psykiske belastninger som følge av forhold i oppveksten sin.
Mange bruker måneder, noen år, før de tør å si høyt hvordan de har det.
Når de først skriver det første «Jeg tror ikke noen vet hvordan det er hjemme hos meg», er det et stort og sårbart steg.
Det øyeblikket handler ikke bare om ord. Det handler om tillit, relasjon og trygghet.
Derfor er jeg bekymret for en utvikling hvor barn og unge kan sitte alene og oppleve at de har «delt det med noen» – når de i realiteten bare har delt det med en algoritme.
Det kan gi en midlertidig følelse av lettelse.
Men uten et menneske som faktisk vet hvordan du har det, uten oppfølging, uten ansvar, kan veien videre til reell hjelp bli lengre, ikke kortere.
Risikovurderinger
La meg være tydelig: Vi er ikke mot KI.
Kunstig intelligens kan ha en viktig funksjon. Den er tilgjengelig døgnet rundt. Den har lav terskel. Den dømmer ikke.
For mange kan det føles tryggere å «teste ut» tankene sine digitalt enn å si dem høyt til et menneske. Den kan hjelpe med å sortere følelser og sette ord på det som er vanskelig.
For noen kan det være et første steg.
Og det første steget har verdi. En algoritme kan formulere støttende svar. Men den kan ikke gjøre risikovurderinger.
Den kan ikke lese mellom linjene når et barn skriver forsiktig om utrygghet hjemme. Den kan ikke stille de avgjørende oppfølgingsspørsmålene. Den kan ikke ta ansvar. Og den kan ikke bli værende i relasjonen over tid.
Barns rettigheter handler i den sammenheng ikke om tilgang til teknologi. De handler om rett til beskyttelse, rett til medvirkning og rett til å bli ivaretatt av trygge voksne.
Trygg og riktig støtte
Det er alvorlig dersom vi som samfunn begynner å normalisere at også de mest sårbare samtalene outsources til teknologi – samtidig som ventelistene i hjelpeapparatet er lange, tilbudene er fragmenterte, og informasjonen om hvor man kan få hjelp, er for dårlig.
Da risikerer vi å bygge et samfunn hvor barn forteller det vanskeligste i livet sitt til noe som aldri kan handle på bakgrunn av det.
Vi vet også at manglende tilgang til rask hjelp er en del av forklaringen. Mange unge opplever at terskelen til offentlig hjelp er høy: henvisninger, ventetid, uklare innganger.
I mellomtiden er KI gratis, anonym og alltid tilgjengelig. Det fyller et tilgjengelighetsgap.
Men et tilgjengelig svar er ikke det samme som trygg og riktig støtte.
Bekymringsfulle signaler
I vår chat ser vi hvor avgjørende det er at det sitter et menneske på andre siden når en ungdom endelig åpner seg.
Et menneske som kan lytte, stille spørsmål, vurdere alvorlighetsgrad, og – viktigst av alt – ta det de forteller på alvor.
For barna som kontakter oss, kan det være første gang noen faktisk ser hele livssituasjonen deres.
Teknologi kan åpne en dør. Men vi må sørge for at det faktisk står et menneske på innsiden når barna går gjennom den.
Jeg er også bekymret for signalene som sendes når voksne – inkludert fagpersoner og såkalte eksperter – åpent omtaler KI som en fortrolig eller erstatning for menneskelig støtte, uten samtidig tydelig å nyansere og problematisere begrensningene.
Barn og unge følger med. De finner aksept i det vi legitimerer.
Dersom vi indirekte formidler at det er «god nok støtte» å snakke med en algoritme, senker vi ambisjonsnivået for hva barn har rett på.
Og barn har rett på mer enn det. De har rett på å bli møtt av mennesker som kan se dem, forstå konteksten de lever i, og bidra til reell hjelp og endring.
Behovet for menneskelig kontakt
Samtidig må vi være kunnskapsbaserte. I Ly vil vi også se nærmere på hvordan unge faktisk bruker KI, blant annet gjennom spørsmål i kommende undersøkelser. Ikke for å moralisere over ungdoms valg, men for å forstå behovene deres bedre.
For dette handler ikke om teknologioptimisme eller teknologiskepsis. Det handler om barns behov for trygge relasjoner.
Ja, unge bruker KI fordi de trenger noen å snakke med. KI kan være en start. Men ekte støtte krever et menneske. Å bli speilet er ikke det samme som å bli sett.
Hvis en av fire unge søker emosjonell støtte hos en chatbot, er ikke hovedproblemet teknologien.
Hovedproblemet er at altfor mange barn fortsatt mangler et trygt sted å bli hørt av et menneske.
Det er samfunnets ansvar.






