Sosiale medier har etablert seg som et sosialt speil av våre liv. Sjelden har vel munnhellet «we shape the tools, then the tools shape us» (Culkin, 1967, s. 71) vært mer aktuelt enn i KI-samfunnet.
For har vi som folkeferd blitt avhengige av sosiale medier, eller er det andre psykologiske drivkrefter som nører opp under vår stadig mer digitale livsstil?
Kan KI dybdeanalysere språket i sosiale medier og forutse depresjon?
Kan KI-genererte chatboter som Replika fungere som «hverdagsterapeuter»?
Er risikoen ved «selfie-bølgen» på sosiale medier undervurdert, og har noen av drivkreftene for dette KI integrert?
Har vi behov for nye forskningsmetoder for å kunne «lese» de unges digitale livsstil og forstå det stadig mer KI-komplekse samfunnet?
Hvorfor ser det ut til at jenter rammes hardere enn gutter ved bruk av sosiale medier?
Hva sier det oss når nesten en av tre studenter sier at den responsen de får på det de legger ut eller deler på sosiale medier har stor betydning for hvordan de har det (Sivertsen & Johansen, 2022)?
Disse spørsmålene løfter jeg frem i boken Digital kompetanse i KI-samfunnet (Krumsvik, 2023a; 2023b), der jeg tar på pulsen hvordan vi lever livene våre mens KI styrer og steller tilsynelatende ubemerket i bakgrunnen. Den ser nærmere på hvorfor mye av skjermtiden vår som er algoritmegenerert og hvorfor vår digitale livsstil går «under radaren» i vår bevissthet, og hvordan det preger oss på et subliminalt nivå.
Dette kan medføre at vi går rundt lykkelige uvitende om at vi over tid blir mer preget enn vi tror og at vi gradvis tilegner oss digitale uvaner, digital avhengighet og en gryende psykisk uhelse som følge av vår stadig mer ekspansive digitale livsstil. Dette gjelder selvsagt ikke alle, men man ser at unge jenter og kvinnelige studenter er spesielt sårbare.
Ved å belyse den eksisterende kunnskapen avdekkes det flere interessante funn rundt hvorfor jenter rammes hardere enn gutter, og hva KI kan bidra med på denne fronten.
For det viser seg at språkmodellens evne til å analysere kan styrke det forskningsmetodiske innenfor dette feltet. Dette er spesielt viktig fordi kunnskapsgrunnlaget er noe delt i synet på om sosiale medier og skjermtid er en av årsakene til økningen i psykisk uhelse blant unge og unge voksne her til lands. Det delte synet er blant annet basert på at sosiale mediers generasjons- og nettverkseffekter slår såpass kraftig inn at det er vanskelig å ta høyde for dette med konvensjonelt forskningsdesign.
Her ser man at KI er i stand til å gjøre semantiske analyser som kan være kjærkomne bidrag til dagens forskningsmetoder.
Studiene
Disse studiene er viktige for å øke kunnskapsgrunnlaget omkring sosiale medier og psykisk uhelse, samt at de rent forskningsmetodisk er innovative ved å bruke ChatGPT til denne type forskningsformål.
Selv om det må bemerkes at kunnskapsgrunnlaget foreløpig er skrint og at man også finner studier som ikke viser like lovende resultat som de overnevnte, er det likevel liten tvil om at potensialet som ligger i KI kan bli et teknologisk paradigmeskifte med høy relevans for helsesektoren.
En studie (Eichstaedt mfl., 2018) undersøkte mulige nye screeningmetoder for depresjon ved hjelp av maskinlæringsalgoritmer og en prediktiv modell. KI analyserte språket i Facebook-innlegg fra 683 informanter og resultatene var mer treffende enn ved andre screening-metoder.
En annen studie (Lamichhane, 2023) fant også at språkmodellen ChatGPT har et potensial til å utføre klassifiseringer av psykisk uhelse ut fra det som deles på sosiale medier.
En tredje studie (Bucur, 2023) anvendte to modeller for å identifisere depresjonssymptomer ut fra sosiale medier, og fant at den ChatGPT-baserte modellen fungerte best i denne studien.
I en fjerde analyse av innlegg på sosiale medier og identifisering av selvmordsrisiko, fant at ChatGPT har en betydelig presisjon for å måle dette, men at transformatorbaserte modeller som var basert på finjusterte menneskelige datasett oppnådde enda bedre ytelse (Ghanadian mfl.,2023). Studien viser hvordan en justering av ChatGPT kan forbedre dens evne til å være en «sparringspartner» for psykisk helsepersonell i slike arbeidsoppgaver.
En semantisk analyse gjort av ChatGPT, basert på velværedimensjonene i innlegg som var postet på sosiale medier, viste at ChatGPT overgikk de andre metodene som har dette som formål (Liyanage mfl., 2023).
Li og kolleger (2023) anvendte ChatGPT til å identifisere hatefulle, diskriminerende og trakasserende kommentarer på sosiale medier, og fant at bruk av ChatGPT for å oppdage HOT (hateful, offensive, and toxic) på sosiale medier fungerte godt. Studien viser også potensialet i å bruke generative KI-modeller for å moderere store mengder brukergenerert innhold på sosiale medier.
Studiene reiser også spørsmål om konvensjonelle forskningsdesign og teorier er i stand til å fange opp disse nye strømningene, som dels er basert på at stadig flere lever store deler av sitt liv på sosiale medier og deler sine innerste følelser i stort monn over mange år. Algoritmer understøtter dette og KI er i stand til å dybdeanalysere språket på helt nye måter som kan ha helsemessig relevans.
Her må man nok erkjenne at KI overgår menneskelig kapasitet og derfor kan KI bli en nyttig «sparringspartner» og en «som ser deg over skulderen» for både helseforskeren og helsearbeidere i årene som kommer.
Kilder
Bucur, A.-M. (2023). Utilizing ChatGPT generated data to retrieve depression symptoms from social media. ArXiv, 2307.02313. doi:10.48550/arXiv.2307.02313
Culkin, J. M. (1967, 18. mars). A schoolman’s guide to Marshall McLuhan. The Saturday Review, 51–53, 70–72.
Eichstaedt, J. C., Smith, R. J., Merchant, R. M., Ungar, L. H., Crutchley, P., Preoţiuc-Pietro, D., Asch, D. A. & Schwartz, H. A. (2018). Facebook language predicts depression in medical records. PNAS, 115(44), 11203–11208. doi:10.1073/pnas.1802331115
Ghanadian, H., Nejadgholi, I. & Al Hussein, O. (2023). ChatGPT for suicide risk assessment on social media: Quantitative evaluation of model performance, potentials and limitations. ArXiv, 2306.09390. doi:10.48550/arXiv.2306.09390
Krumsvik, R. J. (2023a). Digital kompetanse i KI-samfunnet. Et blikk på hvordan kunstig intelligens preger livene våre. Oslo: Cappelen Damm Akademisk.
Krumsvik, R.J. (2023b, 3. november). KI er svaret – hva var spørsmålet? Khrono.
Lamichhane, B. (2023). Evaluation of ChatGPT for NLP-based mental health applications. ArXiv, 303.15727. doi:10.48550/arXiv.2303.15727
Li, L., Ma, Z., Fan, L., Lee, S., Yu, H. & Hemphill, L. (2023). ChatGPT in education: A discourse analysis of worries and concerns on social media. ArXiv, 305.02201. doi:10.48550/arXiv.2305.02201
Liyanage, C., Garg, M., Mago, V. & Sohn, S. (2023). Augmenting Reddit posts to determine wellness dimensions impacting mental health. ArXiv, 2306.04059. doi:10.48550/arXiv.2306.04059
Sivertsen, B. & Johansen M. S. (2022). Studentenes helse- og trivselsundersøkelse 2022 (SHOT). Oslo: Studentsamskipnaden SiO.