- Den kinesiske muren er det eneste byggverket som er synlig fra månen.
- Vaksinen mot meslinger, røde hunder og kusma kan føre til autisme.
- Vi bruker som regel bare 10 % av hjernen vår.
Tilsynelatende har de lite med hverandre å gjøre, men den opplyste Psykologisk.no-leser har sikkert lagt merke til at de alle tre er usanne. Det stemmer. Jeg lar dem opptre sammen her fordi de er eksempler på feilinformasjon: Uriktig informasjon som i utgangspunktet kan forstås som gyldig, men som senere blir korrigert eller trukket tilbake.
Slik beskrevet virker kanskje ikke feilinformasjon som fenomen spesielt interessant eller oppsiktsvekkende. Vi hører om noe som kunne vært sant, og vi får senere høre at det var feil. Det er sånt som skjer. Big deal, lissom.
Men det stopper jo dessverre ikke der. Det pussige med feilinformasjon er nemlig at den har en lei tendens til å klore seg fast – både i den offentlige diskursen og i vår egen bevissthet.
Usannheter setter seg
Den er litt som en slags mental flått, denne feilinformasjonen; den borer seg fast, og selv etter at vi har fjernet selve udyret, kan den fortsette å plage oss. Noen lar seg simpelthen ikke overbevise av korrigeringer eller tilbaketrekninger. Andre gjør tilsynelatende det, men lar seg likevel senere påvirke av feilinformasjonen.
Noen tilfeller er selvsagt relativt harmløse. Det får neppe konsekvenser om folk tror den kinesiske mur er synlig fra månen. Litt verre er det om folk tror de har et enormt hjernekraftpotensial som bare venter på å bli utløst, kanskje med litt hjelp fra en velbeslått selvutviklingsguru. Men riktig ille blir det først når det begynner å gå på liv og (folke)helse løs, som i vaksinefrykten. Fra et samfunnsperspektiv er feilinformasjonens vedvarende innflytelse, urovekkende.
Noen av årsakene til at feilinformasjon er så seiglivet, finner vi i ytre forhold. Noen ganger har folk interesse av at feilinformasjon spres og opprettholdes. Tobakkindustriens mer eller mindre godt fordekte, men svært vellykkede og langvarige arbeid for å undergrave troverdigheten til forskning som viste at røyking var farlig, er et godt eksempel. Andre ganger eksponeres vi for feilinformasjon mer som en konsekvens av vaner eller gjengse måter å gjøre ting på – som når redaksjoner og journalister bidrar til å skape falsk balanse ved å fremstille to sider av en sak som tilnærmet likeverdige, til tross for at velinformert, forskningsbasert konsensus heller tungt i den ene retningen. Et spesielt hårreisende tilfelle ble vi vitne til i NRKs aktualitetsprogram Her og nå den 8. desember 2014, hvor HPV-vaksinen ble debattert av en kvalifisert forsker og en konspirasjonsteoretiker som ble titulert som «uavhengig forsker».
Men selv om vi tar høyde for slikt: Fra et psykologisk perspektiv er det uhyre interessant å spørre seg hvordan feilinformasjonenes vedvarende innflytelse i det hele tatt er mulig. Hva i all verden er det som gjør at vi fortsetter å tro på usannheter selv etter at vi er blitt eksponert for korreksjoner? Hvorfor er ikke dementier så effektive som vi kanskje skulle tro? Hvordan kan vi bli kvitt den mentale borreliosen? Et godt svar må vise til hvordan hukommelsen vår fungerer.
Fort og langsom hukommelse
I boka Tenke fort og langsomt populariserer Daniel Kahneman et sentralt teoretisk rammeverk fra kognitiv psykologi, nemlig to-prosess-teori. To-prosess-teori postulerer to hovedtyper av mental informasjonsbearbeiding:
- Den ene prosessen er rask, automatisk og ofte ubevisst, og det er den vi bruker på det jevne, når vi ikke særskilt går inn for grundig og god tenkning. Den er vår mentale autopilot.
- Den andre prosessen er langsom, strategisk og innsatskrevende, og kobles inn bare når vi er motivert for det og har tilgjengelig kapasitet.
Også hukommelsesprosessene våre kan forstås i dette rammeverket. All informasjon vi møter, blir raskt og automatisk vurdert som mer eller mindre kjent eller ukjent. Gjenkjennelse gir oss en følelse av fortrolighet, og denne følelsen kan føre, via en rask, ubevisst, snarveislutning, til en opplevelse eller oppfatning av den aktuelle informasjonen som gyldig, som noe vi vet.
Det skal ikke mange eksponeringer til før vi begynner å gjenkjenne noe. Så, om vi ved et par anledninger eksponeres for ideen om at vi bare bruker en brøkdel av vårt hjernepotensial, så vil den raskt gjenkjennes ved senere eksponeringer. Opplevelsen av fortrolighet og gyldighet følger lett av seg selv.
Å analysere eller huske de konkrete detaljene og omstendighetene rundt eksponeringen, derimot, krever typisk bearbeiding av den andre typen. En god vurdering av kildens troverdighet, for eksempel, koster både tid og konsentrasjon. Senere, når vi på en eller annen måte blir minnet på ideen om vår angivelig skjulte hjernekraft, så kjenner vi den fort og uanstrengt igjen, mens vi må jobbe hardere for å hente frem igjen informasjon om hvem som sa det, og om hvorfor og hvordan.
Dette kan bidra til å forklare hvorfor enkle korreksjoner av typen «Det er ikke sant at den kinesiske muren er synlig fra månen» ikke alltid er effektive. Korreksjonen medfører i seg selv en eksponering for ideen, og bidrar således til å øke vår fortrolighet med den. Negasjonen, «ikke», blir mer som en kontekstuell detalj å regne, et vedheng som er vanskeligere å hente fram igjen når vi neste gang snubler over noe som minner oss på tanken.
Noen studier har faktisk vist at enkle tilbaketrekninger, dog vanligvis effektive på kort sikt, noen ganger kan forsterke feilinformasjonens innflytelse – den såkalte «familiarity backfire»-effekten. At denne effekten er tydeligere hos barn og eldre – hvor kognitive ressurser til innsatskrevende informasjonsbearbeiding noen ganger er vanskeligere å mobilisere – stemmer bra med en to-prosess-forståelse à la den vi har skissert.
Et hull i fortellingen
En annen årsak til at det er så vanskelig å riste løs den innpåslitne feilinformasjonen, er knyttet til hvordan den (mer eller mindre riktige) informasjonen eller kunnskapen som utgjør vår forståelse av verden, vanligvis er organisert: Som hendelsesforløp og/eller kjeder av årsaker og virkninger. Hvis feilinformasjonen spiller en viss rolle som forklarende element i en slik fortelling, så skal det ofte mer til enn en enkel korreksjon for å få den til å slippe.
Dette har Colleen Seifert ved University of Michigan og andre forskere vist i en rekke eksperimenter. De viste deltakerne rapporter om hendelsesforløp under utvikling. I en av rapportene meldes det om en brann i en industribygning. Meldingene kommer utover i tid som en slags nyhetsoppdateringer, omtrent slik vi kunne oppleve det om vi hørte på radioen en formiddag at noe slikt var i gjære. I en av de tidlige meldingene får deltakerne høre om usikrede oljemalingsbokser og gassflasker som angivelig skulle stå i et rom i bygningen. Samtidig får de høre om hvordan brannen arter seg. Det er eksplosjoner og svart, giftig røyk.
I en senere melding får deltakerne vite at det ikke var usikret maling eller gass i noe rom i bygningen allikevel. Den opplysningen var altså feilinformasjon. Til tross for dette, og til tross for at deltakerne har forstått og lagt merke til korreksjonen, fortsetter de å bruke feilinformasjonen når de tenker rundt brannen. På spørsmål om hva som kunne ha forårsaket eksplosjonene, eller hva som kunne føre til at det ikke ville bli utbetalt noen forsikring, hadde deltakerne en tendens til å vise til malingen og gassen – de som hadde hørt korreksjonen, nesten like mye som de som ikke ble gjort oppmerksom på at opplysningen var feil!
Her har vi en situasjon hvor feilinformasjonen fungerer som en utmerket forklaring på andre elementer i fortellingen. Det hjelper lite om vi bare blir fortalt at opplysningen om usikrede gassflasker var feil; de er den beste og mest tilgjengelige forklaringen vi har på både eksplosjoner, forsikringstrøbbel og annet. Forsøker vi å trekke ut denne lille biten av informasjon, så er det som om sterke, elastiske gummistrikker av narrative forbindelser bare tvinger den tilbake på plass i helheten.
Det at feilinformasjonen dekker et behov for en forklaring, kan være en viktig årsak til at ideen om en sammenheng mellom vaksine og autisme er så sjokkerende seiglivet. Her er det åpenbart et sterkt og skrikende behov for forklaring. Forfatter Olaug Nilssen beskriver sårt hvordan dette behovet kan oppleves, i et intervju i Morgenbladet 24. juli i år. Men også for de av oss som har langt mindre påtrengende behov, så er mangelen på en forklaring på en så urettferdig og vond utviklingsforstyrrelse påfallende. Når en byr seg, en som endatil er konkret og tilsynelatende enkel, så risikerer vi at den lett smetter på plass i fortellingshullet.
En mulig kur
Disse to forklaringene på feilinformasjonens konstante slagkraft gir hint om hvordan den kan motvirkes: I studien til Seifert var det først når deltakerne ble introdusert for en alternativ, plausibel forklaring (spor til at brannen var påsatt), at forskerne klarte å redusere innflytelsen. I vaksine-autisme-myten er dessverre denne strategien ikke så tilgjengelig, simpelthen fordi det ikke enda finnes noe enkelt, godt og lettfattelig forklaringsalternativ. En mulig reservestrategi kan da være å forklare hvordan feilinformasjonen i utgangspunktet har oppstått – og hvordan man er kommet fram til at feilinformasjonen faktisk er feil.
Det er uhyre interessant at så mye feilinformasjon klorer seg fast.
Forskning på undervisningsopplegg som benytter veiledet arbeid med tilbakevisning av misforståelser og feilinformasjon, har gitt lovende resultater. Skulle elevene/studentene råke til å lære litt immuniserende kildekritikk og forskningsmetode i samme slengen, så er det kanskje en bivirkning vi kan tåle.
Kilder
Bedford, D. (2010). Agnotology as a teaching tool: Learning climate science by studying misinformation. Journal of Geography, 109(4), 159–165. doi: 10.1080/00221341.2010.498121.
Ecker, U. K. H., Swire, B., & Lewandowsky, S. (2014). Correcting misinformation: A challenge for education and cognitive science. I J. L. G. Braasch & D. N. Rapp (red.), Processing incaccurate information: Theoretical and applied perspectives from cogntive science and the educational sciences (s. 13–37). Cambridge, MA: The MIT Press.
Kahneman, D. (2011). Thinking, fast and slow. London: Allen Lane.
Kowalski, P., & Taylor, A. K. (2009). The effect of refuting misconceptions in the introductory psychology class. Teaching of Psychology, 36(3), 153–159. doi: 10.1080/00986280902959986.
Lewandowsky, S., Ecker, U. K. H., Seifert, C. M., Schwarz, N., & Cook, J. (2012). Misinformation and its correction. Psychological Science in the Public Interest, 13(3), 106–131. doi: 10.1177/1529100612451018.
Lilienfeld, S. O. (2010). 50 great myths of popular psychology : Shattering widespread misconceptions about human behavior. Chichester: Wiley-Blackwell.
Lillebø, S. (2015, 24. juli). Hold kjeft! Du vet ingenting om livet! Morgenbladet.
Meldalen, S. G. (2014, 8. desember). NRK presenterte konspirasjonsteoretiker og UFO-foredragsholder som «uavhengig forsker» i vaksinedebatt. Dagbladet.
NRK (2014). NRK beklager misvisende yrkestittel. Nrk.no.
Seifert, C. M. (2014). The continued influence effect. I J. L. G. Braasch & D. N. Rapp (red.), Processing inaccurate information: Theoretical and applied perspectives from cognitive science and the educational sciences (s. 39–71). Cambridge, MA: The MIT Press.