Før vi avslører hva innsikten går ut på, la oss se på to psykologiske fenomener som viser hvor vanskelig vi har for å beregne sannsynligheter.
Konservatismen
Tenk deg en haug med tøyposer. I hver tøypose er det 100 klinkekuler. Klinkekulene har to forskjellige farger, rød og blå. I halvparten av posene er det flere røde kuler (70 stykker) enn blå (30), mens i resten er det flere blå enn røde. Vi plukker ut en pose tilfeldig. Fra posen trekker vi nå en klinkekule, registrerer fargen, legger den tilbake i posen, roter litt rundt og trekker en kule på ny. Trekningen gjentas et antall ganger. Oppgaven vår er å anslå sannsynligheten for at vi har plukket ut en pose med overvekt av røde kuler etter hvert som vi trekker. Før vi begynte å trekke, var det beste anslaget 50 %.
På 1960-tallet utførte den amerikanske beslutningspsykologen Ward Edwards (1927–2005) og andre forskere drøssevis av eksperimenter med varianter av slike oppsett. Observasjonen de gjorde gang på gang, var at folk var lite villige til å bevege seg langt fra sitt opprinnelige beste anslag, selv om kuletrekningen ga relevant informasjon om posens fargesammensetning. Fenomenet fikk navnet konservatisme (men må selvsagt ikke forveksles med politisk konservatisme).
Grunnfrekvensfeilen
En demonstrasjon av et tilsynelatende nokså ulikt bedømmingsfenomen dukket opp i litteraturen noen år senere. Den amerikanske forskeren David Eddys studie fra 1982 var ikke den første, men er kanskje den mest omtalte. Eddy presenterte 100 leger for følgende problem: I et utvalg kvinner er forekomsten av brystkreft 1 %. Hvis en kvinne har brystkreft, vil en mammografiundersøkelse slå ut som positiv med ca. 80 % sannsynlighet. Dersom en kvinne ikke har brystkreft, vil en mammografiundersøkelse allikevel slå ut som positiv med ca. 10 % sannsynlighet. (Tallene er justert noe, for å gjøre dem lettere å regne med.) En kvinne fra dette utvalget har vært til mammografiundersøkelse, og den er positiv. Hva er sannsynligheten for at hun faktisk har brystkreft?
Det store flertallet av legene i Eddys lille test anslo sannsynligheten for å være omtrent 70–80 %. Det er ikke bare en liten bommert, men en ganske betydelig en. Det beste svaret man kan gi med de (riktignok sparsommelige) opplysningene i Eddys mammografiproblem, er at sannsynligheten for at en kvinne med positivt mammogram faktisk har brystkreft, er 7,5 %, altså omtrent en tiendedel så stor som de fleste legene trodde. Én forklaring på feilbedømmingen går ut på at når vi stilles overfor et slikt problem, så har vi en tendens til å overse det faktumet at sannsynligheten for brystkreft i utvalget i utgangspunktet (ofte kalt grunnfrekvensen) er ganske så lav. Slike feilbedømminger har derfor fått tilnavnet grunnfrekvensfeilen («base rate neglect»).
Brudd på pastorens prinsipp
Både konservatismen og grunnfrekvensfeilen kan forstås mer helhetlig i lys av pastor Bayes’ innsikt. De dreier seg nemlig begge om en og samme type bedømmingsoppgave: Å oppdatere en sannsynlighet i lys av ny evidens. Med utgangspunkt i prinsippene for sannsynlighetsregning formulerte Bayes en regel for hvordan man bør gjøre nettopp det.
Den vanligste moderne formaliseringen av regelen har vi gjengitt i figuren over. For de nysgjerrige uten formelangst har vi laget en forklaring av de ulike leddene i formelen.
Konservatisme er et eksempel på at vi noen ganger legger for lite vekt på ny evidens og liksom henger fast i vår opprinnelige sannsynlighet. I forrige utgave av spalten så vi at ekspertkommentatorer med pinnsvinpreget kognitiv stil er mindre villige til å oppdatere opprinnelige sannsynlighetsanslag, noe av det som gjør dem til litt dårligere fremtidsorakler enn revene.
Grunnfrekvensfeilen er et eksempel på at vi noen ganger legger for mye vekt på ny informasjon og ikke tar nok hensyn til den opprinnelige sannsynligheten. Begge deler er brudd på Bayes’ prinsipp, som altså forteller oss hvor mye vi skal justere vår opprinnelige sannsynlighet når vi får ny informasjon.
En praktisk problemløser
Her bør det kanskje nevnes at Bayes selv muligens var noe usikker på verdien av egen innsikt. I sin bok om Bayes’ læresetning forteller forfatteren Sharon McGrayne at han etter å ha forsøkt seg på en fremstilling bare la den i skrivebordsskuffen, og der ble den liggende. Det var en kollega som sørget for at den ble publisert etter pastorens død.
Få lot seg imponere nevneverdig. Interessen tok seg litt opp da opplysningstidens supermann og alt-mulig-geni, franskmannen Pierre Simon Laplace (1749–1827), oppdaget det samme prinsippet og utviklet en mer anvendelig formulering av det. Men regelen har hatt en broket historie og nærmest vært et slags statistisk undergrunnsfenomen.
Til tross for at prinsippet har vært noe uglesett, særlig av det statistiske etablissementet (hvis det finnes noe sånt), har den en imponerende merittliste av praktiske problemløsningsbragder bak seg. Det var for eksempel Bayes’ læresetning som var selve rammeverket i den britiske matematikeren Alan Turings arbeid med å knekke den tyske Enigma-koden under andre verdenskrig. Koden ble blant annet brukt til å kryptere kommunikasjonen som koordinerte den tyske ubåtflåten. Turings arbeid tillot allierte transportkonvoyer å unnslippe, forsyningslinjene til Storbritannia kunne holdes noenlunde åpne, og tyske ubåter kunne jaktes langt mer effektivt. Turings bayesiske tilnærming til kodeproblemet kan ha vært avgjørende for utfallet av krigen.
I tilleggsmaterialet til denne teksten viser vi hvordan enkel anvendelse av Bayes’ læresetning gir svaret på Eddys mammografiproblem, og også på Monty Hall-problemet vi irriterte oss over i en tidligere utgave av denne spalten.
Tenk som Thomas
Må vi pugge formelen og gjøre utregningene for å nyttiggjøre oss Bayes’ innsikt? Kanskje ikke. Når vi i sannsynlighetsbedømminger oppfører oss konservativt eller overser grunnfrekvenser, så er problemet neppe først og fremst at vi ikke kan formelen. Det handler nok mest om at vi der og da rett og slett ikke innser at både grunnfrekvensen og den nye informasjonen bør spille en rolle i vårt endelige estimat. Selv en litt diffus kjennskap til prinsippet kan muligens skjerpe oss nok til at vi korrigerer.
Det finnes også et lite triks man kan benytte seg av for å tenke bayesisk uten formelen. Sannsynligheter oppgis ofte som prosenter eller som fraksjoner (et tall mellom 0 og 1). Hvis man tar seg bryet med å oversette dem til frekvenser, så kan det bli lettere å se den bayesiske løsningen. Se bare på Eddys problem: I et utvalg bestående av 1 000 kvinner er det 10 som har brystkreft. En mammografiundersøkelse vil slå ut som positiv for 8 av de 10 kvinnene med brystkreft. Blant de 990 kvinnene som ikke har brystkreft, vil en mammografiundersøkelse allikevel slå ut som positiv hos 99 av dem. Hva er sannsynligheten for at en kvinne med positivt mammogram fra dette utvalget har brystkreft?
Hvis vi tar utgangspunkt i absolutt sikkerhet, er all ny informasjon irrelevant.
Helt til slutt en morsom egenskap ved Bayes’ læresetning: Dersom vi tar utgangspunkt i absolutt sikkerhet – altså at vi tilskriver sannsynlighet på 0 % eller 100 % til hypotesen vi vurderer – så er all ny informasjon uansett irrelevant. Det bør gjøre oss lite villige til å være skråsikre på noe som helst.
Kilder
Bayes, T. (1763). An essay concerning a problem in the doctrine of chances. By the late Rev. Mr. Bayes, communicated by Mr. Price, in a letter to John Canton, A. M. F. R. S. The Philosophical Transactions of the Royal Society, LII (Dec. 23), 370–418.
Eddy, D. M. (1982). Probabilistic thinking in clinical medicine: Problems and opportunities. I D. Kahneman, A. Tversky & P. Slovic (red.), Judgments under uncertainty: Heuristics and biases (s. 249–267). Cambridge: Cambridge University Press.
McGrayne, S. B. (2011). The theory that would not die: How Bayes’ rule cracked the enigma code, hunted down russian submarines, and emerged triumphant from two centuries of controversy. New Haven, CT: Yale University Press.
Phillips, L. D. & Edwards, W. (1966). Conservatism in a simple probability inference task. Journal of Experimental Psychology, 72(3), 346–354. doi: 10.1037/h0023653.
Sedlmeier, P. & Gigerenzer, G. (2001). Teaching Bayesian reasoning in less than two hours. Journal of Experimental Psychology: General, 130(3), 380–400. doi: 10.1037/0096-3445.130.3.380.