Thursday, January 28, 2016

Häggström hävdar: Quickologisk sannolikhetskalkyl. Om Bayes' sats vs bevisaddition-tesen

Häggström hävdar: Quickologisk sannolikhetskalkyl: Justitierådet och förre justitiekanslern Göran Lambertz säger sig vara säker på att de sedermera upprivna morddomarna 1994-2001 mot Thoma...

Min egen kommentar hos Roger Viklund bifogas inunder Olle Häggströms blogginlägg. Se nedan eller kommentar nr 43 i Roger Viklunds kommentarsfält:

lördag 16 maj 2015

Quickologisk sannolikhetskalkyl

Justitierådet och förre justitiekanslern Göran Lambertz säger sig vara säker på att de sedemera upprivna morddomarna 1994-2001 mot Thomas Quick var riktiga, och att de alltså inte utgör någon rättsskandal. Min avsikt med denna bloggpost är inte att ta ställning i den frågan; härtill är jag inte tillräckligt inläst i ärendet. Vad jag däremot, efter att ha läst Lambertz nyutkomna Quickologi, tycker mig kunna säga med viss bestämdhet är två saker: för det första att boken är en av de sämsta jag läst på åratal,1 och för det andra att bokens centrala argumentation, som landar i en påstått 183%-ig sannolikhet att Quick är skyldig, är så till den grad förvirrad och kufisk att det knappast finns någon anledning att ta den på allvar.
Boken är långrandig och oerhört repetitiv. Vi får ta del av den påstådda bevisningen mot Quick varv efter varv efter varv efter varv, och som läsare finner jag mig gång på gång (men oftast förgäves) fråga mig vad Lambertz tänkt sig att tillföra denna gång. En annan sak som ältas i det oändliga är den hårfina distinktionen mellan å ena sidan att hävda att domarna var riktiga, och å andra sidan att hävda att Sture Bergwall (som Quick numera heter) är skyldig, samt det moraliskt problematiska i att efter de friande domarna hävda det senare.2 En tredje sak som Lambertz i samma repetitiva stil gång efter annan återkommer till är hur illa han själv behandlats av media och andra för sina ställningstaganden i Quickaffären; här pendlar han mellan allmän gnällighet och renodlat rättshaveri.3 Boken är därtill irriterande slarvigt skriven, och här och var råkar Lambertz säga saker som han inte rimligtvis kan mena.4
Detta om boken som helhet. I det följande skall jag koncentrera mig på de i boken helt centrala Kapitel 14 och 15, som handlar om att med hjälp av sannolikhetskalkyl bedöma bevisläget mot Quick, och som är de enda där jag har någon relevant sakkunskap att komma med.
Lambertz argumentation här innehåller gott om tveksamheter, men riktigt överstyr går det först då han på s 238-241 bemöter en artikel av Joacim Jonsson i Folkvett3/2013, som kritiserar en studie av psykologiprofessor Sven Åke Christianson där Thomas Quicks förmåga att svara rätt på ett antal detaljfrågor om hur morden gått till jämförs med tio försökspersoners gissningar. Ur Joacim Jonssons artikel (som i sin tur i hög grad bygger på en analys gjord av Rickard L Sjöberg) destillerar Lambertz (s 238-239) fram en lista på femton punkter av kritik mot Christiansons studie. Listan är enligt min bedömning helt förödande för studien. Lambertz, som sätter stor tilltro till studien som en del av bevisningen mot Quick, tycks ha bestämt sig på förhand för att Jonssons kritik inte kan vara riktig, och för att det därför inte spelar så stor roll vilka motargument han anför. Han har därför (verkar det som) valt medtoden att för varje punkt på listan nedteckna det första motargument han kommer att tänka på, utan någon reflektion kring motargumentets eventuella styrkor och svagheter. Hans motargument blir därför genomgående svaga, och det mot punkt 15 på listan är rena härdsmältan:
    15. För att undvika slumpeffekter brukar man göra signifikanstester vid statistiska tester. Det gjordes inte här.[...]
    Självklart är att det inte kunde göras något signifikanstest (punkt 15). Det är en statistisk metod att testa vetenskapliga hypoteser. Hypotesen förkastas om verkligheten avviker osannolikt mycket från vad hypotesen förutsäger. Här handlar det uppenbarligen inte om något sådant. (s 239-240)
Det sista är fullkomligt fel. Om vi (hypotetiskt) antar att kritiken i Jonssons punkt 1-14 kan besvaras tillfredsställande, så är Christiansons studie som klippt och skuren för ett signifikanstest, där nollhypotesen är att Quick inte har någon privilegierad tillgång till information om morden som gemene man (representerad av försökspersonerna) inte har tillgång till. Vad Lambertz inte verkar begripa är att ett sådant signifikanstest skulle vara en precisering och kvantifiering av den underförstådda logik som han själv lutar sig mot när han anför studien i bevisningen mot Quick, nämligen att studiens utfall skulle vara osannolikt om Quick saknade det slags priviligierade tillgång till information som han t.ex. skulle ha om han själv var mördaren. Lambertz påstående om att det inte går att göra något signifikanstest blir därmed ett påstående om att värdet av studien såsom bevis mot Quick omöjligt kan kvantifieras.
Ett annnat iögonfallande felslut i Lambertz behandling av bevisningen dyker upp på s 280-281, då han hävdar att Quicks många felaktiga svar på frågor om morden inte har någon relevans för det totala evidensläget:
    Inverkar Quicks fel beträffande mordvapen, vägar, märken på ett mordoffers kropp och liknande på tillförlitligheten i uppgifter som han lämnat beträffande andra saker, exempelvis en helt annan väg än den som beskrivits felaktigt, ett hus någon annan stans, en person som begått självmord eller en bil som skrotats? Nej, i princip inte.
Lambertz svar på frågan är helt hårresande. Hur imponerad av ett visst antal rätt någon har i t.ex. en frågelek bör givetvis också bero på hur många chanser personen haft. Detta är måhända enklast att begripa i ett konkret exempel. Antag att jag hävdar att jag har parapsykologiska förmågor som gör att jag kan förutse om ett spelkort är svart eller rött utan att ha sett det. Antag vidare att jag har gjort rätt förutsägelse 20 gånger. Utgör detta evidens för att jag har parapsykologiska förmågor? Om jag blott haft 20 chanser på mig, och svarat rätt varje gång, så kan testet tolkas så. Om jag istället haft 40 tillfällen, och svarat rätt på 20 av dem, så är det givetvis orimligt att se testet som talandes för att jag har parapsykologiska förmågor. Lambertz kategoriska "Nej, i princip inte" i citatet ovan innebär att han intar den orimliga ståndpunkten att de två fallen (20 rätt av 20, respektive 20 av 40) är evidentiellt ekvivalenta.5
Låt mig nu ta upp den centrala passage, på s 296-299, där Lambertz kvantifierar det totala bevisläget och landar i att det pekar på att Quick med 183%-ig säkerhet är skyldig. Hans metod är följande. Bevisläget är sammansatt av ett stort antal omständigheter E1, E2, E3, etc. För vart och ett av dessa uppskattar Lambertz den betingade sannolikheten6 P(A|Ei) för händelsen A att Quick är skyldig givet omständigheten Ei. För att kvantifiera det totala bevisläget använder han sig av vad vi kan kalla de betingade sannolikheternas additivitet:
    P(A|Ei, Ej) = P(A|Ei) + P(A|Ej)
och mostsvarande för tre eller flera omständigheter. Problemet är att denna summationsformel inte är sann: betingade sannolikheter har inte denna additivitetsegenskap. Detta är inte fråga om en matematisk teknikalitet beserat på något esoteriskt motexempel, och det går inte att rädda Lambertz förfarande genom att hävda att betingade sannolikheter skulle vara oftast additiva ellerapproximativt additiva - det är de inte. Det går att koka ihop enstaka exempel på händelser A, Ei och Ej där additivitetsformeln råkar stämma, men då är det att betrakta mer som en tillfällighet än som konsekvensen av en allmän egenskap hos betingade sannolikheter.
Det är busenkelt att peka ut uppenbara motexempel till additivitetsformeln. Antag t.ex. att P(A|Ei) och P(A|Ej) båda är större än 50%; då säger additivitetsformeln att P(A|Ei, Ej) är mer än 100%, vilket är orimligt då en sannolikhet (betingad eller ej) aldrig kan överskrida 100%.
En mer konkret illustration till hur alldeles på tok den av Lambertz implicit påstådda additivitetsegenskapen är, är följande. Låt
    A={Quick är skyldig},
    E1={Endast Thomas Quick och Palle Prick fanns på eller nära platsen för mordet},
    E2={Mördaren lämnade små fotspår i blodet och har alltså små fötter}, och
    E3={Thomas Quick har skonummer 38, och Palle Prick har skonummer 47}.
Vi kan här anta att P(A|E1)=50% (Lambertz går igenom väsentligen just detta hypotetiska exempel på s 275). Vidare konstaterar vi att E2 i sig varken talar för eller emot Quicks skuld, och följer Lambertz konvention att i sådana fall sätta P(A|E2) till 0%.7 Av liknande skäl sätter vi P(A|E3) till 0%. Vad blir nu P(A|E1, E2, E3)? Well, var och en kan ju se att E1, E2 och E3 tillsammans medför att Quick är skyldig, så svaret borde bli 100%. Men om vi tillämpar Lambertz additivitetsegenskap blir P(A|E1, E2, E3) = 50%+0%+0%=50%, vilket är alldeles åt pepparn. (Det kan också slå fel åt motsatt håll, vilket inses om vi i exemplet ersätter E3 med E4={Thomas Quick har skonummer 47, och Palle Prick har skonummer 38}.)
Lambertz additivitetsformel gäller inte, och att ändå tillämpa den kan leda godtyckligt fel. Det finns ingen särskild anledning att anta att den skulle leda någorlunda rätt i just hans kalkyl. Ett kortfattat sätt att förstå ickeadditiviteten hos betingade sannolikheter är denna: vilket bidrag en viss omständighet ger till en bevisning beror (ofta kraftigt) på vilken övrig bevisning som finns. Vi såg det i fallet E3 ovan: utan övrig bevisning betyder E3 ingenting, men om E1 och E2 redan är på plats så innebär E3 att sannolikheten att Quick är skyldig boostas från 50% till 100%.
Lambertz förefaller vagt medveten om att hans sannolikhetskalkyl är skum, då han kommenterar sina 183% med att sannolikheter över 100% egentligen inte finns. Han tycks dock mena att sannolikheter över 100% innebär en visshet ännu starkare än den visshet som sannolikhet 100% innebär. En annan skum aspekt, som han dock inte reagerar särskilt inför, är att han sätter in negativa sannolikheter för P(A|Ei) i fall då Ei talar emot Quicks skuld. Negativa sannolikheter finns inte.
Så långt Lambertz (implicita) sannolikhets-teori, som alltså är helt uppåt väggarna. Men också hans sannolikhets-praktik (dvs hans tillämpning av sannolikhets-teorin) är alldeles åt skogen, även om vi för skojs skull skulle anta att sannolikhets-teorinvore riktig. Här några av hans mest uppenbara tokerier:
  • Lambertz preciserar aldrig vilken händelse A det är vars sannolikhet han får till att bli 183%. Det handlar om att Quick är skyldig, men betyder A att han är skyldig till alla de åtta mord det handlar om, eller att han är skyldig till minst ett av dem, eller något annat? Innan detta preciserats är det bara trams att börja beräkna sannolikheten för A.
  • Trots att Lambertz upprepade gånger säger sig vara ute efter evidensläget vid tiden för domarna ränkar han in Quick/Bergwalls återtagande av sina erkännanden (vilket skedde senare) som en av omständigheterna Ei i kalkylen.
  • Lambertz ansätter P(A|E5)=15%, där E5 är omständigheten att morden är ouppklarade utan några rejält misstänkta. Det framstår som komplett orimligt att sannolikheten att Quick är skyldig, givet E5, skulle vara så hög som 15%, utan några som helst komprometterande omständigheter i övrigt (kom ihåg att enligt Lambertz definition är P(A|E5) den sannolikhet för Quicks skuld som omständigheten E5 i sig självmotiverar). Om vi ändå accepterar siffran 15% måste frågan ställas: blir då sannolikheten att Lambertz själv är skyldig, givet E5, också 15%?
  • I en separat kalkyl av sannolikheten att Quick begick mordet på Therese Johannessen landar Lambertz på siffran 110%. Lambertz kommenterar att detta är mindre överväldigande än de 183% han fick i den integrerade kalkylen, men säger också att "oavsett vilka värden som sätts på bevisningen lär även skeptiska bedömare hålla med om att värdet är så högt att det inte rimligen går att hävda att det var en rättsskandal att Thomas Quick åtalades och dömdes". Meh? Ingenstans motiverar han hur han i de konkreta fallen översätter verbal värdering av bevisning till procentsiffror, utan det verkar genomgående göras intuitivt och på en höft. En annan bedömare skulle, utan att avvika påtagligt från Lambertz verbala bevisbedömning, lätt kunna få t.ex. summan 75% där Lambertz får 110%, och därmed landa långt under den 98%-gräns som Lambertz på annat håll (s 275) anger svarar mot den "bortom rimlig tvivel"-nivå som krävs för fällande dom.
Fotnoter
1) Pressad av den kritikstorm som drabbat boken säger Lambertz förläggare, min gode vän Christer Sturmark, att han "ville ge ut boken för att den är välskriven". Jag vägrar tro att Christer verkligen menar detta. Samtidigt är sammanhanget inte ett sådant som inbjuder till skämtsamheter, så min bästa gissning är att han rätt och slätt bedömer det som kommersiellt förnuftigt (och kanske därtill en förläggares skyldighet) att hävda att boken är "välskriven".

2) Detta ältande kan ge intryck av att Lambertz tar det moraliska problemet på allvar, men steget från ord till handling, som i detta fall skulle vara att faktiskt anstränga sig att fokusera mer på rättsprocesserna än på Quick, har han inte tagit. Iögonfallande exempel på hur personen Quick/Bergwall ständigt kommer i fokus är bokens titel, och omslagets stilierat demoniska bild av Bergwall.

3) Följande passage, i vilken han dömer ut såsom moraliskt förkastligt sina juristkollegors tilltag att kritisera honom trots att han sagt att han är säker på sin sak, skulle kunna platsa som paradexempel i valfritt uppslagsverks artikel om rättshaveri:
    Om en domare som deltog i en av Quickrättegångarna hade sagt att han var säker på att anklagelserna mot Seppo Penttinen för mened var felaktiga, hur borde hans kollegor ha ställt sig till detta? Enligt min mening finns det inte någon tvekan. Om domaren säger sig vara säker på sin sak och uttalar sig till stöd för Penttinen, därför att denne angripits hårt och inte fått något stöd från andra, då är domarens uttalande inte bara korrekt utan också bra.Utifrån den nu angivna synpunkten är jag kritisk till de jurister som hoppade på mig för att jag försvarade de angripna i Quickrättegångarna och hävdade att det inte var fråga om rättsröta. De hade inte stöd för att misstro mig när jag sa att jag var säker på min sak. (s 420-421)
(Den optimistiske skulle kunna sätta visst hopp till att Lambertz lärt sig ett och annat av den briljanta intervju Bo-Göran Bodin nyligen gjorde med honom (Studio Ett, P1, 15 maj), t.ex. en smula ödmjukhet, och insikten att den som är säker på sin sak inte automatiskt har rätt. Men nej, fan tro't.)

4) Så t.ex. skriver Lambertz på s 235 om bevisvärdet "i att morden var ouppklarade både när [Quick]började berätta och när han dömdes", trots att det framgår med all önskvärd tydlighet av Lambertz argumentation i övrigt att han anser att morden var att betrakta som uppklarade i och med domarna mot Quick.

5) På statistikerspråk innebär Lambertz ståndpunkt att han vägrar beakta multipelinferensaspekter när han drar statistiska slutsatser. Detta är ett välkänt kardinalfel, som illustreras snyggt i xkcd-strippen Significant; se även min kritik förra året av en värdelös studie från Karolinska om epigenetik.

6) Lambertz använder inte (och känner troligen inte ens till) detta standarduttryck inom sannolikhetsteorin, men det är uppenbart från hans förklaring på s 296 att det är betingad sannolikhet som avses.
7) Detta i sig är en smula skumt, eftersom det innebär att en irrelevant omständighet räcker för att konstatera att Quick med säkerhet är oskyldig och därmed kan frias. Rimligare vore att i ett sådant fall ansätta P(A|E_i)=ε, där ε är något givet litet men strikt positivt tal, som t.ex. kan ges av sannolikheten att råka välja Quick vid en procedur där en bland all världens sju miljarder världsmedborgare väljs på måfå. Detta leder emellertid till nya svårigheter om vi insisterar på att anamma Lambertz additivitetsegenskap hos betingade sannolikheter. Det finns ju nämligen ett obegränsat antal irrelevanta omständigheter att betinga på, t.ex.
    E75={Pluto tar 247,74 år på sig att avverka ett varv runt Solen}, och
    E9162={Uppsala är Sveriges fjärde största stad}.
Genom att beakta n sådana irrelevanta omständigheter kan vi få upp den betingade sannolikheten att Quick (eller för den delen Lambertz, om vi så vill) är skyldig till nε, vilket oavsett hur litet ε är kan pressas upp till nära 1 genom lämpligt val av n (med förödande konsekvenser för rättssäkerheten).
*
Edit 17 maj 2015: I en bloggpost rubricerad Bayes och andra [WebCite] meddelar Göran Lambertz idag att han förutsett min kritik: "Jag har hela tiden förstått att jag kommer att bli påhoppad för min beräkning". Han meddelar också att han är fullt på det klara med att hans kalkyl är på tok, men hävdar att han gjort det avsiktligt, som en provokation. Om det verkligen är sant, som han låter påskina, att han redan när han skrev boken var medveten om att den additivitet hos betingade sannolikheter som hela hans kalkyl bygger på inte är giltig (eller ens approximativt giltig eller oftast giltig) så finner jag hans tilltag att likväl genomföra en sådan kalkyl, utan att med så mycket som ett kommatecken framhålla denna ogiltighet, anmärkningsvärt bedräglig.
Lambertz fortsätter sitt blogginlägg med att (helt riktigt) framhålla att det finns en korrekt metod att beräkna sannolikheter i ljuset av evidens: Bayesiansk betingning. Han skriver:
    Vill man sedan räkna med "Bayes sats" (som innehåller en väletablerad sannolikhetsberäkning för situationer där man har olika sorters information), så kan man göra det. Och då kommer man att se något viktigt: Sannolikheten blir mycket hög även där.
Jaså minsann, "mycket hög"! Lambertz glömmer här att understryka att han är säker på sin sak, men det verkar som att han är det. Om inte Lambertz kör en pokerbluff här så kan detta nog bara förstås som att han faktiskt genomfört en sådan Bayesiansk analys. I så fall hade det väl varit lämpligt att presentera denna i boken (istället för den bedrägliga additivitetsbaserade kalkylen och/eller något av bokens evinnerliga omtugg). Om inte annat så borde det väl vara läge för Lambertz att nu rätta till denna försumlighet och presentera sin Bayesianska analys, t.ex. på sin blogg. Men nej, det gör han inte, och han anför något slags pedagogiskt skäl för denna återhållsamhet:
    Så varför har jag inte använt mig av Bayes i boken? Jo, för att jag ville försöka få andra att ta sig an den uppgiften, gärna matematiker. För att värdet av bevisningen ska få ordentligt genomslag måste nog nämligen andra än jag och mina vänner ta sig an det.
*
Edit 19 maj 2015: I mitt tillägg ovan, den 17 maj, spekulerade jag över om möjligen Lambertz körde en "pokerbluff" då han lät påskina att han har genomfört en regelrätt Bayesiansk analys som alternativ till bokens nonsensanalys. Nu har han i all tysthet bekräftat att så är fallet (dvs att han bluffade) genom att i smyg föra in några redigeringar av sin bloggpost. I versionen den 17 maj [WebCite] hette det (som jag citerar ovan) att om man gör en Bayesiansk analys,
    då kommer man att se något viktigt: Sannolikheten blir mycket hög även där.
Tvärsäkert. I dagens redigerade version av bloggposten [WebCite] har han petat in ett "nog", vilket ger ett helt annat intryck:
    då kommer man nog att se något viktigt: Sannolikheten blir mycket hög även där
(min kursivering). Och till sin tidigare (och ovan citerade) förklaring till varför han avstått från att presentera den Bayesianska analysen tillägger han, troligtvis i syfte att avvärja fortsatta propåer om att offentliggöra en sådan, följande:
    Men en anledning var också att jag inte var helt säker på hur beräkningarna ska göras enligt den ganska komplicerade satsen. Då är det bättre om beräkningarna görs av personer som verkligen kan det.


https://rogerviklund.wordpress.com/2016/01/11/finns-jesus-bevittnad-utanfor-nya-testamentet/  Kommentarerna 42 och 43. 

  1. Den andre BB said,

    28 januari, 2016 den 19:08
    Jag kan kommentera följande: Lambertz har uttryckligen INTE använt sig av Bayes sats. Att Bayes skulle kunna användas för att bevisa det omöjliga är således ingenting som exemplet Lambertz överhuvudtaget kan visa.
  2. bbnewsab said,

    28 januari, 2016 den 20:38
    Skrolla ned till slutet av den bloggartikeln. Tills du kommer till EDIT 17 maj 2015. Och läs även EDIT 19 maj 2015.
    Lambertz påstår själv, i sin egen bloggartikel (sehttp://goranlambertz.se/bayes-och-andra/ ), dvs den som analyseras av Olle Häggström, att OM man använder sig av Bayes’ sats, så ”blir [sannolikheten] mycket hög även där”.
    Den sortens formulering måste rimligtvis tolkas som att Lambertz har låtit genomföra åtminstone en form av förenklad användning av Bayes’ sats. Hur kan han annars veta att sannolikheten blir hög även när den metoden används?
    Olle Häggström påvisar för övrigt hur Lambertz bluffar och har sig. Dagens version av Lambertz¨’ bloggartikel skiljer sig i ett avseende från den ursprungliga.
    Upptäcker ni skillnaden?
    Först version nr 1:
    Vill man sedan räkna med ”Bayes sats” (som innehåller en väletablerad sannolikhetsberäkning för situationer där man har olika sorters information), så kan man göra det. Och då kommer man att se något viktigt: Sannolikheten blir mycket hög även där.
    Och nu version nr 2:
    Vill man sedan räkna med ”Bayes sats” (som innehåller en väletablerad sannolikhetsberäkning för situationer där man har olika sorters information), så kan man göra det. Och då kommer man nog att se något viktigt: Sannolikheten blir mycket hög även där.
    ALLTSÅ: Lambertz har lagt till ett ”nog” i näst sista meningen. Icke desto mindre behåller Lambertz sin slutsats (= sista meningen) oförändrad. I båda versionerna kommer Lambertz fram till: ”Sannolikheten blir mycket hög även där.” Dvs även tillämpning av Bayes’ sats kommer att leda till att sannolikheten blir mycket hög.
    Hur kan man påstå det, om man nu inte har gjort ett slags preliminär Bayes’ sats-testning ELLER, möjligen, lyssnat på någon som påstår sig ha gjort detta, varvid – om det sistnämnda alternativet är det rätta – Lambertz oförbehållsamt och tveklöst måste ha lyssnat på denne sagesperson och tagit till sig hens slutsats utan att ifrågasätta densamma?
    Lambertz borde förklara sig, dels berätta varför han i efterhand lagt till ett ”nog” i sin bloggtext, och dels klargöra om det är han själv eller någon ”kompis” till honom som gjort ett slags (förenklad och preliminär) Bayes’ sats-simulering för hans räkning.
    Att som Lambertz gör hålla på med sin bevisadditiva presentation och landa i 183 procentig sannolikhet för sin tes, att Thomas Quick är skyldig är ju samma sorts bullskit-statistiktänk som teologer brukar hålla på med, i den mån de över huvud taget använder sig av statistisk analys.
    Bevisadditionsteorin bygger på att man kan rada upp ett antal bevis med olika bevisvärden (läs: med olika sannolikhetsvärden).
    Bara som ett påhittat exempel: Antag att bevisen A-E har snanolikhetsvärdena 25 + 10 + 50 + 33 + 67 procent.
    Då blir, enligt detta så kallade bevisadditiva bullskit-synsätt, bevisläget väldigt starkt. Man hamnar i 185-procentig sannolikhet, vilket väl måste uppfattas som starkare än 100-procentig sannoilkhet (även detta är en absolut sanning). Kan en sanning bli absolutare än 100 procent? Jo, i den teologiska världen, och hos Lambertz, kan den uppenbarligen bli det.
    Alltså: För varje nytt bevis man lägger fram, desto starkare skulle beviskedjan bli. Jaså?
    Betyder det att den beviskedja som innehåller flest bevis (argument) för ett visst påstående är den bästa? Att kvantitet går före kvalitet? Jo, hos Göran Lambertz och i teologisk så kallad forskning tycks det synsättet gälla. Tyvärr. Det är ett väldigt föråldrat synsätt på statistik. Därtill felaktigt.
    Modern sannolikhetsberäkning, vilket Bayes’ sats bygger på (men som teologer, eller Lambertz, INTE använder sig av), skulle om exakt samma bevis A-E används ha landat i en aggregerad sannolikhetsnivå på 0,276 procent. Dvs mycket nära NOLL procent.
    Det vill säga: En ”aningens aning” lägre sannolikhetsnivå än den bevisadditiva metodens 185,000 procent.
    Eller för att tala i klartext: en ENORM skillnad. Det kan nog de flesta begripa. Om de inte är teologer – eller heter Göran Lambertz.
    Icke desto mindre antyder Lambertz, utan skuggan av ett tvivel, att Bayes’ sats skulle generera i princip samma höga aggregerade sannolikhetsnivå som den bevisadditiva metoden. Vilket är ett falskt påstående!
    Den bevisadditiva metoden säger så här: Varje NYTT tillfört bevis ÖKAR beviskedjans hållfasthet (och prediktiva värde)
    Bayes’ statistiska metod säger: Varje NYTT tillfört bevis SÄNKER beviskedjans hållfasthet (och prediktiva värde).
    I själva verket är idealet om ett enda bevis för ett påstående behöver användas/åberopas. Det skulle ju betyda, att det beviset i sig är så starkt, att inga fler bevis behövs. Case is closed.
    Just teologiska beviskedjor brukar innehålla massor av olika bevis. Vilket är ett TYDLIGT tecken på att beviskedjan är SVAG. Fast det fattar inte teologerna. Och Göran Lambertz tycks heller inte ha riktigt kläm på det, något som är ytterst bedrövligt, eftersom han är justitieråd i Högsta Domstolen.
    Låt mig sammanfatta: Enligt Lambertz blir sannolikheten mycket hög (i Quickfallet) även om Bayes’ sats används.
    Jo, det ÄR faktiskt så han skriver, den gpde Göran Lambertz. Och hans bloggpost är ännu inte tillbakadragen (retracted) eller redigerad/felrättad. Den fortsätter att sända ut ett genomfalskt budskap till dem som läser Lambertz’ blogg. Oavsett om det är Lambertz själv, eller någon av hans ”kompisar” (kanske i Quickgänget) som påstår sig ha gjort en Bayes’ sats-beräkning (åtminstone en förenklad sådan) av bevisen i Quickfallet.
    Sorgligt och bedrövligt, skulle jag vilja säga att det är.

Kommentera


No comments:

Post a Comment