Vrouwelijke onderzoekers minder kans op doctoraatsbeurs? Over Simpsons paradox.

Recent verscheen in verschillende media (bvb. vrtnieuws, De Standaard, etc.) het bericht dat vrouwelijke onderzoekers minder kans maken op een doctoraatsbeurs. SP.A politica en Vlaams parlementslid Katia Segers verzamelde 6.500 aanvragen voor doctoraatsbeurzen van de laatste 10 jaar. Uit haar onderzoek kon ze opmaken dat vrouwelijke onderzoekers minder kans hebben op toekenning van een doctoraatsbeurs dan hun mannelijke collega’s. De kernresultaten vatte ze samen in onderstaande tabel die via de media werd verspreid.

slaagkans

Uit deze tabel blijkt dat vrouwen iets meer dan 2% minder kans hebben om een PhD beurs te verkrijgen (en ongeveer 3% minder kans hebben om een postdoc beurs te verkrijgen) dan hun mannelijke collega’s.

In wat volgt wil ik aantonen waarom deze conclusie niet zomaar gemaakt kan worden op basis van bovenstaande tabel.

Binnen de statistiek is het probleem beter gekend als Simpsons paradox. Kort gezegd houdt die in dat effecten die op het eerste gezicht lijken te bestaan, verdwijnen wanneer men de context mee in rekening brengt. Dit is misschien nogal abstract, maar een voorbeeld zal dit verduidelijken.

Stel, voor het jaar 2015 hebben we ongeveer 1000 aanvragen (mannen en vrouwen samen) waarvan er 150 gehonoreerd worden. Naar analogie van bovenstaande tabel ziet dit er zo uit:

man vrouw
Aangevraagd Verkregen Aangevraagd Verkregen
2015 500 90 500 60
% 0.18 0.12

Uit deze (fictieve) cijfers zou blijken dat mannen 18% kans hebben om een beurs te halen en vrouwen slechts 12%. Een oppervlakkige analyse zou dan besluiten dat er bewijs is voor discriminatie van vrouwen wat betreft het behalen van onderzoeksbeurzen. Echter, Simpsons paradox houdt in dat dit effect verdwijnt eens alle relevante informatie wordt opgenomen in de analyse.

In dit geval kan die ruimere context bijvoorbeeld het studiedomein zijn waarin de student appliceert. Immers, uit de jaarboeken van het FWO blijkt dat ongeveer 66% van de Aspirant-mandaten worden toegekend aan Beta of Gamma onderzoekers (dwz. exacte wetenschappen, medische wetenschappen, etc.) en ongeveer 33% van de Aspirant-mandaten aan de alpha wetenschappen (dwz. sociale wetenschappen, psychologie, economie, talen, rechten, etc.). Dit kan de slaagkansen per studiegebied beïnvloeden.

Stel nu dat we de opsplitsing per wetenschapsdomein mee opnemen en, om de zaken eenvoudig te houden, dat er slechts 2 domeinen zijn: psychologie en informatica. De tabel kan er dan als volgt uit gaan zien:

man vrouw
Aangevraagd Verkregen Aangevraagd Verkregen
2015 informatica 400 80 100 20
psychologie 100 10 400 40

We zien in bovenstaande tabel dat mannen eerder kiezen voor informatica en vrouwen eerder naar psychologie neigen. Maar wat kunnen we nu leren over de slaagkansen voor mannen en vrouwen? Als we naar Psychologie kijken dan zien we dat mannen 10% kans hebben om een beurs te halen (10/100) en voor vrouwen is dit identiek hetzelfde percentage (40/400).  Wanneer we naar de informatica kijken zien we dat mannen 20% kans hebben om een beurs te verkrijgen (80/400) en dat het slaagpercentage exact hetzelfde is voor vrouwen (20/100)!

Dus, wanneer we gaan opsplitsen per studiedomein zien we dat er helemaal géén verschil is tussen mannen en vrouwen wat betreft toekenning van studiebeurzen. Dit is Simpsons paradox in actie. De reden dat het lijkt dat vrouwen benadeeld worden, wanneer we niet opsplitsen per studiedomein, is in dit (fictieve) geval dat vrouwen vaker voor studiedomeinen kiezen waar de kansen op studiebeurzen kleiner zijn (hier Psychologie 10% slaagkans versus Informatica 20% slaagkans).

Uit de analyse van Katia Segers zoals die in de media verschenen is, kan dus helemaal niet besloten worden dat er een probleem van seksediscriminatie bestaat.

Tot slot wil ik benadrukken dat ik met deze blogpost niet probeer aan te tonen dat er geen seksediscriminatie zou bestaan wat betreft het toekennen van onderzoeksbeurzen. Ik juich het initiatief om de FWO cijfers te analyseren meer dan toe. Wel probeer ik in deze blogpost een oproep te doen om de analyses op een grondige, correcte manier te doen. Het draagvlak om discriminatie weg te werken wordt er niet groter op wanneer om de haverklap twijfelachtige analyses naar de media gepushed worden.

Hoe vaak gebeurt het dat de oudste Belg overlijdt?

We zijn allemaal ooit de jongste mens op aarde geweest. Maar na zo’n kwartseconde waren we de titel van ‘jongste mens ter wereld’ naar verwachting alweer kwijt. Niemand die verder nog wakker ligt van dergelijke records. Anders is dat wanneer de oudste Belg/mens/man/vrouw/… komt te overlijden. Vorige week stonden de kranten er alweer vol van.

Via De Standaard vernamen we het trieste nieuws dat de oudste Belgische vrouw overleden is op 110 jarige leeftijd. Via Knack werden we verder ook nog ingelicht dat per toeval in dezelfde week ook de oudste vrouw ter wereld overleden is op 116 jarige leeftijd. Uit het artikel leren we ook nog dat deze laatste slechts 6 dagen de titel van oudste vrouw ter wereld gedragen heeft nadat op 1 april jl. een 117 jarige Japanse het leven liet.

Het verbaast me telkens hierover nieuwsberichten te lezen in onze (kwaliteits)media. Immers, per definitie is de oudste mens ter wereld erg oud en is de kans bijgevolg erg groot dat deze persoon over korte tijd zal overlijden. En telkens weer worden daar dan artikels over geschreven met bijhorende tips voor een lang leven.

Interessanter leek me de vraag hoe vaak we kunnen verwachten dat de oudste Belg komt te overlijden. En dat is een leuke analyse geworden (wie enkel het resultaat wil weten en niet de analyse zelf kan naar de laatste paragraaf scrollen).

De gegevens om dit te analyseren haalde ik van StatBel (vroegere Nationaal Instituut voor Statistiek). Daar kon ik zogenaamde ‘sterftetabellen’ downloaden.

sterftetabelIn sterftetabellen staan een aantal statistieken, zoals het aantal inwoners voor elke leeftijd, de kans om te overlijden op elke leeftijd, levensverwachting, enz. Op basis van deze gegevens kunnen we ook een zogenaamde ‘overlevingscurve’ plotten.

survivalDeze curve geeft voor elke leeftijd weer wat de kans is om minstens die leeftijd te bereiken. Bijvoorbeeld, in Belgie in 2013 is de kans om 85 of ouder te worden ongeveer 50%. Een curve die gerelateerd is aan de overlevingscurve is de risicocurve. Die curve geeft weer wat voor elke leeftijd de kans is te overlijden op die leeftijd.

hazardDeze informatie zal ik nodig hebben voor de berekeningen. Maar, zoals je kan zien in de grafieken houdt StatBel enkel gegevens bij tot 105 jaar. Om ons probleem te kunnen oplossen hebben we echter gegevens nodig voor elke leeftijd tot ongeveer 122 jaar (de leeftijd van de oudste mens ter wereld ooit). We moeten de risicocurve dus op een of andere manier gaan extrapoleren. Dit heb ik gedaan door een machtsfunctie te schatten op de data (zie oranje lijn op figuur hieronder).

risk = -37.9 \; t^{7.99}

hazard_overlayOp die manier heb ik voor elke mogelijke leeftijd een inschatting van het risico te overlijden op die leeftijd. Merk op dat voor leeftijden waar het geschatte risico groter dan 1 was, ik dit afgerond heb naar 1 (gebeurde vanaf 115 jaar, wat ouder is dan de oudste Belg ooit, i.e. 112).

Tenslotte heb ik nog het aantal Belgen per leeftijdsgroep nodig. Immers, je kan je voorstellen dat wanneer er veel kinderen en weinig bejaarden zijn dit zorgt dat de titel van ‘oudste inwoner’ minder snel afgelost zal worden. Deze data kan gemakkelijk uit de sterftetabellen gehaald worden. Echter, opnieuw worden alle mensen ouder dan 104 in dezelfde categorie onder gebracht. Dus moet er ook een schatting gemaakt worden van hoe die (74 gevallen) verdeeld zijn over de leeftijden 105 tot 110 (leeftijd huidige oudste Belg). Om dit te doen heb ik het cummulatieve product van de geschatte risicocurve berekend en dit gebruikt als kansen in een multinomiale verdeling.

Om de eigenlijke simulatie te kunnen doen moest ik een aantal assumpties maken. De belangrijkste is ongetwijfeld dat ik er van uit gegaan ben dat de risicocurve niet zal veranderen in de komende 10 jaar (en dat de staart ervan met een machtsfunctie beschreven kan worden). Wellicht is dit onrealistisch, maar door over een periode van slechts 10 jaar te simuleren hoop ik hieraan toch wat tegemoet te komen. Verder ben ik er ook van uit gegaan dat het risico om te overlijden binnen een bepaald jaar (dus elke dag van dat jaar) even groot is. Merk op dat deze assumpties ervoor zorgen dat de resultaten met de nodige kritische zin moeten worden bekeken.

In woorden werkt het simulatie algoritme ongeveer als volgt:

  • Voor elke leeftijd, simuleer het aantal overlijdens adhv een binomiaalverdeling met n gelijk aan het aantal Belgen in die leeftijdscategorie en p gelijk aan het risico voor die leeftijd.
  • Ga na of de oudste Belg overleden is (dit is gecompliceerder dan op het eerste zicht lijkt wegens mogelijk meerdere overlijdens van oudste Belgen binnen hetzelfde jaar).
  • Indien ja, tel het aantal oudste Belgen die zijn overleden binnen datzelfde jaar. Simuleer hiervoor de sterfdagen uit de uniforme verdeling U[0,365].
  • Vermeerder de leeftijd van alle niet overleden Belgen met 1.
  • Simuleer het aantal geboortes (leeftijd 0). Hiervoor gebruikte ik het geboortecijfer van 2012 (i.e. ongeveer 126.000)
  • Indien 10 jaar gesimuleerd, schrijf resultaten weg en begin opnieuw.
  • Herhaal dit proces vele keren (i.e. 10.000 keer).

Onderstaande grafiek geeft het resultaat weer van 10.000 simulaties van overlijdens voor het komende decennium in België. Je ziet hoe vaak we kunnen verwachten dat de ‘oudste Belg’ zal komen te overlijden per jaar.

histDe waarde 1,5 is het meest waarschijnlijk. Dit betekent dat we kunnen verwachten dat we in het komende decennium ongeveer 1,5 keer per jaar (anders gezegd, 1 à 2 keer per jaar) in de krant te zullen lezen dat de oudste Belg is overleden. Als de kranten zich hiernaast ook nog interesseren voor ‘de oudste mannelijke Belg’ en ‘de oudste vrouwelijke Belg’ en ‘de oudste wereldburger’ enzovoort, dan mogen we ons aan een veelvoud van dergelijke artikelen verwachten. JOY!

Als toemaatje heb ik ook nog berekend wat de kans is dat het leeftijdsrecord van de oudste Belg ooit (112) overschreden zal worden het komende decennium. Het blijkt dat die kans ongeveer 28% bedraagt en indien dit inderdaad zou gebeuren dan mogen we verwachten dat deze heugelijke gebeurtenis zich binnen ongeveer 6.5 jaar zal voordoen.

Afspraak binnen 10 jaar voor mijn evaluatie…

Het Vlaams regeerakkoord in word clouds

(Data van deze analyses beschikbaar onderaan deze post.)

Hieronder een korte analyse van de Vlaamse regeerakkoorden (2014-2019 en 2009-2014) in een aantal word clouds. Momenteel ben ik aan het experimenteren met text processing en het leek me een leuke oefening om een aantal zaken uit te proberen op deze documenten. Op deze websites vond ik de integrale pdf’s:

2014-2019: http://ebl.vlaanderen.be/publications/documents/60797&
2009-2014: http://www.ond.vlaanderen.be/hogeronderwijs/leraar/bestanden/Vlaams_Regeerakkoord_15%20juli_2009.pdf

Ik heb deze pdf documenten omgezet naar txt bestanden en een aantal filters op toegepast:

  • alles lowercase zetten
  • cijfers weglaten
  • ‘woorden’ die slechts 1 letter bevatten weggelaten
  • stopwoorden weggelaten (dwz nietszeggende woorden als: de, en, dat, die, …)

De laatste stap is dan de frequentie val alle woorden berekenen. Deze frequenties zouden we dan in een tabel kunnen weergeven, maar het is aangenamer en meer bevattelijk om deze informatie in een word cloud weer te geven. Bij het interpreteren moet men zich wel realiseren dat de frequentie van een woord niet perse de belangrijkheid van het woord weergeeft. Zo kan een woord al ‘investeren’ vaak voorkomen in de context van ‘meer investeren’ of ‘minder investeren’. Uit onderstaande word clouds is dit niet af te leiden.

Hieronder de word cloud van de 100 meest voorkomende woorden uit het regeerakkoord 2009 (hoe groter het woord, hoe hoger de frequentie):

wordcloud09

Hieronder de word cloud van de 100 meest voorkomende woorden uit het regeerakkoord 2014 (hoe groter het woord, hoe hoger de frequentie):

wordcloud14

Een andere interessante analyse is na te gaan welke woorden niet voorkwamen in het regeerakkoord 2009 maar wel in 2014. Hieronder de word cloud van de 100 meest voorkomende woorden uit het regeerakkoord 2014 die niet in het regeerakkoord 2009 stonden (hoe groter het woord, hoe hoger de frequentie in 2014):

wordcloudnew

Hieronder de word cloud van de 100 meest voorkomende woorden uit het regeerakkoord 2009 die niet in het regeerakkoord 2014 staan (hoe groter het woord, hoe hoger de frequentie in 2009):

wordcloudold

Tenslotte heb ik ook gekeken naar welke woorden het meest zijn toegenomen in frequentie in 2014, in vergelijking met 2009 (hoe groter het woord, hoe sterker de toename):

wordclouddiffup

En welke woorden het meest zijn afgenomen in frequentie in 2014, in vergelijking met 2009 (hoe groter het woord, hoe sterker de afname):

wordclouddiffdown

Wie deze data zelf verder wil analyseren, hier een linkje.

Over hartscreenings: Op een mensenleven staat geen prijs, of toch?

Context

Het voorbije weekend is tijdens de 20km van Brussel (artikel De Tijd) een 28-jarige loper om het leven gekomen na hartfalen. Vele andere lopers met hartklachten werden door het Rode Kruis geholpen. Dit doet dr. Pedro Brugada, hartspecialist van het UZ Brussel (opnieuw) oproepen om over te gaan tot massale hartscreenings van sporters.

De topcardioloog kwam een paar jaar geleden ook uitvoerig in de media met zijn voorstel om alle 12 jarigen te screenen op hartproblemen. Het Vlaams Agentschap voor Zorg en Gezondheid was toen bezorgd over de plannen van Brugada. Voor zo’n massale screening is toelating van de bevoegde minister nodig, maar Brugada wilde geen wetenschappelijk dossier indienen omdat de screening hierdoor vertraging zou oplopen (link).

Vandaag wordt opnieuw opgeroepen voor dergelijke massale screenings. En intuïtief is het moeilijk in te zien waarom dit géén goed idee zou zijn. Elke sporter die overlijdt aan hartfalen is er een teveel. Waarom die terughoudendheid dan?

Een simpel voorbeeld

Het belangrijkste probleem is dat de testen die gebruikt worden om hartproblemen bloot te leggen niet feilloos zijn. En dit heeft belangrijke gevolgen. Een simpel voorbeeld moet dit duidelijk maken (een voorbeeld met realistischer cijfers volgt later):

plot1xStel dat we een populatie hebben van 100 mensen en 10 van die 100 (dus 10%) hebben, zonder het te weten, een hartprobleem (de personen met een geel hartje). Veronderstel verder dat artsen een test ter beschikking hebben die in 90% van de gevallen een correcte diagnose geeft. Wanneer we nu deze test gaan toepassen op onze gehele populatie dan ziet het verwachte resultaat er als volgt uit:

plot2xGroen betekent dat de persoon een negatief testresultaat kreeg, rood betekent dan dat de persoon een positief testresultaat kreeg. Van de 10 mensen die effectief een hartprobleem hebben, werden er 9 correct geïdentificeerd (90%). Bij één werd ten onrechte besloten dat er geen problemen zijn. Van de 90 personen zonder hartproblemen werd bij 81 (of 90%) besloten dat er geen problemen zijn, maar bij 9 werden ten onrechte toch problemen vastgesteld.

Dit betekent dus dat wie een positieve test krijgt slechts 50% kans heeft ook effectief hartproblemen te hebben (van alle ‘rode pictogrammen’ heeft slechts de helft een ‘geel hart’)! Voor velen is dit een erg opmerkelijk resultaat: de test is correct in 90% van de gevallen, maar wie een positieve test krijgt, heeft slechts 50% kans op hartproblemen. Onderzoek heeft aangetoond dat zelfs artsen vaak niet in staat zijn om deze kansen te berekenen (link).

De reden voor dit opmerkelijk resultaat is dat de test niet feilloos is (90% correct in bovenstaand voorbeeld) in combinatie met de lage proportie personen met een hartaandoening (10% in bovenstaand voorbeeld).

Het is duidelijk dat hoe slechter de test, hoe lager de kans op ziekte gegeven een positief testresultaat. En ook: hoe minder frequent een bepaalde ziekte voorkomt in de populatie, hoe lager de kans dat een positief testresultaat ook betekent dat de persoon ook écht ziek is.

Een meer realistisch voorbeeld

Wanneer een screening procedure overwogen wordt, is het belangrijk de karakteristieken van die procedure te evalueren. De standaard test om hartproblemen te identificeren is de elektrocardiogram (ECG). Dit is ook een van de testen die voorgesteld wordt door dr. Brugada in massale screenings. Voor de cijfers baseer ik me op een document van het hartcentrum Hasselt.

De sensitiviteit van een test is het percentage terecht positieve uitslagen onder de zieke personen. Voor een ECG is dit ongeveer 90%. De specificiteit  van een test is het percentage terecht negatieve testuitslagen onder de niet-zieke personen. Voor een ECG is dit ongeveer 85%.

Aan de hand van de regel van Bayes kunnen we nu de kans berekenen dat iemand hartproblemen heeft, gegeven dat deze persoon een positieve ECG testuitslag kreeg.

p(hartproblemen|pos.test)=\frac{sensitiviteit \times p(hartproblemen)}{(sensitiviteit \times p(hartproblemen))+((1-specificiteit) \times (1-p(hartproblemen)))}

Dit geeft dan:

p(hartproblemen|pos.test)=\frac{0.9 \times 0.005}{(0.9 \times 0.005)+(0.15 \times 0.995)} = 0.03

Dit betekent dus dat bij een massale screening slechts 3% van de positieve testen écht problematisch zouden zijn. En 97% van de positieve ECG testen zouden vals positief zijn! Daarenboven zal er nog steeds een kleine groep zijn (0.2%) die onterecht te horen kreeg dat alles in orde is, terwijl ze toch een hartprobleem hebben. Denk maar aan de (gelukkig occasionele) profvoetballers die sterven op het veld, ondanks hun uitgebreide medische begeleiding.

Conclusie

Elke sporter die overlijdt aan hartfalen (of eender welke andere aandoening) is er een teveel. Echter, geen enkele test kan perfect voorspellen wie wel en wie niet aan hartfalen kan sterven. Dit in combinatie met de lage kans om te sterven aan hartfalen (ongeveer 0.5% voor atleten) zorgt ervoor dat screenen weinig effectief is.

Het cijfervoorbeeld gaf aan dat in een realistisch scenario slechts 3% van de positieve ECG tests een onderliggende pathologie correct identificeren. Deze 3% zien mogelijk hun leven gered door het screening programma. Anderzijds zullen zo’n 97% van de positieve testresultaten vals alarm blijken te zijn. Deze mensen zullen zich onterecht zorgen maken en dure vervolgonderzoeken moeten ondergaan.

Artsen zoals Brugada focussen op de (erg) kleine groep sporters die gered worden met screening, tegenstanders vinden dan weer dat de kosten van screening niet opwegen tegen het beperkt aantal mensen dat gered wordt en de (erg) grote groep die onterecht vervolgonderzoeken krijgt en zich zorgen gaat maken. Zij vinden dat het geld beter naar meer effectieve programma’s kan gaan, waarbij meer mensenlevens gered worden met hetzelfde budget (bvb. focussen op 50+ers waarbij p(hartproblemen) al veel groter is dan 0.5%).

Het is niet makkelijk een standpunt in te nemen in dit debat. Intuïtief lijkt screenen een schitterend idee. ‘Meten is weten en op een mensenleven staat geen prijs’. Maar misschien is die redenering wat kort door de bocht. Met deze post hoop ik wat meer inzicht gebracht te hebben in het probleem (voornamelijk voor wat het aspect kansberekening betreft).

Tot slot: ik ben geen arts en heb ook geen medische scholing gekregen.

Kans op landstitel bedraagt 86% voor Anderlecht, 14% voor Standard

In m’n laatste blogbericht herberekende ik de kansen op de landstitel voor de 4 ploegen die er nog kans op maakten. Na de matchen van gisteren liggen de kaarten vandaag helemaal anders. Aangezien ik toch de code geschreven heb voor de analyses, is de inspanning klein om een update te maken. Hier komt ie:

Met nog één speeldag van drie wedstrijden (met drie mogelijke uitkomsten voor elke wedstrijd, zijnde winst, verlies of gelijkspel) te gaan, zijn er in totaal nog 27 (3³) mogelijke wedstrijduitslagen. Onderstaande tabel geeft elke mogelijke uitslag weer (met 1=winst thuisploeg, 2=winst bezoekers en x=gelijkspel).

SCA-LOK FCB-ZUW SCL-RGK
Scenario 1 x 1 2
Scenario 2 x 1 x
Scenario 3 x 1 1
Scenario 4 x 2 x
Scenario 5 x 2 1
Scenario 6 x 2 2
Scenario 7 x x 1
Scenario 8 x x 2
Scenario 9 x x x
Scenario 10 1 2 x
Scenario 11 1 2 1
Scenario 12 1 2 2
Scenario 13 1 x 1
Scenario 14 1 x 2
Scenario 15 1 x x
Scenario 16 1 1 2
Scenario 17 1 1 x
Scenario 18 1 1 1
Scenario 19 2 x 1
Scenario 20 2 x 2
Scenario 21 2 x x
Scenario 22 2 1 2
Scenario 23 2 1 x
Scenario 24 2 1 1
Scenario 25 2 2 x
Scenario 26 2 2 1
Scenario 27 2 2 2

Elk van bovenstaande scenario’s leidt dan weer tot verschillende eindklassementen. In onderstaande tabel zie je het eindklassement voor elke mogelijke wedstrijduitslag.

SCA FCB SCL ZUW
Scenario 1 49 48 46 41
Scenario 2 49 48 47 41
Scenario 3 49 48 49 41
Scenario 4 49 45 47 44
Scenario 5 49 45 49 44
Scenario 6 49 45 46 44
Scenario 7 49 46 49 42
Scenario 8 49 46 46 42
Scenario 9 49 46 47 42
Scenario 10 51 45 47 44
Scenario 11 51 45 49 44
Scenario 12 51 45 46 44
Scenario 13 51 46 49 42
Scenario 14 51 46 46 42
Scenario 15 51 46 47 42
Scenario 16 51 48 46 41
Scenario 17 51 48 47 41
Scenario 18 51 48 49 41
Scenario 19 48 46 49 42
Scenario 20 48 46 46 42
Scenario 21 48 46 47 42
Scenario 22 48 48 46 41
Scenario 23 48 48 47 41
Scenario 24 48 48 49 41
Scenario 25 48 45 47 44
Scenario 26 48 45 49 44
Scenario 27 48 45 46 44

Om de kans op de landstitel dan te berekenen volstaat het dan om voor elk scenario het team met de meeste punten te identificeren (bij gelijke punten wint het team met de meeste gewonnen wedstrijden). Onderstaande tabel geeft de rangorde weer voor elk mogelijk scenario.

SCA FCB SCL ZUW
Scenario 1 1 2 3 4
Scenario 2 1 2 3 4
Scenario 3 1 3 2 4
Scenario 4 1 3 2 4
Scenario 5 1 3 2 4
Scenario 6 1 3 2 4
Scenario 7 1 3 2 4
Scenario 8 1 2 3 4
Scenario 9 1 3 2 4
Scenario 10 1 3 2 4
Scenario 11 1 3 2 4
Scenario 12 1 3 2 4
Scenario 13 1 3 2 4
Scenario 14 1 2 3 4
Scenario 15 1 3 2 4
Scenario 16 1 2 3 4
Scenario 17 1 2 3 4
Scenario 18 1 3 2 4
Scenario 19 2 3 1 4
Scenario 20 1 2 3 4
Scenario 21 1 3 2 4
Scenario 22 1 2 3 4
Scenario 23 1 2 3 4
Scenario 24 2 3 1 4
Scenario 25 1 3 2 4
Scenario 26 2 3 1 4
Scenario 27 1 3 2 4

Om nu de kans te bepalen dat een bepaald team de titel behaalt, kunnen we simpelweg nagaan in hoeveel scenario’s dat team zou winnen. Merk op (uit vorige blogpost) dat niet elk scenario even waarschijnlijk is. Namelijk een gelijkspel is minder waarschijnlijk (ongeveer 25% kans bij teams van ongeveer gelijke sterkte) dan dat een van beide teams wint (ongeveer 75% kans). Dit moeten we mee in overweging nemen bij het berekenen van de kansen om de titel binnen te halen.

Onderstaande tabel geeft voor elk team weer wat de kans is op de titel (of de 2e, 3e of 4e plaats):

SCA FCB SCL ZUW
Kans op 1e plaats 86% 0% 14% 0%
Kans op 2e plaats 14% 33% 53% 0%
Kans op 3e plaats 0% 67% 33% 0%
Kans op 4e plaats 0% 0% 0% 100%

Place your bets!

HLN statisticus onderschat kansen van Standard en Zulte-Wargem (licht).

Met nog twee speeldagen te gaan met elk 3 wedstrijden te spelen beginnen de kansen op winst en verlies stilletjesaan duidelijk te worden. HLN-statisticus Claude Henrot berekende dat Anderlecht zo’n 51.9% kans heeft op de titel, Brugge 37.6%, Luik 6.3% en Zulte-Waregem slechts 4.25%. Aangezien bij het HLN artikel ook een linkje stond naar het Excel bestand dat gebruikt werd voor de berekeningen, ging ik die eens gaan napluizen. En wat bleek: ik botste op een fout, maar anders dan wat ik verwachtte heeft die fout geen grote invoel op de winstkansen. Hieronder toch de correcte cijfers:

De redenering gaat als volgt:
Er zijn in totaal nog 6 wedstrijden te spelen en elke wedstrijd kan op 3 mogelijke manieren eindigen: thuisploeg wint, thuisploeg verliest of gelijkspel. Voor de 6 te spelen wedstrijden betekent dit 3 tot de macht 6, ofwel 729, aantal mogelijke uitkomsten.

Voor elk van die mogelijke uitkomsten kunnen we dan gaan berekenen tot welke puntenstand die zouden leiden. Zoals gekend leidt winst tot 3 punten, verlies geen punten en gelijkspel elke 1 punt. Op basis van deze mogelijke uitkomsten kunnen we dan de winnaar gaan bepalen. Bijkomende moeilijkheid is dat bij gelijke punten het team met de meeste gewonnen wedstrijden wint. Maar ook dat kan makkelijk berekend worden. Het resultaat is dan voor elk van de 729 mogelijke scenario’s 1 winnend team.

Tot slot moet dan berekend worden in hoeveel scenario’s elk team wint. Bijvoorbeeld, volgens deze redenering wint Anderlecht in 378 van de 729 scenario’s wat tot een winstkans van 51.9% leidt.

Echter, wat de HLN statisticus over het hoofd heeft gezien is dat niet elke wedstrijduitslag even waarschijnlijk is. Namelijk, de kans op een gelijkspel is heel wat kleiner dan de kans dat een van de twee ploegen wint. In de berekening van de totale kans zouden we hier rekening moeten mee houden. Bijvoorbeeld, het scenario dat elk van de komende 6 wedstrijden op een gelijkspel eindigt is heel wat kleiner dan de kans dat elke thuisploeg wint van de bezoekers.

Het Nederlandse statistische adviesbureau STATISTICOR heeft een onderzoek gedaan naar de kans op gelijkspel in het voetbal. Uit hun studie bleek dat bij teams van min of meer gelijke sterkte de kans op gelijkspel ongeveer 25% is (en bijgevolg is de kans dat een van beide teams wint ingeveer 75%).

Wanneer we hiermee rekening gaan houden dan komen we tot licht andere cijfers (eerlijk gezegd had ik de verschillen groter verwacht):

  1. Anderlecht: 51.2%
  2. Brugge: 36.8%
  3. Luik: 7.3%
  4. Zulte-Waregem: 4.7%

De verschillen zijn klein, de kansen van de underdogs worden er een ietsje groter van.

Luxemburg en Brussel, West-Europa’s meest moorddadige hoofdsteden?

Gisteren verscheen in de online krant van zowel De Morgen als De Standaard een artikel over een merkwaardige statistiek. Het aantal moorden per inwoner zou in Luxemburg het hoogst zijn van alle hoofdsteden in West-Europa, met Brussel als betreurenswaardige tweede in de ranglijst. In grootsteden als Parijs, Madrid  of Rome zou men verhoudingsgewijs veel minder vaak aan het moorden gaan.

Dat een klein (en schijnbaar vredevol) stadje als Luxemburg deze illustere ranglijst aanvoert, deed me de wenkbrouwen fronsen. Zou het? De bevindingen komen rechtstreeks uit het rapport ‘Global Study on Homicide 2013’ van de United Nations Office on Drugs and Crime. Toch niet meteen het eerste het beste instituut. In deze blogpost probeer ik hun bevindingen in een breder perspectief te plaatsen.

Om het aantal moorden per inwoner (voor de West-Europese hoofdsteden) te berekenen is informatie nodig over het inwonersaantal en het aantal moorden per hoofdstad. Deze informatie kan relatief gemakkelijk van de website van Eurostat gehaald worden. Cijfers over inwonersaantal per stad kan hier gevonden worden. Het aantal moorden per stad hier. Het mooie van deze data is dat er gegevens zijn van 2003 tot 2012. Het nadeel is dat er geen gegevens zijn voor het jaar 2013, het jaar waarop de ‘Global Study on Homicide 2013’ is gebaseerd.

Hieronder de moordratio’s (per 100.000 inwonders) voor tien West-Europese hoofdsteden (Merk op: eventuele ontbrekende data voor wat betreft inwonersaantal heb ik aangevuld uitgaand van een lineaire trend. Er was geen ontbrekende data voor aantal moorden.):

2003 2004 2005 2006 2007 2008 2009 2010 2011 2012
Amsterdam 3.7 2.6 3.2 0.5 3.6 1.5 3.2 1.3 1.5 2.2
Berlijn 2.1 1.9 1.5 2.3 1.8 2.2 1.8 1.2 1.2 1.3
Brussel 4.8 4.0 3.2 3.6 1.9 4.2 3.1 2.8 2.1 2.6
Lissabon 2.0 1.9 2.9 3.1 2.8 2.0 1.0 1.1 1.1 2.0
Ljubljana 1.1 2.6 1.5 0.4 1.1 0.0 0.4 1.1 1.4 0.7
Luxemburg 0.0 1.2 1.2 4.7 3.5 3.4 5.6 0.0 3.2 0.0
Madrid 2.3 1.5 1.4 1.5 1.2 1.2 1.0 0.9 0.7 0.9
Oslo 2.1 1.5 1.7 1.7 1.5 2.1 1.2 0.9 3.2 1.3
Parijs 2.5 0.9 1.5 1.3 1.5 1.6 1.1 1.9 1.8 1.8
Rome 1.1 1.2 1.4 1.2 1.3 1.1 1.2 0.4 1.2 0.9

Wanneer een ratio in het rood is weergegeven, betekent dit dat een stad voor een gegeven jaar tot de twee meest ‘moorddadige’ steden behoorde (uit dit arbitraire lijstje). Een groene ratio betekent dan weer dat een stad voor een gegeven jaar tot de minst ‘moorddadige’ steden behoorde. Hieronder een grafische weergave van 3 van de 10 hoofdsteden uit de tabel (alle 10 de steden weergeven leidt tot een onleesbare grafiek).

plotFiguur 1: Een stad met relatief hoge moordratio (Brussel), relatief lage
moordratio (Parijs) en een stad met erg variabele moordratio (Luxemburg)

Een tweetal zaken vallen hierij op:

Ten eerste, het aantal moorden per 100.000 inwoners was in Brussel het voorbije decennium hoog in vergelijking met andere West-Europese hoofdsteden. Men zou inderdaad kunnen stellen dat de kans om vermoord te worden voor een Brusselaar hoger is dan die voor een Romein of Parijzenaar. In dit opzicht zijn de krantenkoppen in De Morgen of De Standaard terecht.

Anderzijds, Amsterdam behoort in de ‘Global Study on Homicide 2013’ tot de landen met een eerder lage moordratio (1.3 per 100.000) en wordt in de krantenartikelen aangehaald als ‘veiliger’ stad, hoewel de cijfers van het voorbije decennium aantonen dat Amsterdam eerder tot de West-Europese hoofdsteden met hoge moordratio behoort.

Ten tweede, Luxemburg is een stadje van extremen (wat betreft de moordratio’s toch). Het voorbije decennium is de stad jaar na jaar ofwel een van de meest veilige, ofwel een van de meest moorddadige West-Europese hoofdsteden. Dat Luxemburg in ‘Global Study on Homicide 2013’ als stad met hoogste moordratio naar boven komt betekent nog niet dat dit ook de gevaarlijkste stad zou zijn. Door de erg kleine kans op moord (minder dan 0.006% per jaar) in combinatie met het relatief kleine inwonersaantal van de stad (ongeveer 100.000) is de waargenomen moordratio erg variabel over de jaren heen. Er hoeft daar bij wijze van spreken maar één gezinsdrama te gebeuren en het stadje schiet naar de top van de ranglijst.

Dit fenomeen doet wat denken aan het ‘Kleine gemeente, fijne gemeente’-probleem dat ik in een eerdere blogpost besprak. En dit is inderdaad een variatie op hetzelfde thema: stel dat de (jaarlijkse) kans om vermoord te worden in alle West-Europese hoofdsteden exact gelijk is, dan zouden we zien dat het waargenomen aantal moorden veel meer variabel is voor kleine hoofdsteden, dan voor grote hoofdsteden. In deze paper wordt hierop meer in detail ingegaan.

Conclusie: Neem een kritische houding aan ten aanzien van lijstjes. Vaak worden daar de hoogste en laagste posities ingenomen door kleine landen/steden/gemeenten/… die veel meer variabliteit vertonen op de variabele in kwestie dan de middenmoters. Het is dan ook vaak voorbarig om grote verklaringen te koppelen aan die extreem goede (of slechte) uitkomsten. In dit specifieke geval kan het, gezien de erg kleine kans op moord, nuttig zijn om een langere periode dan 1 jaar te nemen om (kleine) steden met elkaar te vergelijken.

Kleine gemeente, fijne gemeente? Over “het gemeenterapport” van Het Nieuwsblad.

Intro

De voorbije week presenteerde Het Nieuwsblad elke dag een reportage over ‘Het Gemeenterapport‘, een grootschalige enquête die het dagblad, in samenwerking met onderzoeksbureau iVox, afnam van meer dan 116.000 Vlamingen. De vragen gingen over diverse lokale thema’s maar ook over het nieuwe gemeentebestuur.

De eerste reportage ging over in welke gemeenten we het liefste wonen. In de vragenlijst werd aan de 116.000 Vlamingen gevraagd om te antwoorden met een score tussen 0 en 10 op de volgende vraag: ‘Hoe graag woont u in uw gemeente?‘. Hieronder de resultaten zoals ze gepresenteerd werden door Het Nieuwsblad (eigen reproductie obv de beschikbare gegevens):

gemeentesOp de kaart van Vlaanderen is elke gemeente in een kleur weergegeven dat overeenkomt met de gemiddelde score van die gemeente. In de inleiding van het artikel schrijft Het Nieuwsblad:

Inwoners van Linkebeek, Vorselaar en Zutendaal wonen het liefst in hun gemeente. Tienen, Vilvoorde en Zelzate scoren dan weer het slechtst. Dat blijkt uit Het Gemeenterapport van Het Nieuwsblad.
Het Nieuwsblad – 20/01/2014

Op twitter werd er duchtig gereageerd op Het Gemeenterappport. Een tweet die me opviel kwam van Bert Kruismans (@kruismans) die de score van een gemeente (Linkebeek) ging linken aan een kenmerk van die gemeente (faciliteitengemeente):

In deze blogpost wil ik graag verduidelijken waarom dergelijke conclusies voorbarig zijn.

Steekproef

Een vragenlijst die werd afgenomen bij meer dan 116.000 Vlamingen lijkt heel erg betrouwbaar te zijn. De steekproef is in elk geval gigantisch groot. En zolang we op basis van die vragenlijst enkel conclusies trekken over ‘dé Vlamingen’ is er ook geen enkel probleem.

Echter, de bedoeling van Het Gemeenterapport is niet om over de Vlaming in het algemeen te rapporteren, maar wel om de resultaten te gaan vergelijken over de verschillende gemeenten heen. En dan is het niet de totale steekproefgrootte die van belang is, maar de steekproefgroottes voor elke gemeente afzonderlijk. Volgend fictief voorbeeldje kan dit helpen verduidelijken:

Men wil de tevredenheid van de inwoners in twee steden, Gent en Kortrijk, met elkaar vergelijken. Om dit te onderzoeken is er een budget voorzien om 1000 inwoners te bevragen. Aan elke inwoner wordt gevraagd hoe fijn ze hun stad vinden (score op 10). Stel nu dat een (naïve) onderzoeker beslist om slechts 2 vragenlijsten af te nemen in Kortrijk en overige 998 in Gent.

Uit het onderzoek blijkt dat de gemiddelde score voor Kortrijk 6/10 is, terwijl de gemiddelde score voor Gent 7,5/10 is. Is het zinvol om te besluiten dat het zoveel fijner wonen is in Gent?

Het is duidelijk dat men dit niet zomaar kan besluiten. Een totaal van 1000 enquêtes is best veel, maar aangezien er slechts 2 in Kortrijk werden afgenomen is deze meting veel minder betrouwbaar dan de meting in Gent.

De kern van het probleem zou hiermee duidelijk moeten zijn: de gemiddelde tevredenheidsscores zoals ze op bovenstaand kaartje zijn weergegeven kunnen moeilijk geïnterpreteerd worden zonder informatie over hoe betrouwbaar elke score is.

‘Kleine gemeenten probleem’

Een probleem dat hieruit voortvloeit, is dat (in dit geval) gemeenten waar men slechts een kleine steekproef heeft genomen een veel grotere kans hebben om extreme uitkomsten te genereren. Hoe kleiner de steekproef, hoe groter de kans op extremen. (voor voorbeelden uit de gezondheidszorg, zie referentie onderaan deze blogpost)

Een veelgemaakte fout is dat een steekproef groter moet zijn voor grotere gemeentes (en omgekeerd) wanneer men gemeenten wil gaan vergelijken. Of, wat op hetzelfde neerkomt, dat elke inwoner van Vlaanderen dezelfde kans moet hebben om in de steekproef te belanden (wanneer men gemeenten wil gaan vergelijken). Onderstaande analyse geeft weer wat dan gebeurt:

Stel dat in elke Vlaamse gemeente de ‘echte’ tevredenheid exact dezelfde is, namelijk 7,25/10 (en dat 95% van de inwoners van elke gemeente zijn/haar gemeente een score tussen 5 en 9,5 zou geven).

Aangezien deze ‘echte’ tevredenheid niet gekend is, doet men een grootschalig onderzoek. Er is een groot budget beschikbaar waarmee het mogelijk is om 116.000 vragenlijsten af te nemen.

Elke inwoner van een Vlaamse gemeente heeft dezelfde kans om in de steekproef te worden opgenomen, dwz omdat Gent 3,3x meer inwoners heeft dan Kortrijk, worden ook 3,3x meer Gentenaars dan Kortrijkzanen in de steekproef opgenomen.

Hieronder een animatie van hoe 100 verschillende resulterende kaartjes er zouden kunnen uitzien (2 per seconde):

Merk op dat alle gemeentes eigenlijk oranje zouden moeten zijn (want de ‘echte’ tevredenheid bedraagt 7,25/10 voor elke gemeente). Echter, de animatie toont dat er toch steeds enkele gemeentes zijn die beter of slechter scoorden dan de rest (oa vaak Linkebeek). Dit betekent echter niet dat inwoners van die gemeentes meer of minder tevreden zijn dan de zij in andere gemeentes. Het is de kleine steekproef in die gemeenten die zorgt voor de grotere kans op extreme observaties.

Conclusie

Het kaartje, zoals het gepubliceerd werd op de website van Het Nieuwsblad, geeft te weinig informatie om de analyse ten gronde te kunnen voeren. Linkebeek, Vorselaar en Zutendaal halen inderdaad de hoogste scores, maar het zijn ook stuk voor stuk kleine gemeentes. Zonder extra informatie is het erg moeilijk om in te schatten of deze gemeentes ‘extreem’ scoren wegens bovenstaand steekproefprobleem of omdat het daar echt zo fijn wonen is.

Het is des mensen om altijd en overal oorzakelijke verbanden te gaan zoeken/zien bij opmerkelijke waarnemingen. Zeker journalisten, opiniemakers, experten allerhande hebben deze neiging. En dat is een goeie zaak, want het is ook hun taak om dingen in perspectief te plaatsen. Maar het wordt problematisch wanneer men toevallige fluctuaties gaat gaan verklaren. Data-journalist Maarten Lambrechts (@maartenzam) had alvast de goede reflex:

Jammer dat er geen antwoord op deze terechte vraag is gekomen…

Een meer formele en uitgebreide bespreking van bovenstaande ideeën kan in de paper ‘Gelman – All maps of parameter estimates are misleading‘ gevonden worden.

Size matters: De Morgen en De Standaard rapporteren dezelfde wetenschappelijke studie maar trekken verschillende conclusies

Gisteren rapporteerden verschillende mediabronnen over een grootschalig Amerikaans onderzoek naar de invloed van het al dan niet hebben van kinderen op hoe gelukkig men is. Maar liefst 1,8 miljoen Amerikanen namen deel aan het onderzoek waarmee het een van de grootste onderzoeken in z’n soort is. Het onderzoeksteam van onder meer Princeton University publiceerde hun bevindingen in het tijdschrift Proceedings of the National Academy of Sciences.

Dit soort onderzoek kan meestal op grote mediabelangstelling rekenen en hier was dit niet anders. Mediabronnen over de hele wereld rapporteerden over deze studie. Opvallend is dat verschillende media heel erg verschillen in de manier waarop ze de resultaten beoordelen. Als voorbeeld vergelijk ik twee grote Vlaamse kwaliteitskranten, De Standaard en De Morgen.

De Morgen kopt: “Gelukkiger met kinderen? Dat blijkt tegen te vallen“. De Standaard koos de titel: “Dat ouderschap gelukkig maakt is een mythe“. Op het eerste zicht lijkt er weinig verschil tussen beide te zijn, maar het artikel in De Morgen brengt de boodschap dat kinderen het geluksgevoel ondergraven, terwijl De Standaard meldt dat er geen verschillen zijn in geluksgevoel tussen mensen met en zonder kinderen. De inleiding van beide artikels geeft dit al aan:

Wie kinderen in huis heeft, is doorgaans iets ongelukkiger dan wie geen kinderen in huis heeft. Dit blijkt uit één van de grootste studies in zijn soort, gisteren gepubliceerd in het wetenschappelijk tijdschrift PNAS.
De Morgen – 14/01/2014

Een studie aan de Princeton University, waaraan 1,8 miljoen Amerikanen en meer dan 1 miljoen respondenten uit andere landen hebben deelgenomen, toont aan dat koppels met kinderen ongeveer even gelukkig zijn als kinderloze stelletjes.
De Standaard – 14/01/2014

Hoe zit dat nu, denk je dan. De originele studie erbij halen is verhelderend. Belangrijk is te begrijpen hoe we “gelukkiger” of “minder gelukkig” moeten interpreteren. Wat betekent dat precies? En belangrijk: hoeveel gelukkiger/ongelukkiger wordt men van het al dan niet hebben van kinderen?

De studie heeft mate van geluk gemeten aan de hand van de Cantril ladder. Kort gezegd komt het erop neer dat men aan de deelnemers vraagt hoe gelukkig men zich voelt op een schaal van 0 tot 10 (maar dan voorgesteld aan de hand van een ladder, zie afbeelding hieronder).

Cantril_ladder(Bron: Scientific American)

Wat de onderzoekers vonden is dat er een statistisch significant verschil is tussen de waardering die mensen met kinderen geven en zij die kinderloos zijn. Namelijk, de kinderlozen hadden gemiddeld een geluksscore van 6.84, terwijl zij die kinderen hebben een gemiddelde geluksscore van 6.82 hebben (Tabel 1 in het originele artikel). Grafisch voorgesteld ziet dit er als volgt uit:

Cantril_ladder_crop3Onmiddellijk wordt duidelijk dat het verschil tussen beide groepen zo klein is dat het bijna niet op deze schaal weergegeven kan worden. De reden dat dit minieme verschil statistisch significant is, is gewoonweg het gevolg van de gigantische steekproef (1.8 miljoen respondenten).

Dit is een mooi voorbeeld van een van de grootste problemen die de term ‘statistisch significant’ met zich meebrengt, namelijk: een verschil dat statistisch significant is betekent helemaal niet dat het ook relevant is. Velen, ook wetenschappers, halen beide concepten al te vaak door elkaar.

In bovenstaand voorbeeld is het duidelijk dat het verschil niet relevant is, ook al is het statistisch significant. De auteurs geven dit ook meermaals aan in hun artikel. De Standaard bracht de boodschap van de auteurs over. Echter, veel media (o.a. De Morgen) onthielden enkel dat kinderloze mensen iets gelukkiger zijn en voerden dan experts op om dit te kaderden.

Dat dit gebeurt is begrijpelijk: het wijdverspreide gebruik van klassieke hypothesetoetsen leidt ertoe dat men gaat focussen op de vraag “Is er een verschil, ja of nee?” (i.e. is mijn p-waarde kleiner dan 0.05?) in plaats van de veel relevantere vraag: “Hoe groot is het verschil?”. Size matters: in een volgende post zal ik hier dieper op ingaan.

Over- of ondervertegenwoordiging van politieke partijen in ‘De Zevende Dag’

In een vorige post werd de over- of ondervertegenwoordiging van politieke partijen in ‘De Zevende Dag’ besproken. Meer specifiek hoe de onderliggende gegevens het beste gevisualiseerd kunnen worden. In een commentaar van Filip Van Laenen (@hoegin) op die blogpost werd geopperd dat het interessant zou zijn na te gaan of de waargenomen over- of ondervertegenwoordiging van de verschillende politieke partijen ‘significant’ is. En dit is precies wat ik in deze post wil nagaan.

De gegevens voor deze analyse komen uit een tweet van @hoegin (de gegevens heb ik niet geverifieerd):

7dagVoor elke politieke partij is er informatie over twee variabelen. Ten eerste: voor elke politieke partij de verkiezingsscore voor de kamer in 2010. Ten tweede: voor elke partij hoe vaak ze te gast was in De Zevende Dag tussen 1 september en 15 december 2013.

Groen CD&V Open Vld SP.A VB N-VA LDD PVDA
Verkiezingen 7.1% 17.6% 14% 15% 12.6% 28.2% 3.7% 1.3%
7dag (freq) 13 25 20 24 7 18 3 1
7dag (pct) 11.7% 22.5% 18.0% 21.6% 6.3% 16.2% 2.7% 0.9%

De laatste rij van de tabel bevat dezelfde informatie als de tweede rij, maar dan uitgedrukt als percentage. Vergelijken van de percentages (verkiezingen vs 7dag) leert dat de traditionele partijen plus Groen vaker te gast zijn in De Zevende Dag dan dat men op basis van hun verkiezingsuitslag zou verwachten. Het omgekeerde is waar voor de V-partijen. Maar is dit ‘statistisch significant’?

De hypothese die getest zal worden is: “voor een politieke partij is de kans om te gast te zijn in De Zevende Dag proportioneel tot de verkiezingsuitslag (Kamer, 2010) van die partij”.

Een Bayesiaanse methode (want ik ben geen voorstander van klassieke significantietoesten) om deze hypothese te testen is het dirichlet-multinomial model (met vage prior). Dit model gaat ervan uit dat elke partij een zekere kans heeft om uitgenodigd te worden in De Zevende Dag. Deze kans is onbekend en wordt geschat aan de hand van de waargenomen frequentie van gastoptredens.

Hieronder zie je het resultaat van de analyse. De groene curve (de posterior) geeft voor elke politieke partij weer wat de geschatte kans is om in De Zevende Dag te gast te zijn. Bijvoorbeeld, voor Groen is die kans met 95% zekerheid tussen ongeveer 0.06 en 0.17 (te zien aan de groene inkleuring, het zekerheidsinterval) en is die kans het grootst bij ongeveer 0.11. Voor CD&V is die kans met 95% zekerheid tussen ongeveer 0.12 en 0.29 en is die kans het grootst bij ongeveer 0.22.

De blauwe vertikale streep geeft weer wat het verkiezingsresultaat (Kamer, 2010) was. Wanneer deze streep buiten het groen ingekleurde interval valt, dan is het erg onwaarschijnlijk dat voor die partij de kans om in De Zevende Dag te gast te zijn proportioneel is tot het verkiezingsresultaat (Kamer, 2010). Bijvoorbeeld, voor PVDA is te zien dat deze waarde mooi binnen het groen ingekleurde gedeelte valt. Dit betekent dat voor PVDA de kans om in De Zevende Dag te gast te zijn in verhouding is tot hun verkiezingsresultaat.

postDe enige politieke partijen van wie het verkiezingsresultaat buiten het 95% zekerheidsinterval valt, zijn Vlaams Belang en NVA. Dit betekent dat voor deze partijen het buitengewoon onwaarschijnlijk is dat hun kans om in De Zevende Dag te gast te zijn in verhouding staat tot hun verkiezingsresultaat. En hoewel het verkiezingsresultaat van Groen en SP.A nog net binnen het 95% zekerheidsinterval ligt, is het ook voor die partijen eerder onwaarschijnlijk dat hun kans om in De Zevende Dag te gast te zijn in verhouding staat tot hun verkiezingsresultaat.

De hypothese “voor een politieke partij is de kans om te gast te zijn in De Zevende Dag proportioneel tot de verkiezingsuitslag (Kamer, 2010) van die partij” is dus heel erg onwaarschijnlijk. Er zijn sterke aanwijzingen dat sommige partijen over- of ondervertegenwoordigd zijn ten opzichte van hun verkiezingsresultaat.

De meer fundamentele vraag of het aantal gastoptredens van politieke partijen in De Zevende Dag in verhouding móet staan tot hun verkiezingsresultaat laat ik over aan de specialisten ter zake.