Vrouwelijke onderzoekers minder kans op doctoraatsbeurs? Over Simpsons paradox.

Recent verscheen in verschillende media (bvb. vrtnieuws, De Standaard, etc.) het bericht dat vrouwelijke onderzoekers minder kans maken op een doctoraatsbeurs. SP.A politica en Vlaams parlementslid Katia Segers verzamelde 6.500 aanvragen voor doctoraatsbeurzen van de laatste 10 jaar. Uit haar onderzoek kon ze opmaken dat vrouwelijke onderzoekers minder kans hebben op toekenning van een doctoraatsbeurs dan hun mannelijke collega’s. De kernresultaten vatte ze samen in onderstaande tabel die via de media werd verspreid.

slaagkans

Uit deze tabel blijkt dat vrouwen iets meer dan 2% minder kans hebben om een PhD beurs te verkrijgen (en ongeveer 3% minder kans hebben om een postdoc beurs te verkrijgen) dan hun mannelijke collega’s.

In wat volgt wil ik aantonen waarom deze conclusie niet zomaar gemaakt kan worden op basis van bovenstaande tabel.

Binnen de statistiek is het probleem beter gekend als Simpsons paradox. Kort gezegd houdt die in dat effecten die op het eerste gezicht lijken te bestaan, verdwijnen wanneer men de context mee in rekening brengt. Dit is misschien nogal abstract, maar een voorbeeld zal dit verduidelijken.

Stel, voor het jaar 2015 hebben we ongeveer 1000 aanvragen (mannen en vrouwen samen) waarvan er 150 gehonoreerd worden. Naar analogie van bovenstaande tabel ziet dit er zo uit:

man vrouw
Aangevraagd Verkregen Aangevraagd Verkregen
2015 500 90 500 60
% 0.18 0.12

Uit deze (fictieve) cijfers zou blijken dat mannen 18% kans hebben om een beurs te halen en vrouwen slechts 12%. Een oppervlakkige analyse zou dan besluiten dat er bewijs is voor discriminatie van vrouwen wat betreft het behalen van onderzoeksbeurzen. Echter, Simpsons paradox houdt in dat dit effect verdwijnt eens alle relevante informatie wordt opgenomen in de analyse.

In dit geval kan die ruimere context bijvoorbeeld het studiedomein zijn waarin de student appliceert. Immers, uit de jaarboeken van het FWO blijkt dat ongeveer 66% van de Aspirant-mandaten worden toegekend aan Beta of Gamma onderzoekers (dwz. exacte wetenschappen, medische wetenschappen, etc.) en ongeveer 33% van de Aspirant-mandaten aan de alpha wetenschappen (dwz. sociale wetenschappen, psychologie, economie, talen, rechten, etc.). Dit kan de slaagkansen per studiegebied beïnvloeden.

Stel nu dat we de opsplitsing per wetenschapsdomein mee opnemen en, om de zaken eenvoudig te houden, dat er slechts 2 domeinen zijn: psychologie en informatica. De tabel kan er dan als volgt uit gaan zien:

man vrouw
Aangevraagd Verkregen Aangevraagd Verkregen
2015 informatica 400 80 100 20
psychologie 100 10 400 40

We zien in bovenstaande tabel dat mannen eerder kiezen voor informatica en vrouwen eerder naar psychologie neigen. Maar wat kunnen we nu leren over de slaagkansen voor mannen en vrouwen? Als we naar Psychologie kijken dan zien we dat mannen 10% kans hebben om een beurs te halen (10/100) en voor vrouwen is dit identiek hetzelfde percentage (40/400).  Wanneer we naar de informatica kijken zien we dat mannen 20% kans hebben om een beurs te verkrijgen (80/400) en dat het slaagpercentage exact hetzelfde is voor vrouwen (20/100)!

Dus, wanneer we gaan opsplitsen per studiedomein zien we dat er helemaal géén verschil is tussen mannen en vrouwen wat betreft toekenning van studiebeurzen. Dit is Simpsons paradox in actie. De reden dat het lijkt dat vrouwen benadeeld worden, wanneer we niet opsplitsen per studiedomein, is in dit (fictieve) geval dat vrouwen vaker voor studiedomeinen kiezen waar de kansen op studiebeurzen kleiner zijn (hier Psychologie 10% slaagkans versus Informatica 20% slaagkans).

Uit de analyse van Katia Segers zoals die in de media verschenen is, kan dus helemaal niet besloten worden dat er een probleem van seksediscriminatie bestaat.

Tot slot wil ik benadrukken dat ik met deze blogpost niet probeer aan te tonen dat er geen seksediscriminatie zou bestaan wat betreft het toekennen van onderzoeksbeurzen. Ik juich het initiatief om de FWO cijfers te analyseren meer dan toe. Wel probeer ik in deze blogpost een oproep te doen om de analyses op een grondige, correcte manier te doen. Het draagvlak om discriminatie weg te werken wordt er niet groter op wanneer om de haverklap twijfelachtige analyses naar de media gepushed worden.

Advertenties

Het Vlaams regeerakkoord in word clouds

(Data van deze analyses beschikbaar onderaan deze post.)

Hieronder een korte analyse van de Vlaamse regeerakkoorden (2014-2019 en 2009-2014) in een aantal word clouds. Momenteel ben ik aan het experimenteren met text processing en het leek me een leuke oefening om een aantal zaken uit te proberen op deze documenten. Op deze websites vond ik de integrale pdf’s:

2014-2019: http://ebl.vlaanderen.be/publications/documents/60797&
2009-2014: http://www.ond.vlaanderen.be/hogeronderwijs/leraar/bestanden/Vlaams_Regeerakkoord_15%20juli_2009.pdf

Ik heb deze pdf documenten omgezet naar txt bestanden en een aantal filters op toegepast:

  • alles lowercase zetten
  • cijfers weglaten
  • ‘woorden’ die slechts 1 letter bevatten weggelaten
  • stopwoorden weggelaten (dwz nietszeggende woorden als: de, en, dat, die, …)

De laatste stap is dan de frequentie val alle woorden berekenen. Deze frequenties zouden we dan in een tabel kunnen weergeven, maar het is aangenamer en meer bevattelijk om deze informatie in een word cloud weer te geven. Bij het interpreteren moet men zich wel realiseren dat de frequentie van een woord niet perse de belangrijkheid van het woord weergeeft. Zo kan een woord al ‘investeren’ vaak voorkomen in de context van ‘meer investeren’ of ‘minder investeren’. Uit onderstaande word clouds is dit niet af te leiden.

Hieronder de word cloud van de 100 meest voorkomende woorden uit het regeerakkoord 2009 (hoe groter het woord, hoe hoger de frequentie):

wordcloud09

Hieronder de word cloud van de 100 meest voorkomende woorden uit het regeerakkoord 2014 (hoe groter het woord, hoe hoger de frequentie):

wordcloud14

Een andere interessante analyse is na te gaan welke woorden niet voorkwamen in het regeerakkoord 2009 maar wel in 2014. Hieronder de word cloud van de 100 meest voorkomende woorden uit het regeerakkoord 2014 die niet in het regeerakkoord 2009 stonden (hoe groter het woord, hoe hoger de frequentie in 2014):

wordcloudnew

Hieronder de word cloud van de 100 meest voorkomende woorden uit het regeerakkoord 2009 die niet in het regeerakkoord 2014 staan (hoe groter het woord, hoe hoger de frequentie in 2009):

wordcloudold

Tenslotte heb ik ook gekeken naar welke woorden het meest zijn toegenomen in frequentie in 2014, in vergelijking met 2009 (hoe groter het woord, hoe sterker de toename):

wordclouddiffup

En welke woorden het meest zijn afgenomen in frequentie in 2014, in vergelijking met 2009 (hoe groter het woord, hoe sterker de afname):

wordclouddiffdown

Wie deze data zelf verder wil analyseren, hier een linkje.

Kans op landstitel bedraagt 86% voor Anderlecht, 14% voor Standard

In m’n laatste blogbericht herberekende ik de kansen op de landstitel voor de 4 ploegen die er nog kans op maakten. Na de matchen van gisteren liggen de kaarten vandaag helemaal anders. Aangezien ik toch de code geschreven heb voor de analyses, is de inspanning klein om een update te maken. Hier komt ie:

Met nog één speeldag van drie wedstrijden (met drie mogelijke uitkomsten voor elke wedstrijd, zijnde winst, verlies of gelijkspel) te gaan, zijn er in totaal nog 27 (3³) mogelijke wedstrijduitslagen. Onderstaande tabel geeft elke mogelijke uitslag weer (met 1=winst thuisploeg, 2=winst bezoekers en x=gelijkspel).

SCA-LOK FCB-ZUW SCL-RGK
Scenario 1 x 1 2
Scenario 2 x 1 x
Scenario 3 x 1 1
Scenario 4 x 2 x
Scenario 5 x 2 1
Scenario 6 x 2 2
Scenario 7 x x 1
Scenario 8 x x 2
Scenario 9 x x x
Scenario 10 1 2 x
Scenario 11 1 2 1
Scenario 12 1 2 2
Scenario 13 1 x 1
Scenario 14 1 x 2
Scenario 15 1 x x
Scenario 16 1 1 2
Scenario 17 1 1 x
Scenario 18 1 1 1
Scenario 19 2 x 1
Scenario 20 2 x 2
Scenario 21 2 x x
Scenario 22 2 1 2
Scenario 23 2 1 x
Scenario 24 2 1 1
Scenario 25 2 2 x
Scenario 26 2 2 1
Scenario 27 2 2 2

Elk van bovenstaande scenario’s leidt dan weer tot verschillende eindklassementen. In onderstaande tabel zie je het eindklassement voor elke mogelijke wedstrijduitslag.

SCA FCB SCL ZUW
Scenario 1 49 48 46 41
Scenario 2 49 48 47 41
Scenario 3 49 48 49 41
Scenario 4 49 45 47 44
Scenario 5 49 45 49 44
Scenario 6 49 45 46 44
Scenario 7 49 46 49 42
Scenario 8 49 46 46 42
Scenario 9 49 46 47 42
Scenario 10 51 45 47 44
Scenario 11 51 45 49 44
Scenario 12 51 45 46 44
Scenario 13 51 46 49 42
Scenario 14 51 46 46 42
Scenario 15 51 46 47 42
Scenario 16 51 48 46 41
Scenario 17 51 48 47 41
Scenario 18 51 48 49 41
Scenario 19 48 46 49 42
Scenario 20 48 46 46 42
Scenario 21 48 46 47 42
Scenario 22 48 48 46 41
Scenario 23 48 48 47 41
Scenario 24 48 48 49 41
Scenario 25 48 45 47 44
Scenario 26 48 45 49 44
Scenario 27 48 45 46 44

Om de kans op de landstitel dan te berekenen volstaat het dan om voor elk scenario het team met de meeste punten te identificeren (bij gelijke punten wint het team met de meeste gewonnen wedstrijden). Onderstaande tabel geeft de rangorde weer voor elk mogelijk scenario.

SCA FCB SCL ZUW
Scenario 1 1 2 3 4
Scenario 2 1 2 3 4
Scenario 3 1 3 2 4
Scenario 4 1 3 2 4
Scenario 5 1 3 2 4
Scenario 6 1 3 2 4
Scenario 7 1 3 2 4
Scenario 8 1 2 3 4
Scenario 9 1 3 2 4
Scenario 10 1 3 2 4
Scenario 11 1 3 2 4
Scenario 12 1 3 2 4
Scenario 13 1 3 2 4
Scenario 14 1 2 3 4
Scenario 15 1 3 2 4
Scenario 16 1 2 3 4
Scenario 17 1 2 3 4
Scenario 18 1 3 2 4
Scenario 19 2 3 1 4
Scenario 20 1 2 3 4
Scenario 21 1 3 2 4
Scenario 22 1 2 3 4
Scenario 23 1 2 3 4
Scenario 24 2 3 1 4
Scenario 25 1 3 2 4
Scenario 26 2 3 1 4
Scenario 27 1 3 2 4

Om nu de kans te bepalen dat een bepaald team de titel behaalt, kunnen we simpelweg nagaan in hoeveel scenario’s dat team zou winnen. Merk op (uit vorige blogpost) dat niet elk scenario even waarschijnlijk is. Namelijk een gelijkspel is minder waarschijnlijk (ongeveer 25% kans bij teams van ongeveer gelijke sterkte) dan dat een van beide teams wint (ongeveer 75% kans). Dit moeten we mee in overweging nemen bij het berekenen van de kansen om de titel binnen te halen.

Onderstaande tabel geeft voor elk team weer wat de kans is op de titel (of de 2e, 3e of 4e plaats):

SCA FCB SCL ZUW
Kans op 1e plaats 86% 0% 14% 0%
Kans op 2e plaats 14% 33% 53% 0%
Kans op 3e plaats 0% 67% 33% 0%
Kans op 4e plaats 0% 0% 0% 100%

Place your bets!

HLN statisticus onderschat kansen van Standard en Zulte-Wargem (licht).

Met nog twee speeldagen te gaan met elk 3 wedstrijden te spelen beginnen de kansen op winst en verlies stilletjesaan duidelijk te worden. HLN-statisticus Claude Henrot berekende dat Anderlecht zo’n 51.9% kans heeft op de titel, Brugge 37.6%, Luik 6.3% en Zulte-Waregem slechts 4.25%. Aangezien bij het HLN artikel ook een linkje stond naar het Excel bestand dat gebruikt werd voor de berekeningen, ging ik die eens gaan napluizen. En wat bleek: ik botste op een fout, maar anders dan wat ik verwachtte heeft die fout geen grote invoel op de winstkansen. Hieronder toch de correcte cijfers:

De redenering gaat als volgt:
Er zijn in totaal nog 6 wedstrijden te spelen en elke wedstrijd kan op 3 mogelijke manieren eindigen: thuisploeg wint, thuisploeg verliest of gelijkspel. Voor de 6 te spelen wedstrijden betekent dit 3 tot de macht 6, ofwel 729, aantal mogelijke uitkomsten.

Voor elk van die mogelijke uitkomsten kunnen we dan gaan berekenen tot welke puntenstand die zouden leiden. Zoals gekend leidt winst tot 3 punten, verlies geen punten en gelijkspel elke 1 punt. Op basis van deze mogelijke uitkomsten kunnen we dan de winnaar gaan bepalen. Bijkomende moeilijkheid is dat bij gelijke punten het team met de meeste gewonnen wedstrijden wint. Maar ook dat kan makkelijk berekend worden. Het resultaat is dan voor elk van de 729 mogelijke scenario’s 1 winnend team.

Tot slot moet dan berekend worden in hoeveel scenario’s elk team wint. Bijvoorbeeld, volgens deze redenering wint Anderlecht in 378 van de 729 scenario’s wat tot een winstkans van 51.9% leidt.

Echter, wat de HLN statisticus over het hoofd heeft gezien is dat niet elke wedstrijduitslag even waarschijnlijk is. Namelijk, de kans op een gelijkspel is heel wat kleiner dan de kans dat een van de twee ploegen wint. In de berekening van de totale kans zouden we hier rekening moeten mee houden. Bijvoorbeeld, het scenario dat elk van de komende 6 wedstrijden op een gelijkspel eindigt is heel wat kleiner dan de kans dat elke thuisploeg wint van de bezoekers.

Het Nederlandse statistische adviesbureau STATISTICOR heeft een onderzoek gedaan naar de kans op gelijkspel in het voetbal. Uit hun studie bleek dat bij teams van min of meer gelijke sterkte de kans op gelijkspel ongeveer 25% is (en bijgevolg is de kans dat een van beide teams wint ingeveer 75%).

Wanneer we hiermee rekening gaan houden dan komen we tot licht andere cijfers (eerlijk gezegd had ik de verschillen groter verwacht):

  1. Anderlecht: 51.2%
  2. Brugge: 36.8%
  3. Luik: 7.3%
  4. Zulte-Waregem: 4.7%

De verschillen zijn klein, de kansen van de underdogs worden er een ietsje groter van.

Luxemburg en Brussel, West-Europa’s meest moorddadige hoofdsteden?

Gisteren verscheen in de online krant van zowel De Morgen als De Standaard een artikel over een merkwaardige statistiek. Het aantal moorden per inwoner zou in Luxemburg het hoogst zijn van alle hoofdsteden in West-Europa, met Brussel als betreurenswaardige tweede in de ranglijst. In grootsteden als Parijs, Madrid  of Rome zou men verhoudingsgewijs veel minder vaak aan het moorden gaan.

Dat een klein (en schijnbaar vredevol) stadje als Luxemburg deze illustere ranglijst aanvoert, deed me de wenkbrouwen fronsen. Zou het? De bevindingen komen rechtstreeks uit het rapport ‘Global Study on Homicide 2013’ van de United Nations Office on Drugs and Crime. Toch niet meteen het eerste het beste instituut. In deze blogpost probeer ik hun bevindingen in een breder perspectief te plaatsen.

Om het aantal moorden per inwoner (voor de West-Europese hoofdsteden) te berekenen is informatie nodig over het inwonersaantal en het aantal moorden per hoofdstad. Deze informatie kan relatief gemakkelijk van de website van Eurostat gehaald worden. Cijfers over inwonersaantal per stad kan hier gevonden worden. Het aantal moorden per stad hier. Het mooie van deze data is dat er gegevens zijn van 2003 tot 2012. Het nadeel is dat er geen gegevens zijn voor het jaar 2013, het jaar waarop de ‘Global Study on Homicide 2013’ is gebaseerd.

Hieronder de moordratio’s (per 100.000 inwonders) voor tien West-Europese hoofdsteden (Merk op: eventuele ontbrekende data voor wat betreft inwonersaantal heb ik aangevuld uitgaand van een lineaire trend. Er was geen ontbrekende data voor aantal moorden.):

2003 2004 2005 2006 2007 2008 2009 2010 2011 2012
Amsterdam 3.7 2.6 3.2 0.5 3.6 1.5 3.2 1.3 1.5 2.2
Berlijn 2.1 1.9 1.5 2.3 1.8 2.2 1.8 1.2 1.2 1.3
Brussel 4.8 4.0 3.2 3.6 1.9 4.2 3.1 2.8 2.1 2.6
Lissabon 2.0 1.9 2.9 3.1 2.8 2.0 1.0 1.1 1.1 2.0
Ljubljana 1.1 2.6 1.5 0.4 1.1 0.0 0.4 1.1 1.4 0.7
Luxemburg 0.0 1.2 1.2 4.7 3.5 3.4 5.6 0.0 3.2 0.0
Madrid 2.3 1.5 1.4 1.5 1.2 1.2 1.0 0.9 0.7 0.9
Oslo 2.1 1.5 1.7 1.7 1.5 2.1 1.2 0.9 3.2 1.3
Parijs 2.5 0.9 1.5 1.3 1.5 1.6 1.1 1.9 1.8 1.8
Rome 1.1 1.2 1.4 1.2 1.3 1.1 1.2 0.4 1.2 0.9

Wanneer een ratio in het rood is weergegeven, betekent dit dat een stad voor een gegeven jaar tot de twee meest ‘moorddadige’ steden behoorde (uit dit arbitraire lijstje). Een groene ratio betekent dan weer dat een stad voor een gegeven jaar tot de minst ‘moorddadige’ steden behoorde. Hieronder een grafische weergave van 3 van de 10 hoofdsteden uit de tabel (alle 10 de steden weergeven leidt tot een onleesbare grafiek).

plotFiguur 1: Een stad met relatief hoge moordratio (Brussel), relatief lage
moordratio (Parijs) en een stad met erg variabele moordratio (Luxemburg)

Een tweetal zaken vallen hierij op:

Ten eerste, het aantal moorden per 100.000 inwoners was in Brussel het voorbije decennium hoog in vergelijking met andere West-Europese hoofdsteden. Men zou inderdaad kunnen stellen dat de kans om vermoord te worden voor een Brusselaar hoger is dan die voor een Romein of Parijzenaar. In dit opzicht zijn de krantenkoppen in De Morgen of De Standaard terecht.

Anderzijds, Amsterdam behoort in de ‘Global Study on Homicide 2013’ tot de landen met een eerder lage moordratio (1.3 per 100.000) en wordt in de krantenartikelen aangehaald als ‘veiliger’ stad, hoewel de cijfers van het voorbije decennium aantonen dat Amsterdam eerder tot de West-Europese hoofdsteden met hoge moordratio behoort.

Ten tweede, Luxemburg is een stadje van extremen (wat betreft de moordratio’s toch). Het voorbije decennium is de stad jaar na jaar ofwel een van de meest veilige, ofwel een van de meest moorddadige West-Europese hoofdsteden. Dat Luxemburg in ‘Global Study on Homicide 2013’ als stad met hoogste moordratio naar boven komt betekent nog niet dat dit ook de gevaarlijkste stad zou zijn. Door de erg kleine kans op moord (minder dan 0.006% per jaar) in combinatie met het relatief kleine inwonersaantal van de stad (ongeveer 100.000) is de waargenomen moordratio erg variabel over de jaren heen. Er hoeft daar bij wijze van spreken maar één gezinsdrama te gebeuren en het stadje schiet naar de top van de ranglijst.

Dit fenomeen doet wat denken aan het ‘Kleine gemeente, fijne gemeente’-probleem dat ik in een eerdere blogpost besprak. En dit is inderdaad een variatie op hetzelfde thema: stel dat de (jaarlijkse) kans om vermoord te worden in alle West-Europese hoofdsteden exact gelijk is, dan zouden we zien dat het waargenomen aantal moorden veel meer variabel is voor kleine hoofdsteden, dan voor grote hoofdsteden. In deze paper wordt hierop meer in detail ingegaan.

Conclusie: Neem een kritische houding aan ten aanzien van lijstjes. Vaak worden daar de hoogste en laagste posities ingenomen door kleine landen/steden/gemeenten/… die veel meer variabliteit vertonen op de variabele in kwestie dan de middenmoters. Het is dan ook vaak voorbarig om grote verklaringen te koppelen aan die extreem goede (of slechte) uitkomsten. In dit specifieke geval kan het, gezien de erg kleine kans op moord, nuttig zijn om een langere periode dan 1 jaar te nemen om (kleine) steden met elkaar te vergelijken.

Waarom professoren een giscorrectie willen en studenten niet

Deze week was er heel wat te doen rond giscorrectie. Giscorrectie is een manier om punten te geven bij multiple choice examens. Kort gezegd komt het erop neer dat studenten punten krijgen voor correcte antwoorden, maar ook punten verliezen bij foutieve antwoorden.

UGent professor onderwijskunde Martin Valcke legde deze week in het Radio 1 programma Hautekiet uit waarom giscorrectie niet goed werkt. Dit werd opgepikt door andere media en sommige kranten (i.e. De Morgen) maakten daar dan van dat “eerlijke studenten jarenlang benadeeld werden” door het systeem. Vandaag is dan weer te lezen in De Standaard dat de onderwijsraad van de UGent de aanbeveling doet het systeem af te schaffen.

In deze blogpost wil ik kort aantonen waarom er zoiets als giscorrectie bestaat en waarom veel studenten er niet van houden. Verder beschrijf ik ook een aantal voorgestelde alternatieven.

Waarom giscorrectie?

Laten we het voorbeeld van een meerkeuze examen nemen met 20 vragen die telkens 4 antwoordmogelijkheden hebben. Voor elke vraag is er slechts 1 antwoord correct.

Het probleem met dit soort examens is dat wie voor elke vraag zou gokken (hiermee wordt bedoeld dat de student geen enkel idee heeft welke antwoordmogelijkheid correct is) toch telkens een kans van 1/4 heeft om juist te antwoorden. Stel dat met elke vraag 1 punt te verdienen is (dus maximaal kan men 20/20 halen), dan ziet de kans voor elke mogelijke uitkomst er als volgt uit.

plot1Een gokkende student heeft dus ongeveer 20% kans om 5/20 te halen voor een examen waar hij of zij helemaal niets van kende. De kans om te slagen (10 of meer op 20) ligt iets hoger dan 1%.

Wanneer een student 5 vragen zeker weet en de overige 15 vragen gaat gokken (bvb, wanneer de student slechts 1/4 van de cursus blokt), dan ziet de kansverdeling er als volgt uit:

plot2Merk op dat de student in dit geval al meer dan 30% kans heeft om te slagen en ongeveer 60% kans heeft om minstens een delibereerbaar resultaat te halen (8 of meer op 20).

Professoren willen natuurlijk niet dat studenten kunnen slagen zonder dat ze de leerstof voldoende beheersen en het systeem van giscorrectie probeert daar iets aan te doen.

Hoe werkt giscorrectie?

Bij giscorrectie krijgt men 1 punt voor een correct antwoord, maar verliest men een aantal punten bij een foutief antwoord. Hoeveel punten men verliest is afhankelijk van het aantal keuzemogelijkheden. Bij 4 keuzemogelijkheden zal men 1/(4-1)=1/3 punten verliezen. Bij 5 keuzemogelijkheden zal dit 1/4 zijn, enzovoort. Op deze manier is de verwachte uitkomst van een gok steeds 0.

Wat heeft dit voor gevolg voor de gokkende student? De kansen op elke mogelijke examenscore zijn weergegeven in onderstaande grafiek:

plot3Onmiddellijk wordt duidelijk dat de kans om te slagen voor deze gokkende student enorm verkleind is. Nu heeft hij of zij meer dan 60% kans om gewoon 0 te krijgen voor dat examen. De kans om ten minste een delibereerbaar resultaat (8 of meer op 20) te halen wanneer hij of zij 5 vragen weet en de rest gokt is gedaald van meer dan 60% tot minder dan 15% (m.o. dit is niet af te lezen op bovenstaande grafiek).

Waarom vinden velen giscorrectie ‘moeilijk’?

Bij een meerkeuze examen zonder giscorrectie is het advies voor de studenten eenvoudig: weet je het antwoord, geef dan het correcte antwoord; wanneer ze het antwoord niet weten dan moeten ze gokken. Immers, er is steeds een kans van 1/4 (bij 4 keuzemogelijkheden) om toch het correcte antwoord aan te duiden.

Bij giscorrectie ligt dit anders. Hier hangt het advies voor de studenten af van het aantal antwoordmogelijkheden waartussen ze nog twijfelen. Hoe meer antwoordmogelijkheden de student kan elimineren, hoe meer het loont om te gokken tussen de overgebleven antwoordmogelijkheden. Bijvoorbeeld:

Als een student echt niet weet welk van de 4 antwoordmogelijkheden correct is, dan heeft gokken geen zin. Immers, in dat geval is er 25% kans om correct te antwoorden (en 1 punt te krijgen), maar er is 75% kans om een verkeerd antwoord te kiezen (en 1/3 punt te verliezen). De verwachte uitkomst bij gokken is 0 (d.w.z, indien je altijd zou gokken in deze situatie, is de verwachte score 0):

(0.25 \times 1) + (0.75 \times -1/3) = 0

Als een student 1 antwoordmogelijkheid met zekerheid kan elimineren, dan veranderen de zaken. De kans om correct te gokken en 1 punt te krijgen wordt nu 1/3, terwijl de kans om verkeerd te gokken en 1/3 punt te verliezen nu 2/3 is geworden. De verwachte uitkomst in deze situatie is dan 0.11 (d.w.z., indien je altijd zou gokken in deze situatie, is de verwachte score per vraag ongeveer 0.11):

(0.33 \times 1) + (0.66 \times -1/3) = 0.11

Als een student 2 antwoordmogelijkheden met zekerheid kan elimineren, dan is er nog meer reden om te gokken tussen de overblijvende opties. De verwachte waarde wordt dan immers 0.34 (d.w.z., indien je altijd zou gokken in deze situatie, is de verwachte score per vraag ongeveer 0.34):

(0.5 \times 1) + (0.5 \times -1/3) = 0.34

Het goede aan giscorrectie is dus dat hoe beter een student de vraag kan oplossen (door antwoordmogelijkheden te elimineren), hoe hoger de verwachte punten hij of zij zal krijgen. Het probleem is dat veel studenten moeilijkheden hebben met bovenstaande berekeningen. Al kunnen die berekeningen eigenlijk samengevat worden als: “gok tussen de overblijvende mogelijkheden zodra je 1 optie kan elimineren”.

Controverse bij giscorrectie

Prof. dr. Martin Valcke heeft het in Schamper over de nadelen van giscorrectie. Het al dan niet bereid zijn tot gissen wordt niet enkel ingegeven door bovenstaande berekeningen, maar eveneens door persoonlijkheidskenmerken. Het meest bekende voorbeeld is wellicht dat jongens sneller gokken dan meisjes. Een andere argument tegen giscorrectie is dat het extra stress geeft aan de studenten die andere evaluatievormen niet of minder veroorzaken. Veel heeft te maken met loss-aversion, namelijk het veel meer vermijden van mogelijke verliezen eerder dan het nastreven van mogelijke winsten.

Alternatieven voor giscorrectie

In een recent artikel in Schamper worden een aantal alternatieven besproken. Eén daarvan is simpelweg meer vragen stellen met meer antwoordmogelijkheden. In de eerste grafiek van deze post werd de kansverdeling gegeven bij 20 meerkeuzevragen met 4 antwoordmogelijkheden. Hieronder zie je wat de kansverdeling is bij 80 meerkeuzevragen met 4 antwoordmogelijkheden.

plot5Op deze grafiek is te zien dat studenten die op alle vragen gokten nog steeds meest kans hebben om ongeveer 5/20 te halen, maar nu is de spreiding rond deze verwachtte uitkomst wel veel kleiner geworden. Simpelweg toevoegen van vragen zorgt er dus (onder invloed van de wet van de grote aantallen) dat het resultaat van gokkers dichter bij 5/20 (i.e. de verwachte waarde) gaat liggen.

Wanneer we het aantal antwoordmogelijkheden gaan uitbreiden ziet de kansverdeling er nog anders uit. Hier het voorbeeld van 20 vragen met telkens 8 (i.p.v. 4) antwoordmogelijkheden waarbij 1 correct is.

plot6In dit geval wordt de verwachte waarde wel kleiner (e.g. de meest voorkomende score van de gokkers is gedaald van 5/20 naar 2/20), maar is er nog steeds een vrij grote spreiding over de scores van de gokkers.

Het combineren van veel vragen met veel antwoordmogelijkheden geeft dan onderstaande kansverdeling (gebaseerd op 80 examenvragen met elk 8 mogelijke antwoorden waarvan er slechts 1 correct is).

plot7Op bovenstaande grafiek zie je dat het combineren van veel vragen met veel antwoordmogelijkheden leidt tot een lage verwachte waarde met een kleine spreiding errond. De vraag blijft echter of deze aanpak praktisch haalbaar is. Vaak is het voor examinatoren niet evident om meerdere plausible antwoordmogelijkheden te geven zonder te vervallen in dubbelzinnige antwoordmogelijkheden als “niet meer dan 4 van de andere antwoordmogelijkheden zijn foutief”.

Een ander (en wat mij betreft te verkiezen) alternatief is de studenten te laten starten met een negatief puntenaantal. Deze methode wordt ook wel standard setting genoemd. Hoe sterk negatief de startpunten moeten zijn, hangt af van het aantal vragen en het aantal antwoordmogelijkheden. Bij 20 vragen met telkens 4 antwoordmogelijkheden zou dit -5 zijn (namelijk, -20/4). Studenten krijgen dan 20/(20-4)=1.25 punt voor elk correct antwoord en 0 punten voor elk verkeerd antwoord. Dit leidt tot onderstaande kansverdeling.

plot4Merk op dat deze identiek is aan de kansverdeling bij de giscorrectie. Merk ook op dat in dit geval de studenten eveneens ‘verplicht’ worden om te gokken. Alleen hoeft men hier niet beredeneerd te gokken, want men kan er alleen bij winnen.

(toevoeging 17/10/2013)
Merk eveneens op dat het bij standard setting nodig is om 12 van de 20 vragen correct te beantwoorden om te slagen (en dus 10/20 te halen). Dit komt omdat de methode ervan uitgaat dat elke student gokt op alle vragen die hij of zij niet weet en hiervoor dus gecorrigeerd moet worden.

Wie 10 van de 20 vragen kent en de rest gokt heeft met deze methode ongeveer 76% kans om minstens 10/20 te halen. Wie 11 van de 20 vragen correct invult en de rest gokt heeft ongeveer 93% kans om minstens te slagen. Wie tenslotte 12 van de 20 vragen correct beantwoordt en de rest gokt is zeker om minstens 10/20 te halen.

Conclusie

  • Het is normaal dat er een correctie gebeurt bij meerkeuzevragen. Immers, zonder deze correctie kunnen studenten die de leerstof onvoldoende beheersen te gemakkelijk slagen.
  • Giscorrectie is wel eerlijk, maar vereist een zekere basiskennis over het nemen van beslissingen onder onzekerheid, zonder zich te laten beïnvloeden door loss-aversion. Niet alle studenten kunnen hier even goed mee overweg.
  • Het idee dat giscorrectie studenten “verplicht om te gokken” is niet correct. Men kan wel betere punten halen door beredeneerd te gokken.
  • Een student die niet wil gokken bij een examen met giscorrectie zal slagen indien hij of zij minstens de helft van de vragen correct kan beantwoorden.
  • Bij de alternatieven voor giscorrectie wordt gokken mogelijk nog veel meer gestimuleerd dan bij giscorrectie. Men heeft immers geen punten te verliezen bij een verkeerde gok.
  • Standard setting heeft als voordeel dat het eenvoudig uit te leggen is en tegelijk ervoor zorgt dat wie de leerstof onvoldoende beheerst weinig kans op slagen heeft.
  • Standard setting heeft als nadeel dat studenten meer dan de helft van de vragen correct moeten beantwoorden om minstens de helft van de punten te behalen.
  • Voor wie de leestof goed beheerst is er geen verschil tussen al dan niet giscorrectie. Het belang van ‘al dan niet giscorrectie’ wordt groter naarmate de student de leerstof minder goed kent en dus meer twijfelt.

Natuurlijke variantie en studentenaantallen

Deze post komt er naar aanleiding van het jaarlijks terugkerend fenomeen van het (over)analyseren van de inschrijvingsaantallen in de verschillende richtingen van de verschillende universiteiten en hogescholen van ons land. In de traditionele media verschijnen jaarlijks artikels met titels als: “Economie studeren steeds populairder“, of “Opleiding leerkracht opnieuw populair” of “Vlaamse student valt voor chemie“.

Wat ik in deze post graag duidelijk wil maken is dat veel van die conclusies voorbarig zijn en vaak weinig zinvol zijn. Als mens hebben we de neiging om (vaak onterecht) overal oorzakelijke verbanden te willen zien. Winnaar ‘nobelprijs economie’ Kahneman (in Thinking Fast and Slow) verwoordt het als volgt:

“We are far too willing to reject the belief that much of what we see in life is random.”

Als voorbeeld neem ik de voorlopige studentenaantallen Psychologie & Pedagogie aan de UGent omdat die het onderwerp van discussie waren op twitter (die ondertussen deels weer verwijderd is, dus geen linkje). Via de website van de UGent kon men tot dit weekend grafieken opvragen (nu zijn ze enkel nog beschikbaar voor personeel). Een voorbeel van zo’n grafiek hieronder:

dat_withOp de horizontale as zien we de dagen sinds de start van de inschrijvingen, op de vertikale as zien we het cummulatieve aantal studenten ingeschreven aan de faculteit Psychologie en Pedagogie. Sommigen besluiten hieruit dat de opleidingen aan die facutleit aan populariteit ingeboet hebben in vergelijking met het jaar daarvoor (en geven hiervoor allerhande redenen aan, b.v. ‘de economische crisis’).

Vraag is: kunnen we dit wel besluiten op basis van deze data?

Om deze vraag te beantwoorden heb ik de data gemodelleerd alsof ze afkomstig was van een Poisson process. Dit is hetzelfde model dat gebruikt werd om de effecten van de speedy-pass in Walibi mee te evalueren. Een Poisson process wordt gekenmerkt door een parameter die, in dit geval, weergeeft hoeveel studenten zich gemiddeld komen inschrijven op 1 dag (aan de faculteit in kwestie). Dit is de ‘rate’ parameter.

Als we die parameter nu gaan schatten op onze data en die blijkt ‘significant’ hoger te zijn voor 2012 dan voor 2013, dan zouden we kunnen besluiten dat de evolutie van de inschrijvingen dit jaar lager ligt dan het jaar voordien. Maar is dit ook wat we vinden?

hyptestHierboven zien we het resultaat van een Bayesiaanse hypothesetest. De gele histogram geeft de posterior verdeling van het verschil 2012-2013 weer. De meeste massa (kans) komt op positieve waarden te liggen (d.w.z. dat studenten in 2012 inderdaad in grotere getale kwamen opdagen dan in 2013). Echter, de vertikale blauwe strepen geven de Bayesiaanse betrouwbaarheidsintervallen weer en die geven aan dat we niet met grote zekerheid kunnen zeggen dat 2013 verschillend is van 2012 (het getal 0 ligt in het interval). Er is zelfs bijna 7% kans dat de rate in 2013 eigenlijk hoger is dan die in 2012.

Deze simpele (waarschijnlijk té simpele, maar goed genoeg om mijn centrale punt mee duidelijk te maken) analyse geeft aan dat helemaal niet kunnen besluiten dat men minder storm loopt voor de opleidingen psychologie of pedagogie. De verschillen die we waarnemen zijn waarschijnlijk natuurlijke variantie, toevallige fluctuaties waarvoor geen verklaringen te geven zijn.

Onderstaande grafiek, ten slotte, geeft dit ook weer. De groene ‘band’ is het resultaat van 1000 gesimuleerde inschrijvingscurves met dezelfde ‘rate’ als de curve van 2012. Ze verschillen dus alleen wat betreft de natuurlijke variantie.

sim2Onmiddellijk is duidelijk dat curves soms wat hoger of lager kunnen uitvallen, zonder dat daar oorzaken voor te geven zijn. Als we de gesimuleerde curves (groen) gaan vergelijken met de inschrijvingscurve voor dit jaar, dan zien we dat ze meestal mooi binnen de te verwachten natuurlijke variantie van de curve van vorig jaar blijft. We kunnen dus best nog even wachten met het verklaren van de verschuivinen in de inschrijvingen en vooral proberen het signaal niet te verwarren met de ruis.

Edit: De prior die ik gebruikte voor de rate parameter is Uniform(0,200).

Reactie op “Enkele bedenkingen bij de recente ‘De Standaard/VRT/TNS’ peiling”

Recent ontstond op Twitter een (constructieve) discussie over of nu wel of niet besloten kan worden dat de score van de NVA bij de huidige peiling (mei ’13) significant lager ligt dan die bij de vorige peiling (sept. ’12). Het begon met onderstaande tweets:

Lees de volledige twitter conversatie hier. Een uitgebreide reactie kwam er op de blog van @IstvanHajnal in de vorm van twee blogposts (hier en hier).

De hamvraag in deze hele discussie is of de waargenomen daling van de score van de NVA in de peiling van mei ’13 vs september ’12 “significant” is of niet. Meerbepaald, moeten we in de analyse ook rekening houden met de onzekerheid van het vergelijkingspunt (i.e. peiling sept ’12) of niet?

Mijn antwoord op deze vraag/stelling is zonder twijfel: ja! Als een overtuigde aanhanger van Bayesiaanse statistiek wil ik hieronder graag demonstreren hoe een Bayesiaanse analyse op deze data in z’n werk gaat.

Merk op dat er slechts heel weinig precieze gegevens gedeeld worden over de ‘De Standaard/VRT/TNS’ peiling. Onderstaande analyse gaat uit van een perfect gerandomiseerde steekproef uit de populatie van alle stemgerechtigden. Naar alle waarschijnlijkheid is hieraan in de peiling(en) niet voldaan en betekent dit dat we een onderschatting maken van de onzekerheid rond de resultaten. Daarenboven heb ik geen gegevens over de steekproefgrootte van de peiling in sept ’12, maar ga ik net als @IstvanHajnal (in de tweede blogpost) uit van een steekproef van 1000.

Roeien met de riemen die er zijn…

Het probleem waarmee we te maken hebben is het vergelijken van twee niet-gekende proporties. De eerste niet-gekende proportie is de potentiële score van NVA in september ’12. Deze proportie gaan we proberen te schatten met de informatie uit de peiling van september ’12. De tweede niet-gekende proportie is de potentiële score van NVA in mei ’13 en deze proportie gaan we proberen te schatten met de informatie uit de peiling van mei ’13.

Een Bayesiaans statisticus probeert dit probleem op te lossen aan de hand van de regel van Bayes. Die regel geeft weer hoe we onze mening moeten herzien in het licht van (nieuwe) data:

p(mening|data)=\frac{p(data|mening)\times p(mening)}{p(data)}

Of in meer formele termen:

posterior=\frac{likelihood \times prior}{marginal likelihood}

Het eerste dat we bepalen is onze “prior” ofte “onze-mening-vooraleer-we-naar-de (nieuwe)-data-keken”. In dit geval gaat dit over de score van de NVA in september ’12. Hieronder twee voorbeelden van mogelijke “prior” meningen.

prior1prior2

De eerste (linkse) “prior” mening geeft weer dat we alle mogelijke percentages even waarschijnlijk vinden als score voor de NVA. Echter, een meer realistische prior zou de andere (rechtse) prior kunnen zijn waarbij we meer geloof hechten aan waarden rond de 30% en weinig geloven in waarden boven 50%.

Om de zaken eenvoudig te houden werk ik hier verder met de linkse prior. Deze prior wordt heel vaak gebruikt omdat hiermee de invloed van de prior minimaal gehouden wordt en de uitkomst volledig door de data bepaald wordt. Mede hierdoor is deze prior vaak acceptabel voor zowel Bayesiaanse als klassieke statistici.

De volgende stap is het bepalen van de likelihoodfunctie. Voor dit probleem zullen we gebruik maken van de Bernoulli likelihood waarbij we 1000 observaties hebben waarvan 363 NVA stemmers en 673 niet-NVA stemmers. Onze posterior kunnen we dan berekenen door de regel van Bayes hierboven toe te passen (om niet te technisch te worden laat ik de precieze berekeningen hier achterwege).

post1Na het in overweging nemen van de data in de peiling van september ’12 geeft bovenstaande “posterior” weer wat we weten over de niet-gekende proportie NVA-stemmers. We zien dat de kans erg groot is dat de niet-gekende proportie ergens tussen 30% en 40% moet zijn.

Vervolgens doen we dezelfde stappen voor de peiling van mei ’13. We gebruiken hier opnieuw de ‘vlakke prior’ die we hierboven ook gebruikten. De de tweede peiling spreekt over een steekproef van 1084 respondenten waarvan 348 NVA-stemmers. Via Bayes theorema kunnen we dan opnieuw de posterior gaan berekenen. Hieronder zie je de posteriors van de peiling van september ’12 en mei ’13 op dezelfde grafiek geplaatst (merk op dat de schaal van de X-as anders is dan hierboven).

post3In bovenstaande grafiek heb ik ook het “95% credible interval” weergegeven voor beide “posteriors”. Die “credible intervals” kan je als volgt interpreteren: “er is 95% kans dat de niet-gekende NVA score in dit interval ligt”. Deze interpretatie is heel intuitief en helemaal anders dan het klassieke betrouwbaarheidsinterval (zie blogpost 1 van @IstvanHajnal). Merk ook op dat beide “credible intervals” elkaar overlappen (wat niet per se betekent dat beide proporties niet van elkaar verschillen (sorry voor dubbele negatie)).

De kernvraag van deze analyse is wat de kans is dat de niet-gekende proportie NVA stemmers lager zou zijn mei ’13 dan september ’12. Dit komt neer op het berekenen van de kans dat de blauwe verdeling in bovenstaande grafiek kleiner is dan de gele. Dit probleem kunnen we relatief eenvoudig oplossen met simulatie. Hieronder het resultaat van die simulatie:

postdif1Het “credible interval” in bovenstaande histogram geeft aan dat er 95% kans is dat er in mei ’13 tussen de 0.001% en de 8.3% minder Vlamingen zijn die op NVA zouden stemmen dan dat er in september ’12 waren. De kans dat NVA er minstens 1% op achteruit gegaan is bedraagt 93.8%.

Let wel, de kans dat NVA erop vooruít gegaan is tussen september ’12 en mei ’13 bedraagt (ondanks het feit dat de peilingen iets anders laten uitschijnen) nog steeds 2.2%. In de medische wetenschappen, waar men (terecht) veel striktere eisen stelt aan statistisch bewijs, zou dit betekenen dat bijkomend onderzoek nodig is om uitsluitsel te bieden.

We kunnen dus besluiten dat de media correct bericht hebben over de daling van de NVA in de laatste peiling. De data geven inderdaad aan dat de kans erg groot is dat de NVA erop achteruit gegaan is tussen beide peilingen. Let wel (en ik herhaal omdat dit belangrijk is), deze analyse gaat uit van een perfect gerandomiseerde steekproef uit de populatie van alle stemgerechtigden. Naar alle waarschijnlijkheid is hieraan in de peiling(en) niet voldaan en betekent dit dat we een onderschatting maken van de onzekerheid rond de resultatan.

Addendum

Een belangrijk element in de twitter/blog discussie was of we al dan niet moesten rekening houden met de onzekerheid van het ijkpunt (i.e. de onzekerheid van de werkelijke proportie NVA stemmers in september ’12). Ik haalde al aan dat mijn standpunt is dat we dit zeker moeten doen. Hieronder toon ik wat gebeurt indien we dit niet zouden doen.

In bovenstaande analyse hebben we het verschil berekend tussen twee random variabelen, namelijk de niet-gekende proportie NVA-stemmers in september ’12 en de niet-gekende proportie NVA-stemmers in mei 2013. Het resultaat was de gele histogram hierboven.

Indien we ervan zouden uitgaan dat de uitkomst van de peiling in september ’12 niet onzeker is, maar daarentegen fixed (i.e. 36.3%), dan zouden we andere antwoorden formuleren op onze hamvraag. Namelijk, dan zouden we enkel de posterior van de huidige peiling gaan berekenen en dan nagaan wat de kans is dat deze posterior kleiner is dan 36.3%.

post4Bovenstaande figuur geeft dit weer. De gele oppervlakte geeft de kans weer dat de niet-gekende proportie van de recentste peiling kleiner is dan het fixed ijkpunt (0.363) en die kans is 99.8%. De kleine blauwe oppervlakte (in de rechterstaart) is dan het omgekeerde, namelijk de kans dat deze proportie groter is dan het ijkpunt (0.363) en die kan is dan logischerwijze 0.02%.

Merk op dat wanneer we de kansen op deze manier berekenen we met grotere zekerheid (99.8% hier versus 97.8% in de vorige analyse) zouden besluiten dat NVA erop achteruit gegaan is tussen beide peilingen. Door geen rekening te houden met de onzekerheid van het ijkpunt zouden we dus een overschatting gaan maken van het verschil tussen beide peilingen. Al moet het gezegd dat in dit geval dit niet tot fundamenteel verschillende conclusies zou leiden.

Install dvb-t usb dongle (rtl2832u) in xbmc on Raspberry Pi using VDR

Recently, I tried to get my Genius 1000 working on my Raspberry Pi that runs xbmc. It turned out that this is not as simple as some tutorials would make you believe. The many different drivers, backends, frontends, xbmc distro’s, xbmc addons, etc. make it difficult to set up a coherent system. This is what worked for me:

First, install raspbmc on the Raspberry Pi. This is relatively easy and many good tutorials are available (eg here). Raspbmc is preferred over openELEC because for the former it is easier to add drivers that are not supported by the kernel. This is important for the Genius 1000 dvb-t usb dongle, since its chipset (rtl2832u) is not supported by the kernel that is currently used in these distributions (kernel version 3.6.11).

Once raspbmc is installed, it is time to install a kernel module that makes it possible to use the rtl2832u chipset. Find and download the rtl2832u.ko file (eg here) and copy it to your Raspberry Pi. Unzip the file and copy the dvb-usb-rtl2832u.ko file to /lib/modules/3.6.11/kernel/drivers/media/dvb/dvb-usb/ and load the module:

$ tar -zxvf dvb-usb-rtl2832u.tar.gz
$ sudo mv dvb-usb-rtl2832u.ko /lib/modules/3.6.11/kernel/drivers/media/dvb/dvb-usb/
$ sudo depmod -a

If everything fine, running dmesg should return a line like this: dvb-usb: DK DONGLE successfully initialized and connected.

Next, we will install a backand program which communicates with a TV tuner adaptor to create a video stream. The most popular backend seems to be TvHeadend. It is supported by most xbmc distros out of the box. However, I could not get it working on my system. The problem was that after adding the muxes, no services were found. Even when I added the muxes manually (as suggested in some posts).

Fortunately, I had better luck with an alternative backend: VDR. Installing VDR on raspbmc is quite a hassle. First we have to install the necessary programs:

$ sudo apt-get update
$ sudo apt-get install pkg-config unzip git build-essential vdr vdr-dev vdr-plugin-epgsearch vdr-plugin-live vdr-plugin-streamdev-server w-scan

During this process, you will be asked for the type of dvb receiver you are using. In my case this is “terretrial” (ie dvb-t). Next, we will create a configuration file containing the broadcast information about the channels available in our geographical location. Using w_scan (read the man page to find the options for your location):

$ sudo w_scan -c BE > channels.conf
$ sudo mv channels.conf /var/lib/vdr/channels.conf
$ sudo rm /etc/vdr/channels.conf
$ sudo ln -s /var/lib/vdr/channels.conf /etc/vdr/channels.conf

Make sure, the w_scan command is run somewhere in your home directory otherwise it wil not work. Also, make sure your Raspberry Pi is connected to a powered(!) usb hub or an adaptor. If not, the rpi will not get sufficient power to perform the scan and freeze/crash while scanning. Finally, once the channels.conf file is created, move and link it to the appropriate locations (see code above).

Next, two configuration files should be adapted. First, inf the file /etc/default/vdr, change the value of enabled=0 to enabled=1. Second, adjust the file /var/lib/vdr/plugins/streamdev-server/streamdevhosts.conf so that it conforms your local network settings. In my case:

192.168.1.0/24       # any host on the local net

At this point, it is time to reboot the Raspberry Pi.

Now we can check if everything works so far. With your favorite webbrowser, go to the ip-address of your Raspberry Pi followed by “:8008”, i.e.


http://192.168.1.1:8008

If everything works as expected, you should see a loginscreen of VDR. With username “admin” and password “live” you should be able to get access and open the streams you are able to receise at your location.

Finally, we will install a program (vnsiserver) that makes communication possible between VDR and XBMC. First a directory is created where we will compile this program from source. Second, the sourcecode is downloaded to this new folder. Third step is compiling the code.

mkdir vdr
cd vdr
git clone git://github.com/opdenkamp/xbmc-pvr-addons.git
cd xbmc-pvr-addons/addons/pvr.vdr.vnsi/vdr-plugin-vnsiserver
sudo make VDRDIR=/usr/include/vdr LIBDIR=/usr/lib/vdr/plugins

We’re almost there. We just have to create a configuration file that defines who can connect to vnsiserver:

sudo mkdir /var/lib/vdr/plugins/vnsiserver
sudo vi /var/lib/vdr/plugins/vnsiserver/allowed_hosts.conf

and add the following lines:

127.0.0.1             # always accept localhost
192.168.XXX.0/24      # any host on the local net

changing “XXX” to the settings of your local network (probably a value of “1”).

The only thing left to do is restart vdr

$ sudo service vdr restart

and go to XBMC to install the vnsiserver plugin and allow Live TV (System>Settings>LiveTV>enable).

Finally, make sure you buy the Raspberry Pi mpeg codec (it costs only a few dollar/euro). Without this codec, you will not be able to get video (while the sound might work without).

Update:
I noticed that when Raspbmc updates it is necessary to copy again the kernel module dvb-usb-rtl2832u.ko to the appropriate folder and reissue depmod -a (see above).

Sources:
http://forum.stmlabs.com/showthread.php?tid=6780
http://forum.stmlabs.com/showthread.php?tid=6580

Waarom er in 2013 meer Nick (-Nackje)’s geboren zullen worden…

Recent las ik deze blogpost van doctoraatsstudente biostatistiek Hilary Parker. In haar post onderzoekt ze of het klopt dat haar voornaam een dalende populariteit kent. Dit zou het gevolg zijn van de slechte connotatie met de ex-First Lady van de USA. Haar analyse leidt tot grappige inzichten, onder ander dat veel nieuwgeborenen genoemd worden naar de Amerikaanse supersterren van het moment. Ik vroeg me af of we door de populariteit van voornamen te onderzoeken, we kunnen afleiden welke BV’s populairst zijn. Hier volgt het resultaat van mijn speurtocht.

Het belangrijkste ingrediënt voor zo’n analyse is uiteraard gevegens over de gekozen voornamen door de jaren heen. Google leidde me in eerste instantie naar het Nationaal Instituut voor de Statistiek (NIS), maar daar kon ik enkel gegevens vinden van 2003 tot 2009. Kind en Gezin houdt blijkbaar ook een database bij van van de voornamen van de baby’s die bij hen worden ingeschreven en daar is data tot 2013 beschikbaar. En aangezien Kind en Gezin bij zowat alle pasgeborenen langs komt, vermoed ik dat hun data een voldoende betrouwbaar beeld zal geven (toch voor dit soort ludieke analyses).

Welke data kon ik zo verzamelen? Voor de jaren 2003 tot en met 2012 heb ik telkens de 100 populairste jongensnamen en 100 populairste meisjesnamen en het aantal keer dat elke naam gegeven werd in dat jaar. De top 10 van de namen over het voorbije decennium ziet er als volgt uit:

jongens:

Milan     Robbe     Wout      Kobe      Lars      Thomas     Senne     Lucas     Noah      Daan

meisjes:

Emma      Julie     Marie     Lotte     Lore      Amber     Louise   Elise     Laura     Noor

Dit soort lijstjes krijgen we elk jaar wel weer ergens te lezen en velen zullen dan ook niet opkijken van het feit dat Emma de populairste meisjesnaam is. Het interessante van de analyse van Hilary Parker was echter dat ze nagaat hoe de populariteit over de jaren evolueert. Kijken we bijvoorbeel naar de evolutie van de naam ‘Emma’, dan zien we dat de populariteit ervan duidelijk gedaald is de voorbije 10 jaar:

EmmaAfbeelding

Bovenstaande linkse grafiek geeft de evolutie weer van het percentage vrouwelijke baby’s die ‘Emma’ genoemd werden. Dus: in 2003 werd meer dan 7.5% van de vrouwelijke nieuwgeborenen ‘Emma’ genoemd, terwijl dit in 2012 nog ongeveer 4.5% is. De rechtse grafiek geeft de evolutie van de populariteit van de naam ‘Arthur’ weer. De populariteit van deze naam blijft vrij constant op 3%.

Op zich is dit allemaal niet echt wereldschokkend. Maar wat mij het meest interesseerde zijn de namen die plots erg populair worden en al even snel weer verdwijnen, ééndagsnamen als het ware. Twee voorbeelden van zulke namen zie je in de grafieken hieronder:

AfbeeldingAfbeelding

De vraag die elke nieuwsgierige mens zicht dan stelt bij het zien van zo’n kortdurende piek in populariteit is wat hiervoor de aanleiding geweest kan zijn…

Deze beide namen zullen bij heel wat mensen een belletje doen rinkelen. Zelf ken ik maar één ‘Bent’ en het is die van De Slimste Mens (pun intended). En inderdaad de piek in populariteit van de naam komt vlak na zijn deelname aan de Slimste Mens (eind 2009, begin 2010). Ook de populariteit van de naam Yanaika kan gelinkt worden aan de deelname van Yanaika Skrzyszkowiak, de latere Lady Chef of the Year, aan het eerste seizoen van Mijn Restaurant (2008).

Bij zowat elke ééndagsnaam die ik bekeek, kon ik (na wat googlen) een link leggen naar een Vlaamse Showbizzfiguur (het effect lijkt zich vooral voor te doen bij beoefenaars van het lichte entertainment). Voor zij die graag nog wat hun kennis van de Vlaamse media testen, onderaan deze post vind je nog wat voorbeelden van ééndagsnamen waaraan mogelijk een mediafiguur gelinkt kan worden (helemaal onderaan doe ik een suggestie qua mogelijke link).

We kunnen dus, net zoals in de analyse van Parker in de USA, een correlatie waarnemen tussen twee fenomenen, namelijk ‘airplay’ van een naam in de media en populariteit van die naam bij de nieuwgeborenen. En dus zou het best kunnen dat de komende maanden meer Nick (-Nackje)’s dan gewoonlijk geboren worden…

(Over de (mate van) causaliteit kan en wil ik hier geen uitspraken doen. Deze post is geen wetenschappelijk onderzoek, maar fun… Zij die graag wat verder neuzen in de data: hier is een linkje.)

AfbeeldingAfbeelding

       Enora -> So You Think You Can Dance 2010                                                     Stan -> Steracteur Sterartiest 2006

AfbeeldingAfbeelding

    Iluna -> Dochtertje van Stephanie Planckaert 2005                                                Milo -> De Wet volgens Milo 2005

AfbeeldingAfbeelding

        Oona -> So You Think You Can Dance 2009                                                      Timo -> Steracteur Sterartiest 2006

AfbeeldingZita -> dochter Koen Wouters (geboren 2004)