De informaticus en filosoof Judea Pearl laat zien dat we slechter zijn in causaal redeneren dan we denken. Hij ontwikkelde een wiskundig raamwerk om dat te verhelpen. Pearls werk heeft de epidemiologie al ingrijpend veranderd: causale diagrammen zijn daar inmiddels een standaardvereiste in toptijdschriften. In de economie en de kunstmatige intelligentie groeit zijn invloed ook gestaag. De psychologie — een discipline die voortdurend causale claims wil doen maar daar methodologisch slecht op is toegerust — begint zich langzaam te openen voor diezelfde ideeën.
Van correlatie naar oorzaak (zonder experiment)
De hele moderne statistiek is gebouwd op correlatie. Het mantra correlation is not causation kent iedereen — het wordt in elke methodecursus herhaald. Maar vóór Judea Pearl had niemand een bevredigend formeel systeem om van dat inzicht naar een oplossing te komen. De statistiek zei in feite: zonder experiment geen causaliteit. En dus bleef er voor onderzoekers die met observationele data werkten — dat wil zeggen: data uit vragenlijsten, peilingsonderzoek, longitudinale studies, kortom alles behalve gerandomiseerde experimenten — een ongemakkelijke kloof bestaan. Ze wilden causale vragen beantwoorden, maar hun methoden lieten dat officieel niet toe. Pearl, informaticus aan UCLA, ontwikkelde vanaf de jaren negentig een wiskundig raamwerk dat die kloof overbrugt. De kern is helder. De klassieke statistiek zegt: je hebt een experiment nodig om causaliteit vast te stellen. Pearl zegt: je hebt iets extra’s nodig naast je data, maar dat hoeft geen experiment te zijn — het kan ook kennis zijn. Kennis over hoe de wereld in elkaar zit.
Het causale diagram als startpunt
Dat “extra” is het causale diagram: een zogenoemde directed acyclic graph (DAG), een gerichte acyclische graaf. Dat klinkt technisch, maar het idee is eenvoudig. Een graaf is een wiskundig object met knopen (punten) en pijlen (lijnen met een richting). In Pearls raamwerk zijn de knopen variabelen en de pijlen causale relaties. “Gericht” betekent dat de pijlen een richting hebben: A veroorzaakt B, niet andersom. “Acyclisch” betekent dat er geen cirkels in mogen zitten — je kunt de pijlen niet in een kring volgen. Het belangrijke punt: het causale diagram is geen uitkomst van je analyse. Het is je startpunt. Het diagram vertegenwoordigt wat je al weet — of aanneemt — over de causale structuur van het probleem dat je onderzoekt. Die aannames moeten expliciet zijn. En dát is precies wat het raamwerk zo krachtig maakt: het dwingt je om je aannames bloot te leggen, en vervolgens rekent het formalisme uit wat je gegeven die aannames wel en niet kunt concluderen uit je data.
Het roken-voorbeeld
Het centrale voorbeeld in Pearls boek The Book of Why is de vraag die de epidemiologie decennialang bezighield: veroorzaakt roken longkanker? In de jaren vijftig was het verband tussen roken en longkanker inmiddels duidelijk zichtbaar in de data. Maar de beroemde statisticus Ronald Fisher bestreed de causale interpretatie. Zijn argument: misschien bestaat er een genetische aanleg die zowel het verlangen naar nicotine als de kwetsbaarheid voor longkanker veroorzaakt. In dat geval is de correlatie tussen roken en kanker een schijnverband, veroorzaakt door een onderliggende derde variabele. Een experiment was onmogelijk — je kunt mensen niet twintig jaar dwingen om te roken. Maar de observationele data alleen konden Fishers argument niet weerleggen. Met Pearls aanpak begin je door je causale aannames expliciet te tekenen in een diagram:
In dit diagram staat elke pijl voor een verondersteld causaal verband. De genetische aanleg beïnvloedt zowel roken als longkanker — dat is Fishers argument. Maar er is ook een directe pijl van roken naar longkanker — de vraag is of dat verband echt bestaat. De genetische aanleg is hier wat onderzoekers een confounder noemen (in het Nederlands ook wel een verstorende variabele): een variabele die zowel de veronderstelde oorzaak als de uitkomst beïnvloedt en daardoor een schijnverband kan creëren.
Wat Pearls aanpak vervolgens doet
Pearls do-calculus neemt zo’n diagram als invoer en stelt één precieze vraag: is er, gegeven de structuur van dit diagram en de data die we hebben, een strategie om het causale effect van roken op longkanker te isoleren — ondanks de verstorende genetische aanleg die we niet kunnen meten? In dit geval is het antwoord ja — en de redenering is elegant. Stel dat teerafzetting in de longen een tussenstap is: roken veroorzaakt teerafzetting, en teerafzetting veroorzaakt kanker. En stel dat de genetische aanleg géén directe invloed heeft op teerafzetting — genen veroorzaken geen teer in je longen; alleen roken doet dat. Het uitgebreide diagram ziet er dan zo uit:
Nu kun je het probleem in twee stappen oplossen.
- Stap 1: Veroorzaakt roken teerafzetting? Hier speelt de genetische aanleg geen verstorende rol. Genen beïnvloeden of je gaat roken, maar ze veroorzaken niet rechtstreeks teer in je longen. De relatie tussen roken en teerafzetting is dus “schoon” — niet vervuild door de confounder. Uit de data kun je dit verband zuiver schatten.
- Stap 2: Veroorzaakt teerafzetting longkanker? Hier is er wél een complicatie: rokers hebben meer teer én mogelijk een hogere genetische kwetsbaarheid. Maar voor roken kun je wél controleren — dat is meetbaar. Je vergelijkt dus mensen met veel en weinig teer die even veel roken. Daarmee elimineer je de verstorende invloed van roken (en indirect van de genen) op dit verband.
Als je beide stappen combineert — het effect van roken op teer, en het effect van teer op kanker — heb je het causale effect van roken op kanker geschat. Zonder de genetische aanleg ooit te hebben gemeten. Pearl noemt dit het front-door criterium: je gaat niet om de confounder heen via de achterdeur (door ervoor te controleren), maar via de voordeur — via de tussenstap die het causale pad vormt.
Dit is de kern van Pearls inzicht: het diagram vertelt je welke strategie werkt. Soms is dat controleren voor een verstorende variabele. Soms is dat een omweg via een tussenstap. En soms is het eerlijke antwoord: met deze data is de vraag niet te beantwoorden, omdat er geen strategie bestaat die de confounder elimineert. Juist dat — weten wanneer je iets niet kunt concluderen — is minstens zo waardevol als weten wanneer je dat wel kunt.
Zien versus doen
De kern van Pearls bijdrage zit in één onderscheid: het verschil tussen zien dat iets gebeurt en doen dat iets gebeurt. In zijn notatie: P(Y|X) — de kans op Y gegeven dat we X waarnemen — is fundamenteel iets anders dan P(Y|do(X)) — de kans op Y als we X bewerkstelligen. Wanneer we waarnemen dat mensen die roken vaker longkanker krijgen, zien we een verband. Maar dat verband kan door confounders worden veroorzaakt. Wanneer we zouden ingrijpen en een willekeurige groep mensen laten roken, verbreken we de band tussen roken en genetische aanleg — de confounder verdwijnt. Maar zo’n experiment zou uiteraard ethisch onverantwoord zijn. De do-calculus formaliseert precies wanneer je van het ene (waarnemen) naar het andere (ingrijpen) kunt redeneren zonder daadwerkelijk in te grijpen, en op basis van welke aannames.
De do-calculus tovert niet iets uit niets. Het punt is subtieler: met expliciete aannames over de causale structuur kun je soms causale conclusies trekken uit data die op zichzelf alleen correlaties bevatten. En soms concludeert het formalisme dat het niet kan. Beide uitkomsten zijn waardevol.
Soms maakt controleren het erger: het collider-probleem
Een van de meest tegenintuïtieve inzichten uit Pearls raamwerk is dat het meenemen van een variabele in je analyse je schatting soms slechter maakt in plaats van beter. In de standaard methodologische opleiding leren onderzoekers: controleer voor zoveel mogelijk variabelen, dan wordt je schatting zuiverder. Maar dat is niet altijd waar. Het probleem ontstaat bij een zogenoemde collider (een term waarvoor geen gangbare Nederlandse vertaling bestaat). Een collider is een variabele die het gevolg is van twee andere variabelen.
Een eenvoudig voorbeeld maakt het mechanisme helder. Stel dat zowel muzikale vaardigheid als een opvallend uiterlijk de kans vergroten om beroemd te worden. Beroemdheid is dan een collider — het wordt veroorzaakt door twee afzonderlijke factoren. Als je nu alleen naar beroemde mensen kijkt (je “controleert” voor beroemdheid), ontstaat er een schijnverband: beroemde mensen die er niet opvallend uitzien, zijn waarschijnlijk wél uitzonderlijk goede muzikanten, en omgekeerd. Het lijkt alsof muzikale vaardigheid en uiterlijk negatief samenhangen — maar dat verband bestaat alleen doordat je de steekproef hebt beperkt tot de collider.
Hetzelfde mechanisme speelt in onderzoek. In het roken-voorbeeld: stel dat ziekenhuisopname wordt beïnvloed door zowel roken als longkanker. Als je alleen naar mensen in het ziekenhuis kijkt, vergelijk je een vertekende steekproef. Niet-rokers in het ziekenhuis zijn daar om andere ernstige redenen, waardoor het kan lijken alsof niet-roken óók geassocieerd is met kanker. Door te controleren voor ziekenhuisopname heb je een verband gecreëerd dat er in de hele populatie niet was.
Vóór Pearl was er geen formele manier om te bepalen wanneer controleren helpt en wanneer het schaadt. Onderzoekers moesten op intuïtie varen, en die intuïtie was vaak verkeerd. Pearls raamwerk biedt voor het eerst een principieel antwoord: teken je causale diagram, en de regels vertellen je precies welke variabelen je moet meenemen (confounders, zoals de genetische aanleg in het roken-voorbeeld), welke je juist niet mag meenemen (colliders, zoals ziekenhuisopname), en welke het afhangt van de vraag die je stelt (mediatoren, zoals teerafzetting).
De ladder van causaliteit
Pearl ordent causaal redeneren in drie niveaus, die hij de ladder van causaliteit noemt:
- Het eerste niveau is associatie: patronen zien in data. Wat gaat waarmee samen? De meeste statistiek opereert op dit niveau.
- Het tweede niveau is interventie: wat gebeurt er als ik iets doe? Als ik iedereen aspirine geef, daalt dan de koorts? Dit is het niveau van het experiment.
- Het derde en hoogste niveau is contrafactueel redeneren: wat zou er zijn gebeurd als het anders was gelopen? Als de patiënt het medicijn wél had gekregen, was ze dan genezen?
Het is een ladder omdat elk niveau strikt meer vereist dan het vorige en niet reduceerbaar is tot het vorige. Je kunt vanuit correlaties alleen niet berekenen wat een interventie zou opleveren. En je kunt vanuit interventie-kennis alleen niet berekenen wat er in een specifiek individueel geval zou zijn gebeurd. Dat derde niveau — contrafactueel redeneren — is bijzonder relevant. Bijna elke keer dat we “omdat” zeggen in het dagelijks leven, doen we aan contrafactueel redeneren: “Hij zakte omdat hij niet had gestudeerd” impliceert dat hij zou zijn geslaagd als hij wél had gestudeerd. Contrafactueel redeneren is essentieel voor morele en juridische verantwoording, voor klinische beslissingen, en voor echt begrip van waarom dingen gebeuren.
Wat sommige wetenschapsdisciplines al doen
Pearls raamwerk is geen abstracte filosofie die in de marge van de wetenschap opereert. In meerdere disciplines heeft het de manier van werken al merkbaar veranderd.
- In de epidemiologie is de doorwerking het verst gevorderd. De DAG is inmiddels een standaardvereiste in veel toptijdschriften. Wanneer epidemiologen willen vaststellen of een risicofactor ziekte veroorzaakt — veroorzaakt luchtvervuiling astma? veroorzaakt obesitas diabetes? — moeten ze hun causale aannames expliciet maken in een diagram. Miguel Hernán en James Robins van Harvard hebben Pearls raamwerk vertaald naar concrete richtlijnen voor medisch onderzoek. Hun leerboek Causal Inference: What If is gratis beschikbaar en wordt wereldwijd gebruikt. Het resultaat: helderder denken over wat je kunt concluderen uit observationele gezondheidsdata, minder schijnverbanden die als bewijs worden gepresenteerd, en betere richtlijnen voor klinische beslissingen.
- In de economie bestaat er een vruchtbare spanning tussen twee tradities: het potential outcomes-raamwerk van Donald Rubin en Guido Imbens (die in 2021 de Nobelprijs ontvingen) en Pearls graafmodellen. Wiskundig zijn ze vaak equivalent, maar Pearl claimt dat zijn raamwerk transparanter is omdat het aannames zichtbaar maakt in diagrammen. De economische “geloofwaardigheidsrevolutie” — de verschuiving naar strenger causaal onderzoek met natuurlijke experimenten en instrumentele variabelen — put uit dezelfde bron.
- In de kunstmatige intelligentie is een groeiend deelveld ontstaan onder de naam causal machine learning, dat direct voortkomt uit Pearls werk. Onderzoekers als Bernhard Schölkopf (Max Planck Instituut) werken aan AI-systemen die niet alleen patronen herkennen maar ook causale structuren leren, met toepassingen in onder meer eerlijkheid en transparantie van algoritmen.
Hoe de psychologie met causaliteit omgaat
De psychologie bevindt zich in een eigenaardige positie. Het is een discipline die overwegend correlationeel werkt, maar voortdurend causale claims wil doen. Tot nu toe had de psychologie in wezen twee opties. De eerste: eerlijk zijn en zeggen “we kunnen geen causaliteit claimen.” Dat is wat methodologen prediken, maar wat onderzoekers zelden werkelijk doen. De tweede: experimenten uitvoeren. Dat is duur, tijdrovend, en de resultaten zijn vaak ecologisch invalide — wat je in het lab vindt, geldt niet noodzakelijk in het echte leven. Wat de psychologie in de praktijk doet, is iets anders dan beide opties. Er bestaat een merkwaardig ritueel. Onderzoekers gebruiken methoden die eruitzien als causale modellen — structurele vergelijkingsmodellen (SEM) met pijlen tussen variabelen, padanalyses, mediatie-analyses — en ze rapporteren hun bevindingen in causale taal: “effect”, “leidt tot”, “pad van A naar B.” Maar ergens in de methodesectie staat een disclaimer: “De cross-sectionele aard van het onderzoek staat geen causale conclusies toe.” Vervolgens worden de resultaten tien pagina’s lang besproken alsof die disclaimer er niet stond.
Pearl is hier zeer kritisch over. In zijn hoofdstuk in het Handbook of Structural Equation Modeling (2012) beschrijft hij hoe SEM-onderzoekers onder druk van critici causale taal zijn gaan vermijden en termen als “causaal modelleren” zijn gaan beschouwen als een verouderd etiket. Dat is ironisch, omdat de uitvinder van de methode — de geneticus Sewall Wright — zijn paddiagrammen bedoelde als causale diagrammen: de pijlen waren causale relaties, en de analyse was ontworpen om die relaties te kwantificeren. Ergens in de geschiedenis van de psychologie is de causale interpretatie eruit gehaald, maar de causale taal en de pijlen zijn gebleven. Het resultaat is een vreemde halfwereld: modellen die eruitzien als causale analyses, gepresenteerd worden als causale analyses, maar formeel niets meer zijn dan beschrijvingen van statistische associaties.
Julia Rohrer: pionier binnen de psychologie
Julia Rohrer van de Universiteit Leipzig is binnen de psychologie een pionier in het toepassen van Pearls inzichten. In een reeks artikelen laat zij zien hoe wijdverbreid de praktijk is: observationele studies die “effecten” rapporteren zonder dat de causale status ervan wordt gerechtvaardigd, taal die causale interpretaties oproept terwijl die officieel worden ontkend, en analyses die variabelen controleren zonder causale rechtvaardiging voor die keuze. Rohrer noemt dit het taboe op expliciete causale inferentie in de niet-experimentele psychologie: psychologen doen voortdurend aan causale inferentie, maar dan impliciet, tussen de regels door, en vaak op een manier die tot foutieve conclusies leidt.
Rohrers artikel “Causal inference for psychologists who think that causal inference is not for them” (2024) laat zien dat psychologen dagelijks causale inferentieproblemen tegenkomen — van mediatie-analyse tot ontbrekende data — en dat ze die problemen beter zouden oplossen met de gereedschappen uit Pearls traditie. In een groot overzichtsartikel in Nature Human Behaviour (2024) beschrijft een interdisciplinair team — waaronder Rohrer — de bredere uitdagingen en pleit voor triangulatie: het systematisch vergelijken van causale schattingen uit verschillende methoden en databronnen. McElreath integreert causale diagrammen in zijn invloedrijke leerboek Statistical Rethinking, dat een groeiend aantal psychologen gebruikt als alternatief voor de traditionele statistiekopleiding.
Het perspectief: een derde weg voor de psychologie
Pearls raamwerk opent voor de psychologie een derde weg — voorbij de valse keuze tussen “geen causaliteit claimen” en “een experiment doen.” De kern: met observationele data kun je causale conclusies trekken, mits je je aannames expliciet maakt en het formalisme bevestigt dat je data toereikend zijn. Wat zou dit concreet opleveren?
- Ten eerste: helderder denken. Het tekenen van een causaal diagram voor je onderzoek dwingt je om expliciete keuzes te maken. Welke variabelen beïnvloeden welke andere? Welke paden lopen er van je onafhankelijke naar je afhankelijke variabele? Waar zitten mogelijke confounders? De meeste psychologische studies maken deze keuzes impliciet — door bepaalde variabelen te controleren en andere niet, zonder uit te leggen waarom. Pearls raamwerk maakt die keuzes zichtbaar en toetsbaar.
- Ten tweede: betere analyses. Het raamwerk vertelt je niet alleen dát je moet controleren voor verstorende variabelen, maar ook welke dat moeten zijn — en welke je juist niet mag meenemen. Dat is een radicale verbetering ten opzichte van de huidige praktijk, waarin onderzoekers vaak alle beschikbare variabelen in een regressiemodel gooien in de hoop dat meer controle beter is. Soms is dat precies het verkeerde: door te controleren voor een collider of een mediator kun je je schatting vervormen in plaats van verbeteren.
- Ten derde: waardevoller gebruik van bestaande data. De psychologie beschikt over enorme longitudinale datasets die nu grotendeels correlationeel worden geanalyseerd. Met Pearls raamwerk zouden onderzoekers uit diezelfde data causale conclusies kunnen trekken die nu onmogelijk worden geacht — op voorwaarde dat ze hun causale aannames durven expliceren en het formalisme bevestigt dat de data toereikend zijn.
Als de psychologie dit raamwerk serieus zou nemen, zou het een aanzienlijk deel van de onderzoekspraktijk veranderen — van de manier waarop we studieontwerpen beoordelen, via de manier waarop we analyses uitvoeren, tot de manier waarop we resultaten rapporteren.
Waarom de psychologie nog niet is overgestapt
Als de belofte zo groot is, waarom heeft de psychologie dit raamwerk dan nog nauwelijks geadopteerd? Er zijn minstens vier verklaringen.
- Methodologische opvoeding. Psychologen worden opgeleid in ANOVA, regressie en SEM. Graaftheorie, de do-calculus en het denken in causale diagrammen maken geen deel uit van het standaardcurriculum. Het is alsof een hele discipline is opgeleid om met een hamer te werken en nu wordt verteld dat er een heel ander soort gereedschap bestaat. Dat vergt omscholing, en omscholing is traag.
- Het bedreigende karakter van de implicaties. Als je Pearls raamwerk serieus neemt, wordt zichtbaar dat veel gepubliceerde bevindingen die gepresenteerd worden als “effecten” in werkelijkheid correlaties zijn waarvan de causale status niet vaststaat. Bevindingen die in causale taal worden gerapporteerd, blijken gebaseerd op aannames die nergens worden uitgesproken. Die confrontatie is ongemakkelijk.
- Het publicatie-ecosysteem. Reviewers en editors kennen het raamwerk niet. Een onderzoeker die een DAG tekent en een do-calculus-analyse rapporteert, riskeert een review die zegt: “Dit is niet standaard.” In de epidemiologie en de econometrie bestaan invloedrijke methodologische tijdschriften die nieuwe analytische benaderingen een podium bieden; in de psychologie beloont het publicatiesysteem primair inhoudelijke bevindingen, en methodologische vernieuwing vindt moeilijker een plek.
- De wiskundige drempel. Die is reël, maar wordt overschat. De basisprincipes van causale diagrammen zijn helder uit te leggen — dat is precies wat dit artikel probeert. De gevorderde wiskunde is nodig voor de bewijzen, niet voor het gebruik. Net zoals een psycholoog ANOVA kan toepassen zonder de volledige wiskundige afleiding te beheersen, kan een psycholoog causale diagrammen tekenen en interpreteren zonder de do-calculus zelf af te leiden.
Concrete doorwerking: mindsetonderzoek en zelfdeterminatietheorie
Wat zou het opleveren als onderzoekers in concrete psychologische domeinen Pearls raamwerk gaan toepassen? Twee voorbeelden die raken aan waar wij veel over schrijven, maken dit tastbaar.
- Mindsetonderzoek — het werk van Carol Dweck en David Yeager en anderen — leunt sterk op gerandomiseerde veldexperimenten. Daar is Pearls raamwerk minder urgent, omdat randomisatie zelf al confounders elimineert. Maar het debat over waarom de interventie werkt, en bij wie, roept causale vragen op die het experiment niet beantwoordt. Via welk pad loopt het effect van een mindsetinterventie op schoolprestaties? Loopt het via inspanning? Via veranderde interpretatie van feedback? Via hulpzoekgedrag? Waar wordt het pad geblokkeerd? Een Pearliaanse benadering zou het causale model achter de interventie expliciet tekenen en toetsbaar maken. Dat zou het debat over moderatoren en heterogene effecten — een centraal thema in het huidige mindsetonderzoek — aanzienlijk verscherpen.
- De zelfdeterminatietheorie (ZDT) van Deci en Ryan is een ander geval. ZDT is overwegend correlationeel van aard, met veel SEM-gebaseerd onderzoek. Pijlen gaan van autonomieondersteuning naar autonome motivatie, van autonome motivatie naar welzijn, van competentie-ervaring naar intrinsieke motivatie. Maar die pijlen vertegenwoordigen in de huidige analyses statistische associaties, geen gegarandeerde causale relaties. Een Pearliaanse hervorming zou ZDT-onderzoekers dwingen hun pijlen als echte causale claims te behandelen — en de consequenties daarvan te aanvaarden. Welke variabelen zijn confounders? Welke zijn mediatoren? Waar kun je met observationele data causale conclusies trekken en waar niet? De confrontatie zou misschien ongemakkelijk maar waarschijnlijk vruchtbaar zijn.
Een toekomstbeeld
Stel je een psychologie voor waarin onderzoekers standaard een causaal diagram tekenen voor hun onderzoek. Niet als versiering, maar als het fundament van hun analyseplan. In de methodesectie van elk artikel staat een sectie die uitlegt welke causale aannames worden gemaakt, welke variabelen op basis van het diagram worden gecontroleerd en welke bewust niet, en onder welke voorwaarden de conclusies geldig zijn. Reviewers beoordelen niet alleen of de statistiek correct is, maar of de causale aannames verdedigbaar zijn.
In zo’n psychologie verdwijnt de rituele disclaimer. In plaats van “De cross-sectionele aard staat geen causale conclusies toe” schrijven onderzoekers: “Onder de aanname dat X, Y en Z de enige confounders zijn, schatten we het causale effect van A op B op [waarde], met als gevoeligheidsanalyse dat een ongemeten confounder van sterkte [waarde] nodig zou zijn om dit effect te elimineren.” Dat is preciezer, eerlijker, en wetenschappelijk nuttiger.
Het is ook een psychologie waarin promotieonderzoek werkelijk origineel kan zijn. Een promovendus die Pearls raamwerk toepast op een gevestigd domein — mindsettheorie, zelfdeterminatietheorie, hechtingstheorie — en de impliciete causale aannames van dat domein expliciet maakt en toetst, zou iets opleveren dat er nu niet is: een formele evaluatie van de causale architectuur van een theorie.
Verder lezen
- Pearl, J. & Mackenzie, D. (2018). The Book of Why: The New Science of Cause and Effect. Basic Books. — Het meest toegankelijke boek over Pearls werk, geschreven voor een breed publiek.
- Pearl, J. (2009). Causality: Models, Reasoning, and Inference (2e editie). Cambridge University Press. — Het technische standaardwerk.
- Hernán, M. A. & Robins, J. M. (2020). Causal Inference: What If. Chapman & Hall/CRC. — Gratis beschikbaar; de vertaling van Pearls ideeën naar epidemiologisch onderzoek.
- Rohrer, J. M. (2018). Thinking clearly about correlations and causation: Graphical causal models for observational data. Advances in Methods and Practices in Psychological Science, 1(1), 27–42. — De beste introductie van causale diagrammen voor psychologen.
- Rohrer, J. M. (2024). Causal inference for psychologists who think that causal inference is not for them. Social and Personality Psychology Compass, e12948. — Geschreven voor precies het publiek dat bereikt moet worden.
- Bailey, D. H., et al. (2024). Causal inference on human behaviour. Nature Human Behaviour, 8, 1448–1459. — Breed overzicht van uitdagingen en oplossingen vanuit meerdere disciplines.
- McElreath, R. (2020). Statistical Rethinking: A Bayesian Course with Examples in R and Stan (2e editie). CRC Press. — Invloedrijk leerboek dat DAGs integreert in de statistiekopleiding.






► Een voorbeeld van precies fouten die ik in dit artikel beschrijf, komt uit een recente studie in het British Journal of Cancer, die concludeert dat vegans 40% meer risico op colorectale kanker zouden hebben. De krantenkoppen waren voorspelbaar alarmerend. Maar als je een causaal diagram tekent, zie je onmiddellijk het probleem.
De onderzoekers corrigeerden onder andere voor BMI en diabetesgeschiedenis. Maar uit gerandomiseerde trials weten we dat een veganistisch dieet causaal leidt tot gewichtsverlies en betere diabetesmarkers. In een DAG loopt de pijl dus zo: veganistisch dieet → lager BMI → lager kankerrisico. BMI is hier een mediator — een tussenstap op het causale pad — geen confounder. Hetzelfde geldt voor diabetes. Door voor mediatoren te corrigeren blokkeer je precies het mechanisme waardoor het dieet beschermt. Het is alsof je in het rokenvoorbeeld zou corrigeren voor teerafzetting en vervolgens concludeert dat roken niet zo schadelijk is.
Zonder causaal diagram is dit onzichtbaar. Met een diagram is het onmiskenbaar. Pearl’s raamwerk zou de onderzoekers hebben gedwongen om per variabele expliciet te verantwoorden: is dit een confounder, een mediator of een collider? En het formalisme zou hen hebben verteld dat corrigeren voor een mediator het geschatte effect vervormt in plaats van zuivert.
Er speelt bovendien een tweede probleem. Toen de onderzoekers colorectale kankerdiagnoses binnen de eerste vier jaar verwijderden, verdween de statistisch significante associatie. Dat wijst op mogelijke omgekeerde causaliteit: niet “veganistisch dieet veroorzaakt kanker” maar “mensen met beginnende klachten stappen over op een plantaardig dieet.” Dat is een contrafactuele vraag — het derde niveau van Pearls ladder — die je niet kunt beantwoorden door simpelweg meer variabelen in een regressiemodel te gooien.
Het is ook veelzeggend dat andere studies tot heel andere conclusies komen. Een meta-analyse vond dat vegans een 15% lager risico op alle kankers hebben. En een studie op basis van Adventistendata uit 2025 vond een statistisch significant 25% lager totaalkankerrisico bij vegans, met een trend naar 12% lager colorectaalkankerrisico. Dat deze Britse studie zo sterk afwijkt van dat bredere beeld, is op zichzelf al reden om de methodologische keuzes kritisch te bekijken — en precies daar maakt een causaal diagram het verschil.
Dit is precies de situatie die ik in het artikel beschrijf: onderzoekers die impliciet causale keuzes maken (welke variabelen wel en niet controleren) zonder die keuzes causaal te rechtvaardigen. Een causaal diagram had deze studie scherper, eerlijker en waarschijnlijk tot andere conclusies gemaakt.
► Zie voor een goede bespreking van deze studie: https://www.youtube.com/watch?v=kNVUwiwahZQ&t=481s