Statistiek 3 les 1 06/02/2024
Statistical methods help us determine the factors that explain variability among subjects.
Voorbeeld – piekeren. Stel je hebt een instrument waarbij je de mate van piekeren kan meten, hoe
hoog scoort iemand? Je verwacht niet dat iedereen gelijk scoort, er is variatie. De ene persoon
piekert meer dan de ander, dus de worry-scores zijn niet voor iedereen gelijk. Dit betekent dat het
een variabele is, de waarden/uitkomsten (kunnen) variëren per persoon. Waarom piekert de een
meer dan de ander? Waarom variëren deze scores? We willen verklaren waarom de scores variëren
en welke factoren iets vertellen over de mate van variatie in die scores. Dus: kunnen we (een deel)
van deze variantie in worry-scores verklaren? Heeft dit bijv. te maken met geslacht, leeftijd,
gezondheid, etc.
Als je in kaart hebt gebracht wat je allemaal wilt meten, dan moet je bedenken wat het doel van je
onderzoek is. Er zijn verschillende mogelijkheden, onder andere:
- Beschrijven van de gegevens
o Descriptive statistics, plots (hoe beschrijf je een bepaalde groep)
- Zo goed mogelijk voorspellen
o Artificial intelligence, machine learning, wanneer en of iemand zal terugvallen in een
depressie
- Beantwoorden van een vooraf opgestelde onderzoeksvraag
o Inferential statistics, focus statistiek 3
Onderzoeksdesign. Beantwoorden van een vooraf opgestelde onderzoeksvraag. Je kan veel
verschillende vragen bedenken. Je moet nadenken over hoe je de variabelen gaat meten (=
operationalisatie). De wijze waarop je de variabelen meet bepaalt welke statistische methodes
gebruikt kunnen worden.
Stel je wilt kijken de relatie tussen het geslacht en de worry-score en je kiest ervoor om twee
groepen te bekijken, mannen en vrouwen. Dan zijn er verschillende statistische methodes die je kan
gebruiken om te kijken naar de verschillen in de worry-scores tussen mannen en vrouwen. Namelijk:
- Two sample t
- ANOVA (two groups)
- Simple linear regression with 1 dummy to indicate gender (2 groups)
Als je deze methoden gebruikt dan vind je exact dezelfde uitkomsten, dit zijn dus equivalente
methoden. Stel dat je dit niet met 2 groepen wilt meten, maar bijv. met 3 groepen. Welke
statistische methoden kunnen we gebruiken?
- Two sample t
- ANOVA (3 groups)
- Multiple linear regression with 2 dummy’s to indicate gender (3 groups)
Stel je wilt nu kijken naar of er een verband is tussen de worry-score en hoeveel kinderen je hebt.
Stel je doet dit met 4 verschillende categorieën, welke statistische methoden kan je gebruiken?
- Two sample t
- ANOVA (4 groups)
- Multiple linear regression with 3 dummy’s to indicate number of children (4 groups)
Als we kijken naar het effect van leeftijd en we doen dit met een continue variabele van leeftijd, dan
kunnen we two sample t en ANOVA niet gebruiken omdat we veel te veel groepen hebben. Dan
kunnen we de simple linear regresssion met 1 continuous predictor gebruiken ( groups).
,Het maakt dus uit hoe je de variabele meet, voor welke techniek je kan gebruiken.
Dit zijn altijd lineaire modellen (linear regression). Een linear model (simple linear model, multiple
linear model) is mogelijk voor al deze genoemde situaties.
Statistiek gaat om het ontwikkelen en evalueren van modellen. Een model is niks anders dan een
weergave/representatie van de realiteit. Een model past nooit perfect. We proberen de belangrijke
zaken (essentie) te vatten in het model, en de niet belangrijke zaken (ruis, error, residu) buiten
beschouwing laten. Lineaire modellen zijn hierin erg belangrijk omdat ze erg veelzijdig zijn.
The foundation of statistics is models
The foundation of all models is the linear model y = b0 + b1x1 + b2x2 + … + e
Statistics is the process of building and evaluating models
Statistiek is er niet goed in om vast te stellen of een model goed past (model fit), maar het is er wel
goed in om vast te stellen welk van twee modellen beter past (nested models).
Model comparison approach. Alle traditionele tests (t-tests, ANOVA, regression) kunnen
herschreven worden als model comparison. Een voordeel hiervan is dat model comparison meer kan
dan de traditionele tests en het voorkomt bovendien P-hacking.
Idee van model comparison: we fitten twee verschillende (nested) modellen en vergelijken die met
elkaar. Nested model = all terms of a smaller model are also included in a larger model. Dus er is een
kleiner model, die bevat alle termen die ook in het grotere model zitten.
- Model 1: y = b0 + b1x1
- Model 2: y = b0 + b1x1 + b2x2
Dan kunnen we ons afvragen: hoeveel verbetert de fit als ik b 2x2 toevoeg aan het model, bovenop dat
wat er al in het model zit? Is het de moeite waard om de extra voorspeller(s) te behouden? Je maakt
het model hierdoor complexer, weegt de verbeterde fit op tegen de extra complexiteit van het
model? Is het alle moeite en toestanden waard?
Model comparison approach – voorbeeld piekeren. Hoe kunnen we de traditionele tests die we al
kennen herschrijven als model comparison? We beschouwen 4 variabelen waar we naar kijken
(geslacht, leeftijd, ouder, leeftijd oudste kind).
Model comparison – wordt de variatie in worry-scores verklaard door verschillen in geslacht? Je gaat
jezelf eerst afvragen of de gemiddelde worry-scores anders zijn voor mannen/vrouwen. Dit is een
opsplitsing in twee verschillende groepen. Je kunt dit dus testen met: two sample t, ANOVA (two
groups), simple linear regression with 1 dummy to indicate gender (two groups), OF we kunnen dit
herschrijven met de model comparison approach.
- Model 1: y = b0
- Model 2: y = b0 + b1gender
In model 1 zit niks, in model 2 zit de informatie van gender. Dit linken we aan de regressie
coëfficiënt b1. Dan kunnen we zien of er een effect is van gender op de gemiddelde worry score.
Stel dat we nu willen controleren voor geslacht. Dus we gaan binnen de groep vrouwen/mannen
onderzoeken of leeftijd van invloed is op de mate van piekeren. Dus stel we weten iemands geslacht,
verklaren verschillen in leeftijd dan verschillen in worry-scores? Dan controleer je voor geslacht. Dit
kun je analyseren met het multiple regression model of met ancova, maar je kant dit ook weer doen
met de model comparison approach. Dan vergelijk je weer 2 modellen. In het eerste, eenvoudigste
model zit de variabele waarvoor je wilt controleren (in dit geval gender).
, - Model 1: alleen info van gender y = b0 + b1gender
- Model 2: info van gender en age y = b0 + b1gender + b2age
We kunnen onszelf afvragen welk model beter is. Als dat 2 is, dan heeft leeftijd een extra effect.
We kunnen het ook andersom bekijken en controleren voor leeftijd. Stel we weten iemands
leeftijd, verklaren verschillen in gender dan de verschillen in worry-scores? Dit kunnen we testen met
het multiple regression model, ancova, of met model comparison. Dan zit in het eenvoudigste
model alleen leeftijd, en in model 2 beiden. Dan krijg je dus twee andere modellen.
- Model 1: y = b0 + b1age
- Model 2: y = b0 + b1age + b2gender
Stel dat we iemands leeftijd en gender weten, verklaren verschillen in of iemand kinderen heeft
(yes/no) en de leeftijd oudste kind dan verschillen in worry-scores? Hierbij controleer je dus voor
zowel geslacht als leeftijd. Dit kan je niet meer testen met de traditionele tests. Je kan testen of b parent
= 0, ook kan je testen of bage child = 0 maar je kan niet testen of beiden tegelijkertijd gelijk zijn aan 0.
Maar dit kan je wel doen als je dan de model comparison methode gebruikt, dan zit in het
eenvoudigste model age en gender, en in het tweede model zitten alle 4 de variabelen.
- Model 1: Yy = b0 + b1age + b2gender
- Model 2: Yy = b0 + b1age + b2gender + b3parent + b4agechild
Model comparison voorkomt p-hacking, want als we op deze manier de onderzoeksvraag aan
vliegen, kan je je niet laten verleiden tot het uitvoeren van heel verschillende tests. Je doet
slechts 1 test en je kijkt naar 1 p-value.
P-value = probability of obtaining test results at least as extreme as the result actually observed,
under the assumption that the null hypothesis is correct (assuming samples of the same fixed size,
drawn from the same population). Wat is de kans dat we iets vinden zoals in het onderzoek of
extremer, als de H0 waar is? Als deze kans klein is, dan is het waarschijnlijker dat de nulhypothese
gebrekkig was en nemen we afstand ervan. Als de p-value groot is, dan kan alles en weten we niks.
Het gebruik van p-values in de praktijk is vaak slordig. Je moet strenge regels volgen om p-values te
kunnen toepassen en interpreteren.
1. Je mag een p-value maar 1 keer berekenen (tenzij je een of andere aanpassing of correctie
maakt zoals Bonferonni).
2. Er moet voldaan zijn aan de assumpties.
3. Je moet de steekproefgrootte vooraf specificeren.
Het is het goed om jezelf aan te wennen om zo min mogelijk p-values te gebruiken.
P-hacking = het uitvoeren van heel veel statistische tests op dezelfde data en alleen die resultaten
vermelden die significant zijn. Gangbare output nodigt uit tot P-hacking elke parameter heeft bijv.
een toets en dus ook een p-value. Het is verleidelijk om in te zoomen op die p-values, doe dit niet.
Bovendien vertellen p-values ons niets nuttigs: alleen of er wel of niet een effect is, maar niks over de
grootte van het effect. Dus, p-values kan je beter niet gebruiken, maar wat dan wel?
Hoe groot is het effect?
1. Estimation: kijk naar gemiddelden, standaarddeviaties, correlaties, effect sizes, Cohen’s d en
CI’s (eventueel met (Bonferroni) correctie).
2. Graphical analysis
3. Model comparison: soms ook met p-values, maar dan is het er slechts 1.
4. Bayesian statistics: (beperking: ease of use)
Hiermee krijgen we informatie over hoe groot het effect is, dat is precies wat we willen weten.
, Statistiek 3 les 2 13/02/2024
Herhaling: je moet niet te veel naar p-values kijken want die vertellen je niet wat je wilt weten. Je
kan beter andere strategieën hanteren, door bijv. zinvolle plaatjes (graphical analysis) te gebruiken
maar het kan ook door te gaan schatten (estimation). Je kan ook een model comparison doen.
Eventueel kan je ook een bayesiaanse methode toepassen maar dit bespreken we niet.
Wat willen we eigenlijk onderzoeken? We willen vaak onderzoeken hoe de samenhang/associatie
tussen verschillende (twee of meer) variabelen in elkaar steekt. We willen deze relatie beschrijven en
onderzoeken, en dit willen we onderbouwen met evidentie (bewijs).
Associatie onderzoeken met simple linear regression
Doel – onderzoeken en beschrijven van associatie/relatie tussen twee kwantitatieve variabelen (dit
betekent dat je betekenisvolle gemiddelden kan berekenen). Als we beginnen met het beschrijven
van de associatie, dan kunnen we gebruik maken van descriptive tools:
- Scatterplots grafische weergave van relatie tussen 2 kwantitatieve variabelen
- Correlatie berekenen maat die de richting en sterkte weergeeft van de lineaire relatie
tussen 2 kwantitatieve variabelen
- Regressielijn opstellen samenvatting van de relatie tussen 2 kwantitatieve variabelen: de
ene helpt de andere te verklaren/voorspellen.
Vervolgens kunnen we gebruik maken van inferential tools, hiermee kunnen we BHI’s opstellen voor
de helling/slope parameter (indicatie van het effect van de explanatory variabele op de response
variabele). Een significantie toets kunnen we ook uitvoeren voor de slope parameter, maar hierbij
kun je alleen te weten komen of er wel/niet een effect is, niet hoe groot het effect is.
Simple linear regression bivariate data: twee kwantitatieve variabelen gemeten bij dezelfde cases
- Y dependent/response/outcome variabele (DV)
- X independent/explanatory/predictor variabele (IV)
Veranderingen in de x variabele leiden tot veranderingen in de y variabele.
Concept: simple linear regression
1. Maak een scatterplot van je bivariate data met y op de verticale as en x op de horizontale as.
2. Teken een rechte lijn door de puntenwolk die zo goed mogelijk past wat houdt zo goed
mogelijk precies in? Probeer de lijn zo goed mogelijk te tekenen in verticale richting. We
kijken naar de verticale afstanden tussen de waargenomen scores y en de voorspelde scores
y, dit zijn de residuen (prediction errors). Deze proberen we te minimaliseren OLS.
3. Stel de vergelijking van deze rechte lijn op y = b0 + b1x. De helling/slope is b1 en het
intercept is b0. Er zijn formules om deze te berekenen. b 1 is interessant, deze geeft aan
hoeveel y stijgt als x met 1 toeneemt. We zijn dus geïnteresseerd in de helling. We kunnen
deze berekenen met een BHI en een significantietoets. Je kan een BHI opstellen om de
grootte van het effect te onderzoeken.
Formules (OLS-methode):
Inferential tools:
- Betrouwbaarheidsinterval om de grootte van het effect te onderzoeken
o BHI voor slope parameter 1:
- Significantietoets om te toetsen of er wel/geen effect is
o Test statistic die toetst of 1 = 0:
SE(b1) = standard error van b1, te vinden in de output.