MEGA SAMENVATTING OP2
Algemeen toetsingsschema:
1 Onderzoeksvraag en situatieschets
2 Hypothesen
3 Toetskeuze (+assumpties) en significantieniveau alpha
4 Berekening van toetsstatistiek
5 Aflezen p-waarden
6 Beslissing (vergelijking p met alpha)
7 Inhoudelijke conclusie
Algemene tekens
- Populatiegemiddelde (µ)
- Populatieafwijking (sigma)
- Steekproefgemiddelde (xstreepje)
- Steekproefafwijking (s)
- Theoretisch concept van oneindig vaak steekproeven trekken geeft de steekproevenverdeling
- Centrale limietstelling = bij grotere steekproeven en oneindig vaak trekken, gaat de steekproevenverdeling
veel lijken op een normaalverdeling
COLLEGE 1 – DESIGNS EN T-TOETSEN
Experiment heeft minimaal 1 gemanipuleerde variabele, vergelijkbare groepen en andere variabelen strikt gelijk
Subject variabele = eigenschap van participant die je niet kunt veranderen
Condities/levels = groepen binnen experiment, zoals geen, 1, 3 en 5 koppen koffie
Between subject design = experimenteel design, onderzoeken van verschil tussen 2 groepen (random assignment)
Matched pair subject design = practicanten verdelen in groepen op basis van een subject variabele, daarna
groepen random verdelen
Repeated measure design = experimenteel design waarin alle participanten alle ocndities doorlopen, zoals voor- en
nametingen om verschil tussen 2 metingen bij zelfde proefpersoon te onderzoeken, met als voordeel meer power en
minder deelnemers nodig, maar nadeel is order effects =leereffect, vermoeidheid) die met counterbalancing
uitgebalanceerd kunnen worden
→ hierbij past paired samples t-test
Independent samples t-test is voor onafhankelijke groepen (1 afhankelijke en 1 onafhankelijke variabelen met 2
categorieën) om groepsgemiddelden te vergelijken
Het heet ook wel between-subjects t-test, two sample t-test of independent test
- Onderzoeksvraag: is er een verschil in de gemiddelde … tussen groep 1 en groep 2?
- H0 = µ1 = µ2 en Ha = µ1 ≠ µ2
- Vrijheidsgraden kleinste n-1
Tip: als je twee standaarddeviaties van de twee groepen hebt, dan is het sowieso independent t-test
Paired samples t-test = dependent t-test = afhankelijke groepen (gepaarde meting, 1 afhankelijke en 1
onafhankelijke variabel) om te kijken of het gemiddelde verschil afwijkt van 0 (verschilscores)
- Onderzoeksvraag: is het gemiddelde verschil tussen meting 1 en meting 2 0?
- H0 = µd = 0 en Ha = µd ≠ 0
- Vrijheidsgraden n-1
COLLEGE 2 – NON-PARAMETRISCHE TOETSEN
Belangrijke aannames bij t-testen zijn gelijke variantie tussen de groepen, geen bijzondere outliers en normaliteit
Indien dit niet zo is, zit je er met de p-waarden naast en een oplossing is dan non-parametrisch toetsen =
statistische toets waarbij er geen aannames worden gedaan over verdeling in populatie, je laat parameters los
Nadeel is dat het minder krachtig is en verschillen minder snel worden gedetecteerd
- Voor indepedent samples t-test = Wilcoxon Rank Sum test
- Voor dependent samples t-test = Wilcoxon Signed Rank test
, Wilcoxon Rank Sum test
Sorteren van data op volgorde van klein naar groot en nummeren
Tie = als meerdere mensen zelfde waarde hebben, dan doe je die bij elkaar optellen en :2
Bijvoorbeeld drie mensen die plaats nummer 1, 2 en 3 zouden krijgen, dan doe je 1+2+3 = 6:3 = 2, dus alle drie
krijgen plaats nummer 2 en de volgende persoon krijgt dan nummer 4
W = som van de rangnummers uit één groep
Je berekent hoe groot de kans is op de gevonden rangsom (W) dat de nulhypothese waar is
Hypothesen hierbij zijn dan alleen in woorden, H0 = verdelingen zijn gelijk en Ha = verdelingen zijn niet gelijk
W heeft continuïteitscorrectie nodig omdat hij alleen heel getallen kan aannemen
Bijvoorbeeld: Is de kans op W groter dan of gelijk aan 25, is 25 eigenlijk een interval van 24.5 tot 25.5
Als je kans op W ≥ 25 wil opzoeken in de continue tabel A, met je voor W = 24.5 nemen
Wilcoxon Signed Rank test
Het berekenen van verschilscores tussen meting 1 en meting 2 en die uitslagen ga je vervolgens ranken
- We gaan er vanuit dat als gepaarde metingen uit dezelfde populatie komen, dan zal de som van de rangen
van absolute verschilscores die kleiner zijn dan 0 gelijk zijn aan de som van de rangen die groter zijn dan 0
- Als iemand 0 scoort, dus zelfde score op meting 1 en meting 2, dan valt die weg en neem je die niet mee in
ranking
- Sommige mensen komen op – uit, want die scoorde hoger op meting 1 dan op meting 2 en sommige mensen
komen op + uit want die scoren hoger op meting 2 dan op meting 1
- Dus: je neemt een plusgroep en een mingroep en als we de rangnummers optellen in beide groepen, zouden
die twee sommen ongeveer hetzelfde moeten zijn
W = som van de rangen van de positieve verschilscores
Hypothesen hierbij zijn dan alleen in woorden, H0 = verdelingen zijn gelijk en Ha = verdelingen zijn niet gelijk
Effectgrootte en significantie zegt niets over de praktische relevantie
Cohen’s d = Standardized Mean Difference = mate van niet-overlap in twee verdelingen, dus hoe groter d hoe
groter het niet-overleg gebied, 0 is perfecte overlap
d standaardiseert door het delen door een pooled variantie, zie in de formule
Er zijn algemene afspraken voor d:
- d = <0.2, dan is het niet interessant
- d = 0.2, dan is er een klein effect
- d = 0.5, dan is er een medium effect
- d = 0.8 of groter, dan is er een groot effect
COLLEGE 3 – ONE WAY ANOVA EN KRUSKAL WALLIS
ANOVA = Analysis Of Variance = variantieanalyse, S2 is de variantie
ANOVA wordt gebruikt voor meer dan 2 groepen met 1 categorische variabele en 1 numerieke variabele
Inhoudelijk is het meerzijdige toets, maar technisch altijd eenzijdig want je kunt niet onder 0
- Als er een significant verschil is tussen de groepen, dan is de variantie tussen de groepen groter dan de
variantie binnen de groepen
- Hoe groter het verschil tussen de groepen ten opzichte van het verschil binnen de groepen, hoe groter het
verschil dat je verwacht in de populatie
- Als er geen verschil is tussen de populatiegemiddelden, dan is de variantie tussen de groepen vergelijkbaar
aan de variantie binnen de groepen, dus de verschillen tussen groepsgemiddelden zullen door hetzelfde
toeval worden veroorzaakt als verschillen tussen individuen