HC 1
Vormen van steekproeftrekking:
– Simple random sampling:
Elke element in de populatie heeft dezelfde kans om in de steekproef terecht te komen.
– Stratified sampling:
De populatie wordt opgedeeld in strata (geslacht, leeftijd, etc.); binnen elk stratum
wordt een volledig aselecte steekproef getrokken.
– Convenience sampling:
De steekproef bestaat uit de diegene die voorhanden zijn (bijvoorbeeld aanwezigen in de
kantine, eerstejaarsstudenten psychologie).
Belief in the Law of Small Numbers: denken dat de steekproef heel representatief is voor de
populatie.
Voor MTO-D maken we onderscheid tussen:
– Categorische variabelen: geslacht, type opleiding, experimentele conditie,
diagnose, sociale klasse, etc.
– Kwantitatieve variabelen: leeftijd, IQ scores, NEO-PI scores, tentamencijfers,
scores op een depressievragenlijst, etc.
Pearson’s Correlatie Coëfficiënt:
• Maat voor lineaire samenhang
• Notatie: ρ = correlatie in de populatie; r = correlatie in de steekproef
• −1 ≤ r ≤ 1
• r = 0 betekent: er is geen lineaire samenhang; maar misschien is er wel sprake
van niet-lineaire samenhang!
,Toetsen van de correlatiecoëfficiënt: Inferential statistics:
1. H0 : ρ = 0 tegen H1 : ρ ≠ 0.
SPSS geeft standaard de p-waarde (overschrijdingskans) van deze toets.
2. H0 : ρ = c tegen H1 : ρ ≠ c.
– c is een getal tussen −1 en 1, maar niet 0
– Met behulp van Fisher Z-transformaties & Z-toets
– Niet beschikbaar in SPSS
NB: Je moet weten in welke situatie je welke van de twee toetsen gebruikt, de toetsingsgrootheid
t kunnen berekenen (formule wordt gegeven), en de uitkomsten ervan correct kunnen interpreteren.
P-waarde:
– De p-waarde is de kans op de gevonden
data (r) of nog extremer (nog verder bij
0 vandaan), gegeven dat H0 (ρ = 0) waar
is.
– Bepaal een significantie niveau (meestal
5% of α = 0.05). Wanneer p < α, verwerp H0
Betrouwbaarheidsintervallen voor de correlatiecoëfficiënt:
Crit.Val = de kritische waarde die afhangt van de gewenste zekerheid;
SE(r) = de standaardfout van r (variatie in steekproefwaardes van r als je steeds nieuwe
steekproeven van N uit dezelfde populatie zou trekken).
CIs voor correlaties zijn niet symmetrisch, dat wil zeggen dat de steekproefwaarde r niet precies in
het midden van het CI ligt (komt door gebruik van Fisher transformaties).
Definitie: Wanneer we het experiment keer op keer herhalen, bevat het 95%
betrouwbaarheidsinterval in 95% van de gevallen de echte waarde (bijv: μ of ρ).
Interpretatie: Op basis van de gevonden data is dit de meest waarschijnlijke range waarbinnen de
echte waarde zal liggen.
Belang: Geeft de onzekerheid rondom de puntschatter (bijv M of r) weer.
,Aannames bij het toetsen van Correlatiecoëfficiënt:
1. Onafhankelijk van elkaar gekozen personen
Men spreekt ook wel van onafhankelijkheid van observaties; deze aanname wordt
bijvoorbeeld geschonden wanneer leerlingen uit dezelfde klas deelnemen aan een
onderzoek
2. X en Y zijn bivariaat normaal verdeeld; de puntenwolk heeft de vorm van een sigaar.
3. X en Y zijn lineair gerelateerd; de punten in de puntenwolk liggen rondom een rechte lijn.
4. De spreiding van X gegeven Y is hetzelfde voor elke Y; dit is de aanname van homoscedasticiteit
(zie lineaire regressie).
Power en kanskapitalisatie
– Bij grotere N, wordt het betrouwbaarheidsinterval kleiner en de power neemt toe.
Power is de kans om H0 te verwerpen gegeven dat H1 waar is.
– Om kleinere effecten (ρ is klein) aan te tonen, is een grotere N nodig.
Doe vooraf een poweranalyse!
N > 100 (om aannames te checken en de invloed van outliers is kleiner).
Let op beperkte spreidingsbreedte of extreme groepen.
– Wanneer meerdere correlaties tegelijk gerapporteerd worden, neemt de kans op een Type I fout
(onterecht verwerpen van H0) toe.
Cross-validatie
Bonferroni-correctie
= slechts hulpmiddel: de samenhang is
zwak, matig of sterk hangt af van de
specifieke toepassing/onderzoeksveld
Gekwadrateerde Correlatie:
Samenhang tussen X en Y betekent dat je Y kunt voorspellen uit X (en andersom)
Voorbeeld: Stel “Aantal uren leren” en “tentamencijfers” correleren 0.40 →
0.42 = 0.16 (16%) van de verschillen in tentamencijfers kan worden verklaard
door verschillen in de mate van voorbereiding.
, “Verklaringen” voor de gevonden samenhang tussen X en Y:
HC 2
Enkelvoudige Lineaire Regressieanalyse:
Het lineaire enkelvoudige regressiemodel:
– Lineair (= rechtlijnig) verband tussen Y en X
– Lineair verband betekent dat we Y kunnen voorspellen uit X met een lineaire functie:
Hierin is: Y’ de voorspelde waarde voor Y, gegeven X
b0 het intercept; voorspelde waarde (Y’) wanneer iemand 0 op X scoort
b1 de regressiecoëfficiënt: de verandering in Y’ wanneer X met één eenheid toeneemt
(= de hellingshoek van de lijn)
NB: b0 en b1 worden de parameters van het model genoemd.
Voorbeeld:
Met regressieanalyse zoek je de de best passende rechte lijn waarmee je Y zo goed mogelijk kunt
voorspellen uit X.