Samenvatting MTO-C
Hoorcollege 1
X Y ɛ, ook wel Y=f(X, ɛ)
Ze verschillen in:
A – het meetniveau van de afhankelijke variabelen
B – het meetniveau van de verklarende/onafhankelijke variabelen
C – het aantal variabelen die de techniek aankan (complexiteit van de theorie)
Hier is interactie/moderatie effect (van X3 op X2 Y)
Ook zijn hier 3 correlaties
Afhankelijke variabele interval/ratio (kwantitatief)
4. Padanalyse
Hier zit maar 1 correlatie in, salaris is hier namelijk een afhankelijke variabele
Bij een padanalyse zijn dus 2 afhankelijke variabelen (gaat eenzijdige pijl naartoe)
Mediatie effect kun je hiermee onderzoeken
Afhankelijke variabele interval/ratio (kwantitatief)
5. Bivariate (binaire) logistische regressieanalyse
X Y (met nee en ja, categorieën)
Hierbij heeft de afhankelijke variabele dus maar 2 categorieën
Afhankelijke variabele nominaal (kwalitatief)
6. Multipele (binaire) logistische regressieanalyse
Lijkt op de multipele regressieanalyse, verschil is de Y
Hierbij heeft de afhankelijke variabele dus maar 2 categorieën
Als de variantie binnen groepen klein is (puntjes van de groepen staan dicht bij elkaar maar de
teams staan uit elkaar), dan zijn de verschillen tussen groepen/teams duidelijker te zien zie
je duidelijk de verschillende teams apart staan
Als de vraag dus gaat over een team, is dit bovenstaande scenario het fijnste (tussen teams)
1. One-Way between-subjects analysis of variance (ANOVA) – variantieanalyse
Indien er 2 of meer groepen zijn uitspraak doen over mogelijk significantie verschil
tussen de gemiddelden van de groepen
Informatie over variantie in gemiddelde score tussen groepen
Informatie over variantie van scores binnen groepen
Alle verschillen binnen een groep kunnen niet worden verklaard door verschillen
tussen groepen
Verschillen binnen groepen moeten worden toegeschreven aan systematische niet-
gemeten factoren binnen groepen (zoals verschillen tussen pers) of toevallige factoren
Verschillen tussen groepen zijn waarschijnlijk niet alleen pure tussen-groep
verschillen, maar ook verschillen tussen systematische niet-gemeten factoren of
toevallige factoren
Tussen groepen = systematisch groeps-effect + error
Binnen groepen = error
H0: µ1 = µ2 = … = µk dus alle groepsgemiddeldes zijn gelijk
H1: er verschillen op zijn minst 2 gemiddeldes van elkaar
Probleem van losse t-testjes grotere kans dat we H0 verwerpen (eenvoudiger om
uitzonderlijke resultaten te vinden, omdat het er veel zijn) terwijl deze juist is, je denkt dat het
significant is maar dat is onjuist Type I Fout
Hierbij verschuift het verwerpingsgebied dus op naar links
Kans op 1 of meer Type I Fouten: 1 – (1 – α )C (C = aantal afzonderlijke toetsen)
oplossing is dus One-Way ANOVA
H0 wil testen met ANOVA gebruik je de F-verdeling + test-statistic F (significantie)
dan moet je de scores opsplitsen in componenten
- Component van score wel geassocieerd met ‘groep’
- Component van score niet geassocieerd met ‘groep’
Hiervoor bereken je de deviatiescores:
1. Deviatie van score van individu t.o.v. algemene gemiddelde (totale variantie)
Yij – My
2. Deviatie van score van individue t.o.v. groepsgemiddelde (binnengroepsvariantie)
(Yij – Mi) = ɛij (= error/residual)
3. Deviatie van groepsgemiddelde t.o.v. algemene gemiddelde (tussengroepsvariantie)
(Mi – My) = αi (= effect van groep i, NIET alpha)
Yij = individuele score, My = algemene gemiddelde, Mi = groepsgemiddelde
Totale variantie = Binnengroepsvariantie + Tussengroepsvariantie
Dit gaat over 1 observatie, voor meerdere wordt elke deviatie gekwadrateerd en deze worden
gesommeerd over alle observaties en alle groepen dit is de Sums of Squares
SStotal = SSbetween + SSwithin
Dus totaal = verschillen tussen groepen + verschillen binnen groepen
,F ratio test statistic = ratio van 2 verschillende Mean Squares (MS)
Mean Squares = Sum of Squares / df
k = aantal groepen, N = totaal aantal observaties
goed hier op de df letten van de numerator en de
denominator
F ratio test statistic = MSbetween / MSwithin
Deze F ratio test statistic moet je vergelijken met de critical F-value (te vinden met je α)
Goed kijken naar dit voorbeeldje:
Stap 1: Bereken SSbetween, SSwithin en SStotal
Stap 2: bereken MSbetween door SSbetween te delen door df, k – 1
Stap 3: bereken MSwithin door SSwithin te delen door df, N – k
, Stap 4: Bereken de F-ratio test statistic: MSbetween / MSwithin
F-ratio test statistic = 74.6/11.6 = 6.431
Stap 5: kijk nu in de tabel voor de critical F-value (kritieke F-waarde), bij df numerator van 2
en df denominator van 12
Daar komt een critical F-value van 3.8… uit
F-ratio test statistic is groter dan de critical value dus H0 verwerpen, significant verschil
Grote F-waardes duiden op grote tussengroepsverschillen, dit wil je vaak dus
Hoorcollege 2
Sig. < alpha (α) H0 verwerpen, significant verschil dus
Assumpties ANOVA:
Kwantitative afhankelijke variabele van interval/ratio (continu) meetniveau;
onafhankelijke variabele heeft nominaal meetniveau
je moet zinvol gemiddelde kunnen berekenen voor groepen
In hele steekproef en binnen elke groep zijn scores van afhankelijke variabele bij
benadering normaal verdeeld steekproef groot, dan kan hier niks mis gaan eig.
Geen outliers dit checken, want het gemiddelde is heel belangrijk voor ANOVA
Variantie van scores van afhankelijke variabele is gelijk tussen groepen (homogeneity
of variance assumption) toetsen met Levene’s test
Levene’s test significant varianties niet gelijk, variances not assumed dit wil je niet
Als dit gebeurd: moet je alternatieve toetsen gebruiken om populatie-groepsgemiddelden op
gelijkheid te toetsen:
- Welch test (goed als de N’s van de groepen erg verschillen)
- Brown-Forsyth test
Observaties zijn geselecteerd via aselecte steekproeftrekking en onafhankelijk van
elkaar
Assumptie van onafhankelijke waarnemingen:
- Score van een individu geeft geen informatie over andere scores in een dataset
- Tussen groepen: respondenten behoren maar tot één groep
- Binnen elke groep: respondenten aselect gekozen
- Respondenten behoren wel tot eenzelfde groep dus afhankelijkheid tussen waarnemingen,
maar door ‘groep’ als onafhankelijke variabele op te nemen houden we rekening met die
afhankelijkheid
Effect size (n2/eta kwadraat) is het verschil groot/belangrijk
Welk deel van de variantie van de afhankelijke variabele wordt verklaard vanuit het feit dat er
verschillende groepen zijn (onafhankelijke variabele)?
Richtlijnen Cohen:
Small: 0.01
Medium: 0.059
Large: 0.138
hier in het voorbeeld is het effect dus huge
Effect size groot + aan assumpties voldaan + onderzoeksdesign goed = goed!!!
Voordelen van het kopen van samenvattingen bij Stuvia op een rij:
Verzekerd van kwaliteit door reviews
Stuvia-klanten hebben meer dan 700.000 samenvattingen beoordeeld. Zo weet je zeker dat je de beste documenten koopt!
Snel en makkelijk kopen
Je betaalt supersnel en eenmalig met iDeal, creditcard of Stuvia-tegoed voor de samenvatting. Zonder lidmaatschap.
Focus op de essentie
Samenvattingen worden geschreven voor en door anderen. Daarom zijn de samenvattingen altijd betrouwbaar en actueel. Zo kom je snel tot de kern!
Veelgestelde vragen
Wat krijg ik als ik dit document koop?
Je krijgt een PDF, die direct beschikbaar is na je aankoop. Het gekochte document is altijd, overal en oneindig toegankelijk via je profiel.
Tevredenheidsgarantie: hoe werkt dat?
Onze tevredenheidsgarantie zorgt ervoor dat je altijd een studiedocument vindt dat goed bij je past. Je vult een formulier in en onze klantenservice regelt de rest.
Van wie koop ik deze samenvatting?
Stuvia is een marktplaats, je koop dit document dus niet van ons, maar van verkoper zaravss. Stuvia faciliteert de betaling aan de verkoper.
Zit ik meteen vast aan een abonnement?
Nee, je koopt alleen deze samenvatting voor €6,29. Je zit daarna nergens aan vast.