100% tevredenheidsgarantie Direct beschikbaar na betaling Zowel online als in PDF Je zit nergens aan vast
logo-home
Samenvatting VOS, statistiek tentamen van de pre-master CCFES: Alle stof €6,99
In winkelwagen

Samenvatting

Samenvatting VOS, statistiek tentamen van de pre-master CCFES: Alle stof

2 beoordelingen
 83 keer bekeken  9 keer verkocht

In deze samenvatting staat heel duidelijk alle nodige stof voor het VOS tentamen. Met deze samenvatting heb ik een 9.5 gehaald op het tentamen. !! Het bevat de onderwerpen (multipele) regressie, meerweg anova, ancova, mediatie en moderatie, factoranalyse & betrouwbaarheidsanalyse !!

Voorbeeld 5 van de 76  pagina's

  • 28 oktober 2021
  • 76
  • 2021/2022
  • Samenvatting
Alle documenten voor dit vak (10)

2  beoordelingen

review-writer-avatar

Door: khadysia99 • 1 jaar geleden

review-writer-avatar

Door: ninatenhave • 2 jaar geleden

reply-writer-avatar

Door: irvinerietmulder • 2 jaar geleden

Hi! Mag ik vragen waarom je een 2 sterren beoordeling hebt gegeven?

avatar-seller
irvinerietmulder
1. Multipele Regressie – Het lineare model

Veel wetenschappelijk onderzoek wil oplossingen vinden voor problemen in de samenleving.
Als we veel factoren vinden, invloeden op een probleem, dan neem je een analysetechniek waarbij al
deze kenmerken in 1 keer worden beoordeeld. Het bepalen van deze relatie helpt het gedrag van de
ene variabele ten opzichte van de andere te begrijpen en te voorspellen.

Voorbeeld: Afhankelijke variabele onderwijsachterstand, met meerdere mogelijke
predictoren/voorspellers zoals: opvoeding, kind, school en thuissituatie.

Hier wordt vaak multipele regressie voor gebruikt.
‘’Kunnen we iemands waarde op een kenmerk voorspellen met kennis over andere kenmerken?’’

Doelen van regressie:
Beschrijven relaties in variabelen in steekproef
Toetsen hypotheses (significantie)
Kwantificeren van relaties (effectgrootte)
Kwalificeren van relaties (klein, middel, groot)
Beoordelen relevantie relaties (Subjectief)
Voorspellen van iemands waarde met het regressiemodel (puntschatting en intervalschatting)
-> Let op, doe geen uitspraken over causaliteit. Multipele regressie valt vaak onder correlationeel
onderzoek.
Het verschil met een enkele regressie zit in het aantal variabelen. Enkele regressie test alleen de
invloed van een enkele variabel.

We willen de theoretische constructen operationaliseren, om er variabelen van te maken.
Kind kan je bijvoorbeeld terugbrengen tot: intelligentie, leeftijd, sekse, gezondheid -> Schoolprestatie

Padmodel voor multipele regressie, een overzicht:




1 Afhankelijke variabele Y, en een verzameling van Xen, predictoren.
padmodel: Interval/ratio is de X zonder streepje, X met een streepje is hier een dichotome variabele.

In multipele regressie gebruik je interval, ratio, of een dichotome variabele (2 categorieën).
Bij een dichotome variabele is groep 0 de referentiecategorie.
! Nominaal met meer dan 2 categorieën, zoals etniciteit past niet in een multipele regressie!
Enkel wanneer je een variabele om gaat bouwen tot twee categorieën en er dus een dichotome van
maakt.

Een goed verklaringsmodel stelt ons in staat dingen te kunnen voorspellen. Het doel is vaak een
goed verklaringsmodel gebruiken om dingen voorspellen voor mensen die niet in het onderzoek
zaten.

,Om dit te krijgen gaan we in een steekproef statistisch toetsen welke relatie er bestaat.
Variabelen in ons voorbeeld, verwerkt statistisch programma:
‘’Read’’: kennis literatuur respondent (Y)
Fath_rd: Kennis literatuur vader (X1)
Moth_rd: Kennis literatuur moeder (X2) etc.

Meetniveau variabelen bij multipele regressie
-> Er moet opgelet worden bij het operationaliseren of het wel interval, ratio of dichotoom wordt.
NOIR: Nominaal, ordinaal, interval, ratio.

Afhankelijke variabele Y: Interval of ratio
Onafhankelijke variabele X:
-Interval, ratio
-Categorisch kenmerk met twee categorieën/nominaal met twee categorieën: Dichotoom (zoals
sekse, of opleiding waar 2 opties zijn)
-Categorisch kenmerk met meer dan twee categorieën omgezet in twee categorieën:
Dummyvariabele (zoals etnische achtergrond)

Regressiemodel
Dit kan opgeschreven worden als een vergelijking.
Dit doe je voor Y = de geobserveerde variabele. Als het goed is kan je een gedeelte van Y verklaren
met een model, met een stukje voorspellingsfout.

Uitkomst (Y) = Model (X) + voorspellingsfout
Y = b0 + b1 · X + error

Model: Linear regressiemodel: rechtlijnige relaties worden voorspeld.
Voorspellingsfout: het residu.

Vergelijking voor de geschatte Y, (Ŷ):
Deze kunnen we gebruiken als we kennis hebben van de X-variabelen (zoals hoogte van
literatuurkennis vader)

Ŷ = Model (X)
Ŷ = b0 + b1 · X1

Verschil tussen Y en Y dakje, Y- Ŷ. = voorspellingsfout/residu.
Wanneer E, de error/voorspellingsfout heel groot is, is veel van de
variantie in Y onverklaard.

Een vergelijking van Y wanneer je 6 predictoren hebt:
Y = Bo + B1 · X1 + …. + B6 · X6 + E

Y = afhankelijke variabele (dependent)
X = Onafhankelijke variabelen (predictors)
B0 = Intercept (constant) ook wel a
B1 = Regressiecoëfficient (slope)
E = Voorspellingsfout (error of residual)

De B-coëfficienten zeggen iets over de relatie tussen X en Y. Het geeft een getalletje van hoeveel Y

,zal veranderen als X 1 stap verandert. Hoe die slope zal gaan lopen.

Variatie verklaren: Spreiding in scores is te bekijken via een spreidingsdiagram.
In een spreidingsdiagram wordt de best passende lijn door een puntenwolk getrokken.




De lijn bestaat uit het intercept of contstante (b0), dit is het begin van de lijn. De intercept begint
wanneer X 0 is, waar Y dan is. Het startpunt van de lijn.
En de regressiecoëfficieënt (b1), deze geeft aan hoeveel er per eenheid naar rechts erbij komt op Y.
De verandering in Y bij een toename in één eenheid in X.

Ŷ = b0 + b1 · X1




We gaan de individuele invloed van predictoren door te kijken naar B-coëfficiënten. Een b die 0 is
heeft blijkbaar geen invloed. (horizontale lijn)

De best passende lijn wordt gekozen met het
kleinste kwadraten criterium;
We willen een lijn waar de voorspellingsfout
minimaal is, zo klein mogelijk.

Nauwkeuriger kunnen we beter mee
voorspellen, dan kunnen we werkelijke
waardes beter representeren.

Positief residu + is alles boven de lijn:
Dan onderschat het model, de lijn jouw
werkelijke score.

,Negatief residu - is alles onder de lijn:
Dan overschat het model/de lijn de werkelijke score

, Goodness-of-fit: De kwaliteit van het model –
hoe goed is mijn model? Het beste model is waar
de residuele kwadratensom laag is.
Maar hoe goéd is dat dan?
Goodness of fit is R 2 > Dit vergelijkt het linear
model (regressielijn) met basismodel (basislijn)

SST (SS total) = SSM + SSR

SS=Sum of Squares (som van gekwadrateerde
deviaties) De optelling van alle voorspellingsfouten.
Dit is de totale voorspellingsfout bij gebruik van het
gemiddelde.

SST = Alle spreiding rondom het gemiddelde. Totale
kwadratensom rondom het basismodel streepje
gemiddelde. De afstand ten opzichte van het
basismodel: t = totale deviatie

SSM = kwadratensom van rechte lijn (model). De
fout die over blijft wanneer het lineare model
gebruikt wordt. m = verklaarde deel

SSR = kwadratensom van voorspellingsfout Welk
stukje fout blijft over na gebruik model. r = residual

Dus Totale deviatie = de fout die overblijft na gebruik model ten opzichte van het basismodel + Fout
na gebruik model, voorspellingsfout

Het basismodel: het gemiddelde van Y zonder gebruik te maken van predictoren (het basismodel is
dus het gemiddelde)

R2:
- Kwadratensom van model gedeeld door totale kwadratensom
- Proportie door X verklaarde variantie in Y door een linear model. Deze waarde ligt tussen 0 en 1.
1=perfecte verklaarde variatie in het model, geen residuen.
0=niet te gebruiken model, de lineaire lijn loopt precies gelijk aan de basislijn. (horizontale lijn)




Multipele correlatiecoëfficiënt R: de correlatie tussen geobserveerde Y en Ŷ.
-> Geeft aan hoe goed porportie in Y verklaarde variantie door het model verklaart kan worden.
-> Wordt soms determinatiecoëfficiënt R2 genoemd.
‘’Dit hoef je niet uit te kunnen rekenen, het kan wel dat je SSM:SST moet delen om R2 te krijgen..
Maar deze kwadratensommen haal je dan uit SPSS. Als je iets moet kunnen uitrekenen gaan we dat
oefenen.’’

Voordelen van het kopen van samenvattingen bij Stuvia op een rij:

Verzekerd van kwaliteit door reviews

Verzekerd van kwaliteit door reviews

Stuvia-klanten hebben meer dan 700.000 samenvattingen beoordeeld. Zo weet je zeker dat je de beste documenten koopt!

Snel en makkelijk kopen

Snel en makkelijk kopen

Je betaalt supersnel en eenmalig met iDeal, creditcard of Stuvia-tegoed voor de samenvatting. Zonder lidmaatschap.

Focus op de essentie

Focus op de essentie

Samenvattingen worden geschreven voor en door anderen. Daarom zijn de samenvattingen altijd betrouwbaar en actueel. Zo kom je snel tot de kern!

Veelgestelde vragen

Wat krijg ik als ik dit document koop?

Je krijgt een PDF, die direct beschikbaar is na je aankoop. Het gekochte document is altijd, overal en oneindig toegankelijk via je profiel.

Tevredenheidsgarantie: hoe werkt dat?

Onze tevredenheidsgarantie zorgt ervoor dat je altijd een studiedocument vindt dat goed bij je past. Je vult een formulier in en onze klantenservice regelt de rest.

Van wie koop ik deze samenvatting?

Stuvia is een marktplaats, je koop dit document dus niet van ons, maar van verkoper irvinerietmulder. Stuvia faciliteert de betaling aan de verkoper.

Zit ik meteen vast aan een abonnement?

Nee, je koopt alleen deze samenvatting voor €6,99. Je zit daarna nergens aan vast.

Is Stuvia te vertrouwen?

4,6 sterren op Google & Trustpilot (+1000 reviews)

Afgelopen 30 dagen zijn er 52510 samenvattingen verkocht

Opgericht in 2010, al 14 jaar dé plek om samenvattingen te kopen

Start met verkopen
€6,99  9x  verkocht
  • (2)
In winkelwagen
Toegevoegd