100% tevredenheidsgarantie Direct beschikbaar na betaling Zowel online als in PDF Je zit nergens aan vast
logo-home
Samenvatting SV Discovering statistics 4e editie Andy Field €4,98
In winkelwagen

Samenvatting

Samenvatting SV Discovering statistics 4e editie Andy Field

33 beoordelingen
 3537 keer bekeken  191 keer verkocht

Goede uitgebreide SV van H2, H8, H10 tm H15 met ondersteunende tabellen en figuren uit het boek. H2 (basisbegrippen) staat als laatste in de sv. EXTRA achteraan de samenvatting een overzicht van welke assumpties te testen bij welke analyse!

Voorbeeld 4 van de 50  pagina's

  • Nee
  • H2, h8, h10-h15
  • 18 februari 2015
  • 50
  • 2014/2015
  • Samenvatting
book image

Titel boek:

Auteur(s):

  • Uitgave:
  • ISBN:
  • Druk:
Alle documenten voor dit vak (11)

33  beoordelingen

review-writer-avatar

Door: aylabitter • 3 jaar geleden

review-writer-avatar

Door: nielsvoss10 • 5 jaar geleden

review-writer-avatar

Door: Pimdejong1 • 5 jaar geleden

review-writer-avatar

Door: chrisw98 • 6 jaar geleden

review-writer-avatar

Door: ezaouaghi • 5 jaar geleden

review-writer-avatar

Door: daphnepunt • 6 jaar geleden

review-writer-avatar

Door: Celezz • 6 jaar geleden

Bekijk meer beoordelingen  
avatar-seller
Miloustephanie
DISCOVERING STATISTICS
USING SPSS
4th edition


Andy Field

,Hoofdstuk 8. Regressie

8.2 Introductie tot regressie
Regressie analyse: uitkomst voorspellen adhv de waardes van de predictor variabelen.
Het is eigenlijk kijken naar de relatie tussen twee variabelen:

𝑌i = (𝑏0 + 𝑏1 X𝑖 ) + 𝜀𝑖 Yi = uitkomst, outcome
Xi = predictor geobs.score persoon i
Het verschilt van een correlatie, b1 = slope
want gebruikt een ongestandaardiseerde meting b0 = intercept. Waarde y bij x=0
van de relatie. Daarom ook b0 erbij, omdat dit verteld
wat de waarde vd outcome is als de predictor 0 is.

b1 en b0 zijn regression coefficients.
b kwantificeert de relatie tussen de predictor variabele en de outcome.
- b1 negatief  negatieve relatie.
- b1 positief  positieve relatie.

Zijn er meer voorspellers? Die voeg je simpelweg toe

𝑌i = (𝑏0 + 𝑏1 X1𝑖 + 𝑏2 X2𝑖 ) + 𝜀𝑖

Met een regressie analyse fitten we onze data met een lineair model. Deze gebruiken we om een voorspelling
te doen over de waarde vd outcome (afhankelijke var) mbv één of meer voorspellers/predictoren
(onafhankelijke var)
- één voorspeller: Simple regression.
- meer voorspellers: Multiple regression.

8.2.3 Schatten van het model
Een lineair model is er dus om de relatie tussen een of meer predictoren en een outcome variabel op te
sommen.



Groen = de voorspelde waardes
Blauw = de geobserveerde data (model)

Het model zit dus niet perfect. Er zit error in de voorspelde waardes. Ze
zullen soms overschatten of onderschatten.

Verschil tussen wat het model voorspeld (groen) en de geobserveerde
data (blauw) = Residu



Om de error te berekenen in een regressiemodel, moet je de ‘sum of squared errors’ gebruiken. Ook wel de
error residu  Sum of Squared Residuals of Residual Sum of Squares (SSR )
Dit geeft een schatting van hoe goed een bepaalde lijn past bij de data.
𝑛

Total Error = ∑(observed𝑖 − model𝑖 )²
𝑖=1


Hoe kleiner dit getal, hoe beter de lijn representeert.

Maar hoe vind je het optimale model om de data samen te vatten?
Je kan heel veel SSr’s uitrekenen en kijken welke het kleinst is, maar het kan makkelijker.
 Ordinary Least Squares (OLS) Regression: gebruikt een methode van least squares om de ‘b’ te schatten,
die het model definiert waarbij de SSr het laagst is bij de gegeven data.
 DUS beschrijft het regressie model dat het beste past bij de data.

,8.2.4 Assessing de Goodness of Fit, Sums of Squares, R en R²
Nadat het model is gevonden dat het beste past  beoordelen hoe goed het model past bij de actuele data 
Goodness of Fit.

Maar de SSr laat alleen weten dat er error zit in de voorspelling, maar laat niet weten of het ‘beste model’ wat
toevoegd aan de voorspelling.
- Om te kijken of het beste model iets toevoegd, moet je van het ‘baseline model’ en het ‘beste model’ de
error berekenen.
- Bij een baseline model gaan ze uit van het gemiddelde als meetmaat.
- Is de error van het beste model kleiner dan die van het baseline model, dan voegt het beste model wat
toe aan de voorspelling.

Bij een gewoon model (geen regressiemodel), is het verschil tussen de geobserveerde scores en het
gemiddelde = Total Sum of Squares (SST )
- Baseline Model (gemiddelde)




Bij een regressiemodel, is het verschil tussen de geobserveerde data en de regressielijn = Residual Sum of
Squares (SSR )
- Geeft de mate van accuratie weer als het beste model op de data is gefit.




Met de SSt en de SSr kan je nu uitrekenen hoeveel beter het regressiemodel is dan het baseline model  het
verschil tussen beide nemen  dit verschil laat de reductie zien in de accuratie vh model als resultaat van het
fitten van het regressiemodel op de data.
 Deze verbetering = Model Sum of Squares (SSM )

SSm groot = dan heeft het regressie model een grote verbetering teweeg
gebracht.
SSm klein = dan is het regressiemodel maar een beetje beter dan baseline
model (gemiddelde).



Kan ook ‘Proportie van verbetering’ dankzij model berekenen.
SS
R² = M x 100 voor procentueel.
SST


= Staat voor hoeveelheid verklaarde variantie in de uitkomst. Dus hoeveel het model verklaard.

√R² = Pearson correlatie coefficient. Voor de relatie tussen de voorspelde waardes door het model en de
geobserveerde waardes.
 geeft een goede schatting vd gehele fit van het regressiemodel.

Ook de Sum of Squares gebruiken om het model te beoordelen met een F-test.
- F is gebaseerd op de ratio van verbetering door het model (SSm) en de SSr.
- Maar hier wordt gebruik gemaakt van het gemiddelde Sums of Squares (Mean Squares of MS)

, SSM
MSM = Df = aantal variabelen in het model
Df

SSR
MSR = Df = aantal observaties – aantal parameters die geschat worden
Df
Aantal parameters (beta coeff + constant)

F-Ratio bereken je vervolgens met:
MSM
F = Zegt hoeveel het model de voorspelling van de uitkomst verbeterd heeft tov
MSR
de mate van accuraatheid van het model.

Als het model goed is, dan verwachten we dat de MSm groot zal zijn en de MSr klein.  dan krijg je een grote
F, minstens groter dan 1.
 De preciese grootte/omvang van de F-ratio hangt af van de kritieke waardes die hogen bij de Df.

F-ratio kan ook gebruikt worden om de significantie van R² te berekenen.
( N−k−1)R²
F= Test dan de null-hypothese dat R² = 0
k (1−R2 )
N = aantal deelnemers // k = aantal predictoren

8.2.5 Assessing Individuele predictoren
Als een model slecht is in het voorspellen van de uitkomst. En de waarde van de voorspeller verandert, wat kan
je dan verwachten?  De verandering in de uitkomst zal 0 zijn.

Bij gebruik van de mean  slechte manier in uitkomst voorspellen.
De lijn is plat, dus als de voorspeller verandert, dan verandert de uitkomst niet. Want het voorspelt dan
dat de uitkomst gelijk aan 0 zal zijn.

Een slecht model zoals het gemiddelde, zal een regressie coefficient van 0 hebben voor de predictoren.
Regressie coefficient van 0 betekend:
- Een verandering in predictor variabele zorgt voor geen verandering in de voorspelde waarde van
uitkomst.
En met maar één voorspeller in het model:
- De slope vd regressielijn is 0, de regressielijn is dus plat.

Als een variabele significant de uitkomst voorspeld, dan zal het een b-waarde boven de 0 hebben.  deze
hypothese wordt getest met een t-test.
- De t-test, test de nul-hypothese dat de waarde van b=0. Als het dus significant is, krijg je groter
vertrouwen dat de b-waarde significant anders is dan 0, en dat de predictor variabel bijdraagt
(significant) aan het vermogen de waardes vd uitkomst te schatten.

t-statistiek, net als de F, gebaseerd op het ratio vd verklaarde variantie tot de onverklaarde variantie of error.
Hierin geinteresseerd of de b groot is in vergelijking met de hoeveelheid error in de schatting.
 Om te schatten hoeveel error te verwachten is bij/in b  gebruikt men de standaard error.

Standaard error: verteld hoe er verschillende b-waardes zijn in verschillende samples.
- SE erg klein? = dan zullen de meeste samples een b-waarde hebben gelijk aan de b in jouw sample. Er is
dan weinig variantie tussen de samples.
- SE klein? = zelfs een kleine afwijking van 0 kan een betekenisvol verschil reflecteren, omdat b
representatief is voor de meerderheid van de mogelijke samples.

𝑏observed − 𝑏expected 𝑏observed
𝑡= =
SE𝑏 SE𝑏

- Bexpected = 0, want bij nulhypothese b=0.
- Bij meerdere voorspellers hoort bij t een df van:
o Df = N – p – 1
- Met één voorspeller:
o Df = N – 2

Voordelen van het kopen van samenvattingen bij Stuvia op een rij:

Verzekerd van kwaliteit door reviews

Verzekerd van kwaliteit door reviews

Stuvia-klanten hebben meer dan 700.000 samenvattingen beoordeeld. Zo weet je zeker dat je de beste documenten koopt!

Snel en makkelijk kopen

Snel en makkelijk kopen

Je betaalt supersnel en eenmalig met iDeal, creditcard of Stuvia-tegoed voor de samenvatting. Zonder lidmaatschap.

Focus op de essentie

Focus op de essentie

Samenvattingen worden geschreven voor en door anderen. Daarom zijn de samenvattingen altijd betrouwbaar en actueel. Zo kom je snel tot de kern!

Veelgestelde vragen

Wat krijg ik als ik dit document koop?

Je krijgt een PDF, die direct beschikbaar is na je aankoop. Het gekochte document is altijd, overal en oneindig toegankelijk via je profiel.

Tevredenheidsgarantie: hoe werkt dat?

Onze tevredenheidsgarantie zorgt ervoor dat je altijd een studiedocument vindt dat goed bij je past. Je vult een formulier in en onze klantenservice regelt de rest.

Van wie koop ik deze samenvatting?

Stuvia is een marktplaats, je koop dit document dus niet van ons, maar van verkoper Miloustephanie. Stuvia faciliteert de betaling aan de verkoper.

Zit ik meteen vast aan een abonnement?

Nee, je koopt alleen deze samenvatting voor €4,98. Je zit daarna nergens aan vast.

Is Stuvia te vertrouwen?

4,6 sterren op Google & Trustpilot (+1000 reviews)

Afgelopen 30 dagen zijn er 48298 samenvattingen verkocht

Opgericht in 2010, al 15 jaar dé plek om samenvattingen te kopen

Start met verkopen
€4,98  191x  verkocht
  • (33)
In winkelwagen
Toegevoegd