100% tevredenheidsgarantie Direct beschikbaar na betaling Zowel online als in PDF Je zit nergens aan vast
logo-home
VOS samenvatting Grasple SPSS €4,99   In winkelwagen

Samenvatting

VOS samenvatting Grasple SPSS

 28 keer bekeken  2 keer verkocht

Dit is een samenvatting van alle nuttige stukjes beschreven in grapsle overzichtelijk onder elkaar gezet per onderwerp.

Voorbeeld 4 van de 39  pagina's

  • 22 januari 2023
  • 39
  • 2022/2023
  • Samenvatting
Alle documenten voor dit vak (19)
avatar-seller
MèrleKreuze03
SPSS handleiding
Multiple regressie
Voer de regressieanalyse uit in SPSS:

 Analyze > Regression > Linear

 Bedenk wat de afhankelijke en onafhankelijke variabelen zijn en zet deze in de goede vakjes.

 We willen verschillende assumpties controleren. Per assumptie staat aangegeven wat je aan
moet vinken om deze te kunnen controleren.

o Afwezigheid uitschieters: Klik op Save en vink Standardized residuals,
Mahalanobis en Cook’s distances aan.

o Afwezigheid multicollineariteit: Klik op Statistics en vink Collinearity diagnostics aan.

o Homoscedasticiteit: Klik op Plots. Plaats de variabele *ZPRED (de gestandaardiseerde
voorspelde waarden) op de X-as. Plaats de variabele *ZRESID (de gestandaardiseerde
residuen) op de Y-as.

o Normaal verdeelde residuen: Klik op Plots en vink Histogram aan.



Afwezigheid uitschieters
Het is mogelijk om met een spreidingsdiagram of boxplot op het oog te bekijken of er uitschieters in
de data aanwezig zijn. Het is ook mogelijk om dit formeel te beoordelen tijdens het uitvoeren van de
analyses. Hiervoor kijk je naar de tabel Residuals Statistics en bekijk je de minimum en maximum
waardes van de standardized residuals, Mahalanobis Distance en Cook’s Distance. Aan de hand van
deze waardes beoordeel je respectievelijk of er uitschieters in Y-ruimte, X-ruimte en XY-ruimte zijn.



Standardized residuals
Hiermee controleren we of er sprake is van uitschieters in Y-ruimte. Als vuistregel houden we aan dat
de waardes tussen -3.3 en +3.3 moeten liggen. Waardes kleiner dan -3.3 of groter dan 3.3 duiden op
uitschieters.



Mahalanobis distance
Hiermee controleren we of er sprake is van uitschieters in X-ruimte. Een uitschieter in X-ruimte is een
extreme score op een predictor of combinatie van predictoren. Als vuistregel houden we aan dat
waardes voor Mahalanobis distance lager moeten zijn dan 10 + 2(# onafhankelijke variabelen). Zo
moeten in een onderzoek met 2 onafhankelijke variabelen de waardes voor Mahalanobis
distance lager zijn dan 10 + 2∙2 = 14. Waardes hoger dan deze kritieke waarde duiden op
uitschieters.

,Cook's distance
Hiermee controleren we of er sprake is van uitschieters in XY-ruimte. Een uitschieter in de XY-ruimte
is een extreme combinatie van X(-en) en Y-scores. Cook's distance geeft aan wat de overall invloed is
van een respondent op het model. Als vuistregel houden we aan dat waardes voor Cook’s distance
lager dan 1 moeten zijn. Waardes hoger dan 1 duiden op invloedrijke respondenten (influential
cases).

Wanneer je een keuze moet maken over het al dan niet verwijderen van een uitschieter is een aantal
dingen belangrijk:

 Behoort deze participant tot de groep waarover je uitspraken wilt doen? Zo nee, neem de
participant dan niet mee in de analyses.

 Is de extreme waarde van de participant theoretisch mogelijk? Zo nee, neem de participant
dan niet mee in de analyses. Zo ja, draai de analyse dan met en zonder de participant,
rapporteer de resultaten van beide analyses en bespreek eventuele verschillen.



Afwezigheid multicollineariteit
In de tabel Coefficients staat in de laatste twee kolommen informatie over multicollineariteit.
Hiermee wordt gekeken of de relatie tussen twee of meerdere onafhankelijke variabelen te sterk is (r
> .80). Bijvoorbeeld als je zowel leeftijd als werkervaring in jaren opneemt als onafhankelijke
variabelen. Deze twee variabelen zijn hoogstwaarschijnlijk sterk aan elkaar gerelateerd: hoe ouder,
hoe meer werkervaring.
Als je te sterk gerelateerde variabelen opneemt in je model heeft dat drie gevolgen:
- De regressiecoëfficiënten (B) zijn onbetrouwbaar.
- Het beperkt de grootte van R (de correlatie tussen Y en Ŷ)
- Het belang van individuele onafhankelijke variabelen is niet/moeilijk vast te stellen

Je wilt juist geen multicollineariteit. Perfecte multicollineariteit betekent dat je onafhankelijke
variabelen perfect gecorreleerd zijn (bijvoorbeeld lengte gemeten in cm’s en inches). Je wilt niet
twee exact dezelfde onafhankelijke variabelen opnemen in je regressieanalyse. In het geval van een
(te) sterke samenhang kun je kiezen voor één van de twee variabelen. Een andere optie is kijken of je
de twee variabelen samen kunt voegen (bijvoorbeeld met behulp van factoranalyse).

Vaststellen of multicollineariteit een probleem is kan aan de hand van statistieken die SPSS geeft in
de laatste twee kolommen van de tabel Coefficients. Hierbij kun je de volgende vuistregels
aanhouden:
 Waardes voor de Tolerance kleiner dan .2 duiden op een mogelijk probleem.
 Waardes voor de Tolerance kleiner dan .1 duiden op een probleem.
 De VIF is gelijk aan 1/Tolerance, dus voor de VIF geldt dat waardes groter dan 10 duiden op
een probleem.

,Homoscedasticiteit

De voorwaarde van homoscedasticiteit houdt in dat de spreiding van de residuen per X-waarde
ongeveer gelijk moet zijn. Dit beoordelen we door de gestandaardiseerde residuen te plotten tegen
de gestandaardiseerde voorspelde waardes. Als er voor elke voorspelde waarde (X-as) ongeveer
evenveel spreiding is op de Y-as, dan is er voldaan aan de voorwaarde. In het rechterplaatje zie je een
situatie waarin dit juist niet het geval is.




Normaal verdeelde residuen

Hieronder zie je de frequentieverdeling van de gestandaardiseerde residuen. Hoewel het histogram
niet precies de lijn van de normale verdeling volgt zijn de afwijkingen niet zo groot dat we
concluderen dat de voorwaarde voor normaal verdeelde residuen geschonden is.

, Wanneer voldaan is aan de assumpties mag het regressiemodel geïnterpreteerd worden.
Hiervoor bekijken we de eerste vier tabellen van de output:

1. In de eerste tabel staat wat de onafhankelijke en afhankelijke variabelen zijn.

2. In de tweede tabel staan de algemene kwaliteitsgegevens van het regressiemodel.

3. In de derde tabel staat de uitkomst van de F-toets voor het model die toetst of het gehele
model significant is. Hier kijken we dus of de drie onafhankelijke variabelen samen een
significant deel van de spreiding in tevredenheid kunnen verklaren.

4. In de vierde tabel staat informatie over de regressiecoëfficiënten. Hier kijken we per
onafhankelijke variabele of deze een significante voorspeller is van tevredenheid.



Toevoeging tabel 2: R is de waarde van de multipele correlatiecoëfficiënt. Deze waarde geeft aan wat
de correlatie is tussen de daadwerkelijke tevredenheidsscores (Y) en de voorspelde
tevredenheidsscores (Ŷ). Dit is een indicatie van hoe goed het model is om tevredenheid te
voorspellen.

R square (R2) geeft het percentage verklaarde variantie aan in de steekproef. Naast R square zie je
de Adjusted R square. De adjusted R2 geeft aan wat het geschatte percentage verklaarde variantie is
in de populatie. De R2 wordt hiervoor aangepast op basis van de steekproefgrootte (n) en het aantal
predictoren in het model (k). Het geschatte percentage verklaarde variantie in de populatie is altijd
iets lager dan het percentage verklaarde variantie in de steekproef.



Toevoeging tabel 4: De gestandaardiseerde coëfficiënten, de Beta’s, kunnen we gebruiken om te
bepalen wat de belangrijkste predictor is van tevredenheid. De onafhankelijke variabele met de in
absolute zin grootste beta is de belangrijkste voorspeller. In absolute zin wil zeggen dat het teken (+
of –) niet uitmaakt. Je kijkt dus puur naar wat de meest extreme waarde is.



Hiërarchische multipele regressieanalyse: Hiermee kunnen we de vraag beantwoorden of deze
toevoeging voor een significant betere voorspelling van tevredenheid zorgt ten opzichte van de
originele variabelen.



Voer de hiërarchische regressieanalyse uit in SPSS:

 Analyze > Regression > Linear

 Plaats de onafhankelijke variabelen van het oorspronkelijke model in Block 1 of 1.

 Klik op Next. Hiermee kun je een nieuw blok met variabelen toevoegen. Hier selecteer je
alleen de extra variabelen: het is dus niet nodig de drie variabelen uit het eerste blok
nogmaals te selecteren. In dit geval plaats je in het tweede blok dus steun van ouders en
steun van docenten.

 Vraag onder Statistics om R squared change.

 Klik op OK.

Voordelen van het kopen van samenvattingen bij Stuvia op een rij:

Verzekerd van kwaliteit door reviews

Verzekerd van kwaliteit door reviews

Stuvia-klanten hebben meer dan 700.000 samenvattingen beoordeeld. Zo weet je zeker dat je de beste documenten koopt!

Snel en makkelijk kopen

Snel en makkelijk kopen

Je betaalt supersnel en eenmalig met iDeal, creditcard of Stuvia-tegoed voor de samenvatting. Zonder lidmaatschap.

Focus op de essentie

Focus op de essentie

Samenvattingen worden geschreven voor en door anderen. Daarom zijn de samenvattingen altijd betrouwbaar en actueel. Zo kom je snel tot de kern!

Veelgestelde vragen

Wat krijg ik als ik dit document koop?

Je krijgt een PDF, die direct beschikbaar is na je aankoop. Het gekochte document is altijd, overal en oneindig toegankelijk via je profiel.

Tevredenheidsgarantie: hoe werkt dat?

Onze tevredenheidsgarantie zorgt ervoor dat je altijd een studiedocument vindt dat goed bij je past. Je vult een formulier in en onze klantenservice regelt de rest.

Van wie koop ik deze samenvatting?

Stuvia is een marktplaats, je koop dit document dus niet van ons, maar van verkoper MèrleKreuze03. Stuvia faciliteert de betaling aan de verkoper.

Zit ik meteen vast aan een abonnement?

Nee, je koopt alleen deze samenvatting voor €4,99. Je zit daarna nergens aan vast.

Is Stuvia te vertrouwen?

4,6 sterren op Google & Trustpilot (+1000 reviews)

Afgelopen 30 dagen zijn er 83507 samenvattingen verkocht

Opgericht in 2010, al 14 jaar dé plek om samenvattingen te kopen

Start met verkopen
€4,99  2x  verkocht
  • (0)
  Kopen