Dit zijn alle grapsle lessen uitgewerkt. Met uitleg van de analyses stap voor stap. Alle theorie + voorbeelden uit de grasple lessen. Afbeeldingen om het te verduidelijken Grasple lessen die uitleggen hoe SPSS werkt.
Als je moet kijken naar de sterkste predictor van een bepaalde variabele moet je kijken naar
de standardized coefficients beta. De grootste is de sterkste predictor.
Residu = Y – Ydakje.
Voor het percentage van de verklaarde variantie moet je kijken naar de waard evan de R
square. Als het bijvoorbeeld 0.048 aangeeft betekent dat er 4.8% van de variantie in de
afhankelijke variabele verklaard wordt door de onafhankelijke variabele. Dit betekent dat
95,2% van de variantie niet wordt verklaard door dit model.
Samengestelde schalen behandelen we alsof ze van interval meetniveau zijn Wanneer je
afhankelijke variabele nominaal of categorisch zijn is het niet mogelijk om lineaire regressie
te gebruiken. Er zijn wel andere regressiemethodes die geschikt zijn voor afhankelijke
variabelen van lagere meetniveaus, maar dat reikt verder dan we behandelen in deze cursus.
Verschillende assumpties voor een lineaire regressieanalyse:
- Assumptie van lineairiteit
- Assumptie van afwezigheid van uitschieters
Als je een regressieanalyse wilt uitvoeren in SPSS:
- Analyze > Regression > Linear
- Bedenk wat de afhankelijke en onafhankelijke variabelen zijn en zet deze in de goede
vakjes.
- We willen verschillende assumpties controleren. Per assumptie staat aangegeven wat
je aan moet vinken om deze te kunnen controleren
o Afwezigheid uitschieters: klik op Save en vink standardized residuals.
Mahalanobis en Cook’s distances aan.
o Afwezigheid multicollineariteit: klik op Statistics en vink Collinearity
diagnostics aan.
o Homoscedastaciteit: klik op Plots. Plaats de variabele *ZPRED (de
gestandaardiseerde voorspelde waarden) op de x-as. Plaats de variabele
*ZRESID (de gestandaardiseerde residuen) op de Y-as.
o Normaal verdeelde residuen: klik op Plots en vink Histogram aan.
- Klik op OK
Afwezigheid uitschieters
Het is mogelijk om met een spreidingsdiagram of boxplot op het oog te bekijken of er
uitschieters in de data aanwezig zijn. Het is ook mogelijk om dit formeel te beoordelen tijdens
het uitvoeren van de analyses. Hiervoor kijk je naar de tabel Residuals Statistics en bekijk je
de minimum en maximum waardes van de standardized residuals, Mahalanobis distance en
cook’s distance. Aan de hand van deze waardes beoordeel je respectievelijk of er uitschieters
in Y-ruimte, X-ruimte en XY-ruimte zijn.
Standardized residuals
Hiermee controleren we of er sprake is van uitschieters in Y-ruimte. Als vuistregel houden we
aan dat de waardes tussen -3.3 en +3.3 moeten liggen. Waardes kleiner dan -3.3 of groter dan
3.3 duiden op uitschieters.
1
, Mahalanobis distance
Hiermee controleren we of er sprake is van uitschieters in X-ruimte. Een uitschieter in X-
ruimte is een extreme score op een predictor of combinatie van predictoren. Als vuistregel
houden we aan dat waarden voor Mahalanobis distance lager moeten zijn dan 10 + 2 (#
onafhankelijke variabelen). Zo moeten in een onderzoek met 2 onafhankelijke variabelen de
waardes voor Mahalanobis distance lager zijn dan 10 + 2x2= 14. Waardes hoger dan deze
kritieke waarde duiden op uitschieters.
Cook’s distance
Hiermee controleren we of er sprake is van uitschieters in XY-ruimte. Een uitschieter in de
XY-ruimte is een extreme combinatie van X(en) en Y-scores. Cook’s distance geeft aan wat
de overall invloed van een respondent op het model is. Als vuistregel houden we aan dat
waardes voor Cook’s distance lager dan 1 moeten zijn. Waardes hoger dan 1 duiden op
invloedrijke respondenten (influential cases).
Wanneer je een keuze moet maken over het al dan niet verwijderen van een uitschieter is een
aantal dingen belangrijk:
- Behoort deze participant tot de groep waarover je uitspraken wilt doen? Zo nee, neem
de participant dan niet mee in de analyses.
- Is de extreme waarde van de participant theoretisch mogelijk? Zo nee, neem de
participant dan niet mee in de analyses. Zo ja, draai de analyse dan met en zonder de
participant, rapporteer de resultaten van beide analyses en bespreek eventuele
verschillen.
Afwezigheid multicollineariteit
In de tabel Coefficients staat in de laatste twee kolommen informatie over multicollineariteit.
Hiermee wordt gekeken of de relatie tussen twee of meerdere onafhankelijke variabelen te
sterk is (r >.80). Bijvoorbeeld als je zowel leeftijd als werkervaring in jaren opneemt als
onafhankelijke variabelen. Deze twee variabelen zijn hoogstwaarschijnlijk sterk aan elkaar
gerelateerd: hoe ouder, hoe meer werkervaring. Als je te sterk gerelateerde variabelen
opneemt in je model heeft dat drie gevolgen.
- De regressiecoëfficiënten (B) zijn onbetrouwbaar
- Het beperkt de grootte van R (de correlatie tussen Y en Ydakje)
- Het belang van individuele onafhankelijke variabelen is niet/moeilijk vast te stellen.
Je wilt dus geen multicollineariteit. Perfecte multicollineariteit betekent dat je onafhankelijke
variabelen perfect gecorreleerd zijn. Je wilt niet twee exact dezelfde onafhankelijke
variabelen opnemen in je regressieanalyse. In het geval van een (te) sterke samenhang kun je
kiezen voor één van de twee variabelen. Een andere optie is kijken of je de twee variabelen
samen kunt voegen (bijvoorbeeld met behulp van factoranalsye).
Vaststellen of multicollineariteit een probleem is kan aan de hand van statistieken die SPSS
geeft in de laatste twee kolommen van de tabel Coefficients. Hierbij kun je de volgende
vuistregels aanhouden:
- Waardes voor de Tolerance kleiner dan .2 duiden op een mogelijk probleem
- Waardes voor de Tolerance kleiner dan .1 duiden op een probleem.
- De VIF is gelijk aan 1/Tolerance, dus voor de VIF geldt dat waardes groter dan 10
duiden op een probleem.
2
,Homoscedasticiteit
De voorwaarde van homoscedasticiteit houdt in dat de spreiding van de residuen per X-
waarde ongeveer gelijk moet zijn. Dit beoordelen we door de gestandaardiseerde residuen te
plotten tegen de gestandaardiseerde voorspelde waardes. Als er voor elke voorspelde waarde
(X0as) ongeveer evenveel spreiding is op de Y-as, dan is er voldaan aan de voorwaarde.
Wanneer voldaan is aan de assumpties mag het regressiemodel geïnterpreteerd worden.
Hiervoor bekijken we de eerste vier tabellen van de output:
1. In de eerste tabel staat wat de onafhankelijke en afhankelijke variabelen zijn
2. In de tweede tabel staan de algemene kwaliteitsgegevens van het regressiemodel
3. In de derde tabel staat de uitkomst van de F-toets voor het model
4. In de vierde tabel staat de informatie over de regressiecoëfficiënten
Correlatiecoëfficiënt = R. Deze waarde geeft aan wat de correlatie is tussen de daadwerkelijke
scores Y en voorspelde scores Ydakje.
R square (R2) geeft het percentage verklaarde variantie aan in de steekproef. Naast R square
zie je de adjusted R square. De adjusted R2 geeft aan wat het geschatte percentage verklaarde
variantie is in de populatie. De R2 wordt hiervoor aangepast op basis van de steekproefgrootte
(n) en het aantal predictoren in het model (k). Het geschatte percentage verklaarde variantie in
de populatie is altijd iets lager dan het percentage verklaarde variantie in de steekproef.
In de derde tabel staat de uitkomst van de F-toets die toetst of het gehele model significant is.
Hier kijken we dus of de drie onafhankelijke variabelen samen een significant deel van de
spreiding in tevredenheid kunnen verklaren.
In de vierde tabel staat informatie over de regressiecoëfficiënten. Hier kijken we per
onafhankelijke variabele of deze een significante voorspeller is van tevredenheid.
De gestandaardiseerde coëfficiënten, de beta’s, kunnen we gebruiken om te bepalen wat de
belangrijkste predictor is van tevredenheid. De onafhankelijke variabele met de in absolute
zin wil zeggen dat het teken (+ of -0) niet uitmaakt. Je kijkt dus puur naar wat de meest
extreme waarde is.
3
, Voer de hiërarchische regressieanalyse uit in SPSS:
- Analyze > Regression > Linear
- Plaats de onafhankelijke variabelen van het oorspronkelijke model in Block 1 of 1
- Klik op next. Hiermee kun je een nieuw blok met variabelen toevoegen. Hier selecteer
je alleen de extra variabelen: het is dus niet nodig de drie variabelen uit het eerste blok
nogmaals te selecteren. In dit geval plaats je in het tweede blok dus steun van de
ouders en steun van de docenten.
- Vraag onder Statistics om R squared change.
- Klik op OK
De output die je nu krijgt lijkt op de output van de vorige multiple regressie. We geven voor
de eerste vier tabellen van de output per tabel aan welke (nieuwe) informatie je hieruit kunt
halen.
1. In de eerste tabel staat weer weer de onafhankelijke en afhankelijke variabelen zijn.
Specifiek staat er per model (1 en 2) welke onafhankelijke variabelen er in die stap
zijn toegevoegd.
2. In de tweede tabel staan weer de algemene kwaliteitsgegevens van het regressiemodel
In het linkerdeel van de tabel staan de kwaliteitsgegevens per model (in aparte regels voor
model 1 en model 2). In het rechterdeel van de tabel staan de Change statistics. Hierin wordt
aangegeven hoe de kwaliteitsgegevens over de modellen heen veranderen.
In de derde tabel staan nu de uitkomsten van de twee F-toetsen die toetsen of bij model 1 2n 3
het gehele model significant is. Het verschil met de Sig F change in de vorige stap, is dat we
toen specifiek toetsten of de toename in verklaarde variantie significant is. Terwijl we in deze
ANOVA-tabel alleen kijken of de modellen als geheel significant zijn.
In de vierde tabel staat weer informatie over de regressiecoëfficiënten. Hier kijken we per
model per onafhankelijke variabele of deze een significante voorspeller is van tevredenheid.
Anova
In het model waarin één afhankelijke variabele is en één onafhankelijke (conditie: de
experimentele of controlegroep) is er niets dat de variantie binnen de groepen verklaart, de
variantie binnen de groepen is variantie die niet verklaard wordt door het model.
De groene accolade geeft de onverklaarde
variantie aan. De blauwe accolade geeft de totale
variantie in de afhankelijke variabele weer. Een
deel van deze variantie kan verklaard worden
door de verschillen tussen groepen. Een ander
deel van deze variantie betreft verschillen binnen
groepen, maar die variantie wordt dus niet
verklaard door het model.
4
Voordelen van het kopen van samenvattingen bij Stuvia op een rij:
Verzekerd van kwaliteit door reviews
Stuvia-klanten hebben meer dan 700.000 samenvattingen beoordeeld. Zo weet je zeker dat je de beste documenten koopt!
Snel en makkelijk kopen
Je betaalt supersnel en eenmalig met iDeal, creditcard of Stuvia-tegoed voor de samenvatting. Zonder lidmaatschap.
Focus op de essentie
Samenvattingen worden geschreven voor en door anderen. Daarom zijn de samenvattingen altijd betrouwbaar en actueel. Zo kom je snel tot de kern!
Veelgestelde vragen
Wat krijg ik als ik dit document koop?
Je krijgt een PDF, die direct beschikbaar is na je aankoop. Het gekochte document is altijd, overal en oneindig toegankelijk via je profiel.
Tevredenheidsgarantie: hoe werkt dat?
Onze tevredenheidsgarantie zorgt ervoor dat je altijd een studiedocument vindt dat goed bij je past. Je vult een formulier in en onze klantenservice regelt de rest.
Van wie koop ik deze samenvatting?
Stuvia is een marktplaats, je koop dit document dus niet van ons, maar van verkoper bentebarentsen. Stuvia faciliteert de betaling aan de verkoper.
Zit ik meteen vast aan een abonnement?
Nee, je koopt alleen deze samenvatting voor €3,48. Je zit daarna nergens aan vast.