100% tevredenheidsgarantie Direct beschikbaar na betaling Zowel online als in PDF Je zit nergens aan vast
logo-home
Kennisclips aantekeningen Onderzoeksmethoden (SOW-CWM060) €3,96
In winkelwagen

College aantekeningen

Kennisclips aantekeningen Onderzoeksmethoden (SOW-CWM060)

 22 keer bekeken  2 keer verkocht

Aantekeningen van alle kennisclips van onderzoeksmethoden (kwantitatief onderzoek).

Voorbeeld 2 van de 8  pagina's

  • 11 oktober 2024
  • 8
  • 2024/2025
  • College aantekeningen
  • Jonathan van 't riet
  • Alle colleges
Alle documenten voor dit vak (4)
avatar-seller
ilsevanosenbruggen
Onderzoeksmethoden
Aantekeningen kennisclips
Voorbereiding
Clip 1: Ordinary Least Squares
Waarom regressienalayse? Als we de relatie tussen twee of meer variabelen willen
onderzoeken.
- X→Y
- X beïnvloedt Y (causale relatie)
- Onafhankelijke variabele → Afhankelijke variabele
- X voorspelt Y (niet-causale relatie)
- Predictor → Criterium
Puntenwolk: sterkte aflezen door middel van lijn (beste lijn = lijn door het midden van de
puntenwolk).
- Perfect horizontale lijn: geen relatie tussen variabelen.
- Ordinary least squares methode gebruik je om te kijken welke lijn het beste bij de data
past.
Ordinary least squares methode:
- Er zullen altijd datapunten zijn die niet op de lijn liggen
- Dat komt omdat ze een andere Y-waarde hebben dan de lijn voorspelt
- Die verschillen heten residuals of fouten of error
- Al die verschillen kun je kwadrateren en bij elkaar optellen
- Dit totale gekwadrateerde verschil zegt iets over hoe de lijn bij de data past
- De lijn die resulteert in het kleinste totale gekwadrateerde verschil is de beste lijn.
Punten die afwijken van de lijn zijn residuals: verschillen tussen de punten en de lijn. Lijn met
het kleinste verschil/kleinste afstand tussen de meeste punten = best passende lijn.

Berekenen: optelsom gekwadrateerde residuals (verschil y-waarde punt en y-waarde lijn).
Waarom kwadrateren? Als je de verschillen optelt, dan komt er altijd 0 uit! Kwadrateer je?
Dan is dit probleem opgelost.

Clip 2: Regressievergelijking
Herinnering= B0 + B1 * Cognitieve belasting + E
- B0= constante (punt waar de lijn door de y-as gaat) → voorspelde waarde van Y
wanneer X = 0
- B1= het regressiegewicht of de regressie coëfficiënt (effect onafhankelijke variabele)
→ wanneer X met 1 stijgt, stijgt de voorspelde waarde van Y met b1
- Cognitieve belasting = de waarde op cognitieve belasting
- E= de residual (verschil tussen lijn en punt)

Clip 3: Model fit
Hoe goed past een lijn bij de data? Sum of Squares of the residuals → Residual Sum of
Squares → RSS
- Hoe lager de RSS hoe beter!
- Grotere sample = een grotere RSS
- Een andere schaal → een andere RSS

, Total sum of squares (TSS): totale spreiding in de puntenwolk/ totale variantie in de data.
Hoeveel de datapunten afwijken ten opzichte van het gemiddelde (nog onverklaard). RSS ook
onverklaard.
(TSS-RSS) / TSS = getal *100 = percentage afwijkingen → R2 = variantie die verklaard wordt
door de regressielijn = verklaarde variantie van het regressiemodel.

Conventionele interpretatie van R2
R2 = ,02 → klein
R2 = .13 → middelgroot
R2 = .26 → groot

SSregression: Sum of Squares of the Regression: hoeveel van de variantie die NIET verklaard
werd door het gemiddelde, wordt nu WEL verklaard door de regressielijn.

R2= 1 – (SSR/SST). Kan geïnterpreteerd worden als de verklaarde variantie.

Week 5
Clip 1: Voorwaarden
Lineaire regressie analyse steunt op een aantal aannames
1. De onafhankelijke en afhankelijke variabelen zijn op intervalniveau gemeten.
a. Getallen met verschillen! Verschillen tussen afstanden betekenen hetzelfde
over de schaal.
b. Hoe zit dat met dummy’s? 0 of 1. Bijvoorbeeld 0 (man) versus 1 (vrouw) →
kan verschil in zitten/ bepaalde rangorde in variabelen.
2. Er is een lineair (rechtlijnig) verband
3. Geen respondenten die in hun uppie heel veel invloed uitoefenen (outliners)
a. Veel invloed (influence) door: grote afstand tot het gemiddelde op de x-as
(leverage: hoe meer rechts of hoe meer links (denk aan een wip) hoe groter het
verschil→ soort hefboom/wip). Of grote afstand tot het gemiddelde op de y-as.
b. Maat voor invloed van elke respondent = Cook’s distance. Bij voorkeur niet
groter dan 1!
4. De residuals zijn (ongeveer) normaal verdeeld.
➔ Gevolg van deze voorwaarde: dichotome afhankelijke variabelen (hebben maar twee
waarden zoals hoog versus laag) NIET toegestaan in een lineaire regressie analyse →
want dan krijg je geen normale verdeling.

Clip 2: Mediatie

Voordelen van het kopen van samenvattingen bij Stuvia op een rij:

Verzekerd van kwaliteit door reviews

Verzekerd van kwaliteit door reviews

Stuvia-klanten hebben meer dan 700.000 samenvattingen beoordeeld. Zo weet je zeker dat je de beste documenten koopt!

Snel en makkelijk kopen

Snel en makkelijk kopen

Je betaalt supersnel en eenmalig met iDeal, creditcard of Stuvia-tegoed voor de samenvatting. Zonder lidmaatschap.

Focus op de essentie

Focus op de essentie

Samenvattingen worden geschreven voor en door anderen. Daarom zijn de samenvattingen altijd betrouwbaar en actueel. Zo kom je snel tot de kern!

Veelgestelde vragen

Wat krijg ik als ik dit document koop?

Je krijgt een PDF, die direct beschikbaar is na je aankoop. Het gekochte document is altijd, overal en oneindig toegankelijk via je profiel.

Tevredenheidsgarantie: hoe werkt dat?

Onze tevredenheidsgarantie zorgt ervoor dat je altijd een studiedocument vindt dat goed bij je past. Je vult een formulier in en onze klantenservice regelt de rest.

Van wie koop ik deze samenvatting?

Stuvia is een marktplaats, je koop dit document dus niet van ons, maar van verkoper ilsevanosenbruggen. Stuvia faciliteert de betaling aan de verkoper.

Zit ik meteen vast aan een abonnement?

Nee, je koopt alleen deze samenvatting voor €3,96. Je zit daarna nergens aan vast.

Is Stuvia te vertrouwen?

4,6 sterren op Google & Trustpilot (+1000 reviews)

Afgelopen 30 dagen zijn er 53340 samenvattingen verkocht

Opgericht in 2010, al 14 jaar dé plek om samenvattingen te kopen

Start met verkopen
€3,96  2x  verkocht
  • (0)
In winkelwagen
Toegevoegd