Een samenvatting van alles wat men moet lezen voor onderzoekspracticum 2 betreffende dit boek. Informatie van onder andere de colleges zijn erin verwerkt voor meer duidelijkheid.
Onderzoekspracticum 2
Samenvatting MMC
Alle literatuur uit OP1 wordt bekend veronderstelt. Mocht je de tekens niet langer herkennen pak
dan de samenvatting van de formules en tekens van OP1 er bij, of kijk naar de laatste bladzijde van
het document, waar alle tekens staan uitgelegd.
____________
7.1 Inference for the Mean of a Population
De t verdelingen
Als we standaarddeviatie van een populatie weten dan gebruiken wij de z-toets. Als deze niet
bekend is gebruiken wij de t-toets. We gebruiken ‘s’ (SD van steekproef) om σ te schatten. Schatten
betekent minder zekerheid.
Het resultaat van de t-toets formule noemen we de standaard error (SE). Dit omdat er door het
schatten standaard een ‘error’ in zit.
SEx̄ = s / (√n) ipv de eerdere σx̄ = σ / (√n)
De verdeling van een t-toets is niet een normaalverdeling.
t = (x̄ – μ) / (s / √n)
Het resultaat van deze formule is een t-distributie met n – 1 vrijheidsgraden t(k) (volgens de
colleges noemen we vrijheidsgraden ‘df’ Voor Degrees of Freedom. Zo zal ik het ook in de
samenvatting noemen). df staat hier voor de vrijheidsgraden. Ook s heeft n – 1 vrijheidsgraden. De
t-distributie ziet er vrijwel hetzelfde uit als je het vergelijkt met de normaalverdeling. Symmetrisch
rond 0 en klokvormig. Er blijkt meer variabiliteit in de resultaten. Er zijn minder resultaten rond het
gemiddelde en meer rond de ‘staarten’ (waardoor het niet precies een normaalverdeling is). Dit
komt door het gebruik van de s voor het vinden van σ. Met meer vrijheidsgraden komt de t-
distributie meer richting de normaalverdeling. Dit laat zien dat s dichterbij σ zit door meer mensen
in de steekproef.
Het betrouwbaarheidsinterval van één-sample t-toets.
Het enige verschil tussen een z-toets en een t-toets is dat σ niet bekend is, dus we vervangen die met
s.
Het berekenen van het betrouwbaarheidsinterval gaat als volgt:
x̄ + t* (s / √n) en x̄ – t* (s / √n)
t* is hier de waarde waarbij het oppervlak onder de verdelingscurve van de t-verdeling met n – 1
vrijheidsgraden tussen –t* en t*, gelijk is aan C% (C=confidence, dus bv 95%).
Een voorbeeld:
Gegeven is: x̄ = 14,5; s =14,854; n = 8; vrijheidsgraden = n – 1; betrouwbaarheidsinterval = 95%
SEx̄ = s / √n dus 14.5 / √8 = 5.252
Uit tabel D kan je dan aflezen dat t* = 2.365
x̄ + t* (s / √n) en x̄ – t* (s / √n) dus 14.5 + 2.365 (14.854 : √8)
14.5 + 2.365 (5.252)
14.5 + 12.421 en 14.5 – 12.421
Antwoord: (2.08, 26.92)
We zijn er nu 95% zeker van dat het resultaat tussen 2.08 en 26.92 zit.
Het gemiddelde was 14.5 met een foutmarge van 12.4. De foutmarge is hoog in vergelijking met het
gemiddelde. Om dit te verlagen gebruik je een grotere steekproef.
De één-steekproef t-test
Herinner je het vinden van P-waardes.
Ha: μ > μ0 is P(T > t)
Ha: μ < μ0 is P(T < t)
Ha: μ ≠ μ0 is 2P(T > |t|)
,Stel H0: μ = 18.5 en Ha: μ ≠ 18.5; n = 8; x̄ = 14.5; s = 14.854
Dan blijkt uit de t-toets met de formule t = (x̄- μ0) / (s / √n) het volgende
(14.5 – 18.5) / (14.854 / √8) = -0.762
2P (T>0.762). Uit tabel D kan je aflezen, als je t(7) gebruikt wegens n = 8 – 1 door de
vrijheidsgraden, dat P(T>0.711) = 0.25 en P(T>0.896 = 0.20. De P-waarde zit dus tussen 2 x 0.20 =
0.40 en 2 x 0.25 = 0.50 en is dus niet significant.
Gematchte paren bij t procedures (ofwel de gepaarde t-toets)
Gematchte paren is een andere methode om je proefpersonen in te delen. In plaats van enkel
willekeurig deel je de proefpersonen in op één variabele zoals leeftijd, geslacht of inkomen. Dit is
een comparatief design met maar één steekproef die sterk is tegen confounding. Het idee is dat de
matches meer bij elkaar horen, en dat er uit een analyse dus een kleinere SD zou komen.
Equivalentie testen: een aanpak waarin men wil bewijzen dat het gemiddelde verschil rond de 0
ligt (en dat de nulhypothese waar is).
Reminder wat verstoring is:
Verstoring (confounding): X, Y en Z worden allen in relatie met elkaar gezien. Er is onbekend wat
door wat komt omdat de variabelen in elkaar verward zijn. Voorbeeld: hoge BMI van dochters
wordt veroorzaakt door hoogte BMI van hun moeders? Of komt het door een ongezond eetpatroon
of leefgewoonten. Alles is in elkaar verstrengeld.
De robuustheid van de t procedures
De t-toets kan alleen gebruikt worden bij normaalverdelingen. Als het niet veel uit blijkt te maken
dat een regel als deze wordt overtreden dan heeft dat robuust. De t-toets kan ook bij enigszins
schuine verdelingen gebruikt worden en is dus robuust. Het kan niet zo goed tegen uitschieters,
maar met grotere steekproeven wordt het steeds meer accuraat. Je kan de volgende maten volgens
MMC bij hand houden:
n = <15: alleen bij normaalverdelingen t gebruiken.
n = 15-40: t kan gebruikt worden behalve bij uitschieters of sterke scheefheid.
n = >40: kan ook bij scheve distributies gebruikt worden.
Bij het college is genoemd dan bij n = >100 je net zo goed een z-toets kan doen, omdat er geen
verschil meer te zien is. Dit wordt echter in de praktijk nooit gedaan.
Extra: Het aflezen van tabel D:
Stel je n = 56. Dan is bij een t-toets de df = 55 want df = n – 1. Je hebt een p-waarde van 2.27
gevonden.
Kijk naar tabel D.
Kijk links naar de df.
Bij 50 of 60? Ze zijn beide even dichtbij. Wat is het meest conservatief (waar reken ik mijzelf niet
rijk)? De df die kleiner is ofwel 50.
De p waarde van 2.27 zit tussen de 2.109 en de 2.403 in. Kijk boven in de tabel naar de p.
P (T>2.109) = .02
P (T>2.403) = .01
Je tweezijdige P-waarde zit dan dus tussen de .02 en de .04. Dus significant want het is onder
Fisher’s alpha van 0.05.
, 7.2 Comparing two means (Blz. 432 – 448) [onafhankelijke t-toets]
Iets wat wij vorig jaar met OP1 niet hebben gehad is het vergelijken van meerdere steekproeven.
Bijvoorbeeld als een bank wil weten welke van de twee plannen meer op zal leveren.
Drie regels bij de twee-steekproef problemen:
– Het doel van de gevolgtrekking is om de gemiddelden van de responsvariabele van de twee
groepen te vergelijken.
– Elke groep is een steekproef van een verschillende populatie.
– De respons van elke groep is onafhankelijk van de andere groep.
De twee steekproeven mogen van verschillende groottes zijn en er is geen matching zoals in 7.1
genoemd. Een methode om de resultaten te laten zien is met een dubbele boxplot. Tijdens het meten
noteren we de statistieken als volgt:
Populatie Variabele Gemiddelde Standaard deviatie
1 x1 μ1 σ1
2 x2 μ2 σ2
We kunnen de twee populaties vergelijken door een betrouwbaarheidsinterval voor μ1 – μ2 of door
de hypothese te testen (H0: μ1 = μ2; Ha: μ1 ≠ μ2).
The two-sample z statistic [onafhankelijke z-toets]
Om hier het verschil te zien hoeven we enkel x̄1 – x̄2 te doen. Het gemiddelde verschil hiertussen is
ook het verschil bij μ1 – μ2 (69 – 60 = 9. Gemiddeld 9 verschil tussen de twee resultaten).
De variantie van het verschil x̄1 – x̄2 is de som van hun varianties (general addition rule). De
formule hiervoor is:
σ²1 / n1 + σ²2 / n2 = variantie van de variabelen
Neem de wortel van dit resultaat voor de standaarddeviatie.
In geval van een normaalverdeling is het verschil in steekproefgemiddelden ook normaal verdeeld.
Een formule om te meten wat de kans is dat steekproef 1 gemiddeld groter is dan steekproef 2:
P ( x̄1 – x̄2 > 0) = P (( x̄1 – x̄2) – gemiddelde verschil : σ > 0 – gemiddelde verschil : σ)
= P (Z > – 0.61) = 0.7291
– 0.61 is af te lezen in tabel a en geeft .2709.
De kans dat van beide populaties het gemiddelde en de SD bekend zijn is klein, dus een
onafhankelijke z-toets komt bijna nooit voor.
The two-sample t procedures [onafhankelijke t-toets]
De onafhankelijke t-toets (er zijn 2 groepen en we meten het verschil tussen de twee):
t = ((x̄1 – x̄2) – (μ1- μ2)) : (√(s²1 : n1) + (s²2 : n2))
Er komt geen t-distributie uit, omdat we twee keer de SD van een steekproef moeten gebruiken. We
kunnen wel de distributie van het twee-steekproef benaderen met vrijheidsgraden k. Zo vinden we
ongeveer de t* voor de betrouwbaarheidsinterval en de p waardes.
Er zijn twee benaderingen:
1. De Satterthwaite approximation voor het vinden van k (gebruiken we niet in OP2!).
2. Gebruik de k die de kleinste is van deze twee resultaten: n1 – 1 en n2 – 1. Zonder software is deze
makkelijker. Daarnaast is deze conservatief (grotere P waardes als resultaat dus veiliger).
The two-sample t confidence interval
De betrouwbaarheidsinterval voor μ1 – μ2 is:
(x̄1 – x̄2) + t* √(s²1 / n1 + s²2 / n2) en (x̄1 – x̄2) – t* √(s²1 / n1 + s²2 / n2)
Hier is t* √(s²1 / n1 + s²2 / n2) de foutmarge.
Een voorbeeld. Laten we het experiment KIND noemen:
Groep n x̄ s
Voordelen van het kopen van samenvattingen bij Stuvia op een rij:
Verzekerd van kwaliteit door reviews
Stuvia-klanten hebben meer dan 700.000 samenvattingen beoordeeld. Zo weet je zeker dat je de beste documenten koopt!
Snel en makkelijk kopen
Je betaalt supersnel en eenmalig met iDeal, creditcard of Stuvia-tegoed voor de samenvatting. Zonder lidmaatschap.
Focus op de essentie
Samenvattingen worden geschreven voor en door anderen. Daarom zijn de samenvattingen altijd betrouwbaar en actueel. Zo kom je snel tot de kern!
Veelgestelde vragen
Wat krijg ik als ik dit document koop?
Je krijgt een PDF, die direct beschikbaar is na je aankoop. Het gekochte document is altijd, overal en oneindig toegankelijk via je profiel.
Tevredenheidsgarantie: hoe werkt dat?
Onze tevredenheidsgarantie zorgt ervoor dat je altijd een studiedocument vindt dat goed bij je past. Je vult een formulier in en onze klantenservice regelt de rest.
Van wie koop ik deze samenvatting?
Stuvia is een marktplaats, je koop dit document dus niet van ons, maar van verkoper berkvdzwaan. Stuvia faciliteert de betaling aan de verkoper.
Zit ik meteen vast aan een abonnement?
Nee, je koopt alleen deze samenvatting voor €5,99. Je zit daarna nergens aan vast.