Oplossingen op bijna alle mogelijke vragen voor het mondeling examen van Onderzoeksmethoden 3. Eigenlijk een samenvatting van de theorie die je op het examen moet kennen met steeds de bijbehorende vraagstelling van op het examen. Gegeven door prof. Smet en Tierens te Campus Carolus in Antwerpen.
Vragen OZM
GROTER DAN 0,05 is niet verwerpen, kleiner dan 0,05 is verwerpen
Endogene variabele= afhankelijke variabele, Exogene variabele= onafhankelijke variabelen
Belangrijke tabel
Eerst de bovenste 3 oplossen, dan pas de rest.
Verschil standaard error en standaarddeviatie
Standaarddeviatie: Berekenen op iets wat je observeert, dus de spreidingsmaat op je X’n
Standaarderror: Spreiding rond iets geschat, dus niet iets dat je observeert maar dat je
schat.
Standardized coefficient (bèta) interpreteren
Alle standardized coefiicients zijn gemeten in dezelfde eenheid, namelijk standaarddeviatie.
Voordeel: verschillende eenheden zijn omgezet in standaarddeviaties waardoor je het
relatieve gewicht van de impact van verschillende variabelen kan beoordelen.
Interpretatie: als X stijgt met 1 standaardafwijking dan zal Y wijzigen met Bèta
standaardafwijking. Wanneer we veel variabelen hebben is deze methode goed om te
weten welke variabele de meeste impact heeft omdat alles in dezelfde eenheid staat,
namelijk standaardafwijking.
Wanneer is het gemiddelde van residuals nul?
Als je een sample size hebt die tegen oneindigheid aanleunt dan gaat je gemiddelde nul zijn.
Bij een kleine sample size kan het voorvallen dat je een gemiddelde hebt dat niet nul is maar
dan gaat je constante term niet-nul gemiddelde opvangen.
Standaardafwijking in de coëfficiëntentabel interpreteren en wat heeft
hier een invloed op? Hoe bereken je de standaardafwijking?
Standaardafwijking is de gemiddelde afwijking van de waarde t.o.v. de parameter. Het is
een maat voor spreiding, het is de onzekerheid.
Heteroskedasticiteit, multicollineariteit en autocorrelatie en over- of underfitting hebben
hier een invloed op.
Je berekent de standaarderror voor uw heel model door de vierkantwortel te doen van de
breuk SSR/df.
,Je berekent de standaarderror voor uw Bèta door:
T-test uitvoeren
Je kan de t-test gebruiken om lineaire restricties op één of twee parameters te testen:
Testen of 1 parameter gelijk is aan een specifieke waarde (bv. Bèta = 5)
Testen of 2 parameters gelijk zijn aan elkaar (Bèta 1 = Bèta 2)
Testen of de som (of het verschil) van 2 parametes gelijk is aan een specifieke
waarde (Bèta 1 + Bèta 2 = 0 Bèta1 = -Bèta2)
Je moet de waarde die je uitkomt (tcalc) vergelijken met de tcrit die je afleest uit je tabel.
Indien je tcalc kleiner is dan je tcrit verwerp je de nulhypothese niet.
Indien we de nulhypothese H0: Bèta = 0 niet kunnen verwerpen kunnen we niet zomaar
deze variabelen uit ons model gooien. Je moet ook kijken naar de economische interpretatie
(zoals door studies, theorieën,.. ). Daarnaast als je t tussen 1 en 2 (en -1 en -2) zit dan is de
individuele impact niet zo sterk maar kan het model wel voordeel halen als je deze er laat.
Indien de t test groter is dan 2 (of -2) dan laat je de variabelen sowieso in het model.
In SPSS kan je Bèta delen door standaarderror en dan bekom je de t in de coëfficiëntentabel.
Handmatig:
Hoe detecteer je extreme observaties
Je kan deze ex ante detecteren door een scatter plot (scatter plot matrix), boxplot of een
histogram. Daarnaast kan je het ook ex post detecteren door casewise diagnostics op te
zetten. Als je het getal dat je kan invullen dan bijvoorbeeld op 3 zet dan gaat SPSS alle cases
op lijsten die meer dan 3 standaarddeviaties afwijken van het gemiddelde.
Een andere ex post methode is het opvragen van de Zpred/Zresid plot en de normal
probability plot (PP plots). Ook DfBèta’s zijn een ex post methode.
DfBèta: het verschil in bèta waarden is de verandering in de regressie coëfficiënten die
resulteren uit de uitsluiting van een bepaalde case. Een waarde is berekend voor iedere
term in het model, inclusief de constante.
, Standardized DfBèta: gestandaardiseerde verschillen in bèta waarden. Een waarde is
berekend voor iedere term in het model, inclusief de constante. Vuistregel: absolute
waardes van 1 of groter zijn over het algemeen aanzien als outlier.
Stork theorie
Theorie om aan te tonene dat correlatie niet gelijk is aan causaliteit. Het geboortecijfer is
gecorreleerd met het aantal ooievaars. Er is dus een samenhang tussen deze 2. Als het
aantal ooievaars daalt dan daalt het geboortecijfer. Maar dit betekent niet dat er causaliteit
is. Causaliteit is namelijk dat er een oorzaak is en een gevolg. Er kan dus samenhang zijn
tussen twee grootheden, correlatie dus, zonder dat er causaliteit is. Een ander voorbeeld is
dat als het aantal scheidingen naar boven gaat, dat de consumptie van boter ook stijgt. Er is
dus correlatie maar zeker geen causaliteit.
Heeft de F in ANOVA iets te maken met F-testen?
Ja. De uitkomst van de berekening van je F test met als nulhypothese dat alle coëfficiënten
(behalve de constante term) gelijk zijn aan nul, is hetzelfde als de F die in de ANOVA tabel
staat. Als je in de ANOVA tabel bij mean square gaat. En je deelt de mean square van je
regressie door de mean square van je residu’s dan krijg je de F waarde van de tabel.
Invloed underfitting en overfitting op de coefficiententabel
Bij underfitting heb je omitted variables dus variabelen die je niet hebt opgenomen in je
regressie maar die wel een invloed hebben op je afhankelijke variabele. Door het weglaten
van deze variabele kan er een onder- of overschatting optreden van andere variabelen.
Bijvoorbeeld kan de Bèta van X1 overschat zijn indien X1 en X2 gecorreleerd zouden zijn en
X2 weggelaten wordt. Daardoor zou X1 gecorreleerd zijn aan de error term wat indruist
tegen één van de assumpties.
Overfitting is wanneer je een variabele in je model steekt die irrelevant is. Hier zal er geen
effect zijn op de coëfficiënten aangezien bijvoorbeeld Bèta 2 = 0 dus zal Bèta 1 unbiased zijn.
Echter is overfitting wel te vermijden aangezien dit leidt tot:
Onnodig verlies van degrees of freedom
Hogere variantie van de geschatte coëfficienten
Verminderen van de absolute waarde van de t-scores
Lagere R kwadraat adjusted
Hogere multicollineariteit
Overfitting is wel minder erg dan underfitting maar toch te vermijden.
Multicollineariteit + gevolgen + testen + hoe bereken je VIF (wat is de
R^2 in de formule?
Perfecte multicolleanariteit komt bijvoorbeeld voor als een variabelen een perfecte lineaire
combinatie is van 2 andere variabelen (bijvoorbeeld BTW bedrag bestaat uit uw prijs zonder
btw en uw btw percentage). Hierdoor heb je een oneindigheid aan oplossingen en kunnen
de coëfficiënten niet geschat worden. Andere voorbeelden zijn afstand in kilometer en
meter, temperatuur in celcius en farenheit,…
Les avantages d'acheter des résumés chez Stuvia:
Qualité garantie par les avis des clients
Les clients de Stuvia ont évalués plus de 700 000 résumés. C'est comme ça que vous savez que vous achetez les meilleurs documents.
L’achat facile et rapide
Vous pouvez payer rapidement avec iDeal, carte de crédit ou Stuvia-crédit pour les résumés. Il n'y a pas d'adhésion nécessaire.
Focus sur l’essentiel
Vos camarades écrivent eux-mêmes les notes d’étude, c’est pourquoi les documents sont toujours fiables et à jour. Cela garantit que vous arrivez rapidement au coeur du matériel.
Foire aux questions
Qu'est-ce que j'obtiens en achetant ce document ?
Vous obtenez un PDF, disponible immédiatement après votre achat. Le document acheté est accessible à tout moment, n'importe où et indéfiniment via votre profil.
Garantie de remboursement : comment ça marche ?
Notre garantie de satisfaction garantit que vous trouverez toujours un document d'étude qui vous convient. Vous remplissez un formulaire et notre équipe du service client s'occupe du reste.
Auprès de qui est-ce que j'achète ce résumé ?
Stuvia est une place de marché. Alors, vous n'achetez donc pas ce document chez nous, mais auprès du vendeur Frandemeule. Stuvia facilite les paiements au vendeur.
Est-ce que j'aurai un abonnement?
Non, vous n'achetez ce résumé que pour €8,49. Vous n'êtes lié à rien après votre achat.