- Variantie: spreiding scores rond gemiddelde, gemiddelde gekwadrateerde afwijkingen
- Standaarddeviatie: vierkantswortel van variantie. Maat voor spreiding binnen
steekproef/populatie. Hoe individuele waarnemingen zich verspreiden rond het gemiddelde.
- Ordinaal: categorieen die men kan ordenen, afstand is niet helemaal duidelijk (bv. Likert
schaal)
- Interval: categorieen die je kan ordenen met duidelijke afstand, geen absoluut 0-punt (bv.
Temperatuur)
- Ratio: zelfde als interval maar met absoluut 0-punt (bv. Aantal goed beantwoorde vragen)
- Afwijkingsscore (z-score): de score die aangeeft in welke mate 1 observatie afwijkt van het
populatiegemiddelde (verschil gemiddelde en populatiegemiddelde / standaardfout)
- Standaardfout: maat voor de onzekerheid of precisie van een statistische schatting, zoals het
gemiddelde of regressie coefficient, gebaseerd op een steekproef. Geeft aan hoeveel de
steekproefstatistiek kan varieren ten opzichte van de werkelijke populatie parameter. Dus
maat voor onzekerheid/nauwkeurigheid
- T score: bij t-verdeling.
- One sampled t toets: verschil tussen gemiddelde van een steekproef en specifieke waarde
- Gepaarde t toets: verschil tussen 2 condities, iedereen heeft de condities doorlopen
- Correlatie toets: wat is het verband tussen de 2 gemeten variabelen
- T toets voor 2 onafhankelijke steekproeven: verschil tussen 2 verschillende steekproeven. 2
verschillende groepen.
- Gepoolde variantie: om een standaardfout van de 2 groepen, moet je rekening houden met
steekproefverdelingen. Deze info moet gecombineerd worden
Netwerken
- Spreading activation: netwerk waarin activatie verspreid wordt
- Symbolische kennis: elk brokje kennis in 1 neuron
- Subsymbolische kennis: elk brokje kennis verspreid over meerdere neuronen (hersenen zijn zo)
- Hebbian learning: leren werkt doordat er verschillende neuronen samen actief zijn
- Connectionisme: connectionisme is de studie van hoe leren voor kan komen door het
versterken/verzwakken van connecties tussen representaties van stukken informatie en/of
gedragsresponsen
- Parallel Distributed processing: de representatie van kennis is verdeeld (gedistribueerd) over het
hele netwerk, i.p.v. op een specifieke locatie (neuron) → subsymbolisch
- Perceptron: model met input (s), output/activatie (a) en verbindingen ertussen (w)
- Multi-layered networks: schakeling van single layered perceptrons (dus met hidden layers
- Xor problem: je kan geen rechte lijn trekken
- Unsupervised learning: ‘automatische’ verandering van gewicht in relatie tot de mate van
associatie tussen inkomende activaties, hebbian learning.
- Hebb rule: gewichten kunnen veranderen als het product van de activatie van de ene en andere
neuron. Gewichten tussen neuronen in een neuraal netwerk veranderen op basis van de mate
van associatie tussen hun inkomende activaties. Dus stel neuron i en j zijn actief → verandering
gewicht. Hangt af van constante (k) = snelheid waarmee je leert. Als k – is geen verandering.
- Supervised learning; de verandering van gewichten zijn in relatie tot de ‘fout’ van de output (bv.
Je denkt iemand te herkennen = niet zo → leer je van en herstructureer je netwerk). Stappen:
1. Bereken de fout voor elke output node
Classificatie: Corporate
, 2. Pas de gewichten aan naar de geactiveerde input nodes. Dus verandering gewicht = k x de fout
x de input (als input 0 is kan je die niet aanpassen)
- Delta rule: gaat niet om of input en output actief is, maar gaat om de input en de fout. Als je er
heel erg vanaf zit worden je gewichten heel erg aangepast. Dus je kijkt of de output node
overeenkomt met wat je verwacht had. Kan alleen bij perceptrons
- Backpropagation of error: oplossing multi-layer leren. De fout op de output wordt gebruikt om
de gewichten in de laatste layer aan te passen, daarna activatie hidden layer om de activatie een
layer eerder aan te passen, je propageert de fout terug naar de eerste laag = essentie deep
learning
- Hopfield network: memory maintainance: leren van associaties om graceful degradation
(neuronen kapot) tegen te gaan
- Box and arrow modellen: geeft stappen weer die je doormaakt als je een plaatje benoemd.
Belangrijk element is self-monitoring gedurende proces, maar super vaag wat is het?
- Model: abstract iets dat structuur in je data reflecteert. Beschrijving van de werkelijkheid,
versimpeling van de werkelijkheid, voorspelling van de toekomstige werkelijkheid
- Cognitief model: speciale relatie weergeven wat met cognitie te maken heeft. Voordeel:
- voorkomt handwaiving (je moet preciezer zijn)
- helpen om hele complexe mechanismen te beschrijven
- leiden tot falsifieerbare voorspellingen
- modellen vergelijken
- geeft cognitieve interpretatie van de mechanismes
- Power law van leren: leren verbetert volgens een power functie (gaan sneller, minder fouten).
- Rational analysis of memory: theorie over waarom leren en geheugen zo werken dat wanneer je
meer oefent minder vervaagd. Relateert de snelheid van recall aan de werkelijkheid. Je vergeet
iets als onthouden meer kost dan het opleveren. Hangt af van recency en frequency (ook recall =
waarschijnlijkheid dat je een feitje moet kennen in de nabije toekomst
- activatie: hoe actief is het stukje. Hangt af van decay (vervaag) en hoe vaak je wat gebruikt
(frequency) en recency. Activatie voorspelt direct retrieval latency (hoe lang het duurt voor je
iets terug haalt)
- Evidence accumulation modellen:. Ook fmri. Staan dichtbij gedrag, kunnen heel precies gedrag
voorspellen. De theoretische basis staat heel dicht bij hoe de hersenen werken. Beschrijft keuze
gedrag als een race tussen verschillende opties
- Linear ballistic accumulator model: beschrijft keuze gedrag (wedstrijd tussen verschillende
opties). Handig want je kan experimenten doen met proefpersonen, reactietijden meten en
daarna bepalen wat de parameters zijn van je cognitieve model met wat het beste het gedrag
beschrijven = modelfitting
- Modelfitting: het passen van een model op de data. Kijken naar de beste parameters met de
minst onverklaarde variantie
- Treshold: afstand waarover je moet accumuleren. Bv wanneer je instructie krijgt dat je sneller
moet zijn, gaat de grenswaarde lager (je hebt minder evidentie nodig en dus minder afstand). Als
deze verander, verandert alles
- Drift rate: snelheid waarmee evidentie wordt verzamelt
- Speed-accuracy trade-off: hangt samen met de hoogte van de treshold. Stratum heeft invloed.
Bij snelheid of accuraat zijn gaat ten koste van ander
- Cortex: beslisnetwerk
- Striatum: betrokken bij bepalen dat er een beslissing moet worden genomen (wellicht bepaald
dit treshold waarde)
- Pre supplementary motor area: koppelen threshold aan gedrag
Classificatie: Corporate
Voordelen van het kopen van samenvattingen bij Stuvia op een rij:
Verzekerd van kwaliteit door reviews
Stuvia-klanten hebben meer dan 700.000 samenvattingen beoordeeld. Zo weet je zeker dat je de beste documenten koopt!
Snel en makkelijk kopen
Je betaalt supersnel en eenmalig met iDeal, creditcard of Stuvia-tegoed voor de samenvatting. Zonder lidmaatschap.
Focus op de essentie
Samenvattingen worden geschreven voor en door anderen. Daarom zijn de samenvattingen altijd betrouwbaar en actueel. Zo kom je snel tot de kern!
Veelgestelde vragen
Wat krijg ik als ik dit document koop?
Je krijgt een PDF, die direct beschikbaar is na je aankoop. Het gekochte document is altijd, overal en oneindig toegankelijk via je profiel.
Tevredenheidsgarantie: hoe werkt dat?
Onze tevredenheidsgarantie zorgt ervoor dat je altijd een studiedocument vindt dat goed bij je past. Je vult een formulier in en onze klantenservice regelt de rest.
Van wie koop ik deze samenvatting?
Stuvia is een marktplaats, je koop dit document dus niet van ons, maar van verkoper lisechantalalma. Stuvia faciliteert de betaling aan de verkoper.
Zit ik meteen vast aan een abonnement?
Nee, je koopt alleen deze samenvatting voor €5,83. Je zit daarna nergens aan vast.