Quantitative Forschungsmethoden - Zusammenfassung
Lektion 1 – Grundlagen quantitativer Sozialforschung
1.1 Entstehungskontext quantitativer Forschung
Perser Meinungsumfragen, Bevölkerung zählen für Steuererhebung und Anzahl der Soldatenmusterung
16. Jhd. Rationale administrative Planung durch Feststellen von militärischen Potenzial u. Sicherstellung der
Finanzierung des Staates
19. Jhd. Verschiebung des Schwerpunktes durch Elend u. Armut, dadurch Armutsforschung
1890 Charles Booth „A Survey of London Life and Labour“, erkannte Grenzen der Nächstenliebe
20. Jhd. Soziografie (sozialwissenschaftl. Forschungsrichtung die soz. Struktur einer bestimmten Einheit zB. Dorf
empirisch untersucht/beschreibt), USA: Wahlumfragen, DE: Bildung der Kölner Schule (Theorieschule
der westdeutschen Nachkriegssoziologie)
1950 Marktforschungsinstitute z. B. Emnid, Allensbach
1980 bisheriger Fokus: nationale Querschnittsforschung, Veränderung: Panels (wiederholte Befragungen, selbe
Individuen): breite Datenbasis für Längsschnittstudien u. internationale vergleichende Analysen,
Telefonische Befragen (CATI)
21 Jhd. Online-Befragungen
1.2 Quantitativer Forschungsbereich des lebenslangen Lernens
lebenslanges Lernen: normatives Konzept für erfolgreiche Wissensgesellschaft, Lernen während gesamten Lebens
-> Basis: 1. (zeitliche) Dimension: Alter des Lernenden
2. (institutionelle) Dimension: Kontext des Lernens, außerhalb der kl. Bildungssysteme
z. B. Studien zu Kosten/Nutzen der betriebl. Ausbildung für Staat/Lernenden, zur Weiterbildung als Bestandteil
lebenslangen Lernens, zum Thema Bildung im Alter
Individualebene: jeder Einzelne muss eigenverantwortlich seine Bildung u. Weiterbildung in die Hand nehmen
Trend der Teilnahmequote bei Weiterbildungen:
1. Phase (1991-1997): deutlicher Anstieg bei 18- bis 64-Jährigen (37 % auf 48 %)
2. Phase (2000-2010): Konsolidierung: Weiterbildungsquote sinkt zunächst etwas, variiert dann aber in einem
Zeitraum von 10 Jahren kaum (41 % - 44 %).
3. Phase: deutlicher Anstieg der Teilnahmequote auf 49 %, danach erneut Konsolidierung: 2016: Ergebnis von 50 %
1.3 Ethik in der quantitativen Sozialforschung
= Anwendung von „richtigen“ und „guten“ situationsbedingtem Handeln in allen Prozessen
Arbeitskreis Deutscher Markt- u. Sozialforschungsinstitute e. V. (ADM) u. Berufsverband Deutscher Markt- u.
Sozialforscher e. V.(BVM): Marktforschungs- bzw. Standesverbände in DE, geben Richtlinien vor
1.4 Merkmale quantitativer Forschungsmethoden
Forderung des „hypothetiko-deduktiven Modells“ (Hempel-Oppenheim-Schema oder HO-Schema):
Konzept basiert auf „deduktiv-nomologischen Erklärung“, besteht aus 2 Komponenten: Explanandum (dem „zu
Erklärenden“) u. Explanans (dem „Erklärenden“) allg. Gesetz u. Randbedingungen z. B. Realschüler
Idealfall des hypothetiko-deduktiven Forschungsprozesses:
1. Entwicklung eines Forschungsproblems + dazugehörigen Fragestellung
2. Suche nach theoretischen Ansatz zur Erklärung des Problems
3. Ableitung von Hypothesen aus gefundenen Theorie (Wenn-dann-Formulierungen)
4. Übersetzung der Begriffe aus Hypothesen in messbare Konzepte („Operationalisierung“)
5. Auswahl Methodik/Forschungsdesigns (Befragung)
6. Definition u. Auswahl der zu Befragenden
7. Durchführung der Datenerhebung (Befragung der Zielgruppe)
8. Analyse der Daten
1.5 Gütekriterien quantitativer Forschung
Objektivität: Ergebnisse sind unabhängig vom Einfluss des Versuchsleiters, Test immer gleiches Ergebnis
Verschiedene Arten:
Durchführungsobjektivität: Verhalten des Versuchsleiters, je standardisierter ein Versuch durchgeführt wird,
desto geringer ist Einfluss des Versuchsleiters
Auswertungsobjektivität: inwiefern unterschiedliche Auswertungen zu gleichen Ergebnissen kommen
Interpretationsobjektivität unterschiedliche Interpreten sollen aufgrund der vorliegenden Ergebnisse zu
gleichen Schlussfolgerungen kommen
1
, Reliabilität: identisches Ergebnis bei Wiederholung des Tests, Zuverlässigkeit
Bestimmung der Reliabilität eines Tests:
Retest-Reliabilität: identischer Test wird von einer Gruppe wiederholt
Paralleltest-Reliabilität: 2 verschiedene Tests werden für selbes Konstrukt entwickelt
Testhalbierungsreliabilität: wird Test halbiert, beide Hälften werden dann miteinander korreliert
Interne Konsistenz: Weiterentwicklung bei Testhalbierung-Reliabilität, gesamte Test wird in einzelne
Bestandteile zerlegt u. jeder Teil einzeln betrachtet, Stärke der Korrelation sagt etwas über Reliabilität aus
Validität: prüft, ob das gemessen wird, was tatsächlich gemessen werden soll
Inhaltsvalidität: Auskunft darüber, wie gut ein Test die zu messende Eigenschaft aufzeigt
Kriteriumsvalidität: Höhe der Korrelation von gemessenen Konstrukt mit Außenkriterium des Tests, über das
man eine Aussage treffen möchte, je höher die Korrelation, desto höher Validität
Konstruktvalidität: prüft wieweit Test von Grundüberlegungen her geeignet ist,
liegen gesicherte Hypothesen vor, lassen sich mit Test definitiv Rückschlüsse auf Konstruktvalidität ziehen,
liegen noch keine Hypothesen vor, kann dies als Indiz für Vorliegen von Konstruktvalidität gedeutet werden
Interne Validität: empirische Ergebnisse lassen sich mit untersuchten Hypothese erklären zB. Laborbedingungen
Externe Validität: Ergebnisse lassen sich auf andere Personen/Situation übertragen zB. Feldforschung
Lektion 2 – Methoden quantitativer Forschung
2.1 Fragebogen (häufigste Art der Datenerhebung) z. B. Meinungsumfragen, Mitarbeiterbefragungen
Asymmetrie: Interviewer weiß, dass er Personen befragen muss, Befragter wird überrascht
Reaktives Messverfahren: bewusste Befragungssituation
Nicht reaktive Messverfahren: unbewusste Befragungssituation, Befragter ist sich dessen nicht bewusst
Makroplanung: Aufbau des Fragebogens, im mittleren Drittel einen Höhepunkt
Mikroplanung: Detailplanung des Fragebogens, Reihenfolge der Frage
-> Halo-Effekt (Ausstrahlungseffekt): Verzerrung von Antworten aufgrund vorheriger Fragen
Reihenfolge-Effekt: „Fehler“ immer z. B. 3.Position auswählen, dadurch Antwortmuster
Geschlossene Fragen: Antwortvorgaben sind vorformuliert
-> Vorteile: Standardisierung bessere Vergleichbarkeit, einfache Datenerfassung/Auswertung
Offene Fragen: keine Antwortvorgaben
-> Nachteile: Intervieweffekt: Interviewer entscheidend, was er versteht u. aufschreibt
Halboffene Fragen: Befragter antwortet offen, Interviewer ordnet Antworten Kategorien zu
Soziale Erwünschtheit: Befragten antworten, wie sie denken, dass es gesellschaftl. erwünscht ist
Kontrollfragen: prüfen, ob Fragen auch ernsthaft und wahrheitsgemäß beantwortet werden
2.2 Interview
Leifadeninterview: halbstandardisiertes Interview, vorher festgelegte Fragen, werden offen beantwortet
Suggestivfragen: Beeinflussung der Antwort durch Interviewer
Transkribiert: Verschriftung von Gesprächen nach bestimmten Regeln zum Zwecke der Analyse
2.3 Beobachtung
- untersucht bestimmtes Verhalten/Handeln/Interaktion
- Personen, die Beobachtung dokumentieren spielen entscheidende Rolle, den von ihnen hängt Beobachtung ab
Grad der Einbindung des Forschers:
nichtteilnehmende Beobachtung: Forscher selbst ist nicht aktiver Bestandteil des Beobachtungsfeldes
teilnehmende Beobachtung: Forscher ist selbst Bestandteil des Beobachtungsfeldes
-> Gefahr von „Going native“: Forscher ist persönlich zu stark in Untersuchungsfeld involviert
-> dadurch massive Verzerrung u. verminderte Beobachtungsleistung
Grad der Strukturierung:
strukturierte Beobachtung: hoher Grad an Kontrollierbarkeit durch vorab festgelegte Beobachtungskriterien
-> Inter- und Intra-Rater-Reliabilität: Vergleich der Leistungen der Beobachter anhand verschiedener Merkmale
(intern) u. wiederholte Bewertung gleicher Merkmale (intra)
unstrukturierte Beobachtung: geringer Grad an Kontrollierbarkeit durch wenig vorab festgelegte
Beobachtungskriterien
Beobachtungsweise:
2