Einführung in den sozialwissenschaftliche Forschungsprozess
Methode d. Sozialwissenschaft als systematische & standardisierte Verfahren, um gesell. Phänomene zu verstehen & zu erklären
Empirieverständnis der Düsseldorfer Sozialwissenschaften
theoriegeleitete empirische Wissenschaft
Nutzung adäquater Erhebungs- und Auswertungsverfahren
Quantitative und Qualitative Sozialforschung
Methodologischer Individualismus: Gesamtgesellschaftliche Tatbestände (Makroebene) lassen sich nur über die Individuen (Mirkoebene) erklären
Der sozialwissenschaftliche Forschungsprozess
Entdeckungszusammenhang
Begründungszusammenhang
Verwertungs- und Wirkungszusammenhang
Empirische Methoden
Sozialwissenschaften sind empirische Wissenschaft
beschäftigt sich mit Gegenständen der Erfahrung
Sozialwissenschaften nutzen empirische Methoden
Um Phänomene zu verstehen und zu erklären
Dazu werden unterschiedliche Erhebungsverfahren (z.B. Befragungen oder Beobachtungen) zur Datengenese verwendet,
Die mit adäquaten Analyseverfahren (z.B. statistische Berechnungen oder Textinterpretationen) ausgewertet werden
Empirische Sozialforschung
Was: Informationen über die Gesellschat
konkret: Menschen als Mitglieder der Gesellschaft, weniger als Individuen
ihre Eigenschaften
ihr (soziales) Handeln (einschließlich der Kommunitaktion)
Produkt des Handelns
Wer
Wissenschaft (auch für Abschlussarbeiten!)
Behörden (z.B. Statistikämter)
Unternehmen (Betrieb, Markt- und Meinungsforschung)
Organisationen (z.B. NGOs, Parteien)
Laien (zum Verständnis rezipierter Studien)
Methodologischer Individualismus (a.ka. die Coleman´sche Badewanne)
Wissenschaftstheorie
Kritischer Rationalismus: Grundlagen
deduktiv-nomologische Erklärung als Kern wissenschaftlichen (!) Wissens
Falsifikationsprinzip als Basis wiss. Erkenntnisgewinns
Kritischer Rationalismus: Raffinierter Falsifikationsimus
Basissatzproblem: es gibt keine theoriefreie Beobachtung
statt einfachen Verwerfes: Anpassung & Überprüfung von Kern- und Hintergrundtheorie (methodologischer Falsifikationismus)
Lakatos: Forschungsprogramme
Wissenschaftliche Paradigmen und Methodenanarcie
Kuhn (Forschungsparadigmen) & Feyerabend (Methodenanarchismus)
Objektivität in der Wissenschaft
Intersubjektivität als Antwort auf Vorbehalte bezüglich Werturteilen in der Wissenschaft und Konstruktivismus
Kritischer Rationalismus
Grundannahmen/Logik des kritischen Rationalismus
Deduktiv-nomologische Erklärung (DN-Erklärung)
(auch: Hempel-Oppenheim-Schema H-O)
Bestandteile: Explanans und Explanandum
Falsifikationismus
Erklärung muss sich in der Praxis bewähren (Empirie!)
bei Falsifikation: verwerfen oder modifizieren!
Abgrenzungsproblem
Wie lässt sich Wissenschaft von Metaphysik und Alltagsweisheit abgrenzen?
wiss. Aussagen müssen prinzipiell falsifizierbar sein!
Bedingungen
Logische Form der Theorien (empirische Prüfbarkeit)
Logische Konsistenz der Theorien (Widerspruchsfreiheit)
Empirische Gültigkeit
(Verifikation vs. Falsifikation —> Basissatzproblem)
“Ein empirisch wissenschaftliches Systems muss an der Erfahrung scheitern können.“(Popper 1976: 15)
—>Es bedarf klarer Konventionen, wie Falsifikation systematisch möglich ist
Kritischer Rationalismus Grundannahmen/Logik des kritischen Rationalismus
Kritischer Rationalismus Falsifikationismus
Kritischer Rationalismus Abgrenzungsproblem
Raffinierter Falsifikationismus
Basissatzproblem
es gibt keine theoriefreie Beobachtung (Basissatzproblem)
Zuordnung von theoretischen Konstrukt zu empirischem Indikator (Instrumententheorie/Hintergrundtheorie)
z.B. Inteligenz —> Intelligenztest mit Quizfragen
fehlerhafte Erfassung der Realität
z.B. Messfehler, subjektive Wahrnehmung…
—>Basissätze selbst sind lediglich theoretische Annahmen (die falsifiziert werden können), z.B.
es gibt 2 Geschlechter
Intelligenztest misst Intelligenz
Anwesenheit in Vorlesung bedeutet auch Verstehen
Raffinierter/methodologischer Falsifikationismus
naiver Falsifikationismus: Falsifikation = Verwerfen
methodologischer Falsifikationismus
Kerntheorie prüfen (siehe DN-Schema)
Basissätze prüfen (d.h. Hinterhund-/Instrumententheorie)
Bei Falsifikation
Wiederholung, Anpassung, Akzeptanz von Anomalien
—>kein einzelnes Experiment führt direkt zum Verwerfen
Basissätze werden vorläufig akzeptiert, wenn:
intersubjektiv beobachtbar
nicht im Widerspruch zu anderen anerkannten Basissätzen
mit dem methofischen Fachwissen der Disziplin gewonnen
—>Basissätze sind nicht beliebig!
Raffinierter Falsifikationismus Basissatzproblem
Begutachtungsverfahren zur Qualitätssicherung
Sicherstellung der Qualität wissenschaftlicher Publikationen durch Begutachtungsverfahren (peer-review)
Bewertung eines Manuskripts durch (i.d.R. mehrere und unbezahlt!)
Ergebnis: Annahme, Bitte um Überarbeitung (ggf. mit erneuter Begutachtung) oder Ablehnung
Voraussetzung: Unabhängigkeit der Gutachter*innen
Güte des Begutachtungsverfahrens
Autor*innen und Gutachter*innen bleiben unbekannt (doppelblind)
Anonymität der Gutachter*innen
nicht-anonyme Begutachtung
zunehmend: Pflicht zur Bereitstellung der Daten
Publikationstypen mit Begutachtungsverfahren
begutachtete Veröffentlichungen finden sich häufig in folgenden Publikationstypen:
Aufsätze in Fachzeitschriften
Konferenzbeiträge in Tagungsbänden
Aufsätze in Herausgeberbänden/-reihen
Sammlung von Aufsätzen zu einem bestimmten Thema
Monographien
Herausgeberbände/-reihen (thematische Reihen)
Veröffentlichung von Dissertationen/Habilitationen
—>Stets prüfen, ob es einen Begutachungsprozess gab!
Begutachtung bietet keine absolute Sicherheit gegenüber Mängel in Inhalt, Methode und Interpretation!
Elemente sozialwissenschaftlicher Erklärungen
Hypothesen
deterministische & probabilistische Hypothesen
Wenn/Dann-H. / Implikation (A —> B) und Äquivalenz (A —> B & ⌐A → ⌐B)
Je/Desto-Hypothesen
Informationsgehalt von H. steigt mit weiterem Anwendungsbereich (Wenn/Je) und konkreter Prognose (Dann/Desto)
Individual- (Mikro-Mikro), Kollektiv- (Makro-Makro) und Kontext- (Makro-Mikro) Hypthesen
ökologischer Fehlschluss, wenn von Kollektivdaten auf Individualverhalten geschlossen wird
Theorien
Theorien als (teilweise überprüfbare) verknüpfte Aussagesysteme
in Sozialwissenschaften Nutzung von empirische Sätze (teilweise Überprüfung mittels soz.-wiss. Methoden), logischen Sätzen (Definitionen) und ggf. präskriptive Sätze (Soll-Sätze)
Typen von Hypothesen: Deterministisch vs. Probabilistisch
Deterministische Hypothesen (in Soz.-wiss. selten)
gelten immer (d.h. immer wenn A, gilt auch B)
falsifizierbar durch eine einzelne Gegenbeobachtung
“alle Schwäne sind weiß = wenn Schwan (A), dann weiß (B)“
Probabilistische Hypothesen (in Soz.-wiss. häufig)
treffen Wahrscheinlichkeitsaussagen darüber, wie häufig B ist, wenn A gilt
falsifizierbar, wenn Häufigkeit der gegenteiligen Beobachtungen überfällig ist
z.B. “Frühehen haben höhere Scheidungsrate als Spätehen = Wenn Frühehe besteht (A), dann ist Wahrscheinlichkeit einer späteren Scheidung höher als bei Spätehen (B)“
Typen von Hypothesen: Wenn/dann Hypothesen
Variablen (sozialen Merkmale) haben nur zwei Ausprägungen (wahr/falsch)
Wenn-Komponente so allgemein wie möglich (unabhängige Variable)
Dann-Komponente so präzise wie möglich (abhängige Variable)
sowohl für deterministische, als auch für probabilistische H.
deterministisch: “Wenn man die Vorlesung besucht, dann besteht man die Klausur“
probabilistisch: “Wenn man die Vorlesung besucht, dann ist die Wahrscheinlichkeit, die Klausur zu bestehen höher, als wenn man die Vorlesung nicht besucht“
Typen von Hypothesen: Je/desto Hypothesen
Variablen haben mehr als zwei Ausprägungen, die in eine Reihung gebracht werden können
Ausprägungen der Variablen beachten! (vgl. Sitzung 5)
Je-Komponente so präzise wie möglich (abhängige Variable)
sowohl für deterministische, als auch probilistische H.
deterministisch: “Je häufiger man die Vorlesung besucht, desto besser ist die Klausurnote“
probabilistisch: “Je häufiger man die Vorlesung besucht, desto höher ist die Wahrscheinlichkeit für eine bessere Klausurnote“
verschiedene Arten von Beziehungen zwischen den beiden sozialen Merkmalen möglich
monotone Zusammenhänge (durchgehend steigend/fallend)
linear steigend (Alter —> körperliche Einschränkungen)
exponentiell steigend (Zeit —> Ansteckung mit Covid)
umgekehrt exponentiell fallend (Bevölkerung —> Anteil am Gesamteinkommen)
logarithmisch
s-förmig
…
U-förmig / umgekehrte U-förmig, z.B.
Alter und pol. Partizipation (pol. Partizipation am höchsten 40-60 J.)
Informationsgehalt von Hypothesen
hoher Informationsgehalt = viele mögliche Falsifikatoren
Wenn, Je: möglichst allgemein (Größe des Anwendungsbereichs)
Dann, Desto: möglichst konkret (Präzision der Vorhersage)
Hypothesen - Testen von Kausalbeziehungen
Hypothesen implizieren häufig Kausalität (Wirkbeziehungen)
Besuch Vorlesung (A) & Bestehen Klausur (B) treten zusammen auf. (Wenn Vorlesungsbesuch, dann Bestehen). Warum?
Verstehen der Inhalte durch Anwesenheit in Vorlesung, ODER
ggf. ist der Grund eine dritte Variable, z.B. Fleiß/Disziplin
Beteiligung an Konsulationsverfahren (A) und Unzufriedenheit mit Politik (B) treten zusammen auf. Warum?
Partizipation führt zu Unzufriedenheit ODER
Unzufriedene beteiligten sich häufiger
ABER: die meisten sozialwissenschaftlichen Methoden können nur auf Merkmalsassoziationen prüfen, z.B.
Ausnahmen: Experimente (Sitzung 11) oder Längsschnittuntersuchungen (Sitzung 9)
Hypothesen - Individual-, Kollektiv- und Kontexthypothesen
Kollektivhypothese Bespiel
Individualhypothese Beispiel
Kontexthypothese Beispiel
Hypothesen - Ökologischer Fehlschluss
Kollektivdaten legen manchmal Erklärungen auf der Individualebene nahe, aber
Überprüfung Individualhypothesen mit Kollektivdaten unzulässig
—>Möglichkeit “ökologischer Fehlschluss“ (Kollektivfehlschluss)
Kollektivhypothese ist “vorläufig bestätigt“
pos. Zusammenhang Anteil Katholiken mit Anteil CDU Wähllenden
impliziert Individualhypothese: Katholiken wählen CDU
Theorie Definition
Theorien = System von verknüpften Aussagen, von denen sich Teilmengen auf empirisch überprüfbare Zusammenhänge zwischen Variablen beziehen
Zusammenhang von Theorien und Sätzen
Theorien bestehen aus empirischen und logischen Sätzen, teilweise auch aus präskriptiven Sätzen
Theorien sind Systeme miteinander verknüpfter Aussagen
Definitionen: nicht prüfbare Festlegungen —> logische Sätze
Axiome: empirisch schwer prüfbare Aussagen die angenommen werden —> (hypothetische) empirische Sätze
Hypothesen: zu prüfende Aussagen —> empirische Sätze
Mess-Hypothesen: ggf. zu prüfen —> empirische Sätze
teilweise beinhalten Theorien implizit oder explizit auch Werturteile (—> präskriptive Sätze)
siehe Sitzung 3 (Werturteilsstreit) zur Rolle von präskriptiven Sätzen in der Sozialwissenschaft
Operationalisierung und Messung
Operationalisierung
Messbarmachung von theoretischen Konzepten durch Kprrespondenzregeln
latente Variablen & manifeste Variablen (für Indikatoren)
Merkmalsebenen: individuell (absolute/relativ) und global (analytisch, strukturell, global)
Operationalistisch, Typologisch-induktiv, kausal-analytisch
Messen
Definition, Skalenniveaus von Variablen (nominal, ordinal, intervall, metrisch)
Gütekriterien von Messungen
Objektivität als Intersubjektivität, Reliabilität als Zuverlässigkeit, Validität als Gültigkeit
Korrespondenzregel
Messen - Skalenniveaus
Variablen haben unterschiedliche Skalenniveaus:
Konsequenz: Die Ausprägungen können in unterschiedlichem Maße zueinander in Beziehung gesetzt werden
Je höher das Messniveau, desto mehr Rechenoperationen
Leiten sich aus der Art der Messung ab
Ausprägungen
Gleich oder ungleich (z.B. Geschlecht)
Größer/mehr oder kleiner/weniger (z.B. Schulabschlüsse)
Mathematisch ins Verhältnis setzbar (z.B. Gewicht)
Varianz, Grundgesamtheit & Auswahlverfahren für Stichproben
Varianzaufklärung
Variation der abhängigen Variablen soll erklärt werden
Grundgesamtheit
Objektbereich der Untersuchung
Angestrebte Grundgesamtheit, Auswahlgesamtheit und Inferenzpopulation
Over- vs. Undercoverage
Fallzahlen von Stichproben / zufällig & systematische Ausfälle
Voll- vs. Teilerhebung(en)
Willkürliche Auswahl
Bewusste Auswahl
Wahrscheinlichkeitsauswahl (Zufallsauswahl)
Zielpopulation
Zielpopulation (angestrebte Grundgesamtheit): alle Elemente über die Aussagen getroffen werden sollen
Auswahlgesamtheit
Alle Elemente, die eine prinzipielle Chance haben in die Stichprobe zu gelange
under/overcoverage (wer (nicht) dazugehört!) steht bereits a priori fest durch Definition der Auswahlgesamtheit
Survey-Population (Inferenzpopulation)
tatsächliche Grundgesamtheit, von der Stichprobe eine Zufallsauswahl dargestellt
Unterschiede zur Zielpopulation durch undercoverage / overcoverage in realisierter Stichprobe (Netto-Sample) - lässt sich erst nach der Auswahl (ex post) bestimmen
Ziel: große Übereinstimmung von Survey- und Zielpopulation
Grundgesamtheit - Beispiele für Over- und Undercoverage
Fallzahlen - Stichprobe: Begrifflichkeiten
Brutto-Sample: Im Untersuchungsdesign festgelegte Ausgangsstichprobe
Stichprobenneutrale Ausfälle (Keine aktive Entscheidung der Zielperson)
Zielperson nicht erreichbar, z.B. technische Störungen; keine Zielperson in Privathaushalt; falsche Adresse; max. Anzahl Kontaktversuche erreicht; …
—>i.d.R. unproblematisch
weitere Ausfälle (zufällig oder systematisch)
Zielperson nicht befragbar, z.B. weil Zielperson nicht befragungsfähig (z.B. zu alt, geistige Behinderung; Zielperson spricht nicht hinreichend gut deutsch; Zielperson nicht kooperativ)
—>häufig systematisch, daher problematisch
Netto-Sample: Alle tatsächlich befragten Personen
Stichprobe: Einordnung
Brutto-Sample
- stichprobenneutrale Ausfälle
= Bereinigte Brutto-Stichprobe
- weitere Ausfälle
= Netto-Sample
Ausschöpfungsquote
Netto-Sample/Bereinigte Brutto-Stichprobe
Übersicht über Auswahlverfahren
Zusammenfassung: Inferenzstatistik Zufallsstichproben & Repräsentativität
Auswahlverfahren für Zufallsstichproben
einfache Zufallsstichproben (jedes Element mit gleicher Auswahlwahrscheinlichkeit)
geschichtete Zufallsstichproben (proportional/disproportional)
Klumpenstichproben (Zufallsauswahl aus Clustern) und mehrstufige Auswahlverfahren
Inferenzstatistik
Schließen von Stichprobe auf Parameter der Grundgesamtheit
Repräsentativität
Zufällige Ausfälle unproblematisch, systematische Ausfälle (z.B. bestimmte Gruppen nehmen nicht teil) verzerren Stichprobe
Unit-Nonresponse vs. Item-Nonresponse (z.B. Nicht-Beantwortung des Fragebogens vs. einzelner Fragen)
Strategien zur Vermeidung von Nonresponse
Teilerhebung: Wahrscheinlichkeitsauswahl
Auswahl eines Falls für Stichprobe wird durch Zufall bestimmt (vollständig oder zumindest größtenteils)
Wahrscheinlichkeitsauswahl führt zu Zufallsstichprobe
für jedes Element der Grundgesamt ist bekannt, mit welcher Wahrscheinlichkeit es in Stichprobe kommen kann
z.B. 100 Studierende in Vorlesung, Stichprobe von 5 Personen
Auswahlwahrscheinlichleit = 0,051 (5,1%)
Bei einer Wahrscheinlichkeitsauswahl kann von der Merkmalsverteilung in Stichprobe auf Merkmalsverteilung in Grundgesamtheit geschlossen werden
Voraussetzung: keine systematischen Fehler (Repräsentativität)
Repräsentativität von Stichproben Definition
Repräsentativität von Stichproben
eine Stichprobe bezeichnen wir als repräsentativ, wenn es möglich ist, von der Verteilung in der Stichprobe auf die Parameter der Grundgesamtheit zu schließen
grundsätzlich bieten nur Zufallsstichproben diese Möglichkeit
Voraussetzung: Keine Ausfälle oder zufällige Ausfälle bei Ziehung der Stichprobe
systematische Ausfälle beeinträchtigen die Repräsentativität
—>ob ein Ausfall zufällig oder systematisch ist, ist nicht immer leicht zu entscheiden (s. Beispiel Meldeadressen)
Höhe der Ausschöpfungsquote zunächst zweitrangig!
nur wenn Ausfälle zufällig, ist höhere Ausschöpfung besser
Nonresponse
Repräsentavität von Stichproben
Zwei Typen von Nonresponse:
Unit-Nonresponse: für einen Fall liegen keinerlei Daten vor
z.B. Fragebogen nicht beantwortet wg. Verweigerung
Item-Nonresponse: für einzelne Variablen eines Falls liegen keine Daten vor
z.B. Fragebogen beantwortet, aber einzelne Fragen ausgelassen
Ursachen von Unit-Nonresponse
nicht-befragbar, z.B. wegen akuter Krankheit, Alter, Sprache, …
tendenziell kleine Gruppe —> eher unproblematisch
schwer erreichbar, z.B. Menschen, die viel unterwegs sind
werden nicht zu Hause angetroffen (persönliche Interviews) oder haben keine Zeit (schriftliche Befragung)
wachsende Gruppe —> problematisch
Verweigerung: Menschen, die nicht teilnehmen wollen
größte Gruppe —>problematisch, wenn Teilnahmeverhalten mit anderen Eigenschaften zusammenhängt
z.B. wenn höhere Verweigerung bei Menschen mit niedriger Bildug —> Bildung signifikanter Faktor für zahlreiche Variablen
Zusammenfassung: Erhebungsmethoden & Reaktivität
Überblick über Erhebungsmethoden
3 Klassen: Befragung, Beobachtung, Verhaltensspuren
Designs: Quer-/Längsschnitt, experimentelle, qualitativ/quantitativ
Reaktivität
Messvorgang beeinflusst (verfälscht) das Messergebnis
2 Quellen: Verhaltn der Untersuchungspersonen (und Einfluss der Untersuchungssituation), Verhalten der Forschenden,
Reaktivität bei allen Arten von Befragungen sowie offener Beobachtung (im Gegensatz dazu: Verhaltensspuren oder verdeckte Beobachtung)
Reaktive Verfahren machen einen wesentlichen Teil der sozialwissenschaftlichen Datenerhebung aus, aber Anteil nicht-reaktiver Verfahren (insbesondere durch digitale Verhaltensspuren) nimmt zu
Welche Verfahren zur Datenerhebung kennen Sie?
3 wesentliche Klassen von Erhebungsmethoden
Befragung - Personen werden mit Hilfe eines Instruments (Fragebogens) zu bestimmten Themen befragt/interviewt
Beobachtung - direkte Beobachtung der Handlungen von Menschen (inkl. verbaler und nonverbaler Kommunikation) bzw. deren sozialen Merkmalen
Verhaltensspuren - Beobachtung der Effekte oder Produkte menschlichen Verhaltens
Unterschiedliche Erhebungsdesigns
bei jeder Klasse von Erhebungsmethoden können unterschiedliche Erhebungsdesigns verwendet werden
wir unterscheiden Erhebungsdesigns nach 3 Dimensionen
qualitative vs. quantitative Designs (s. Sitzung 1) – wenige (detaillierte) vs. viele (oberflächlichere) Fälle
(quasi-)experimentelle Designs vs. ex-post-facto Designs (Sitzung 11) – (kontrollierte) Variation der unabhängigen Variablen (Manipulation)
Quer- vs. Längsschnittdesign (Sitzung 9) – Erhebung zu einem Zeitpunkt vs. zu unterschiedlichen Zeitpunkten
—>es sind alle möglichen Kombinationen aus diesen drei Dimensionen denkbar
unterschiedliche Erhebungsdesigns zu AV Konsumverhalten
mögliche Erhebungsmethoden
Befragung zu Konsumverhalten
Beobachtung Konsumverhalten beim Wocheneinkauf
Konsum-Verhaltensspuren durch Auswertung Kontoauszüge
mögliche Quer-/Längsschnittdesigns
i. einmalig
ii. Erhebung jährlich neu ausgewählte Person (Trend)
iii. jährliche Erhebung bei denselben Personen (Panel)
Test Einfluss UV: Verfügbarkeit finanzieller Ressourcen
ex-post-facto Design: Vergleich von gruppen in der Stichprobe mit hohem vs. niedrigem Einkommen
experimentelles Design: zufällige Auswahl an Personen erhählt monatlich 1.000€ —>Vergleich Treatment- vs. Kontrollgruppe
Reaktivität Definition
Kurzversion: “Erhebungsmethoden sind reaktiv, wenn die Gefahr besteht, dass der Messvorgang das Messergebnis beeinflussen und verfälschen kann.“
ausfürhlicher: “Reaktiv heißt, dass“
nichtkontrollierte Merkmale
des Messinstruments,
des Anwänders des Messinstruments (Verhalten des Versuchsleiters, des Interviews) oder
der Untersuchungssituation
das Ergebnis der Messung systematisch beeinflussen und verfälschen können
Reaktivität von Erhebungsmethoden
reaktive Erhebungsmethoden
Befragung —> immer reaktiv
Beobachtung —> teilweise reaktiv, z.B. offene Beobachtung, bei Laborexperimenten
nicht-reaktive Erhebungsmethoden
Beobachtung —> nicht-reaktiv, wenn sie verdeckt erfolgt
Verhaltensspuren —> nicht reaktiv
Einteilung in reaktives vs. nicht-reaktive Verfahren bezieht sich in der Regel auf das Verhalten der Untersuchunhspersonen (Pygmalion-Effekt kann es auch bei Verhaltensspuren geben)
Zusammenfassung Quer- und Längsschnittdesigns
Erhebungsdesigns unterscheiden sich nach Anzahl der Erhebungszeitpunkte und befragter Stichproben
Querschnittdesigns: 1 Zeitpunkt, 1 Stichprobe
Trenddesign: 2 + Zeitpunkte und entsprechend viele Stichproben
Paneldesign: 2 + Zeitpunkte, 1 Stichprobe
grundsätzlich können alle drei Designs alle Datentypen produzieren, z.B. durch retrospektive Erhebung
Querschnitt, Trend-, Panel- & Ereignisdaten
Kohortenstudien vergleichen Gruppen, die ein gemeinsames Ereignis teilen
Kohorten-, Lebenszyklus- & Periodeneffekte
Erhebungsdesigms und Datentypen
Erhebungsdesigns vs. erhobene Datentypen
bestimmte Design “produzieren“ bestimmte Datentypen
Querschnittdesign —> Querschnittdaten
Trenddesign —> Querschnitt- oder Trenddaten
Paneldesign —> Querschnitt-, Trend- oder Paneldaten
(Trenddaten aus Paneldesign beziehen sich teilweise nur auf unterschiedliche Zeitpunkte aus einer Stichprobe)
Informationshierarchie:
Informationsgehalt Paneldesign > Trenddesign > Querschnittdesign
hier: Erhebungszeitpunkt und “Datenzeitpunkt“ sind gleich
z.B. wie alt sind sie jetzt; wen würden sie morgen wählen; wie bewerten Sie die Arbeit der Bundesregierung, …
ABER: Bestimmte Daten können auch retrospektiv (d.h. nachträglich) erhoben werden!
Analyse von Kohorten
Beispiel Krebserkrankungen (hypothetisches Beispiel !)
Zusammenfassung (Quasi-) Experimentelle Designs
(quasi-) experimentelle Designs kontrollieren die Varianz der unabhängigen Variable vor der Messung
experimentelle Designs benötigen mindestens zwei Gruppen (verschiedene Stimuli oder Stimulus und Kontrollgruppe) mit zufälliger Aufteilung der Versuchspersonen
Quasiexperimente verzichten auf Randomisierung
Stärke von (quasi-) Experimenten ist Möglichkeit, kausale Effekte zu messen, indem Drittvariablen kontrolliert werden
Herausforderungen sind Übertragbarkeit (externe Validität) und (ethnisch vertretbare) Umsetzung von Manipulation und Randomisierung
Experimentelle vs. ex-post-facto Designs
Erhebungsdesigns
Varianzkontrolle der UV erfolgt vor der Erhebung ((quasi-)experimentelle Designs))
Bewusste Manipulation der UV bzw. Untersuchung von Gruppen mit unterschiedlichen Ausprägungen der UV (ex-ante, d.h. vorher)
z.B. zu Beginn des Semsters Einteilung in zwei Gruppen: Gruppe A muss jedes Mal an VL teilnehmen, Gruppe B kann freiwilig teilnehmen
am Ende lediglich Erhebung der AV (Klausurnote)
Varianzkontrolle der UV erfolgt nach der Erhebung (ex-post-facto Designs)
Unterschiede in UV werden nachträglich festgestellt
z.B. Klassisch in einer einzelnen Befragung am Ende der Vorlesung
Gleichzeitige Erhebung von AV und UV
hier im Beispiel: Anwesenheit (AV) und Klausurnote (UV)
Probleme von ex-post-facto Designs
Vorteile durch Randomisierung - Experimentelle Designs
wenn Versuchsgruppen zufällig zusammengestellt sind, sollten sie bzgl. aller anderen Merkmale ähnlich zusammengesetzt sein
z.B. Bildung, Geschlecht, Alter etc.
≠ Auswahl von Versuchspersonen
(Gruppen sind i.d.R. nicht repräsentativ für Grundgesamtheit)
—>der Einfluss von möglichen Drittvariablen wird “kontrolliert“
Die Randomisierung ermöglicht, dass alle Merkmale (Drittvariablen) mit der gleichen Wahrscheinlichkeit auf die Vergleichsgruppen verteilt werden. Damit wird auf deren Einfluss “kontrolliert“ und jeder gemessene Effekt ist auf das experimentelle Treatment zurückzuführen
—> Hypothesen können kausal überprüft werden
Eigenschaften verschiedener experimenteller Designs
Zusammenfassung Befragung
wenig vs. stark strukturierte Interviews/Befragungen
Stichprobe entscheidet ber Verallgemeinbarkeit
in de Sozialwissenschaften kommen seht häufig standardisierte Interviews zum Einsatz
durch (mündliche oder telefonische) Interviews oder selbstadministriert (Papier der Online) mit Fragen zu
Einstellungen, Überzeugungen, Verhalten & Eigenschaften
durch geschlossene oder (seltener) offene Fragen
gutes Fragebogendesign ist anspruchsvoll !
Fehlerquellen bei Befragungen durch
Interviewsituation und Interviewer*in
Befragte und deren Verhalten
Typen der Befragung nach Grad der Strukturierung
nicht/wenig strukturiert (“offene Befragung“)
(auch mit Gruppen möglich (Gruppendiskussion/Fokusgruppen))
narratives Interview
zentriertes Interview
Leitfadeninterview
—>Anwendung v.a. für qualitative sowie explorative Forschung
größtenteils/vollständig strukturiert
persönliches Interview
telefonisches Interviews
schriftliche Befragung
—>Anwendung v.a. in quantitativer Sozialforschung
(Standardisierung erleichtert Datenerhebung und -auswertung)
Grundlagen standardisierte Interviews
Zwei Möglichkeiten der Administration
Befragung durch Interview*in
persönliches Interview (“Face-to-Face“)
i.d.R. CAPI (Computer Assisted Personal Interview)
i.d.R. CATI (Computer Assisted Telephone Interview)
selbstadministriertes Interview
PAPI (Paper And Pencil Interview)
CASI (Computer Assisted Self Interview)
Classroom-Befragung (mehrere Personen beantworten den Fragebogen in einem Raum mit Anwesenheit Interviewer*in)
Online-Befragung
Möglichkeiten der Digitalisierung
Dateneingabe bei Datenerfassung
CATI, CASI, CAPI und Online-Befragung
etwas höhere technische Anfordung, dafür kaum Aufwand für Digitalisierung
Dateneingabe nach Datenerfassung
persönliches Interview, PAPI, Classroom
geringere technische Hürden bei Datenerfassung, dafür aufwendiger in Digitalisierung und Möglichkeiten von Eingabefehler
Zusammenfassung Beobachtung
Beobachtung als direkte Beobachtung der Handlungen von Menschen (inkl. verbaler und nonverbaler Kommunikation) bzw. deren sozialen Merkmalen
Beobachtungstypen unterscheiden sich durch
teilnehmend vs. nicht-teilnehmend
offen vs. verdeckt
strukturiert vs. nicht-strukturiert (Standardisierung)
Feldbeobachtung vs. Beobachtung im Labor
Vorteile: Menschen tatsächlichen Handelns
Herausforderungen: ggf. Reaktivität, Urteilsfehler, Erklärung von Handlungen, ggf. Forschungsethik
Das “ideale“ Beobachtungsverfahren
“ideales“ Verfahren immer von Fragestellung abhängig, aber i.d.R.
nicht-teilnehmend
dokumentiert und strukturiert
verdeck (mit anschließendem Debriefing)
—>nicht-reaktives Verfahren
Überblick Fehlerquellen
Urteilsfehler durch Beobachter*innen
Verhalten Beobachtete
Fehler durch Beobachtungsschemata
Stichprobenprobleme
Zusammenfassung Verhaltensspuren
die Vorteile der Nutzung von Verhaltensspuren sind v.a.
Nicht-Reaktivität: keine Beeinflussung der Messung
historischer Bezug: Erhebung oft auch nachträglich möglich
Analyse tatsächlichen Verhaltens statt subjektiver Einschätzung
jedoch fehlt dadurch Kontext/Motive (s. auch Beobachtung)
Inhaltsanalysen als wichtige Methode zur Erhebung (und Analyse) von Verhaltensspuren
Bedeutung nimmt durch Verfügbarkeit digitaler Verhaltensspuren (big data) zu
Bei der (nicht-reaktiven) Erhebung digitaler Verhaltensspuren ergeben sich zahlreiche Herausforderungen (Datenschutz, Stichprobenziehung, etc.)
Überblick über Verfahren zur Erhebung Verhaltensspuren
(manuelle) Inhaltsanalyse
Texte, Bilder & Videos
(nicht-reaktive) Methoden zur Erhebung digitaler Verhaltensspuren
z.B. Serverlogs, Webscraping, Schnittstellen zu Platformen
Abnutzungsspuren
Ablagerungsspuren
prozessproduzierte Daten (z.B. Statistiken)
Verhaltensspuren in Rahmen experimenteller Designs
Verhaltensspuren Probleme
mögliche Probleme bei Definition der Grundgesamtheit und systematischer Stichprobenziehung
z.B. Was ist die Grundgesamtheit auf Facebook?
Wie zieht man daraus eine Zufallsstichprobe?
Forschungsethik
Einverständnis der Befragten möglich/nötig?
ggf. bieten Spuren Hinweise auf nicht-öffentliche Informationen
Reliabilität und Validität schwer bestimmbar
operationalisiert Verhaltensspur tatsächlich das theoretische Konstrukt?
Mögliche Subjektivität bei Interpretation der Spuren
oft: Brückenhypothesen (Makro —> Mikro) nötig
häufig liegen “nur“ Aggregatdaten vor
z.B. Kriminalitätsraten Viertel vs. individuelles Verhalten Bewohner*inn
Last changed2 years ago