Variablen, Konstante, Indikatoren
Unterscheidung:
Konstante: Merkmal mit nur einer Ausprägung
Variable: Merkmal mit mindestens zwei Ausprägungen
Bsp.: Geschlecht, Schulabschluss, politisches Interesse
Arten:
Manifeste Variable: direkt beobachtbar → z. B. Haarfarbe, Körpergröße
Latente Variable: nicht direkt beobachtbar → z. B. Bildung, Intelligenz, politisches Interesse
Operationalisierung: Prozess, bei dem latente Variablen durch messbare Indikatoren erfasst werden (z. B. Fragen im Fragebogen).
Ursache-Wirkungs-Beziehung
Abhängige Variable (aV): zu erklärender Sachverhalt
Unabhängige Variable (uV): vermuteter Einflussfaktor auf die aV
Oft existieren mehrere uVs
Indikator: beobachtbarer Sachverhalt, der einen theoretischen Begriff empirisch messbar macht
Zur Übersetzung von Theorie in empirische Realität
Korrelation vs. Kausalität
Korrelation: Statistischer Zusammenhang zwischen zwei Merkmalen
Positiv: hohe Werte eines Merkmals tendenziell mit hohen Werten eines anderen Merkmals auftreten.
Negativ: hohe Werte eines Merkmals tendenziell mit niedrigen Werten eines anderen Merkmals auftreten.
Nicht-lineare Korrelation
Scheinkorrelation: Zusammenhang von zwei Merkmalen bezeichnet, der durch einen dritten Faktor verursacht wird. Da die Korrelation zwischen den beiden Merkmalen faktisch existiert, wird häufig auch der Begriff Scheinkausalität verwendet. (es existiert keine Kausalität)
Kausalität: Ursache-Wirkungs-Beziehung: eine Variable verursacht eine Veränderung der anderen = Richtung des Zusammenhangs zwischen zwei Merkmalen. Dabei gilt, dass die unabhängige Variable (uV) als Ursache und die abhängige Variable (aV) als Wirkung fungiert. Die Ursache ist dabei der Wirkung zeitlich vorgelagert.
Achtung: Eine Korrelation beweist keine Kausalität (z. B. mehr Feuerwehrleute → höherer Schaden = Scheinzusammenhang, Ursache ist die Feuergröße).
Bedingungen für Kausalität (nach Hill 1965 / Schnell et al. 2023)
Zeitliche Reihenfolge: Ursache geht Wirkung voraus.
Starker Zusammenhang zwischen den Variablen.
Replikation in verschiedenen Kontexten / Populationen.
Theoretische Plausibilität: nachvollziehbarer Wirkmechanismus.
Skalen, Skalenniveaus und Index
Skala = strukturelle Abbildung eines empirischen Relativs in ein numerisches Relativ
Skalenniveau (nach Stevens 1946)
👉 entscheidet, welche statistischen Verfahren zulässig sind.
Sie dienen der geordneten Messung, nicht der bloßen Codierung
Je höher das Skalenniveau, desto mehr Rechenoperationen und Analyseverfahren sind möglich.
Wichtig:
Traditionell werden in der Sozialforschung vier Skalenniveaus unterschieden (Nominal-, Ordinal-, Intervall- und Ratioskala). In der Praxis werden Intervall- und Ratioskalen als metrische Skalen behandelt.
🔹Nominalskala
Merkmale ohne Rangfolge
Jede Ausprägung erhält genau einen Wert
Keine doppelten Zuordnungen möglich
Zulässig: Modus
Beispiel:
Geschlecht: weiblich = 1, männlich = 2
Man kann entweder mänl. ODER weibl. sein
🔹 Ordinalskala
Rangfolge möglich, aber keine gleichen Abstände
Relationsbegriffe: höher, stärker, besser
Zulässig: Modus, Median
Schulabschluss ohne Abschluss = 1 Hauptschule = 2 Mittlere Reife = 3
🔹 Intervallskala (metrisch)
Rangfolge + gleiche Abstände
Kein natürlicher Nullpunkt
Zulässig: Modus, Median, Mittelwert
Temperatur (°C) → Abstand 15–20 °C = Abstand 20–25 °C
🔹 Ratio- / Verhältnisskala (metrisch)
Rangfolge
Gleiche Abstände
Natürlicher Nullpunkt
Verhältnisaussagen möglich („doppelt so viel“)
Einkommen (0 € = kein Einkommen)
Alter (0 Jahre)
Übersicht:
Skalenniveau
Beispiele
Zulässige Operationen
Merkmale
Nominal
Geschlecht, Religion
Auszählen
Keine Rangfolge
Ordinal
Schulabschluss, politisches Interesse
Auszählen, Ordnen
Rangfolge, aber keine gleichen Abstände
Intervall
(metrisch)
Temperatur (°C)
+ Differenzen
Gleiche Abstände, kein natürlicher Nullpunkt
Ratio
Einkommen, Alter, Temperatur (K)
+ Verhältnisse
Pseudometrische Variablen
Ordinale Variablen mit mind. 5 geordneten Ausprägungen
und wenn gleiche Abstände plausibel angenommen werden (= Äquidistanz)
Bsp.: Likert-Skalen („stimme gar nicht zu“ – „stimme voll zu“)
Diskret: abzählbare Ausprägungen, keine Zwischenwerte → z. B. Kinderzahl, Fachsemester
Stetig: unendlich viele Ausprägungen, Zwischenwerte möglich → z. B. Einkommen, Größe, Zeit
Ausprägung:
Dichotom: genau zwei Ausprägungen → z. B. Wahlbeteiligung (Ja/Nein) 📌 Sonderform diskreter Variablen
Polytom: mehr als zwei Ausprägungen → z. B. Religionszugehörigkeit
Skalen im Prozess der Operationalisierung
Operationalisierung = Messbarmachung theoretischer Konzepte durch Zuordnung von empirischen Indikatoren zu theoretischen Begriffen
Beispiel: Bildung -> Schulabschluss
Je mehr Indikatoren → desto geringer der Messfehler
Skala
Mehrere Indikatoren messen dasselbe eindimensionale Konzept
= Reflektive Indikatoren: Indikatoren sind Ausdruck des Konstrukts
Eindimensionalität prüfen (z. B. Faktorenanalyse)
Beispiel: Politisches Vertrauen → Fairness, Ehrlichkeit, Zuverlässigkeit
➡️ Zusammenfassung = Skalenkonstruktion
Heißt: man kann Zuverlässigkeit messen, Fairness und Ehrlichkeit und alle reflektieren den Grad des politischen Vertrauens
Index im Prozess der Operationalisierung
Index =Zusammenfassung mehrerer Einzelindikatoren zu einer neuen mehrdimensionalen Variable nach festgelegten Vorschriften.
Index
Zusammenfassung mehrerer Indikatoren zu einer mehrdimensionalen Variable
= Formative Indikatoren: Indikatoren konstituieren das Konzept
Veränderung eines Indikators verändert das Konzept selbst
Mehrdimensionalität theoretisch begründen
Beispiel: Sozioökonomischer Status= Bildung + Einkommen + Prestige
Alle 3 Variablen stellen eigene Konzepte dar, wodurch soz.ök. Status multidimensional wird
Prozente vs. Prozentpunkte
Prozente (%):
Drücken immer ein relatives Verhältnis aus.
Die Zahl vor dem Prozentzeichen ist der Prozentsatz, der das Verhältnis angibt.
Beispiel: 20 % der Befragten sind Männer.
Prozentpunkte (pp):
Beschreiben den absoluten Unterschied zwischen zwei Prozentsätzen.
Beispiel: Anteil Männer bei stark Interessierten = 30 %, Anteil Frauen = 20 % → Unterschied = 10 Prozentpunkte, nicht 10 %.
Prozentsatzdifferenz:
Berechnung: Zeilenweise Differenz zweier Spaltenprozenten.
Wertebereich: −100 bis +100 Prozentpunkte.
Interpretation:
< 5 pp → kaum interpretierbar, kein Zusammenhang
5–<10 pp → schwacher Zusammenhang
10–<25 pp → mittelstarker Zusammenhang
≥25 pp → starker Zusammenhang
Heißt: Prozent / relative Differenz fragt: wie viel mehr im Verhältnis zum Ausgangswert.
Bezogen auf Frauen: (30−20) / 20 = 0.5 = 50%
50% der Frauen = 20*0,5 = 10 Frauen weniger
Das heißt: die 30 Männer sind 50 % mehr als die 20 Frauen
Doppel so viele wären 200%
Prinzipien wissenschaftlichen Arbeitens & Forschungslogik
4 Kriterien sozialwissenschaftlichen Forschens (klassisch nach King, Keohane & Verba 1994) sind:
1. Inferenz = Schlussfolgerungen aus empirischen Daten über den Einzelfall hinaus
Deskriptive Inferenz: von beobachteten zu nicht beobachteten Fakten
Kausale Inferenz: Erklärung von Ursachen für Beobachtungen
2. Wissenschaft ist öffentlich, dh sie erfordert:
Offenlegung von Daten
theoretische Argumentation
Methoden
Schlussfolgerungen
Heißt: Ergebnisse müssen prüfbar, kritisierbar und replizierbar sein
3. Schlussfolgerungen sind grundsätzlich unsicher (falsifizierbar), Fehler können aber abgeschätzt werden.
4. Sozialwissenschaftliche Forschung ist nicht über Inhalte definierbar, sondern über wissenschaftliche Methode:
Forschungslogik
Strategien
Techniken
Heißt: Unterschiedliche Themen, aber gleiches methodisches Vorgehen
Wissenschaftstheorie: Kritischer Rationalismus (Popper)
= Absolute Wahrheit ist nicht beweisbar. Wissenschaftlicher Fortschritt entsteht durch Kritik und Falsifikation
Zentrale Prinzipien:
Falsifizierbarkeit als Kriterium für Wissenschaftlichkeit
Aussagen gelten nur vorläufig
Empirischer Bezug
Kritik statt Verifikation
Problem:
Prüfung erfolgt über Beobachtungssätze, nicht direkt über Realität
Beobachtungen können fehlerhaft sein
Poppers Lösung: Prinzipien wissenschaftlichen Arbeitens
Basissätze werden konventionell und vorläufig akzeptiert durch
Intersubjektive Nachvollziehbarkeit
Methodische Sorgfalt
Transparente Dokumentation aller Schritte
Induktion (qualitative Studien)
Schluss vom Einzelfall auf allgemeine Aussagen
Theorie entsteht aus den Daten
Hypothesen werden generiert und weiterentwickelt
Deduktion (quantitative Studien)
Schluss vom Allgemeinen auf den Einzelfall
Hypothesen werden vorab aus Theorie abgeleitet
Ziel: Überprüfung (Bestätigung oder Falsifizierung)
Deduktiv-nomologisches Modell (D-N-Modell)
= Grundmodell quantitativer Erklärung
Voraussetzung einer Hypothese
Logisch korrekt ableitbar
Enthält allgemeines Gesetz
Empirisch überprüfbar
(Esser): Explanandum empirisch wahr
Bestandteile:
Explanandum: zu erklärendes Phänomen
Explanans:
Allgemeingültige Gesetze (Allaussage)
Randbedingungen (konkrete Situation)
Logik: Gesetz + Randbedingungen → Explanandum (deduktiv)
Induktiv-statistisches Modell (I-S-Modell)
Modifikation des D-N-Modells für Sozialwissenschaften
Statt Gesetzen: Wahrscheinlichkeitsaussagen
Erklärungen sind nicht sicher, sondern probabilistisch
Auch bei wahrem Explanans kann Explanandum ausbleiben
Die induktiv-statistische Erklärung ist ein Erklärungsmodell bestehend aus zwei Arten von Sätzen:
Probabilistische Gesetze und
Randbedingungen, die nur für konkrete Situationen gelten.
heißt:
Ein Phänomen kann nur mit einer gewissen Wahrscheinlichkeit erklärt werden.
Definitionsarten der Sozialwissenschaften
Qualitative vs. quantitative Forschung: Zentralvergleich
Gemeinsamkeiten:
Arbeiten mit empirischen Informationen
Ziel: Aussagen über gesellschaftliche Strukturen und Handlungen
Kritische Reflexion von Fehlern und Verzerrungen
Ziel: Transparenz und Verlässlichkeit
Unterschiede:
Dimension
Qualitativ
Quantitativ
Forschungsziel
Verstehen
Erklären
Forschungsprozess
zirkulär
linear
Fallzahl
gering
hoch
Daten
Worte
Zahlen
Hypothesen
generierend
prüfend
Auswertung
offen
statistisch
Generalisierung
Mixed Methods
Kombination qualitativer und quantitativer Ansätze
Sinnvoll, wenn Forschungsfragen beide Perspektiven erfordern
Strategien:
Sequenziell: Methoden nacheinander
Komplementär: Methoden parallel
📌 Aktueller Trend: Zunahme von Mixed-Methods-Studien (Baur et al. 2018), Mehrheit bleibt jedoch klar qualitativ oder quantitativ.
10 Phasen eines sozialwissenschaftlichen Forschungsprojektes
Ablauf:
Festlegung des Forschungsthemas
Breites Thema, noch keine konkrete Forschungsfrage
Bsp.: „Politisches Vertrauen“
Auseinandersetzung mit dem Stand der Forschung
Literaturrecherche, bestehende Studien
Formulierung der Forschungsfrage
Konkret, überprüfbar, empirisch untersuchbar
Konzeptspezifikation / Begriffsdefinition
Alltagsbegriffe → wissenschaftliche Konzepte
Nominal- oder Realdefinitionen
Bsp.: „Wutbürger“ als messbares Konzept sozialen Protestes
Hypothesenbildung
Theoriegeleitete Vermutungen über Ursache-Wirkung
Müssen falsifizierbar sein (kritischer Rationalismus)
Operationalisierung
Übersetzung theoretischer Begriffe in messbare Indikatoren
Bsp.: „Vertrauen“ → Fragebogen: „Wie sehr vertrauen Sie der Regierung?“
Entscheidung Primär- oder Sekundäranalyse
Bei Primäranalyse Schritt 6 - 8:
Forschungsdesign entwickeln
Untersuchungsebene: Mikro / Meso / Makro
Studienart: experimentell / nicht-experimentell
Zeitdimension: einmalig (Querschnitt) oder wiederholt (Trend / Panel)
Ziel: Design muss Frage & Ressourcen passen
Auswahlverfahren / Stichprobe
Wer wird untersucht?
Vollerhebung: alle Elemente → teuer, oft unnötig
Teilerhebung / Stichprobe: zufällig (repräsentativ) oder bewusst / willkürlich
Datenerhebung
Formen: Befragung, Beobachtung, Inhaltsanalyse
Arten: Vollerhebung vs. Stichprobe (zufällig oder nicht-zufällig)
Datenaufbereitung & -analyse (ab hier auch Sekundäran.)
Bereinigung, Strukturierung und Auswertung: Fehlerkorrektur, fehlende Werte, Overcoverage
Analyseverfahren abhängig von Frage & Datentyp
Quantitativ: z. B. Regressionsanalyse
Qualitativ: z. B. Inhalts- oder Narrative Analyse
Interpretation & Schlussfolgerung
Ergebnisse kritisch reflektieren
Generalisierbarkeit prüfen
Unsicherheiten benennen
Publikation der Ergebnisse
Abschlussbericht (intern)
Wissenschaftliche Artikel / Bücher (öffentlich)
Phase 1: Forschungsthema definieren, Forschungsstand erkunden (Literaturrecherche) und Forschungsfrage entwickeln
Ausgangspunkt: Forschunngsthema
= grober Rahmen als Arbeitsgrundlage, z.B. Politisches Vertrauen
es grenzt den Inhalt eines Forschungsprojekts lediglich lose ab
Schritt 1: Relevanz prüfen
Wichtig: Appelle, persönliche Meinungen oder emotionale Kommentare nicht in wissenschaftliche Texte
Theoretisch: Beitrag zum wissenschaftlichen Diskurs, neue Hypothesen, Inkonsistenzen aufdecken, Theorien testen, Konzepte entwickeln
Gesellschaftlich: Verständnis / Vorhersage wichtiger Phänomene, Identifikation betroffener Gruppen, Bewertung von Konsequenzen, Handlungsempfehlungen
Schritt 2: Thema eingrenzen
Ebene: lokal, national, international
Zeit: historische / aktuelle Entwicklung
Dimension: Mikro- oder Makroebene
Kombination von Kernbegriffen für Präzisierung
Bsp.: „Lokale Unterschiede der Wahlbeteiligung in Deutschland“ statt „Wahlforschung“
Schritt 3: Literaturrecherche
Überblick über Theorien, empirische Ergebnisse, Forschungslücken
Vorgehen:
Narrative Review: unsystematisch, subjektiv
Systematic Review: transparent, objektiv, Grundlage für Metaanalysen
Kriterien zur Quellenbewertung:
Zitierfähigkeit (öffentlich zugänglich, Buch, offiz. Statistik)
Zitierwürdigkeit (erfüllt wiss. Qualitätsstandards, AutorInnen sind Fachwissenschaft., Veröffentlich. durch anerkannte Verlage/ Fachzeitschriften, Peer-Reeview)
Reviewverfahren: Begutachtung (Review) eines Fachaufsatzes vor der Veröffentlichung durch fachspezifische Gutachter
Relevanz (passend zur Forschungsfrage)
Relevante Quellen: Monografien, Schlüsselwerke, Fachzeitschriften, amtliche Statistiken, Forschungsdatenbanken (GESIS, Politbarometer, ALLBUS, Eurostat, OECD)
Erste, überblickartige Recherchen: Online-Kataloge (OPAC) der Universitätsbibliotheken. Findet Monographien, Sammelbände, Titel der Fachzeitschriften.
Vertiefende Recherchen: Fachaufsätzen in den verschiedenen Fachzeitschriften. Wichtige Recherchequelle hier: SSCI auf der Plattform „Web of Science“. International aufgestellt, bietet komplette Breite der Veröffentlichungen. Recherchemöglichkeiten (Suchinstrumente) des SSCI sind sehr vielfältig und ausgefeilt.
Repräsentativität
= Abbild der Grundgesamtheit, aber! kein Fachbegriff der empirischen Sozialforschung, sondern eine Metapher in den Medien für ein verkleinertes Abbild der interessierenden Grundgesamtheit. Streng genommen, kann eine Stichprobe niemals sämtliche Merkmalsverteilungen der Grundgesamtheit repräsentieren.
Schritt 4: Forschungsfrage entwickeln
Leitet sich aus Forschungslücken oder ungelösten Problemen ab und bedienen die Dimensionen der Relevanz: theoretisch + gesellschaftlich
Kriterien für gute Forschungsfragen:
Klarheit
Begründbarkeit
Machbarkeit
Prüfbarkeit
Bezug zur Theorie
Formen:
Deskriptiv: „Wie…?“ → Fakten erfassen
häufig reine Beschreibungen und erklären keinen Sachverhalt (es werden keine Zusammenhänge von Merkmalen bzw. kausale Mechanismen untersucht)
wiss. Forschung sollte allerdings nicht nur beschreiben sondern auch einen Sachverhalt erklären, daher ist sie ungeeignet
Erklärend / analytisch: „Warum…?“ → Ursachen / Zusammenhänge
Untersucht Ursachen, Zusammenhänge oder Kausalmechanismen zwischen Merkmalen
Ziel: Theorieprüfung oder Hypothesenprüfung → über reine Beschreibung hinaus
wichtig in Sozialwissenschaften
Phase 2: Konzeptspezifikation
Phase im Forschungsprojekt und dient dazu, einen abstrakten Begriff eindeutig festzulegen
zur eindeutigen Definition & Abgrenzung von ähnlichen Konzepten
Grundlage für empirische Forschung & Hypothesenbildung
um messbare Indikatoren abzuleiten (Operationalisierung)
Elemente eines Konzepts (Gerring 2001)
Term: sprachliche Bezeichnung i.F. eines Namens/Labels des Konzepts (z. B. „Demokratie“)
Intension: Gesamtheit der Attribute, die die inhaltliche Bedeutung eines Konzepts festlegen
Attribut = spezifische Eigenschaft eines Konzepts zur inhaltlichen Präzisierung. Für die inhaltliche Beschreibung eines Konzepts sind in der Regel mehrere Attribute erforderlich.
Beispiel „Demokratie“: freie Wahlen, Gewaltenteilung und politische Partizipation
Extension: Gesamtheit der Objekte, auf die das Konzept zutrifft. Also der empirische Geltungsbereich eines Konzepts (Begriffsumfang).
Beispiel: alle Staaten, die diese Merkmale erfüllen, etwa Deutschland oder Frankreich, nicht jedoch autoritäre Regime.
Inverses Verhältnis: Je mehr Eigenschaften (Intension), desto weniger Fälle (Extension) – und umgekehrt.
Qualitätsmerkmale
Präzision: Konzept lässt sich klar zuordnen
Eindeutigkeit: Konsistente Nutzung durch Forschende
Adäquatheit: Passung von Intension & Extension zum Forschungskontext
Vier Schritte nach Wonka
Identifikation: Welche Konzepte strukturieren die Forschung?
Spezifikation in Literatur: Wie wurde Konzept bisher definiert?
Eigene Intension: Attribute festlegen, Relevanz für Forschungsfrage prüfen
Prüfung: Präzision, Eindeutigkeit, Adäquatheit → ggf. Re-Spezifizierung
Re-spezifikation: Häufig sind sozialwissenschaftliche Konzepte/Begriffe an spezifische räumliche und/oder zeitliche Kontexte gebunden (z.B. Parteiidentifikation USA (Zweiparteiensystem). Falls ein Konzept in einem anderen als dem ursprünglichen vorgesehenen räumlichen oder zeitlichen Kontext angewendet wird (z.B. das Konzept Parteiidentifikation in einem Mehrparteiensystem), dann muss geprüft werden, ob die relevanten empirischen Untersuchungsobjekte von dem Konzept erfasst werden.
Beispiel: Politikverdrossenheit
Warum eignet sich der Einschätzung von Arzheimer der Begriff Politikverdrossenheit nicht für eine wissenschaftliche Analyse?
Antwort: Unscharf, mehrdeutig und wird mit unterschiedlichsten Objekten zb Regierung, Demokratie, sowie verschiedenen Einstellungen, zB. Enttäuschung, Desinteresse, in Verbindung gebracht, sodass keine Grundlage für die Formulierung gehaltvoller Hypothesen gibt
Negativ: „Politikverdrossenheit“ → zu heterogen, empirisch schwer fassbar
Positiv: „Politische Unterstützung“ (Easton 1965) → klar abgegrenzt, spezifisch/diffus, empirisch nutzbar
Kontextabhängig: Konzepte ggf. an neuen Untersuchungsgegenstand anpassen (Re-Spezifizierung)
Heißt: Ohne präzise Konzeptspezifikation: unklare Hypothesen, unbrauchbare Daten, nicht vergleichbare Forschung.
Definitionsarten
Nominaldefintion: Bedeutungsübertragung
bei der ein neuer Begriff mit einem anderen (bereits bekannten) Begriff gleichgesetzt wird. Beispiel: Weißes Pferd = Schimmel.
Achtung: Keine Aussage über das „Wesen“ eines Phänomens
Es gibt keine objektiven Kriterien, um zu prüfen, ob das Wesen eines Sachverhalts angemessen erfasst wurde.
Realdefintion: Begriff wird durch sein Wesen/ Beschaffenheit definiert
👉 Problematisch, da soziale Phänomene:
historisch wandelbar
kontextabhängig
theoretisch umstritten sind
Operationale Definition: Übersetzt theoretische Konzepte in messbare Indikatoren
Grundlage empirischer Forschung
Unverzichtbar, aber:
nur sinnvoll auf Basis einer klaren theoretischen Definition
Bsp.: Vertrauen → Skalenfrage in einer Umfrage
Heißt: Sozialwissenschaften arbeiten primär mit nominalen und operationalen Definitionen, nicht mit Realdefinitionen, da soziale Phänomene historisch und kontextabhängig sind.
Phase 3: Hypothesenbildung
Hypothesen = theoriegeleitete, begründete Annahmen über erwartete Zusammenhänge zwischen mindestens zwei Merkmalen i.F. von (un-) abhängigen Variablen (uV → aV), mit dem Ziel, Zusammenhänge dieser Merkmale zu bestätigen oder zu widerlegen.
Unterschied zu Alltagsvermutungen: empirisch, überprüfbar, nicht meinungsbasiert
Kriterien guter Hypothesen (Bortz & Döring)
Bezug auf reale, empirisch untersuchbare Sachverhalte
Generalisierbar über Einzelfälle hinaus
Konditionalstruktur (Wenn–dann / Je–desto)
Falsifizierbar durch empirische Daten
(Theoretisch begründet (Zusammenhang uV–aV))
Arten von Hypothesen
Deterministisch: vermutete Zusammenhang tritt zwischen zwei Merkmalen mit Sicherheit ein. → selten in Sozialwissenschaften
Probabilistisch: vermutete Zusammenhang tritt zwischen zwei Merkmalen nur mit einer gewissen Wahrscheinlichkeit ein. -> Standard in Sozialwissenschaften
Wenn–dann-Hypothese → dichotome Merkmale „Wenn X, dann Y“
Je–desto-Hypothese → ordinale / metrische Merkmale „Je mehr X, desto mehr/weniger Y“
Hypothesentypen
Alternativhypothese und Nullhypothese bilden in der empirischen Sozialforschung ein Paar
Alternativ-/Forschungshypothese (H₁): beinhaltet die interessierende Aussage i.F. Positiver oder negativer Zusammenhang → Test erfolgt über Zurückweisung von H₀
Beispiel: Je höher die Bildung, desto höher das Einkommen.
Nullhypothese (H₀): Verneint die interessierende Aussage, indem kein Zusammenhang dargestellt wird
Beispiel: Zwischen Bildung und Einkommen besteht kein Zusammenhang.
Zusammenhangsarten
Linear (häufigster Fall) (Uni-/ Bivariate Analysen)
Nicht-linear (Regressionsmodelle)
U-förmig
Exponentiell
Logarithmisch → Form muss theoretisch begründet sein
Analytische Ebenen von Hypothesen
Individualhypothese (Mikro → Mikro) → Unterschiede zwischen Individuen (Bildung und Einkommen)
Kollektivhypothese (Makro → Makro) → Zusammenhänge zwischen Kontexten/Systemen
z.B. Arbeitslosenquote und Inflation
Kontexthypothese (Makro → Mikro) → Zusammenhang zwischen Merkmal auf Makroebene (d.h. immer uV) und Merkmal auf Mikroebene (d.h. immer aV) .
Fehlschlüsse zwischen Ebenen
Ökologischer Fehlschluss: Makro → Mikro
Individualistischer Fehlschluss: Mikro → Makro
Naturalistischer Fehlschluss: Sein → Sollen
Normativer Fehlschluss: Sollen → Sein
Heißt:
Hypothesen sind theoriegeleitet, falsifizierbar und empirisch prüfbar
Sozialwissenschaftliche Hypothesen sind fast immer probabilistisch
Ohne saubere Hypothesen keine saubere empirische Forschung
Schritt 4: Operationalisierung
Operationalisierung = Zuordnung eines oder mehrerer beobachtbarer Indikatoren zu einem theoretischen Konzept, um Hypothesen empirisch überprüfbar zu machen.
Voraussetzung: abgeschlossene Konzeptspezifikation
Indikator stellt einen beobachtbaren Sachverhalt dar, der einen theoretischen Begriff in die Realität „übersetzt“
Ablauf
Theoretisches Konzept klären (z. B. „Bildung“)
Indikatoren auswählen (z. B. Schulabschluss)
Korrespondenzregeln festlegen → Wie wird gemessen? (Kodierung, Skala)
Allgemein:
Rangordnung (Bildung: niedrig → hoch)
Dummy-Kodierung (0/1)
Skalen (z. B. 1–5 Zustimmung)
🔼 Höheres Skalenniveau = mehr Information = mehr Statistik
Nominal: Keine Ordnung (z.B. Geschlecht)
Berechnung: Häufigk/ Modus
Ordinal: Rangordnung ohne Abstände (z.B. Schulabschlüsse)
⚠️ oft Intervallannahme bei Likert-Skalen
Berech.: + Median, Rangstatistik
Intervall: Ordnung, gleiche Abstände, ohne abs. Nullpunkt (z.B. Temperatur)
Ber.: + Mittelwert, Korrelation
Ratio: Ordnung, Abstände, abs. Nullpunkt (z.B Einkommen, Alter)
alle statistischen Verfahren
Summenindizes
Skala (reflektive Indikatoren)
Items messen dasselbe Konzept
Konzept -> Indikatoren
Bsp.: Soziales Vertrauen (ESS)
Berechn. → Mittelwert / Summe
Index (formative Indikatoren)
Indikatoren formen das Konzept
Indikatoren → Konzept
Bsp.: Sozioökonomischer Status, HDI
Ber.→ Standardisierung + Gewichtung
Invertierung (bei gegensinnigen Items)
z.B. 1 = stimme völlig zu, 5 = überhaupt nicht
Problem: 5 ist numerisch hoch, bedeutet aber geringe Zustimmung zur Kritik (also eigentlich etwas Positives).
INvertierung = Umcodierung
Art der Kodierung:
Isomorphismus: eindeutige 1:1-Zuordnung → exakte Analysen
Homomorphismus: Zusammenfassung mehrerer Ausprägungen → Vereinfachung, weniger Information
Empirische Messung (Befragung, Statistik, Test)
Messen = Zuweisung von Zahlen zu Merkmalsausprägungen nach festen Regeln(Stevens 1946)
Ohne klare Zuordnungsregeln ist eine Messung nicht valide
Gütekriterien prüfen (Objektivität, Reliabilität, Validität)
Objektivität: Unabhängigkeit einer Messung vom Forschenden, wenn verschiedene Personen mit dem gleichen Messinstrument zum gleichen Ergebnis kommen. Egal Wer misst:
Durchführungsobjektivität
Auswertungsobjektivität
Interpretationsobjektivität
Reliabilität: Wie zuverlässig eine Messung ist
sie stabil die Ergebnisse sind
intercoder: ob der gleiche Text von verschiedenen Personen gleich/einheitlich vercodet wurde
intracoder: ob der gleiche Text von einer Person zu verschiedenen Zeitpunkten gleich vercodet wurde.
wenig Zufall / Messfehler enthält
z.B: durch Cronbachs Alpha (>0,8 - 1)
Validität: Gültigkeit eines Messinstruments. Heißt, Es wird gemessen, was gemessen werden soll
Inhaltsvalidität: alle Dimensionen erfasst?
Kriteriumsvalidität: Vergleich mit etabliertem Maß
Konstruktvalidität: theoretisch sinnvolle Zusammenhänge bestätigt?
Viele bestätigte Hypothesen → hohe Konstruktvalidität
Achtung: Ergebnis kann: Reliabel ≠ valide, aber valide ⇒ reliabel sein.
Zentrale Herausforderungen:
Unterschiedliche Operationalisierungen → unterschiedliche Ergebnisse
Indikatoren oft umstritten
Literaturrecherche entscheidend, um Alternativen zu vergleichen
Schritt 5: Entscheidung ob Primär- oder Sekundäranalyse
Woher kommen die Daten? → Primär- oder Sekundäranalyse
Analysearten
Primäranalyse: zur Überprüfung der formulierten Hypothese/n werden eigene Daten erhoben.
Methoden:
Befragung
Interview
Experiment
Beobachtung
Vorteile:
Daten passgenau zur Forschungsfrage
Volle Kontrolle über:
Messinstrumente
Stichprobe
Nachteile:
Sehr zeit- und kostenintensiv
Methodisch anspruchsvoll
Für Haus-/Abschlussarbeiten oft unrealistisch
Heißt: Primäranalyse = maximale Kontrolle, maximaler Aufwand
Sekundäranalyse: zur Überprüfung der formulierten Hypothese/n werden vorhandene Daten genutzt.
Typische Datensätze: ALLBUS, ESS, SOEP, ISSP, Eurobarometer usw.
Strategien der Datenrecherche nach Watteler
Institutionelle Suche: z.B. Arbeitsmarkt → IAB (Institut für Arbeitsmarkt- und Berufsforschung)
Suche über Forschende: über ZA/ DOI-Nummer von meist verwendeten Datenquellen
Inhaltliche Suche: Datenbanken z.B. GESIS
Sehr ressourcenschonend
Hohe Datenqualität (professionelle Erhebung)
Replikation möglich → Qualitätssicherung
aber: Replikation ist wichtig, aber nicht immer möglich (z. B. bei historischen oder einmaligen Ereignissen).
Diekmann 1998:
heilende Wirkung → Aufdeckung von Fehlern
indem methodische Schwächen oder Analysefehler sichtbar werden
präventive Wirkung → bessere Dokumentation
durch Dokumentation und Kontrolle der Forschungsprozesse zur qualitativen Verbesserung zukünftiger Forschung beitragen
Nachteile
Variablen & Operationalisierung vorgegeben
Forschungsfrage muss zu den Daten passen
Gefahr der Pfadabhängigkeit
Heißt: Sekundäranalyse = weniger Aufwand, weniger Kontrolle
Schritt 6: Forschungsdesign wählen (nur bei Primäranalyse)
= methodische Gesamtplan eines empirischen Forschungsprojekts.Es legt fest, wie eine Forschungsfrage empirisch beantwortet wird und basiert auf:
Ursprung einer Forschung:
Auftragsforschung: Thema durch Auftraggeber
Selbst initiiert: Forschende wählen Thema
Zielrichtung:
Grundlagenforschung: Theorieentwicklung
Anwendungsorientiert: praktische Lösungen
Bestandteile eines Forschungsdesigns nach Diekmann:
Untersuchungsebene
Mikroebene (Individualebene)
Bsp.: Einkommen, Bildung, politische Einstellungen
Arbeitslosigkeit (uV) → Wahlbeteiligung (aV)
Mesoebene (Kontextebene)
Fokus: Organisationen, Verbände, Parteien
bsp.: Politisches Klima einer Region → individuelles Wahlverhalten
Makroebene (gesellschaftliche Ebene)
Fokus: Systeme / Aggregate
Analyse von Gesellschaften, Staaten, Regionen
Bsp.: Arbeitslosenquote (uV) → Wahlbeteiligung (aV)
Untersuchungsform
Experimentell (prüft kausale Zusammenhänge)
gezielte Manipulation einer uV
Beobachtung Ursache-Wirkung-Zsm
Hohe interne Validität
Merkmale:
Manipipulation der uV durch Forschende(Treatment/Stimulus)
Randomisierung: zufällige Zuteilung von Personen zu Experimental- und Kontrollgruppe
Labor-Experiment mit kontrollierten Bedingungen; Randomisierung
Feld-Experiment: in natürlicher Umgebung, reale Bedinungen
Quasi-Experiment: experimentelle Untersuchung ohne Randomisierung mit Manipulation der uV
Nachher-Untersuchung mit Kontrollgruppe
Vorher-Nachher-Untersuchung mit Kontrollgruppe
Solomon-Vier-Gruppen-Design: Kombination aus beiden, mit vier Gruppen, mit Kombination aus Pretest, Treatment und Posttest
Vorteile: hohe interne Validität und ermöglicht Nachweis von Kausalität
in SW häufig durch künstliche Bedingungen unethisch/ unpraktisch
geringe externe Validität: Veränderung der aV ist nur auf Manipulation der uV zurückzuführen, Ergebnisse lassen sich nur selten auf andere Situationen / Personen generalisieren
Allein die erste Befragung („Wie aggressiv bist du?“) kann das Verhalten verändern — z. B. denken die Teilnehmenden darüber nach und verhalten sich danach bewusster oder weniger aggressiv. = Pretest-Effekt
Nicht-Experimentell (Ex-post-facto-Designs = „nachträglich festgestellt“)
nur Beobachtung bestehender Zusammenhänge ohne Manipulation
uV und aVwerden zeitgleich erhoben und erst nach der Datenerhebung (ex post) theoretisch unterschieden, welche Variable als Ursache (uV) und welche als Wirkung (aV) interpretiert wird
Vorteil: realitätsnah und praktisch umsetzbar, da Manipulation bei sozialen Phänomen oft nicht möglich
z.B. Befragung zu politischen Einstellungen, man kann niemanden zwingen rechts zu sein
Probleme:
Nur theoretisch begründete Kausalannahmen möglich.
Problem der Kontrolle von Drittvariablen
Problem der Varianz der uV: Ohne Unterschiede in der Ursache kann man keine Unterschiede in der Wirkung erklären.
Heißt: deskriptive und korrelative, aber keine kausalen Schlüsse.
Datenerhebung Methoden (Stategien & Techiken)
Werkzeuge zur Bearbeitung einer Forschungsfrage, z. B.:
Inhaltsanalyse
Sekundäranalyse
Häufigkeit der Datenerhebung
Queerschnittstudie: einmalige Erfassung relevanter Merkmale
Längsschnittstudie: zu mehreren Zeitpunkten
Trendstudie: Mehrmalige Datenerhebung, aber jeweils unterschiedliche Untersuchungsobjekte
Vergleich der aggregierten Werte (z. B. Mittelwerte) durch mehrere Querschnittserhebungen → bilden einen Trend
Kohortendesign: Spezialfall des Trenddesigns -> Untersuchung von Bevölkerungsgruppen mit gemeinsamem Startereignis (z. B. Geburtsjahr, Heirat, Berufseintritt)
Panelstudie: Gleiche Untersuchungseinheiten, dieselben Merkmale zu verschiedenen Zeitpunkten erheben
Beispiel: Sozioökonomisches Panel (SOEP)
Panelmortalität: Anteil der Personen, die im Verlauf einer Panelstudie ausfallen
Lösung:
Alternierendes Panel: Zwei Gruppen abwechselnd befragt
Rotierendes Panel: Teilgruppe wird ersetzt
Geteiltes Panel: Kombination aus Panel und wiederholten Querschnitten
Informationshierarchie:
Paneldesign > Trenddesign > Querschnittdesign Panel enthält die meiste, Querschnitt die wenigste Information.(Man kann aus Paneldaten Trends und Querschnitte berechnen, aber nicht umgekehrt.)
Schritt 7: Auswahlverfahren (Sampling)
Grundgesamtheit / Stichprobe
(Nur bei Primäranalyse)
Leitfrage: Über wen oder was sollen Aussagen gemacht werden – und mit welchen Daten?
Wer / was wird untersucht? → Grundgesamtheit & Stichprobe
Ziel: systematische und begründete Auswahl von Untersuchungseinheiten zu treffen, um Aussagen über eine Grundgesamtheit zu ermöglichen.
Grundbegriffe:
Grundgesamtheit: Gesamtheit aller Elemente, über die eine wissenschaftliche Aussage getroffen werden soll (räumlich, sachlich, zeitlich definiert)
Bsp.: Alle wahlberechtigten Bürger:innen einer Gemeinde
Auswahlgesamtheit: Alle Elemente einer Grundgesamtheit, die eine Chance haben, in die Stichprobe zu gelangen. Im Idealfall ist die Auswahlgesamtheit mit der Grundgesamtheit deckungsgleich
Bsp.: Einwohnermelderegister
Auswahleinheit: Einheit, auf die das Auswahlverfahren angewendet wird
z.B. Einzelperson im Register
Stichprobe: Elemente (z.B. Personen) einer Auswahlgesamtheit, die im Rahmen einer Teilerhebung ausgewählt wurden.
z.B. 500 zufällig ausgewählte Bürger:innen aus dem Register
Erhebungseinheit: Einheit, bei der die Daten tatsächlich erhoben werden
Person, die tatsächlich befragt wurde
Overcoverage: Elemente in der Auswahl, die nicht zur Grundgesamtheit gehören
z.B. Minderjährige Personen im Register
Undercoverage
Elemente der Grundgesamtheit die nicht in der Auswahl enthalten sind
z.B. Wahlberechtigte ohne Internet bei Online-Befragungen
Stichprobenfehler: Abweichung zwischen Stichprobenwert und wahrem Wert der Grundgesamtheit→ normal und erwartbar
Erhebungsumfang
Vollerhebung: Alle Elemente der Grundgesamtheit werden untersucht
Vorteile: exakte Werte, keine Stichprobenfehler
Nachteile: sehr teuer, zeitaufwendig, oft unrealistisch
Teilerhebung (Stichprobe): Nur ein Teil der Grundgesamtheit wird untersucht
Standardfall in den Sozialwissenschaften
Ziel: Schätzung von Parametern der Grundgesamtheit
Erhebungsart
Zufällige Auswahl (probabilistische Stichprobe)
Jedes Element der Grundgesamtheit hat eine bekannte Auswahlwahrscheinlichkeit > 0
Konsequenz:
Repräsentativität* u.
Inferenzstatistik möglich (Rückschluss von Stichprobe auf Grundgesamtheit)
Typen
Einfache Zufallsstichprobe (SRS)
Jede mögliche Stichprobe hat die gleiche von verschiedene Chance in die Stichprobe zu gelangen
z.B: 1.000 Studierende zufällig aus einer vollständigen Liste
Geschichtete Stichprobe (Stratified Sampling)
Grundgesamtheit in Gruppen (Schichten), sodass jedes Element der Grundgesamtheit zu einer - und nur zu einer - Schicht gehört und anschließend Zufallsstichproben aus jeder Schicht gezogen werden
z.B: Fakultäten, Geschlecht, Altersgruppen→ proportional oder disproportional
Klumpenstichprobe (Cluster Sampling)
Zufallsauswahl von zusammengefassten Elemente (d.h. Klumpen/Gruppen), dann Erhebung aller Elemente im Cluster
z.B. PISA (Schulen zufällig aber alle SchülerInnen befragt)
Nicht-zufällige Auswahl (nicht-probabilistisch)
Auswahlwahrscheinlichkeit unbekannt
❌ Keine Generalisierung auf die Grundgesamtheit
❌ Keine valide Inferenzstatistik
Typen:
Willkürliche Auswahl: aufs Geratewohl
Entscheidung über die Aufnahme eines Elements der Grundgesamtheit durch Ermessen der Forschenden
z.B: Straßeninterviews, Online-Umfragen ohne Dokumentation
Problem: Grundgesamtheit oft unklar → keine Rückschlüsse möglich
Bewusste/ theoretische Auswahl
Auswahl nach inhaltlichen Kriterien, nicht auf Zufallsprinnzip
Ziel: Theoriebildung oder Falsifikation
Nicht repräsentativ
Typische Verfahren:
Quotenauswahl (Quoten nach Geschlecht, Alter etc.) → Verzerrungsrisiko durch Interviewer
Most Similar Cases Design (MSCD)
Most Different Cases Design (MDCD)
⚠️ MSCD/MDCD sind Idealtypen, empirisch selten vollständig umsetzbar
= Stichprobe als „verkleinertes Abbild“ der Grundgesamtheit
Kein eigenständiges Gütekriterium
Oft unscharf verwendet
Nur Zufallsstichproben erlauben echte Generalisierung
👉 Fazit (Schnell et al.): „Repräsentativität“ ist häufig eine inhaltlich leere Floskel, bestenfalls eine Metapher.
Auswahlverfahren in der Forschungspraxis
Da vollständige Listen der Grundgesamtheit oft fehlen, werden mehrstufige Auswahlverfahren genutzt, um eine Stichprobe zu generieren:
ADM-Design (persönliche Befragung)
1. Gebietsauswahl Deutschland in ca. 53.000 Sample Points
2. Haushaltsauswahl Random Walk / Random Route
mit oder ohne Adressvorlauf
3. Zielpersonenauswahl
Geburtstagsmethode (Last-Birthday-Method)
Schwedenschlüssel / Kish Grid
Fehlerquellen:
Abweichungen vom Random Walk
Bevorzugung leicht erreichbarer Personen
Telefonische Stichprobe:
Gabler-Häder-Design (Best Practice in DE)
Kombination aus registrierten + generierten Nummern
Dual-Frame: Festnetz + Mobilfunk
Problem: Mobilnummern nicht regional zuzuordnen
Registerstichproben (EWR)
Nutzung von Einwohnermelderegistern
Geringer Interviewereinfluss
Demografische Informationen verfügbar
Hohe Kontrollierbarkeit
Hoher Aufwand, Kosten, lange Lieferzeiten
Nur bei „öffentlichem Interesse“
Abhängigkeit von Behörden
Typische Verwendung bei: ALBUSS, ESS (DE)
Schritt 8: Datenerhebung (Nur bei Primäranalyse)
Ziel: Systematische Sammlung von Daten zur Beantwortung der Forschungsfrage
Drei klassische Methoden: Beobachtung, Befragung, Inhaltsanalyse.
Direktes, unmittelbares Registrieren relevanter Sachverhalte für den Forschungszusammenhang.
z.B.: Sprache, Verhalten, soziale Merkmale, „geronnenes Verhalten“.
Abgrenzung zur Alltagswahrnehmung: Systematisch, theoriebasiert, kontrolliert, intersubjektiv nachvollziehbar.
Kriterien:
Hypothesenfundierung
Kontrolle / Überprüfbarkeit
Wissenschaftliche Auswahl der Beobachtungseinheiten
Systematische Auswertung (replizierbar, nachvollziehbar)
Phasen:
Fragestellung & Hypothesen
Kodierschema entwickeln
Auswahl der Untersuchungsobjekte
Pretest
Haupterhebung
Datenaufbereitung & Auswertung
Vorteile: Erfassung realen und nonverbalen Verhaltens, auch unbewusste Handlungen
Zeitaufwendig
kleine Fallzahlen,
ethische Probleme (Privatsphäre, Zustimmung Datenschutz fehlt)
Subjektivität
Hawthorne-Effekt (Verhalten verändert sich, wenn Beobachtete wissen, dass sie beobachtet werden)
Varianten:
Teilnehmende vs. nichtteilnehmend
offen vs. verdeckt
Feldbeobachtung vs. Laborbeobachtung
strukturiert vs. unstrukturiert
Selbstbeobachtung vs. Fremdbeobachtung.
Variante
Beschreibung
Vorteil
Nachteil
Beispiel
Teilnehmend
Beobachter integriert sich in Gruppe
Tiefes Verständnis
„Going native“
Parteitage der Grünen/Linken
Nichtteilnehmend
Beobachter bleibt passiv
Objektiver
Weniger Einsicht
Politische Veranstaltungen
Offen
Beobachtete wissen von Beobachtung
Ethisch unbedenklich
Reaktivität
Unterrichtsbeobachtung
Verdeckt
Beobachtete wissen nichts
Natürliches Verhalten
Ethisch problematisch
Alltagsverhalten
Feld
Natürliche Umgebung
Hohe ökologische Validität
Geringe Kontrolle
Wahlkreisarbeit
Labor
Kontrollierte Umgebung
Vergleichbarkeit
Geringe Realitätsnähe
Strukturiert
Vorgabe von Kategorien
Vergleichbarkeit, Reliabilität
Eingeschränkt
Quantitative Forschung
Unstrukturiert
Offene Exploration
Qualitative Feldforschung
= Systematische Erhebung von Einstellungen, Meinungen, Wissen und Verhalten von Personen.
Sie kann
quantitativ (standardisiert) oder
qualitativ (offen, explorativ) durchgeführt werden.
Direktes Erfassen von Wissen, Einstellungen, Verhalten
Standardisierbar → Vergleichbarkeit
Quantitativ und qualitativ einsetzbar
Schnelle Datenerhebung (je nach Modus)
Soziale Erwünschtheit → Verzerrung
Antwortausfälle (Non-Response)
Missverständnisse bei Fragen
Kosten und Zeitaufwand bei Face-to-Face
Reaktive Effekte möglich (Verhalten durch Befragung beeinflusst)
Grundformen:
Persönlich (face-to-face): Interviewer stellt Fragen direkt; CAPI (Computer Assisted) oder PAPI (Papier)
z.B. Haushaltsbefragungen, detaillierte Interviews bis 60 min; hohe Teilnahmebereitschaft; teue
Grundgesamtheit abbildbar: hoch
Telefonisch (CATI): Zentral gesteuerte Interviews per Telefon
z.B Wahlforschung, schnelle Datenerhebung; max. 30 min; moderate Kosten
Grundgesamtheit abbildbar: mittel
Schriftlich (Paper): Fragebogen per Post
Lokale Studien, kleinere Grundgesamtheit; niedrige Response-Rate
Online (CAWI): Web-basierter Fragebogen
z.B Große Online-Studien, Studierende, niedrige Kosten, schnelle Auswertung; Ausschluss nicht-internetfähiger Personen
Grundgesamtheit abbildbar: gering
Non-Response:
= Fehlen von Daten bei Befragungen
Item-Nonresponse: einzelne Fragen unvollständig
Unit-Nonresponse: Befragte nicht erreichbar oder verweigern
Ausschöpfung / Response-Rate: Verhältnis realisierte Interviews zu gezogenen Stichprobenelementen
Teilnehmermotivation:
Incentives: Beispiele: Gutscheine, kleine Geschenke, Teilnahme an Verlosungen, Geldbeträge.
Follow-ups: Erinnerung per E-Mail, Telefon, Postkarte
Personalisierung: persönliche Anschreiben mit Namen, Bezug auf vorherige Teilnahme, freundliche Sprache.
Fragebogenentwicklung
Grundprinzipien:
Iterativer Prozess: Fragen werden fortgehend überarbeitet, Reihenfolge angepasst, Module ergänzt.
Module/Blöcke: ähnliche Fragen zusammenfassen (z. B. Politik, Mediennutzung, Wohlbefinden).
Reihenfolge: allgemein → speziell; Einstiegsfragen leicht & motivierend; sensible Fragen am Ende.
Filterfragen: überspringen irrelevante Items.
Pretests:
= Erhebungsinstruments vor der eigentlichen Datenerhebung. Zielt darauf ab, die Mängel eines Erhebungsinstruments zu identifizieren, um die Qualität der Datenerhebung sicherzustellen.
Kognitive Interviews → Verständlichkeit prüfen, Probleme beim Beantworten erkennen
Fragebewertungssystem (FBS) → Checkliste zur systematischen Analyse
Feldpretest → Test mit 10–200 Personen, Dauer, Ablauf, Navigation prüfen
10 Gebote der Frageformulierung nach Porst
Einfache, verständliche Begriffe
Kurze, klare Fragen
Keine hypothetischen Fragen
Keine Verneinungen
Keine Unterstellungen / suggestive Fragen
Keine Fragen zu unbekannten Informationen (Überfragung)
Klarer zeitlicher Bezug
Klare Antwortvorgaben (überschneidungsfrei)
Kontext beachten (Assimilation / Kontrasteffekte)
Unklare Begriffe definieren
Fragetypen:
Fragetyp
Befragter antwortet frei
„Was denken Sie über die aktuelle Klimapolitik?“
Dichotom
Zwei Antwortmöglichkeiten
„Sind Sie Mitglied einer Partei? Ja / Nein“
Hybrid / Halboffen
Kombination geschlossene + offene Option
„Welchen Schulabschluss haben Sie? Hauptschule, Realschule, Gymnasium, Anderer: ______“
Skalenfrage
Bewertung auf Intensitäts/ Einstufung
„Wie zufrieden sind Sie mit Ihrem Arbeitsplatz? 1 = sehr unzufrieden – 5 = sehr zufrieden“
Rangordnung
Items nach Wichtigkeit ordnen
„Ordnen Sie diese politischen Ziele nach Priorität: 1. Sicherheit, 2. Bildung, 3. Umwelt, 4. Gesundheit“
Mehrfachantwort
Mehrere Optionen wählbar
„Welche Verkehrsmittel nutzen Sie regelmäßig? Auto, Fahrrad, Bus, Bahn, Zu Fuß“
Forced-Choice
Aus mehreren Optionen eine richtige Wahl
„Wer wählt den Bundeskanzler? a) Volk, b) Bundestag, c) Bundesrat → Richtig: b) Bundestag“
Probleme
Geschlossene Fragen: Antwortoptionen erschöpfend und disjunkt.
Effekte von Skalen:
Verzerrung durch Intervallwahl, Mittelkategorie möglich
Verbal vs. numerisch → Kombination kann verwirren
Reihenfolge (negativ → positiv vs. positiv → negativ) kann Einfluss haben
Standardisierte Skalen = einfache Auswertung; item-spezifische = besseres Verständnis
Leitfragen zu Skalen nach Porst:
Anzahl Kategorien: Faustregel 5–7
Gerade vs. ungerade Anzahl: neutral möglich vs. zwingt zu Meinung
heißt: Die Qualität hängt stark ab von Fragebogenkonstruktion, Pretests, Auswahl der Stichprobe, Antwortkategorien und Vermeidung von Bias (systematische Verzerrungen) durch neutrale Fragen, Randomisierung, standardisierte Interviews.
Randomisierung = zufällige Verteilung von Untersuchungsobjekten in Experimental- oder Kontrollgruppe gemeint. Dadurch sollen bei Experimantaldesigns systematische Unterschiede zwischen Experimental- und Kontrollgruppe vermieden werden.
= Empirische, systematische Erhebung und Auswertung von Texten, Bildern und Filmen zur Rückschlusserhebung auf gesellschaftliche Sachverhalte.
Keine Datengenerierung, Nutzung vorhandener Materialien
Sekundäranalyse = bereits existierende quantitative Daten (z. B. Umfragen, Statistiken)
Inhaltsanalyse = bereits vorhandenes Material systematisch qualitativ oder quantitativ codieren
Texte: Wahlprogramme, Zeitungsartikel, Kinderaufsätze
Bilder / Filme: Werbespots, Spielfilme, Social-Media-Beiträge
Codierung: Häufigkeit von Begriffen, Bewertung von Aussagen (positiv/negativ), Kontingenz (Begriff A erscheint zusammen mit Begriff B)
Quantitativ, wenn:
Inhalte gezählt, klassifiziert oder verglichen werden
Ergebnisse als Zahlen vorliegen
statistisch auswertbar
(Abgrenzung: qualitative Inhaltsanalyse = interpretativ, weniger Zählungen)
Systematisch, intersubjektiv nachvollziehbar
Frequenzanalyse: Häufigkeit bestimmter Begriffe, Themen, Personen etc.
z.B. Wie oft wird „Klimaschutz“ im Wahlprogramm erwähnt?
Valenzanalyse: Bewertung positiv/neutral/negativ
z.B: Wie wird ein Kanzlerkandidat in Zeitungsartikeln dargestellt?
Intensitätsanalyse: Stärke der Bewertung
z.B „leicht positiv“ – „sehr positiv“ – „extrem negativ“
Kontingenzanalyse: gemeinsame Auftretensmuster, Untersucht Zusammenhänge zwischen Begriffen/Themen
Tritt der Begriff „Migration“ häufiger zusammen mit „Kriminalität“ oder mit „Arbeitsmarkt“ auf?
Planungsphase: Forschungsfrage, Grundgesamtheit, Zeitraum
Entwicklungsphase: Kategorienschema (deduktiv/induktiv), Codierungsvorgaben
Testphase: Probecodierung, Schulung, Reliabilitätsprüfungen
Anwendungsphase: Codierung, Softwareeinsatz
Auswertungsphase: Datenmatrix, quantitative/qualitative Analyse, Interpretation
Analyse historischen Materials möglich
Nichtreaktiv (keine Beeinflussung der Daten durch Forscher)
Analyse sozialen Wandels
Parteitagsbeobachtungen (Nieland 2011)
Todesanzeigenanalyse (Schmied 2002)
Kinderhörspiele (Strohmeier 2005)
Medienpräsenz Bundestagsdebatten (Hierlemann & Sieberer 2014)
Schritt 9: Datenaufbereitung und Analyse*
= Organisation, Prüfung, Verdichtung und statistische Auswertung erhobener Daten zur Beantwortung der Forschungsfrage.
Prinzipien der Datensammlung
Vergleichbarkeit: Merkmale für alle Objekte gleich definiert
Klassifizierbarkeit: Für jedes Objekt und Merkmal genau ein Wert
Vollständigkeit: Keine leeren Zellen; fehlende Angaben = Missing Values (z. B. 9/99 = „weiß nicht“)
Datenaufarbeitung
= Fehlerkontrolle, Codebuch, Missing Values
Fehlerarten:
Wild codes: Werte außerhalb des zulässigen Bereichs
Unplausible Werte: Realistisch unmögliche Angaben (z. B. 300 Std./Monat ehrenamtlich)
Inkonsistente Werte: Widersprüche innerhalb der Daten (z. B. Ehedauer > Alter)
Lösung: Korrektur durch Original, Kennzeichnung als Missing Value
R/Studio: NA steht für „Not Available“
NA
na.rm = TRUE, um fehlende Werte bei Berechnungen zu ignorieren.
na.rm = TRUE
Testphase
Probecodierung: Schema testen, Kategorien anpassen
Codierschulung: Einheitliche Anwendung sicherstellen
Reliabilitätsprüfung:
Intercoder-Reliabilität: Verschiedene Codierer codieren gleich
Intracoder-Reliabilität: Ein Codierer codiert gleich zu verschiedenen Zeiten
Maße: Holsti CR, Scott Pi, Krippendorff’s Kappa
Validitätsprüfung: Codierung misst, was sie messen soll
Hypothesentestung/ Datenanalyse:
Explorativ: Muster, Trends, erste Zusammenhänge → Deskriptiv, Grafiken
inferenzstatistisch: Übertrag auf Grundgesamtheit → Signifikanztests, Regression
Deskriptive Datenanalyse (Univariat)
Zur Verdichtung großer Datenmengen ohne Hypothesenprüfung
Lagemaße: Zentrum der Verteilung
Modus (häufigster Wert, nominal)
Median (mittlerer Wert, ordinal)
Mittelwert (Durchschnitt, intervallskaliert)
Streuungsmaße: Variation der Daten
Varianz: durchschnittliche quadrierte Abweichung vom arithmetischen Mittel.
Standardabweichung
Beispiel: Gleicher Mittelwert → unterschiedliche Streuungen sichtbar
Hypothesenprüfung bei bivariaten Zusammenhängen
um Beziehung zwischen Variablen zu prüfen
Nominal x Nominal: Cramer’s V (0–1)
Ordinal x Ordinal: Spearman’s rho (-1 bis 1)
Metrisch x Metrisch: Pearson’s r (-1 bis 1)
Beispiele:
Geschlecht x Wahlentscheidung → Cramer’s V
Politikinteresse x Wahlbeteiligung → Spearman’s rho
Bildung x Einkommen → Pearson’s r
Multivariate Analysen
Misst den Einfluss mehrerer unabhängiger Variablen auf eine abhängige Variable
Verfahren: Regressionsanalyse
Lineare Regression → metrische AV
Logistische Regression → dichotome AV
Multinomiale logistische Regression → nominale AV mit >2 Ausprägungen
Ordinale Logitmodelle → ordinale AV
Inferenzstatistik & Signifikanztest
Rückschluss von Stichprobe auf Grundgesamtheit
Schritte:
Nullhypothese H₀: kein Zusammenhang
Alternativhypothese H₁: Zusammenhang
Statistisches Maß: Cramer’s V, Spearman, Pearson
p-Wert bestimmen (p < 0,05 = signifikant)
t-test durchführen
Interpretation: Signifikant → Zusammenhang sehr wahrscheinlich auch in Grundgesamtheit, nicht automatisch Effektgröße oder Wichtigkeit
Schritt 10: Publikation
Forschungsergebnisse gelten erst als anerkannt, wenn sie veröffentlicht und kritisch überprüfbar sind (DFG 2013, S. 43).
= Integraler Bestandteil des Forschungsprozesses (Döring 2023, S. 768).
Ziele:
Wissen erweitern
Ergebnisse kritisch überprüfen lassen
Neue Forschungsfragen generieren
Publikationsformen
Bericht: Rechenschaftspflicht gegenüber Förderinstitutionen; enthält Ausgangsfragen, Zielsetzung, Methoden, Ergebnisse, Diskussion; keine klassische Publikation; ggf. Zwischenberichte.
Vortrag / Konferenzbeitrag: Präsentation erster Ergebnisse, Feedback einholen, Grundlage für spätere Publikationen.
Buch: Umfassende Darstellung von Projekten, häufig bei Promotion/Habilitation.
Fachzeitschriftenartikel: wichtigste Form wissenschaftlicher Kommunikation; speist Ergebnisse ins Wissenschaftssystem ein, ermöglicht Kritik und neue Forschung.
Sozialwissenschaftliche Fachzeitschriften
Auswahl: >4500 politikwissenschaftlich, >4200 soziologisch.
Qualitätskriterien: Peer-Review, Gutachter prüfen Validität & Originalität, Entscheidung: Annahme / Annahme nach Revision / Ablehnung.
Impact-Faktor: Orientierung für Relevanz; misst Zitationen.
Beispiele deutschsprachig: dms, KZfSS, PVS (mit Peer-Review); APuZ (ohne Review).
Beispiele international: American Journal of Political Science, Public Administration Review, American Sociological Review.
Last changedan hour ago