Variablen, Konstante, Indikatoren
Unterscheidung:
Konstante: Merkmal mit nur einer Ausprägung
Variable: Merkmal mit mindestens zwei Ausprägungen
Bsp.: Geschlecht, Schulabschluss, politisches Interesse
Arten:
Manifeste Variable: direkt beobachtbar → z. B. Haarfarbe, Körpergröße
Latente Variable: nicht direkt beobachtbar → z. B. Bildung, Intelligenz, politisches Interesse
Operationalisierung: Prozess, bei dem latente Variablen durch messbare Indikatoren erfasst werden (z. B. Fragen im Fragebogen).
Ursache-Wirkungs-Beziehung
Abhängige Variable (aV): zu erklärender Sachverhalt
Unabhängige Variable (uV): vermuteter Einflussfaktor auf die aV
Oft existieren mehrere uVs
Indikator: beobachtbarer Sachverhalt, der einen theoretischen Begriff empirisch messbar macht
Zur Übersetzung von Theorie in empirische Realität
Korrelation vs. Kausalität
Korrelation: Statistischer Zusammenhang zwischen zwei Merkmalen
Positiv: hohe Werte eines Merkmals tendenziell mit hohen Werten eines anderen Merkmals auftreten.
Negativ: hohe Werte eines Merkmals tendenziell mit niedrigen Werten eines anderen Merkmals auftreten.
Nicht-lineare Korrelation
Scheinkorrelation: Zusammenhang von zwei Merkmalen bezeichnet, der durch einen dritten Faktor verursacht wird. Da die Korrelation zwischen den beiden Merkmalen faktisch existiert, wird häufig auch der Begriff Scheinkausalität verwendet. (es existiert keine Kausalität)
Kausalität: Ursache-Wirkungs-Beziehung: eine Variable verursacht eine Veränderung der anderen = Richtung des Zusammenhangs zwischen zwei Merkmalen. Dabei gilt, dass die unabhängige Variable (uV) als Ursache und die abhängige Variable (aV) als Wirkung fungiert. Die Ursache ist dabei der Wirkung zeitlich vorgelagert.
Achtung: Eine Korrelation beweist keine Kausalität (z. B. mehr Feuerwehrleute → höherer Schaden = Scheinzusammenhang, Ursache ist die Feuergröße).
Bedingungen für Kausalität (nach Hill 1965 / Schnell et al. 2023)
Zeitliche Reihenfolge: Ursache geht Wirkung voraus.
Starker Zusammenhang zwischen den Variablen.
Replikation in verschiedenen Kontexten / Populationen.
Theoretische Plausibilität: nachvollziehbarer Wirkmechanismus.
Skalen, Skalenniveaus und Index
Skala = strukturelle Abbildung eines empirischen Relativs in ein numerisches Relativ
Skalenniveau (nach Stevens 1946)
👉 entscheidet, welche statistischen Verfahren zulässig sind.
Sie dienen der geordneten Messung, nicht der bloßen Codierung
Je höher das Skalenniveau, desto mehr Rechenoperationen und Analyseverfahren sind möglich.
Wichtig:
Traditionell werden in der Sozialforschung vier Skalenniveaus unterschieden (Nominal-, Ordinal-, Intervall- und Ratioskala). In der Praxis werden Intervall- und Ratioskalen als metrische Skalen behandelt.
🔹Nominalskala
Merkmale ohne Rangfolge
Jede Ausprägung erhält genau einen Wert
Keine doppelten Zuordnungen möglich
Zulässig: Modus
Beispiel:
Geschlecht: weiblich = 1, männlich = 2
Man kann entweder mänl. ODER weibl. sein
🔹 Ordinalskala
Rangfolge möglich, aber keine gleichen Abstände
Relationsbegriffe: höher, stärker, besser
Zulässig: Modus, Median
Schulabschluss ohne Abschluss = 1 Hauptschule = 2 Mittlere Reife = 3
🔹 Intervallskala (metrisch)
Rangfolge + gleiche Abstände
Kein natürlicher Nullpunkt
Zulässig: Modus, Median, Mittelwert
Temperatur (°C) → Abstand 15–20 °C = Abstand 20–25 °C
🔹 Ratio- / Verhältnisskala (metrisch)
Rangfolge
Gleiche Abstände
Natürlicher Nullpunkt
Verhältnisaussagen möglich („doppelt so viel“)
Einkommen (0 € = kein Einkommen)
Alter (0 Jahre)
Übersicht:
Skalenniveau
Beispiele
Zulässige Operationen
Merkmale
Nominal
Geschlecht, Religion
Auszählen
Keine Rangfolge
Ordinal
Schulabschluss, politisches Interesse
Auszählen, Ordnen
Rangfolge, aber keine gleichen Abstände
Intervall
(metrisch)
Temperatur (°C)
+ Differenzen
Gleiche Abstände, kein natürlicher Nullpunkt
Ratio
Einkommen, Alter, Temperatur (K)
+ Verhältnisse
Pseudometrische Variablen
Ordinale Variablen mit mind. 5 geordneten Ausprägungen
und wenn gleiche Abstände plausibel angenommen werden (= Äquidistanz)
Bsp.: Likert-Skalen („stimme gar nicht zu“ – „stimme voll zu“)
Diskret: abzählbare Ausprägungen, keine Zwischenwerte → z. B. Kinderzahl, Fachsemester
Stetig: unendlich viele Ausprägungen, Zwischenwerte möglich → z. B. Einkommen, Größe, Zeit
Ausprägung:
Dichotom: genau zwei Ausprägungen → z. B. Wahlbeteiligung (Ja/Nein) 📌 Sonderform diskreter Variablen
Polytom: mehr als zwei Ausprägungen → z. B. Religionszugehörigkeit
Skalen im Prozess der Operationalisierung
Operationalisierung = Messbarmachung theoretischer Konzepte durch Zuordnung von empirischen Indikatoren zu theoretischen Begriffen
Beispiel: Bildung -> Schulabschluss
Je mehr Indikatoren → desto geringer der Messfehler
Skala
Mehrere Indikatoren messen dasselbe eindimensionale Konzept
= Reflektive Indikatoren: Indikatoren sind Ausdruck des Konstrukts
Eindimensionalität prüfen (z. B. Faktorenanalyse)
Beispiel: Politisches Vertrauen → Fairness, Ehrlichkeit, Zuverlässigkeit
➡️ Zusammenfassung = Skalenkonstruktion
Heißt: man kann Zuverlässigkeit messen, Fairness und Ehrlichkeit und alle reflektieren den Grad des politischen Vertrauens
Index im Prozess der Operationalisierung
Index =Zusammenfassung mehrerer Einzelindikatoren zu einer neuen mehrdimensionalen Variable nach festgelegten Vorschriften.
Index
Zusammenfassung mehrerer Indikatoren zu einer mehrdimensionalen Variable
= Formative Indikatoren: Indikatoren konstituieren das Konzept
Veränderung eines Indikators verändert das Konzept selbst
Mehrdimensionalität theoretisch begründen
Beispiel: Sozioökonomischer Status= Bildung + Einkommen + Prestige
Alle 3 Variablen stellen eigene Konzepte dar, wodurch soz.ök. Status multidimensional wird
Prozente vs. Prozentpunkte
Prozente (%):
Drücken immer ein relatives Verhältnis aus.
Die Zahl vor dem Prozentzeichen ist der Prozentsatz, der das Verhältnis angibt.
Beispiel: 20 % der Befragten sind Männer.
Prozentpunkte (pp):
Beschreiben den absoluten Unterschied zwischen zwei Prozentsätzen.
Beispiel: Anteil Männer bei stark Interessierten = 30 %, Anteil Frauen = 20 % → Unterschied = 10 Prozentpunkte, nicht 10 %.
Prozentsatzdifferenz:
Berechnung: Zeilenweise Differenz zweier Spaltenprozenten.
Wertebereich: −100 bis +100 Prozentpunkte.
Interpretation:
< 5 pp → kaum interpretierbar, kein Zusammenhang
5–<10 pp → schwacher Zusammenhang
10–<25 pp → mittelstarker Zusammenhang
≥25 pp → starker Zusammenhang
Heißt: Prozent / relative Differenz fragt: wie viel mehr im Verhältnis zum Ausgangswert.
Bezogen auf Frauen: (30−20) / 20 = 0.5 = 50%
50% der Frauen = 20*0,5 = 10 Frauen weniger
Das heißt: die 30 Männer sind 50 % mehr als die 20 Frauen
Doppel so viele wären 200%
Prinzipien wissenschaftlichen Arbeitens & Forschungslogik
Zentrale Prinzipien wissenschaftlichen Arbeitens (Popper)
Basissätze werden konventionell und vorläufig akzeptiert durch
Intersubjektive Nachvollziehbarkeit
Methodische Sorgfalt
Transparente Dokumentation aller Schritte
Zentrale Kriterien des kritischen Rationalismus (Popper)
Absolute Wahrheit ist nicht beweisbar. Prüfung erfolgt über Beobachtungssätze, nicht direkt über Realität. Beobachtungen können fehlerhaft sein, deshalb gelten folgende Zentrale Prinzipien:
Falsifizierbarkeit als Kriterium für Wissenschaftlichkeit
Aussagen gelten nur vorläufig
Empirischer Bezug
Kritik statt Verifikation
4 Kriterien sozialwissenschaftlichen Forschens (klassisch nach King, Keohane & Verba 1994)
1. Inferenz = Schlussfolgerungen aus empirischen Daten über den Einzelfall hinaus
Deskriptive Inferenz: von beobachteten zu nicht beobachteten Fakten
Kausale Inferenz: Erklärung von Ursachen für Beobachtungen
2. Wissenschaft ist öffentlich, dh sie erfordert:
Offenlegung von Daten
theoretische Argumentation
Methoden
Schlussfolgerungen
Heißt: Ergebnisse müssen prüfbar, kritisierbar und replizierbar sein
3. Schlussfolgerungen sind grundsätzlich unsicher (falsifizierbar), Fehler können aber abgeschätzt werden.
4. Sozialwissenschaftliche Forschung ist nicht über Inhalte definierbar, sondern über wissenschaftliche Methode:
Forschungslogik
Strategien
Techniken
Heißt: Unterschiedliche Themen, aber gleiches methodisches Vorgehen
Münchhausen-Trilemma
=philosophisches Problem in der Erkenntnistheorie, das die Schwierigkeit beschreibt, eine absolute Rechtfertigung von Wissen oder Wahrheit zu erlangen.
Es besagt, dass jede Begründung von Wissen auf eine von drei problematischen Arten enden muss:
Zirkularität: Die Begründung stützt sich auf sich selbst (zirkulärer Beweis).
Regress: Die Begründung verlangt eine weitere Begründung, die wiederum eine weitere benötigt – eine unendliche Kette von Begründungen ohne Anfang.
Dogmatismus: Man akzeptiert eine unbegründete Grundannahme (axiomatische Basis), ohne Begründung.
Das Trilemma zeigt, dass eine absolute, endgültige Rechtfertigung von Wissen unmöglich ist
Lösung des Trilemmas nach Behnke & Behnke
Logischer Zirkel
Infiniter Regress
Dogmatischer Abbruch
Wahrheitstabelle
helfen, logische Zusammenhänge zu prüfen, z. B. ob eine Aussage immer wahr ist (Tautologie) oder widersprüchlich.
w = wahr
f = falsch
a / b = Variable
Induktion (qualitative Studien)
Schluss vom Einzelfall auf allgemeine Aussagen
Theorie entsteht aus den Daten
Hypothesen werden generiert und weiterentwickelt
Deduktion (quantitative Studien)
Schluss vom Allgemeinen auf den Einzelfall
Hypothesen werden vorab aus Theorie abgeleitet
Ziel: Überprüfung (Bestätigung oder Falsifizierung)
Deduktiv-nomologisches Modell (D-N-Modell)
= Grundmodell quantitativer Erklärung
Eine deduktiv-nomologische Erklärung besteht aus zwei Arten von Sätzen:
Allgemeingültige Gesetze und
Randbedingungen, die nur für konkrete Situationen gelten.
Logik: Gesetz + Randbedingungen → Explanandum (deduktiv)
Bestandteile:
Explanandum: zu erklärendes Phänomen
Explanans:
Allgemeingültige Gesetze (Allaussage)
Randbedingungen (konkrete Situation)
Induktiv-statistisches Modell (I-S-Modell)
Modifikation des D-N-Modells für Sozialwissenschaften
Statt Gesetzen: Wahrscheinlichkeitsaussagen
Erklärungen sind nicht sicher, sondern probabilistisch
Auch bei wahrem Explanans kann Explanandum ausbleiben
Die induktiv-statistische Erklärung ist ein Erklärungsmodell bestehend aus zwei Arten von Sätzen:
Probabilistische Gesetze und
heißt:
Ein Phänomen kann nur mit einer gewissen Wahrscheinlichkeit erklärt werden.
Qualitative vs. quantitative Forschung: Zentralvergleich
Gemeinsamkeiten:
Arbeiten mit empirischen Informationen
Ziel: Aussagen über gesellschaftliche Strukturen und Handlungen
Kritische Reflexion von Fehlern und Verzerrungen
Ziel: Transparenz und Verlässlichkeit
Unterschiede:
Dimension
Qualitativ
Quantitativ
Forschungsziel
Verstehen
Erklären
Forschungsprozess
zirkulär
linear
Fallzahl
gering
hoch
Daten
Worte
Zahlen
Hypothesen
generierend
prüfend
Auswertung
offen
statistisch
Generalisierung
Mixed Methods
Kombination qualitativer und quantitativer Ansätze
Sinnvoll, wenn Forschungsfragen beide Perspektiven erfordern
Strategien:
Sequenziell: Methoden nacheinander
Komplementär: Methoden parallel
📌 Aktueller Trend: Zunahme von Mixed-Methods-Studien (Baur et al. 2018), Mehrheit bleibt jedoch klar qualitativ oder quantitativ.
10 Phasen eines sozialwissenschaftlichen Forschungsprojektes
Ablauf:
Festlegung des Forschungsthemas
Breites Thema, noch keine konkrete Forschungsfrage
Bsp.: „Politisches Vertrauen“
Auseinandersetzung mit dem Stand der Forschung
Literaturrecherche, bestehende Studien
Formulierung der Forschungsfrage
Konkret, überprüfbar, empirisch untersuchbar
Konzeptspezifikation / Begriffsdefinition
Alltagsbegriffe → wissenschaftliche Konzepte
Nominal- oder Realdefinitionen
Bsp.: „Wutbürger“ als messbares Konzept sozialen Protestes
Hypothesenbildung
Theoriegeleitete Vermutungen über Ursache-Wirkung
Müssen falsifizierbar sein (kritischer Rationalismus)
Operationalisierung
Übersetzung theoretischer Begriffe in messbare Indikatoren
Bsp.: „Vertrauen“ → Fragebogen: „Wie sehr vertrauen Sie der Regierung?“
Entscheidung Primär- oder Sekundäranalyse
Bei Primäranalyse Schritt 6 - 8:
Forschungsdesign entwickeln
Untersuchungsebene: Mikro / Meso / Makro
Studienart: experimentell / nicht-experimentell
Zeitdimension: einmalig (Querschnitt) oder wiederholt (Trend / Panel)
Ziel: Design muss Frage & Ressourcen passen
Auswahlverfahren / Stichprobe
Wer wird untersucht?
Vollerhebung: alle Elemente → teuer, oft unnötig
Teilerhebung / Stichprobe: zufällig (repräsentativ) oder bewusst / willkürlich
Datenerhebung
Formen: Befragung, Beobachtung, Inhaltsanalyse
Arten: Vollerhebung vs. Stichprobe (zufällig oder nicht-zufällig)
Datenaufbereitung & -analyse (ab hier auch Sekundäran.)
Bereinigung, Strukturierung und Auswertung: Fehlerkorrektur, fehlende Werte, Overcoverage
Analyseverfahren abhängig von Frage & Datentyp
Quantitativ: z. B. Regressionsanalyse
Qualitativ: z. B. Inhalts- oder Narrative Analyse
Interpretation & Schlussfolgerung
Ergebnisse kritisch reflektieren
Generalisierbarkeit prüfen
Unsicherheiten benennen
Publikation der Ergebnisse
Abschlussbericht (intern)
Wissenschaftliche Artikel / Bücher (öffentlich)
Phase 1: Forschungsthema definieren, Forschungsstand erkunden (Literaturrecherche) und Forschungsfrage entwickeln
Arten
Primäranalyse: eigene Daten erhoben, um die Forschungsfrage zu beantworten/bearbeiten.
Sekundäranalyse: zur Überprüfung der formulierten Hypothese/n werden vorhandene Daten genutzt.
Ausgangspunkt: Forschunngsthema
= grober Rahmen als Arbeitsgrundlage, z.B. Politisches Vertrauen
es grenzt den Inhalt eines Forschungsprojekts lediglich lose ab
Schritt 1: Relevanz prüfen
Wichtig: Appelle, persönliche Meinungen oder emotionale Kommentare nicht in wissenschaftliche Texte
Theoretisch: Beitrag zum wissenschaftlichen Diskurs, neue Hypothesen, Inkonsistenzen aufdecken, Theorien testen, Konzepte entwickeln
Gesellschaftlich: Verständnis / Vorhersage wichtiger Phänomene, Identifikation betroffener Gruppen, Bewertung von Konsequenzen, Handlungsempfehlungen
Schritt 2: Thema eingrenzen
Ebene: lokal, national, international
Zeit: historische / aktuelle Entwicklung
Dimension: Mikro- oder Makroebene
Kombination von Kernbegriffen für Präzisierung
Bsp.: „Lokale Unterschiede der Wahlbeteiligung in Deutschland“ statt „Wahlforschung“
Schritt 3: Literaturrecherche
Methoden:
Erste, überblickartige Recherchen:
Quellen z.B.: Online-Kataloge (OPAC) der Universitätsbibliotheken. Findet Monographien, Sammelbände, Titel der Fachzeitschriften.
Vertiefende Recherchen: Fachaufsätzen in den verschiedenen Fachzeitschriften.
Quelle z.B.: “Web of Science“: International aufgestellt
Vorgehen:
Narrative Review: unsystematisch, subjektiv
Systematic Review: transparent, objektiv, Grundlage für Metaanalysen
Kriterien zur Quellenbewertung:
Zitierfähigkeit (öffentlich zugänglich, Buch, offiz. Statistik)
Zitierwürdigkeit (erfüllt wiss. Qualitätsstandards, AutorInnen sind Fachwissenschaft., Veröffentlich. durch anerkannte Verlage/ Fachzeitschriften, Peer-Reeview)
Reviewverfahren: Begutachtung (Review) eines Fachaufsatzes vor der Veröffentlichung durch fachspezifische Gutachter
Relevanz (passend zur Forschungsfrage)
Relevante Quellen: Monografien, Schlüsselwerke, Fachzeitschriften, amtliche Statistiken, Forschungsdatenbanken (GESIS, Politbarometer, ALLBUS, Eurostat, OECD)
Kritische Quellen:
Eurobarometer:
Proeuropäischer Einfluss durch den Auftraggeber i.F. der Europäischen Kommission. zB. Durch suggestive Frageformulierengen.
Allerdings liegt ein Monopol bei der Verfügbarkeit von Datengrundlagen dar. Da keine anderen Daten verfügbar sind, müssen Forschende häufig auf den Eurobarometer zurückgreifen, um ihre Forschungsfragen empirisch zu untersuchen
Repräsentativität
= Abbild der Grundgesamtheit, aber! kein Fachbegriff der empirischen Sozialforschung, sondern eine Metapher in den Medien für ein verkleinertes Abbild der interessierenden Grundgesamtheit. Streng genommen, kann eine Stichprobe niemals sämtliche Merkmalsverteilungen der Grundgesamtheit repräsentieren.
Schritt 4: Forschungsfrage entwickeln
Leitet sich aus Forschungslücken oder ungelösten Problemen ab und bedienen die:
Dimensionen der Relevanz:
theoretisch
gesellschaftlich
Kriterien für gute Forschungsfragen:
Klarheit
Begründbarkeit
Machbarkeit
Prüfbarkeit
Bezug zur Theorie
Typen:
Deskriptiv: „Wie…?“ → Fakten erfassen
häufig reine Beschreibungen und erklären keinen Sachverhalt (es werden keine Zusammenhänge von Merkmalen bzw. kausale Mechanismen untersucht)
wiss. Forschung sollte allerdings nicht nur beschreiben sondern auch einen Sachverhalt erklären, daher ist sie ungeeignet
Erklärend / analytisch: „Warum…?“ → Ursachen / Zusammenhänge
Untersucht Ursachen, Zusammenhänge oder Kausalmechanismen zwischen Merkmalen
Ziel: Theorieprüfung oder Hypothesenprüfung → über reine Beschreibung hinaus
wichtig in Sozialwissenschaften
Phase 2: Konzeptspezifikation
Phase im Forschungsprojekt die dazu dient, einen abstrakten Begriff eindeutig festzulegen
zur eindeutigen Definition & Abgrenzung von ähnlichen Konzepten
Grundlage für empirische Forschung & Hypothesenbildung
um messbare Indikatoren abzuleiten (Operationalisierung)
Elemente eines Konzepts (Gerring 2001)
Term: sprachliche Bezeichnung i.F. eines Namens/Labels des Konzepts (z. B. „Demokratie“)
Intension: Gesamtheit der Attribute, die die inhaltliche Bedeutung eines Konzepts festlegen
Attribut = spezifische Eigenschaft eines Konzepts zur inhaltlichen Präzisierung. Für die inhaltliche Beschreibung eines Konzepts sind in der Regel mehrere Attribute erforderlich.
Beispiel „Demokratie“: freie Wahlen, Gewaltenteilung und politische Partizipation
Extension: Gesamtheit der Objekte, auf die das Konzept zutrifft. Also der empirische Geltungsbereich eines Konzepts (Begriffsumfang).
Beispiel: alle Staaten, die diese Merkmale erfüllen, etwa Deutschland oder Frankreich, nicht jedoch autoritäre Regime.
Achtung:
Inverses Verhältnis: Je mehr Attribute zur inhaltichen Präzisierung eines Konzepts genutzt werden, desto geringer die Anzahl der Objekte, die unter diesem Begriff Fallen.
z.B. Vogel
Qualitätsmerkmale
Präzision: Konzept lässt sich klar zuordnen
Eindeutigkeit: Konsistente Nutzung durch Forschende
Adäquatheit: Passung von Intension & Extension zum Forschungskontext
Vier Schritte nach Wonka
Identifikation: Welche Konzepte strukturieren die Forschung?
Spezifikation in Literatur: Wie wurde Konzept bisher definiert?
Eigene Intension: Attribute festlegen, Relevanz für Forschungsfrage prüfen
Prüfung: Präzision, Eindeutigkeit, Adäquatheit
→ ggf. Re-Spezifizierung
Re-spezifikation: Häufig sind sozialwissenschaftliche Konzepte/Begriffe an spezifische räumliche und/oder zeitliche Kontexte gebunden (z.B. Parteiidentifikation USA (Zweiparteiensystem).
Falls ein Konzept in einem anderen als dem ursprünglichen vorgesehenen räumlichen oder zeitlichen Kontext angewendet wird (z.B. das Konzept Parteiidentifikation in einem Mehrparteiensystem), dann muss geprüft werden, ob die relevanten empirischen Untersuchungsobjekte von dem Konzept erfasst werden.
Negativbeispiel: Politikverdrossenheit
Begriff ist zu unscharf, mehrdeutig und wird mit unterschiedlichsten Objekten zb Regierung, Demokratie, sowie verschiedenen Einstellungen, zB. Enttäuschung, Desinteresse, in Verbindung gebracht, sodass es keine Grundlage für die Formulierung gehaltvoller Hypothesen gibt
heißt: „Politikverdrossenheit“ → zu heterogen, empirisch schwer fassbar
Re-Spezifikation: „Politische Unterstützung“ (Easton 1965) → klar abgegrenzt, spezifisch/diffus, empirisch nutzbar
Heißt: Ohne präzise Konzeptspezifikation: unklare Hypothesen, unbrauchbare Daten, nicht vergleichbare Forschung.
Definitionsarten
Nominaldefintion: Bedeutungsübertragung
= ein neuer Begriff wird dabei mit einem anderen (bereits bekannten) Begriff gleichgesetzt.
Beispiel: Weißes Pferd = Schimmel.
Achtung: Es gibt keine objektiven Kriterien, um zu prüfen, ob das Wesen eines Sachverhalts angemessen erfasst wurde.
Realdefintion: Begriff wird durch sein Wesen/ Beschaffenheit definiert
👉 Problematisch, da soziale Phänomene:
historisch wandelbar
kontextabhängig
theoretisch umstritten sind
Operationale Definition: legt fest, wie ein theoretischer Begriff (z.B. Intelligenz) mit Indikatoren zu verknüpfen ist, die sich empirisch beobachten lassen. (z.B. hoher IQ)
= Übersetzt theoretische Konzepte in messbare Indikatoren
Grundlage empirischer Forschung
Bsp.: Vertrauen → Skalenfrage in einer Umfrage
Heißt: Sozialwissenschaften arbeiten primär mit nominalen und operationalen Definitionen, nicht mit Realdefinitionen, da soziale Phänomene historisch und kontextabhängig sind.
Phase 3: Hypothesenbildung
Hypothesen = theoriegeleitete, begründete Annahmen über erwartete Zusammenhänge zwischen mindestens zwei Merkmalen i.F. von (un-) abhängigen Variablen (uV → aV), mit dem Ziel, Zusammenhänge dieser Merkmale zu bestätigen oder zu widerlegen.
Unterschied zu Alltagsvermutungen: empirisch, überprüfbar, nicht meinungsbasiert
Kriterien guter Hypothesen (Bortz & Döring)
Bezug auf reale, empirisch untersuchbare Sachverhalte
Generalisierbar über Einzelfälle hinaus
Konditionalstruktur (Wenn–dann / Je–desto)
Falsifizierbar durch empirische Daten
(Theoretisch begründet (Zusammenhang uV–aV))
Arten von Hypothesen
Deterministisch: vermutete Zusammenhang tritt zwischen zwei Merkmalen mit Sicherheit ein. → selten in Sozialwissenschaften
Probabilistisch: vermutete Zusammenhang tritt zwischen zwei Merkmalen nur mit einer gewissen Wahrscheinlichkeit ein. -> Standard in Sozialwissenschaften
Wenn–dann-Hypothese → dichotome Merkmale „Wenn X, dann Y“
Je–desto-Hypothese → ordinale / metrische Merkmale „Je mehr X, desto mehr/weniger Y“
Hypothesentypen
Alternativhypothese und Nullhypothese bilden in der empirischen Sozialforschung ein Paar
Alternativ-/Forschungshypothese (H₁): beinhaltet die interessierende Aussage i.F. Positiver oder negativer Zusammenhang → Test erfolgt über Zurückweisung von H₀
Beispiel: Je höher die Bildung, desto höher das Einkommen.
Nullhypothese (H₀): Verneint die interessierende Aussage, indem kein Zusammenhang dargestellt wird
Beispiel: Zwischen Bildung und Einkommen besteht kein Zusammenhang.
Zusammenhangsarten
Linear (häufigster Fall) (Uni-/ Bivariate Analysen)
Nicht-linear (Regressionsmodelle)
U-förmig
Exponentiell
Logarithmisch → Form muss theoretisch begründet sein
Analytische Ebenen von Hypothesen
Individualhypothese (Mikro → Mikro) → Unterschiede zwischen Individuen (Bildung und Einkommen)
Kollektivhypothese (Makro → Makro) → Zusammenhänge zwischen Kontexten/Systemen
z.B. Arbeitslosenquote und Inflation
Kontexthypothese (Makro → Mikro) → Zusammenhang zwischen Merkmal auf Makroebene (d.h. immer uV) und Merkmal auf Mikroebene (d.h. immer aV) .
Fehlschlüsse zwischen Ebenen
Ökologischer Fehlschluss: Makro → Mikro
Individualistischer Fehlschluss: Mikro → Makro
Naturalistischer Fehlschluss: Sein → Sollen
Normativer Fehlschluss: Sollen → Sein
Hypothesenentwicklung
Qualitativ: generierend
zu erklärendes Phänomen wird aus Gesetz und Randbedingungen abgeleitet
Quantitativ: prüfend
Es werden Wahrscheinlichkeiten überprüft, wie sicher eine Hypothese eintreffen könnte
Heißt:
Hypothesen sind theoriegeleitet, falsifizierbar und empirisch prüfbar
Sozialwissenschaftliche Hypothesen sind fast immer probabilistisch
Ohne saubere Hypothesen keine saubere empirische Forschung
Schritt 4: Operationalisierung
Operationalisierung = korrekte Zuordnung eines oder mehrerer beobachtbarer Indikatoren zu einem theoretischen Konzept, um Hypothesen empirisch überprüfbar zu machen.
= Messbarmachung eines Konzepts
Indikator stellt einen beobachtbaren Sachverhalt dar, der einen theoretischen Begriff in die Realität „übersetzt“
Korrespondenzregeln
= Vorgaben, wie ein theoretisches Konzept mit einem oder mehreren empirischen Indikatoren verknüpft werden, bestimmt durch:
Messung einer Variable
= Zuweisung von Ziffern zu Objekten entsprechend den Ausprägungen der an diesen Objekten betrachteten Merkmale
Dummy-Codierung: 0 = Mann, 1 = Frau
Rangordnung (Bildung: niedrig → hoch)
Gütekriterien
Objektivität: Die Objektivität einer Messung ist dann gegeben, wenn verschiedene Personen mit dem gleichen Messinstrument zum gleichen Ergebnis kommen.
Reliabilität: Mit Reliabilität ist die Zuverlässigkeit einer Messung gemeint. Wieder holte Messungen eines unveränderten Konzepts mit dem gleichen Messinstrument sollen die gleichen Werte liefern.
Validität: Mit Validität ist die Gültigkeit eines Messinstruments gemeint. Ein Messinstrument ist valide (gültig), wenn es tatsächlich das misst, was es messen soll.
Achtung: Ergebnis kann: Reliabel ≠ valide, aber valide ⇒ reliabel sein.
Kodierung
= Umwandlung von Rohdaten in numerische oder symbolische Werte zur Auswertung nach der Erhebung.
Art der Kodierung:
Isomorphismus: eindeutige 1:1-Zuordnung → exakte Analysen
weiblich = 1, männlich = 2, divers = 3
Homomorphismus: Zusammenfassung mehrerer Ausprägungen → Vereinfachung, weniger Information
Ursprüngliche Skala: 1 = „sehr links“, 2 = „links“, 3 = „leicht links“, 4 = „neutral“, 5 = „leicht rechts“, 6 = „rechts“, 7 = „sehr rechts“
wird zu:
1–3 → „links“ (Code 1)
4 → „neutral“ (Code 2)
5–7 → „rechts“ (Code 3)
Invertierung (bei gegensinnigen Items)
z.B. 1 = stimme völlig zu, 5 = überhaupt nicht
Problem: kontraintuitiv
5 ist numerisch hoch, bedeutet aber geringe Zustimmung
Invertierung = Umcodierung 1 = stimme überhaupt nicht zu, 5 = stimme voll zu
Gütekriterien:
Intercoder-Reliabilität: wird geprüft, ob der gleiche Text von verschiedenen Personen gleich/einheitlich vercodet wird.
Intracoder-Reliabilität: wird geprüft, ob der gleiche Text von einer Person zu verschiedenen Zeitpunkten gleich vercodet wurde.
Zentrale Herausforderungen:
Unterschiedliche Operationalisierungen → unterschiedliche Ergebnisse
Indikatoren oft umstritten
Literaturrecherche entscheidend, um Alternativen zu vergleichen
= strukturtreue Abbildung eines empirischen Relativs in ein numerisches Relativ
heißt: Messinstrument zur quantitat. Erfassung von Objekten durch:
Reflektive Indikatoren
= die verwendeten Indikatoren erfassen/ reflektieren das gleiche theoretische Konzept
Bei der Skalenkonstruktion wird nur ein theoretisches Konzept erfasst
Konzept -> Indikatoren
Beispiel: ESS
enthält drei Items, die für die Erfassung des sozialen Vertrauens (Rosenberg-Skala)
Vertrauenswürdigkeit, Fairness und Hilfsbereitschaft
= Reflektion der Gesamtheit das Konzept „Soziales Ver trauen“
Skalenniveaus
Nominalskala = Geschlecht
Messung: 0 = Mann, 1 = Frau
Möglichkeiten: Häufigk, Modus
Ordinalskala = Schulnote, Likert-Skala
Merkmal: enthält Ordnung ohne gleiche Abstände
Messung: […] 2 = schlecht, 3 = gut, 4= sehr gut.
Möglichkeiten: Häufigk., Modus, Median, Rangstatistik
(Pseudometrische Skala =
Merkmal: fünf Ausprägungen mit Ordnung und subjektiv gleichen Abständen
Intervallskala = Temperatur in Grad Celsius
Ordnung mit gleichen Abständen ohne natürlichen Nullpunkt
Messung: -10°c bis +10°c
Möglichkeiten: Häufigk., Modus, Median, Mittelwert, Rangstatistik, Korrelation
Ratio-/Verhältnisskala = Einkommen, Gewicht, Alter
Ordnung mit gleichen Abständen und natürlichem Nullpunkt
Möglichkeiten: alle statistischen Verfahren
Absolutskala = Anzahl Personen in einem Raum
Ordnung mit gleichen Abständen mit natürlichem Nullpunkt und natürlichen Einheiten
= Zusammenfassung von mehreren Einzelindikatoren zu einem neuen Konzept, durch:
Formative Indikatoren: weil sie das Konzept nicht reflektieren, sondern bedingen (Latcheva und Davidov 2022).
Die Indikatoren erfassen dabei verschiedene Dimensionen, die getrennt voneinander erfasst und anschließend zu einer neuen Variable zusammengefasst werden
= Mehrdimensionalität
Beispiel: sozioökonomischen Status des HDI
Auf der Aggregatebene darstellte Items: Lebenserwartung bei der Geburt, Bildungsniveau sowie Pro-Kopf-Einkommen
Formen das neue Konzept des sozioökonomischen Status
Schritt 5: Entscheidung ob Primär- oder Sekundäranalyse
Woher kommen die Daten? → Primär- oder Sekundäranalyse
Analysearten
Primäranalyse: zur Überprüfung der formulierten Hypothese/n werden eigene Daten erhoben.
Befragung
Interview
Experiment
Beobachtung
Vorteile:
Daten passgenau zur Forschungsfrage
Volle Kontrolle über:
Messinstrumente
Stichprobe
Nachteile:
Sehr zeit- und kostenintensiv
Methodisch anspruchsvoll
Für Haus-/Abschlussarbeiten oft unrealistisch
Heißt: Primäranalyse = maximale Kontrolle, maximaler Aufwand
Typische Datensätze: ALLBUS, ESS, SOEP, ISSP, Eurobarometer usw.
Strategien der Datenrecherche nach Watteler
Institutionelle Suche: z.B. Arbeitsmarkt → IAB (Institut für Arbeitsmarkt- und Berufsforschung)
Suche über Forschende: über ZA/ DOI-Nummer von meist verwendeten Datenquellen
Inhaltliche Suche: Datenbanken z.B. GESIS
Sehr ressourcenschonend
Hohe Datenqualität (professionelle Erhebung)
Replikation möglich → Qualitätssicherung
aber: Replikation ist wichtig, aber nicht immer möglich (z. B. bei historischen oder einmaligen Ereignissen).
Diekmann 1998:
heilende Wirkung → Aufdeckung von Fehlern
indem methodische Schwächen oder Analysefehler sichtbar werden
präventive Wirkung → bessere Dokumentation
durch Dokumentation und Kontrolle der Forschungsprozesse zur qualitativen Verbesserung zukünftiger Forschung beitragen
Nachteile
Variablen & Operationalisierung vorgegeben
Forschungsfrage muss zu den Daten passen
Gefahr der Pfadabhängigkeit
Heißt: Sekundäranalyse = weniger Aufwand, weniger Kontrolle
Schritt 6: Forschungsdesign wählen (nur bei Primäranalyse)
Experiment (ja, nein)
Dauer und Art der Datenerhebung
= methodische Gesamtplan eines empirischen Forschungsprojekts.Es legt fest, wie eine Forschungsfrage empirisch beantwortet wird und basiert auf:
Ursprung einer Forschung:
Auftragsforschung: Thema durch Auftraggeber
Selbst initiiert: Forschende wählen Thema
Zielrichtung:
Grundlagenforschung: Theorieentwicklung
Anwendungsorientiert: praktische Lösungen
Bestandteile eines Forschungsdesigns nach Diekmann:
Untersuchungsebene
Mikroebene (Individualebene)
Bsp.: Einkommen, Bildung, politische Einstellungen
Arbeitslosigkeit (uV) → Wahlbeteiligung (aV)
Mesoebene (Kontextebene)
Fokus: Organisationen, Verbände, Parteien
bsp.: Politisches Klima einer Region → individuelles Wahlverhalten
Makroebene (gesellschaftliche Ebene)
Fokus: Systeme / Aggregate
Analyse von Gesellschaften, Staaten, Regionen
Bsp.: Arbeitslosenquote (uV) → Wahlbeteiligung (aV)
Erhebungsart
Experimentell (prüft kausale Zusammenhänge)
gezielte Manipipulation der uV durch Forschende(Treatment/Stimulus)
Randomisierung: zufällige Verteilung von Personen auf die Experimental- und Kontrollgruppe
Beobachtung Ursache-Wirkung-Zsm
Merkmale:
Hohe interne Validität: Unterschiede zwischen den Experimental und Kontrollgruppen nur auf die Manipulation der uV zurückzuführen
= Kausalitätsnachweis möglich
Formen:
Labor-Experiment mit Randomisierung und kontrollierten Bedingungen;
Feld-Experiment: in natürlicher Umgebung, reale Bedinungen
Quasi-Experiment: experimentelle Untersuchung ohne Randomisierung mit Manipulation der uV
Nachher-Untersuchung mit Kontrollgruppe
Vorher-Nachher-Untersuchung mit Kontrollgruppe
Solomon-Vier-Gruppen-Design: Kombination aus beiden, mit vier Gruppen, mit Kombination aus Pretest, Treatment und Posttest
in SW häufig durch künstliche Bedingungen unethisch/ unpraktisch
geringe externe Validität: geringe Übertragbarkeit experimenteller Befunde auf die Realität
Pretest-Effekte: Allein die erste Befragung („Wie aggressiv bist du?“) kann das Verhalten verändern — z. B. denken die Teilnehmenden darüber nach und verhalten sich danach bewusster oder weniger aggressiv.
Nicht-Experimentell
= Ex-post-facto-Designs: „nachträglich festgestellt“
= Forschungsansatz, bei dem die unabhängige Variable nicht vom Forschenden manipuliert, sondern im Nachhinein anhand bereits bestehender Bedingungen oder Ereignisse untersucht wird.
Es handelt sich um eine nicht-experimentelle Methode, bei der Ursachen-Wirkungs-Beziehungen rückwirkend analysiert werden.
uV und aVwerden zeitgleich erhoben und erst nach der Datenerhebung (ex post) theoretisch unterschieden, welche Variable als Ursache (uV) und welche als Wirkung (aV) interpretiert wird
Hohe externe Validität = Übertragbarkeit experimenteller Befunde auf die Realität
realitätsnah und praktisch umsetzbar, da Manipulation bei sozialen Phänomen oft nicht möglich
z.B. Befragung zu politischen Einstellungen, man kann niemanden zwingen rechts zu sein
Probleme:
Problem der kausalen Reihenfolge: Nur theoretisch begründete Kausalannahmen möglich.
Problem der Kontrolle von Drittvariablen
Problem der Varianz der uV: Ohne Unterschiede in der Ursache kann man keine Unterschiede in der Wirkung erklären.
Heißt: deskriptive und korrelative, aber keine kausalen Schlüsse.
Achtung: interne / externe Validität
Trade-off-Verhältnis: i.d.R. führt Erhöhung der internen Validität zu Verzicht auf externe Validität (und umgekehrt).
Häufigkeit der Datenerhebung
Queerschnittstudie: einmalige Erfassung relevanter Merkmale
Längsschnittstudie: zu mehreren Zeitpunkten
Trendstudie: Mehrmalige Datenerhebung, aber jeweils unterschiedliche Untersuchungsobjekte
Vergleich der aggregierten Werte (z. B. Mittelwerte) durch mehrere Querschnittserhebungen → bilden einen Trend
Kohortendesign: Spezialfall des Trenddesigns -> Untersuchung von Bevölkerungsgruppen mit gemeinsamem Startereignis (z. B. Geburtsjahr, Heirat, Berufseintritt)
Panelstudie: Gleiche Untersuchungseinheiten, dieselben Merkmale zu verschiedenen Zeitpunkten erheben
Beispiel: Sozioökonomisches Panel (SOEP)
Panelmortalität: Anteil der Personen, die im Verlauf einer Panelstudie ausfallen
Lösung:
Alternierendes Panel: Zwei Gruppen abwechselnd befragt
Rotierendes Panel: Teilgruppe wird ersetzt
Geteiltes Panel: Kombination aus Panel und wiederholten Querschnitten
Informationshierarchie:
Paneldesign > Trenddesign > Querschnittdesign Panel enthält die meiste, Querschnitt die wenigste Information.(Man kann aus Paneldaten Trends und Querschnitte berechnen, aber nicht umgekehrt.)
Schritt 7: Auswahlverfahren (Sampling)
Grundgesamtheit / Stichprobe
(Nur bei Primäranalyse)
Ziel: systematische und begründete Auswahl von Untersuchungseinheiten zu treffen, um Aussagen über eine Grundgesamtheit zu ermöglichen.
Grundbegriffe:
Grundgesamtheit: Gesamtheit aller Elemente, über die eine wissenschaftliche Aussage getroffen werden soll (räumlich, sachlich, zeitlich definiert)
Bsp.: Alle wahlberechtigten Bürger:innen einer Gemeinde
Auswahlgesamtheit: Alle Elemente einer Grundgesamtheit, die eine Chance haben, in die Stichprobe zu gelangen. Im Idealfall ist die Auswahlgesamtheit mit der Grundgesamtheit deckungsgleich
Bsp.: Einwohnermelderegister
Auswahleinheit: Einheit, auf die das Auswahlverfahren angewendet wird
z.B. Einzelperson im Register
Stichprobe: Elemente (z.B. Personen) einer Auswahlgesamtheit, die im Rahmen einer Teilerhebung ausgewählt wurden.
z.B. 500 zufällig ausgewählte Bürger:innen aus dem Register
Erhebungseinheit: Einheit, bei der die Daten tatsächlich erhoben werden
Person, die tatsächlich befragt wurde
Overcoverage: Elemente in der Auswahl, die nicht zur Grundgesamtheit gehören
z.B. Minderjährige Personen im Register
Undercoverage
Elemente der Grundgesamtheit die nicht in der Auswahl enthalten sind
z.B. Wahlberechtigte ohne Internet bei Online-Befragungen
Stichprobenfehler: Abweichung zwischen Stichprobenwert und wahrem Wert der Grundgesamtheit→ normal und erwartbar
Erhebungsumfang
Vollerhebung: Alle Elemente der Grundgesamtheit werden untersucht
Vorteile: exakte Werte, keine Stichprobenfehler
Nachteile: sehr teuer, zeitaufwendig, oft unrealistisch
Teilerhebung (Stichprobe): Nur ein Teil der Grundgesamtheit wird untersucht
Standardfall in den Sozialwissenschaften, weil Vollerhebungen sind teuer, zeitintensiv und häufig auch nicht realisierbar (z.B. Qualitätskontrolle in der Industrie)
Ziel: Schätzung von Parametern der Grundgesamtheit
Zufällige Auswahl (probabilistische Stichprobe)
Jedes Element der Grundgesamtheit hat eine bekannte Auswahlwahrscheinlichkeit > 0
Konsequenz:
Repräsentativität* u.
Inferenzstatistik möglich (Rückschluss von Stichprobe auf Grundgesamtheit)
Typen
Einfache Zufallsstichprobe (SRS)
Jede mögliche Stichprobe hat die gleiche von verschiedene Chance in die Stichprobe zu gelangen
z.B: 1.000 Studierende zufällig aus einer vollständigen Liste
Geschichtete Stichprobe (Stratified Sampling)
Grundgesamtheit in Gruppen (Schichten), sodass jedes Element der Grundgesamtheit zu einer - und nur zu einer - Schicht gehört und anschließend Zufallsstichproben aus jeder Schicht gezogen werden
z.B: Fakultäten, Geschlecht, Altersgruppen→ proportional oder disproportional
Untertyp: Disproportional geschichtete Zufallsstichprobe
[…] Dabei entspricht die Fallzahl pro Schicht nicht den jeweiligen Anteilen in der Grundgesamtheit
Klumpenstichprobe (Cluster Sampling)
Zufallsauswahl von zusammengefassten Elemente (d.h. Klumpen/Gruppen), dann Erhebung aller Elemente im Cluster
z.B. PISA (Schulen zufällig aber alle SchülerInnen befragt)
Nicht-zufällige Auswahl (nicht-probabilistisch)
Auswahlwahrscheinlichkeit unbekannt
❌ Keine Generalisierung auf die Grundgesamtheit
❌ Keine valide Inferenzstatistik
Willkürliche Auswahl (Convenience Sample)
Entscheidung über die Aufnahme eines Elements der Grundgesamtheit durch Ermessen der Forschenden
z.B: Straßeninterviews, Online-Umfragen ohne Dokumentation
Oder: Self-Selection Sample
Studienteilnehmer melden sich freiwillig oder selbst um für die Untersuchung rekrutiert zu werden, statt zufällig ausgewählt zu werden.
Problem: Grundgesamtheit oft unklar → keine Rückschlüsse möglich
Beispiel: insb. bei Psychologische Experimente: Teilnehmende oft selektiv (z. B. Studierende), Randomisierung erfolgt nur innerhalb Experimental-/Kontrollgruppen
Bewusste/ theoretische Auswahl
Auswahl nach inhaltlichen Kriterien, nicht auf Zufallsprinnzip
Ziel: Theoriebildung oder Falsifikation
Nicht repräsentativ
Methode:
Quotenauswahl (Quoten nach festen Regeln, z.B. Geschlecht, Alter etc.) →
Problem: Verzerrungsrisiko
Most Similar Cases Design (MSCD)
Most Different Cases Design (MDCD)
⚠️ MSCD/MDCD sind Idealtypen, empirisch selten vollständig umsetzbar
Erhebungsverfahren
ADM vom Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute
= Standardverfahren zur Stichprobenziehung
Ziel: repräsentative Stichproben aus der Bevölkerung zu ziehen, wenn keine vollständigen Adressverzeichnisse vorliegen.
Methode: mehrstufiges, geschichtetes Klumpenstichprobenverfahre, das verschiedene Auswahlverfahren kombiniert:
Schritt 1: Auswahl der Stichprobengebiete (Klumpen)
z. B. Gemeinden oder Stadtteile
Schritt 2: Auswahl von Haushalten innerhalb der Gebiete durch
Random Route
1. Standard: Der Interviewer startet an einer zufällig ausgewählten Startadresse und folgt systematisch festgelegter Route
(z. B. jede dritte Tür oder jede zweite Wohnung).
2. Mit Auswahlplan: Interviewer folgt nicht nur einer Route, sondern hat klare Quoten oder Auswahlregeln, um die Stichprobe zu strukturieren.
Vorteil: reduziert Verzerrungen durch Interviewerentscheidungen und sorgt für eine gleichmäßigere Verteilung der Befragten.
Schritt 3: Auswahl der befragten Zielpersonen
Schwedenschlüssel: systematische Auflistung der einzelnen Haushaltsmitglieder, Auswahl erfolgt durch eine Zufallszahl (für jeden Zielhaushalt existiert eine eigene Zufallszahl).
Last-Birthday-Methode (Kish Grid): die Person wird im Haushalt befragt, die als nächstes Geburtstag hat
Telefonische Stichprobengenerierung:
Gabler-Häder-Design (Best Practice in DE)
Kombination aus registrierten + generierten Nummern
Dual-Frame: kombiniert „Festnetz“ und „Handy“.
Problem: Mobilfunknummern können nicht lokal oder regional verortet werden. Deshalb kann der Ansatz bei lokalen Befragungen nicht sinnvoll eingesetzt werden.
Registerstichproben (EWR)
Nutzung von Einwohnermelderegistern
Geringer Interviewereinfluss
Demografische Informationen verfügbar
Hohe Kontrollierbarkeit
Hoher Aufwand, Kosten, lange Lieferzeiten
Nur bei „öffentlichem Interesse“
Abhängigkeit von Behörden
Typische Verwendung bei: ALBUSS, ESS (DE)
= Stichprobe als „verkleinertes Abbild“ der Grundgesamtheit
Problem:
Kein eigenständiges Gütekriterium
Oft unscharf verwendet
Nur Zufallsstichproben erlauben echte Generalisierung
👉 Fazit (Schnell et al.): „Repräsentativität“ ist häufig eine inhaltlich leere Floskel, bestenfalls eine Metapher.
Schritt 8: Datenerhebung (Nur bei Primäranalyse)
In den Sozialwissenschaften lassen sich grob drei Formen der Datenerhebung unterscheiden:
Beobachtung und
Inhaltsanalyse.
Ziel: Systematische Sammlung von Daten zur Beantwortung der Forschungsfrage
Pretests
= Erhebungsinstruments zur Vorbereitung auf die Datenerhebung, um die Qualität der erhobenen Daten sicherzustellen und Mängel zu identifizieren.
Kognitive Interviews: Durchführung in der Entwicklungsphase eines Fragebogens. Verständlichkeit einzelner Fragen prüfen
Fragebewertungssystem: Defizite von Fragen und Antwortvorgaben werden systematisch ermittelt
Feldpretest: Test des Erhebungsinstruments unter realistischen Bedingungen von der geplanten Datenerhebung
Non-Response:
= Fehlen von Daten bei Befragungen durch
Item-Nonresponse: einzelne Fragen unvollständig
Unit-Nonresponse: Befragte nicht erreichbar oder verweigern, wegen:
Nicht-Erreichbarkeit (z. B. Abwesenheit, falsche Kontaktdaten)
Verweigerung (aktive Ablehnung der Teilnahme)
Unfähigkeit zur Teilnahme (z. B. Krankheit, Sprachprobleme)
Teilnehmermotivation zur Vermeidung von Non-Response:
Incentives: Beispiele: Gutscheine, kleine Geschenke, Teilnahme an Verlosungen, Geldbeträge.
Follow-ups: Erinnerung per E-Mail, Telefon, Postkarte
Personalisierung: persönliche Anschreiben mit Namen, Bezug auf vorherige Teilnahme, freundliche Sprache.
Achtung: Eine Befragung darf nicht mit anderen als der Zielperson durchgeführt werden, dies würde die Zufallsauswahl verletzen und zu systematischen Verzerrungen führen. Die verweigernde Person gilt als Non-Response und es wird mit der nächsten gezogenen Person weiter gemacht
Ausschöpfung / Response-Rate
Anteil der tatsächlich durchgeführten Interviews und gibt Auskunft über die Effektivität der Datenerhebung.
Formel:
Response Rate = Anzahl realisierter Interviews / Anzahl gezogener Stichprobenelemente * 100
Gezogene Stichprobenelemente sind alle Personen oder Haushalte, die in die Stichprobe aufgenommen wurden und theoretisch befragt werden sollten.
Realisierte Interviews sind die Befragungen, die tatsächlich erfolgreich durchgeführt wurden.
Eine hohe Response-Rate bedeutet, dass viele der ausgewählten Personen tatsächlich befragt wurden, was die Repräsentativität der Stichprobe stärkt.
Eine niedrige Response-Rate kann auf Non-Response-Bias hinweisen, also dass sich die Befragten systematisch von den Nicht-Befragten unterscheiden und damit die Ergebnisse verzerren können.
Sie kann
quantitativ (standardisiert) oder
qualitativ (offen, explorativ) durchgeführt werden.
Direktes Erfassen von Wissen, Einstellungen, Verhalten
Schnelle Datenerhebung (je nach Form)
Soziale Erwünschtheit → Verzerrung
Antwortausfälle (Non-Response)
Missverständnisse bei Fragen
Kosten und Zeitaufwand bei Face-to-Face
Reaktive Effekte möglich (Verhalten durch Befragung beeinflusst)
10 Gebote der Frageformulierung nach Porst
Einfache, verständliche Begriffe
Kurze, klare Fragen
Keine hypothetischen Fragen
Keine Verneinungen
Keine Unterstellungen / Keine Suggestivfragen
Keine Fragen zu unbekannten Informationen (Überfragung)
Klarer zeitlicher Bezug
Klare Antwortvorgaben (überschneidungsfrei)
Kontext beachten (Assimilation / Kontrasteffekte)
Unklare Begriffe definieren
Fragetypen
Fragetyp
Beschreibung
Beispiel
Offen
Freie, unstrukturierte Antworten
„Was denken Sie über die aktuelle Klimapolitik?“
Dichotom
Zwei Antwortmöglichkeiten
„Sind Sie Mitglied einer Partei? Ja / Nein“
Hybrid / Halboffen
Geschlossene + Ergänzungsmöglichkeit
„Welchen Schulabschluss haben Sie?
Skalenfrage
Antworten auf einer Messskala
„Wie zufrieden sind Sie mit Ihrem Arbeitsplatz? 1 = sehr unzufrieden – 5 = sehr zufrieden“
Rangordnung
Antworten nach Wichtigkeit ordnen
„Ordnen Sie diese politischen Ziele nach Priorität: 1. Sicherheit, 2. Bildung, 3. Umwelt, 4. Gesundheit“
Mehrfachantwort
Mehrere Optionen wählbar
„Welche Verkehrsmittel nutzen Sie regelmäßig? Auto, Fahrrad, Bus, Bahn, Zu Fuß“
Forced-Choice
Aus mehreren Optionen eine richtige Wahl
„Wer wählt den Bundeskanzler? a) Volk, b) Bundestag, c) Bundesrat → Richtig: b) Bundestag“
Probleme
nicht offene Fragen: Antwortoptionen sind erschöpfend und disjunktiv
Effekte von Skalen:
Verzerrung durch Intervallwahl, Mittelkategorie möglich
Lösung: Leitfragen zu Skalen nach Porst:
Anzahl Kategorien: Faustregel 5–7
Gerade vs. ungerade Anzahl: neutral möglich vs. zwingt zu Meinung
Arten der Befragung:
Persönlich (face-to-face): Interviewer stellt Fragen direkt;
CAPI (Computer Assisted) oder
PAPI (Papier)
z.B. Haushaltsbefragungen, detaillierte Interviews bis 60 min; hohe Teilnahmebereitschaft; teuer
Grundgesamtheit abbildbar: hoch
Telefonisch (CATI): Zentral gesteuerte Interviews per Telefon
z.B Wahlforschung, schnelle Datenerhebung; max. 30 min; moderate Kosten
Bei lokalen Befragungen scheidet der Dual-Frame-Ansatz praktisch aus.
Grundgesamtheit abbildbar: mittel
Problem Allgemein: schwindenden Repräsentativität von Festnetzstichproben bei einem mit der Zeit gestiegenen bzw. steigenden Anteil exklusiver Mobilfunknutzer in der Grundgesamtheit (Lösung: Dual Frame)
Schriftlich (Paper): Fragebogen per Post
Lokale Studien, kleinere Grundgesamtheit; niedrige Response-Rate
Problem: Postadressen müssen bezogen werden
Hoher Anteil an funktionalen Analphabeten
Unklar, wer den Fragebogen ausfüllt (Coverage-Probleme)
Online (CAWI): Web-basierter Fragebogen
z.B Große Online-Studien, Studierende, niedrige Kosten, schnelle Auswertung; Ausschluss nicht-internetfähiger Personen
Grundgesamtheit abbildbar: gering
Problem: Befragte ohne Internetanschluss konnten sich nicht an der Befragung beteiligen.
Alternative: Telefonische Befragung (CATI)
Hohe Erreichbarkeit auch älterer Personen
Schneller Feldzugang und sofortige Datenerfassung
Ergebnisse können zeitnah ausgewertet werden
2.Beobachtung
Direktes, unmittelbares Registrieren relevanter Sachverhalte für den Forschungszusammenhang.
Abgrenzung zur Alltagswahrnehmung:
Systematisch, theoriebasiert, kontrolliert, intersubjektiv nachvollziehbar.
Kriterien:
Hypothesenfundierung
Kontrolle / Überprüfbarkeit
Wissenschaftliche Auswahl der Beobachtungseinheiten
Systematische Auswertung (replizierbar, nachvollziehbar)
Erfassung realen und nonverbalen Verhaltens, auch unbewusste Handlungen
Zeitaufwendig
kleine Fallzahlen
ethische Probleme (Privatsphäre, Zustimmung Datenschutz fehlt)
Subjektivität
Hawthorne-Effekt (Verhalten verändert sich, wenn Beobachtete wissen, dass sie beobachtet werden)
Nachteile im Vergleich zu Befragungen:
teurer und zeitaufwändiger
Zahl der Untersuchungsobjekte ist bei Beobachtungen geringer als bei Befragungen. Dadurch ist es schwieriger repräsentative Stichproben zu gewinnen (Verallgemeinerbarkeit der Befunde dadurch weniger gegeben).
Arten der Beobachtung
Teilnehmende vs. nichtteilnehmend
Beobachter integriert sich in Gruppe oder bleibt passiv
offen vs. verdeckt
Beobachtete wissen (nichts) von Beobachtung
Feldbeobachtung vs. Laborbeobachtung
natürliche vs. kontrollierte Umgebung
z.B. Wahlkreisarbeit vs. Experiment
strukturiert vs. unstrukturiert
quantitativ mit kategorialen Vorgaben vs.
qualitativ mit offener Exploration
Selbstbeobachtung vs. Fremdbeobachtung.
z.B. eigenes Tagebuch vs. andere Menschen
3.Inhaltsanalyse
= Empirische, systematische und intersubjektiv nachvollziehbare Erhebung und Auswertung bestehender Daten zur Rückschlusserhebung auf gesellschaftliche Sachverhalte.
Quellen
Texte: z.B. Wahlprogramme, Zeitungsartikel, Kinderaufsätze
Bilder / Filme: z.B. Werbespots, Spielfilme, Social-Media-Beiträge, Politische Reden
Codierung:
Häufigkeit von Begriffen
Bewertung von Aussagen (positiv/negativ)
Kontingenz (Begriff A erscheint zusammen mit Begriff B)
Codierungsarten:
Intercoder-Reliabilität: wenn der gleiche Text von verschiedenen Personen gleich/einheitlich vercodet wird.
Intracoder-Reliabilität: wenn der gleiche Text von einer Person zu verschiedenen Zeitpunkten gleich vercodet wurde.
Frequenzanalyse: Häufigkeit bestimmter Begriffe, Themen, Personen etc.
z.B. Wie oft wird „Klimaschutz“ im Wahlprogramm erwähnt?
Valenzanalyse: Bewertung positiv/neutral/negativ
z.B: Wie wird ein Kanzlerkandidat in Zeitungsartikeln dargestellt?
Intensitätsanalyse: Stärke der Bewertung
z.B „leicht positiv“ – „sehr positiv“ – „extrem negativ“
Kontingenzanalyse: gemeinsame Auftretensmuster, Untersucht Zusammenhänge zwischen Begriffen/Themen
z.B. Tritt der Begriff „Migration“ häufiger zusammen mit „Kriminalität“ oder mit „Arbeitsmarkt“ auf?
Vorteile
Vergangenheitsbezug: Es kann auch in der Vergangenheit produziertes Material ausgewertet werden
Untersuchungen über lange Zeiträume (z.B. sozialer Wandel)
Verfälschung durch soziale Erwünschtheit/ Erinnerungsfehler ist auszuschließen, da auf nichtreaktives Datenmaterial zurück gegriffen wird.
Schritt 9: Datenaufbereitung und Analyse*
= Organisation, Prüfung, Verdichtung und statistische Auswertung erhobener Daten zur Beantwortung der Forschungsfrage.
Prinzipien der Datensammlung
Vergleichbarkeit: Merkmale für alle Objekte gleich definiert
Klassifizierbarkeit: Für jedes Objekt und Merkmal genau ein Wert
Vollständigkeit: Keine leeren Zellen; fehlende Angaben = Missing Values (z. B. 9/99 = „weiß nicht“)
Datenaufarbeitung
= Fehlerkontrolle, Codebuch, Missing Values
Fehlerarten:
Wild codes: Werte außerhalb des zulässigen Bereichs
Unplausible Werte: Realistisch unmögliche Angaben (z. B. 300 Std./Monat ehrenamtlich)
Inkonsistente Werte: Widersprüche innerhalb der Daten (z. B. Ehedauer > Alter)
Lösung: Korrektur durch Original, Kennzeichnung als Missing Value
R/Studio: NA steht für „Not Available“
NA
na.rm = TRUE, um fehlende Werte bei Berechnungen zu ignorieren.
na.rm = TRUE
Testphase
Probecodierung: Schema testen, Kategorien anpassen
Codierschulung: Einheitliche Anwendung sicherstellen
Reliabilitätsprüfung:
Intercoder-Reliabilität: Verschiedene Codierer codieren gleich
Intracoder-Reliabilität: Ein Codierer codiert gleich zu verschiedenen Zeiten
Maße: Holsti CR, Scott Pi, Krippendorff’s Kappa
Validitätsprüfung: Codierung misst, was sie messen soll
Hypothesentestung/ Datenanalyse:
Explorativ: Muster, Trends, erste Zusammenhänge → Deskriptiv, Grafiken
inferenzstatistisch: Übertrag auf Grundgesamtheit → Signifikanztests, Regression
Deskriptive Datenanalyse (Univariat)
Zur Verdichtung großer Datenmengen ohne Hypothesenprüfung
Lagemaße: Zentrum der Verteilung
Modus (häufigster Wert, nominal)
Median (mittlerer Wert, ordinal)
Mittelwert (Durchschnitt, intervallskaliert)
Streuungsmaße: Variation der Daten
Varianz: durchschnittliche quadrierte Abweichung vom arithmetischen Mittel.
Standardabweichung
Beispiel: Gleicher Mittelwert → unterschiedliche Streuungen sichtbar
Hypothesenprüfung bei bivariaten Zusammenhängen
um Beziehung zwischen Variablen zu prüfen
Nominal x Nominal: Cramer’s V (0–1)
Ordinal x Ordinal: Spearman’s rho (-1 bis 1)
Metrisch x Metrisch: Pearson’s r (-1 bis 1)
Beispiele:
Geschlecht x Wahlentscheidung → Cramer’s V
Politikinteresse x Wahlbeteiligung → Spearman’s rho
Bildung x Einkommen → Pearson’s r
Multivariate Analysen
Misst den Einfluss mehrerer unabhängiger Variablen auf eine abhängige Variable
Verfahren: Regressionsanalyse
Lineare Regression → metrische AV
Logistische Regression → dichotome AV
Multinomiale logistische Regression → nominale AV mit >2 Ausprägungen
Ordinale Logitmodelle → ordinale AV
Inferenzstatistik & Signifikanztest
Rückschluss von Stichprobe auf Grundgesamtheit
Schritte:
Nullhypothese H₀: kein Zusammenhang
Alternativhypothese H₁: Zusammenhang
Statistisches Maß: Cramer’s V, Spearman, Pearson
p-Wert bestimmen (p < 0,05 = signifikant)
t-test durchführen
Interpretation: Signifikant → Zusammenhang sehr wahrscheinlich auch in Grundgesamtheit, nicht automatisch Effektgröße oder Wichtigkeit
Schritt 10: Publikation
Forschungsergebnisse gelten erst als anerkannt, wenn sie veröffentlicht und kritisch überprüfbar sind (DFG 2013, S. 43).
= Integraler Bestandteil des Forschungsprozesses (Döring 2023, S. 768).
Ziele:
Wissen erweitern
Ergebnisse kritisch überprüfen lassen
Neue Forschungsfragen generieren
Publikationsformen
Bericht: Rechenschaftspflicht gegenüber Förderinstitutionen; enthält Ausgangsfragen, Zielsetzung, Methoden, Ergebnisse, Diskussion; keine klassische Publikation; ggf. Zwischenberichte.
Vortrag / Konferenzbeitrag: Präsentation erster Ergebnisse, Feedback einholen, Grundlage für spätere Publikationen.
Buch: Umfassende Darstellung von Projekten, häufig bei Promotion/Habilitation.
Fachzeitschriftenartikel: wichtigste Form wissenschaftlicher Kommunikation; speist Ergebnisse ins Wissenschaftssystem ein, ermöglicht Kritik und neue Forschung.
>4500 politikwissenschaftlich, >4200 soziologisch.
z.B. deutschsprachig: dms, KZfSS, PVS (mit Peer-Review); APuZ (ohne Review).
z.B. international: American Journal of Political Science, Public Administration Review, American Sociological Review.
Review Verfahren: die Begutachtung (Review) eines Fachaufsatzes vor der Ver öffentlichung durch fachspezifische Gutachter
Impact-Faktor: Orientierung für Relevanz; misst Anzahl der Zitationen.
Last changed20 days ago