Buffl

Prüfung: Grundbegriffe

CC
von Cathérine C.

Variablen, Konstante, Indikatoren

Unterscheidung:

  • Konstante: Merkmal mit nur einer Ausprägung

  • Variable: Merkmal mit mindestens zwei Ausprägungen

    • Bsp.: Geschlecht, Schulabschluss, politisches Interesse

    • Arten:

      • Manifeste Variable: direkt beobachtbar → z. B. Haarfarbe, Körpergröße

      • Latente Variable: nicht direkt beobachtbar → z. B. Bildung, Intelligenz, politisches Interesse

        • Operationalisierung: Prozess, bei dem latente Variablen durch messbare Indikatoren erfasst werden (z. B. Fragen im Fragebogen).

    • Ursache-Wirkungs-Beziehung

      • Abhängige Variable (aV): zu erklärender Sachverhalt

      • Unabhängige Variable (uV): vermuteter Einflussfaktor auf die aV

        • Oft existieren mehrere uVs

  • Indikator: beobachtbarer Sachverhalt, der einen theoretischen Begriff empirisch messbar macht

    • Zur Übersetzung von Theorie in empirische Realität


Korrelation vs. Kausalität

  • Korrelation: Statistischer Zusammenhang zwischen zwei Merkmalen

    • Positiv: hohe Werte eines Merkmals tendenziell mit hohen Werten eines anderen Merkmals auftreten.

    • Negativ: hohe Werte eines Merkmals tendenziell mit niedrigen Werten eines anderen Merkmals auftreten.

    • Nicht-lineare Korrelation

  • Scheinkorrelation: Zusammenhang von zwei Merkmalen bezeichnet, der durch einen dritten Faktor verursacht wird. Da die Korrelation zwischen den beiden Merkmalen faktisch existiert, wird häufig auch der Begriff Scheinkausalität verwendet. (es existiert keine Kausalität)

  • Kausalität: Ursache-Wirkungs-Beziehung: eine Variable verursacht eine Veränderung der anderen = Richtung des Zusammenhangs zwischen zwei Merkmalen. Dabei gilt, dass die unabhängige Variable (uV) als Ursache und die abhängige Variable (aV) als Wirkung fungiert. Die Ursache ist dabei der Wirkung zeitlich vorgelagert.

Achtung: Eine Korrelation beweist keine Kausalität (z. B. mehr Feuerwehrleute → höherer Schaden = Scheinzusammenhang, Ursache ist die Feuergröße).


Bedingungen für Kausalität (nach Hill 1965 / Schnell et al. 2023)

  1. Zeitliche Reihenfolge: Ursache geht Wirkung voraus.

  2. Starker Zusammenhang zwischen den Variablen.

  3. Replikation in verschiedenen Kontexten / Populationen.

  4. Theoretische Plausibilität: nachvollziehbarer Wirkmechanismus.



Skalen, Skalenniveaus und Index

Skala = strukturelle Abbildung eines empirischen Relativs in ein numerisches Relativ


Skalenniveau (nach Stevens 1946)

👉 entscheidet, welche statistischen Verfahren zulässig sind.

Sie dienen der geordneten Messung, nicht der bloßen Codierung


Je höher das Skalenniveau, desto mehr Rechenoperationen und Analyseverfahren sind möglich.


Wichtig:

Traditionell werden in der Sozialforschung vier Skalenniveaus unterschieden (Nominal-, Ordinal-, Intervall- und Ratioskala). In der Praxis werden Intervall- und Ratioskalen als metrische Skalen behandelt.


🔹Nominalskala

  • Merkmale ohne Rangfolge

  • Jede Ausprägung erhält genau einen Wert

  • Keine doppelten Zuordnungen möglich

  • Zulässig: Modus

Beispiel:

  • Geschlecht: weiblich = 1, männlich = 2

  • Man kann entweder mänl. ODER weibl. sein


🔹 Ordinalskala

  • Rangfolge möglich, aber keine gleichen Abstände

  • Relationsbegriffe: höher, stärker, besser

  • Zulässig: Modus, Median

Beispiel:

  • Schulabschluss ohne Abschluss = 1 Hauptschule = 2 Mittlere Reife = 3


🔹 Intervallskala (metrisch)

  • Rangfolge + gleiche Abstände

  • Kein natürlicher Nullpunkt

  • Zulässig: Modus, Median, Mittelwert

Beispiel:

  • Temperatur (°C) → Abstand 15–20 °C = Abstand 20–25 °C


🔹 Ratio- / Verhältnisskala (metrisch)

  • Rangfolge

  • Gleiche Abstände

  • Natürlicher Nullpunkt

  • Verhältnisaussagen möglich („doppelt so viel“)

  • Zulässig: Modus, Median, Mittelwert

Beispiel:

  • Einkommen (0 € = kein Einkommen)

  • Alter (0 Jahre)


Übersicht:

Skalenniveau

Beispiele

Zulässige Operationen

Merkmale

Nominal

Geschlecht, Religion

Auszählen

Keine Rangfolge

Ordinal

Schulabschluss, politisches Interesse

Auszählen, Ordnen

Rangfolge, aber keine gleichen Abstände

Intervall

(metrisch)

Temperatur (°C)

+ Differenzen

Gleiche Abstände, kein natürlicher Nullpunkt

Ratio

(metrisch)

Einkommen, Alter, Temperatur (K)

+ Verhältnisse

Natürlicher Nullpunkt


Pseudometrische Variablen

  • Ordinale Variablen mit mind. 5 geordneten Ausprägungen

  • und wenn gleiche Abstände plausibel angenommen werden (= Äquidistanz)

    • Bsp.: Likert-Skalen („stimme gar nicht zu“ – „stimme voll zu“)

    • Arten:

      • Diskret: abzählbare Ausprägungen, keine Zwischenwerte → z. B. Kinderzahl, Fachsemester

      • Stetig: unendlich viele Ausprägungen, Zwischenwerte möglich → z. B. Einkommen, Größe, Zeit

    • Ausprägung:

      • Dichotom: genau zwei Ausprägungen → z. B. Wahlbeteiligung (Ja/Nein) 📌 Sonderform diskreter Variablen

      • Polytom: mehr als zwei Ausprägungen → z. B. Religionszugehörigkeit


Skalen im Prozess der Operationalisierung

  • Operationalisierung = Messbarmachung theoretischer Konzepte durch Zuordnung von empirischen Indikatoren zu theoretischen Begriffen

    • Beispiel: Bildung -> Schulabschluss

    • Je mehr Indikatoren → desto geringer der Messfehler

  • Skala

    • Mehrere Indikatoren messen dasselbe eindimensionale Konzept

      • = Reflektive Indikatoren: Indikatoren sind Ausdruck des Konstrukts

      • Eindimensionalität prüfen (z. B. Faktorenanalyse)

    • Beispiel: Politisches Vertrauen → Fairness, Ehrlichkeit, Zuverlässigkeit

      • ➡️ Zusammenfassung = Skalenkonstruktion

      • Heißt: man kann Zuverlässigkeit messen, Fairness und Ehrlichkeit und alle reflektieren den Grad des politischen Vertrauens


Index im Prozess der Operationalisierung

Index =Zusammenfassung mehrerer Einzelindikatoren zu einer neuen mehrdimensionalen Variable nach festgelegten Vorschriften.

  • Index

    • Zusammenfassung mehrerer Indikatoren zu einer mehrdimensionalen Variable

      • = Formative Indikatoren: Indikatoren konstituieren das Konzept

        • Veränderung eines Indikators verändert das Konzept selbst

        • Mehrdimensionalität theoretisch begründen

    • Beispiel: Sozioökonomischer Status= Bildung + Einkommen + Prestige

      • Alle 3 Variablen stellen eigene Konzepte dar, wodurch soz.ök. Status multidimensional wird




Forschungslogik

4 Kriterien sozialwissenschaftlichen Forschens (klassisch nach King, Keohane & Verba 1994) sind:

  • 1. Inferenz = Schlussfolgerungen aus empirischen Daten über den Einzelfall hinaus

    • Deskriptive Inferenz: von beobachteten zu nicht beobachteten Fakten

    • Kausale Inferenz: Erklärung von Ursachen für Beobachtungen

  • 2. Wissenschaft ist öffentlich, dh sie erfordert:

    • Offenlegung von Daten

    • theoretische Argumentation

    • Methoden

    • Schlussfolgerungen

    • Heißt: Ergebnisse müssen prüfbar, kritisierbar und replizierbar sein

  • 3. Schlussfolgerungen sind grundsätzlich unsicher (falsifizierbar), Fehler können aber abgeschätzt werden.

  • 4. Sozialwissenschaftliche Forschung ist nicht über Inhalte definierbar, sondern über wissenschaftliche Methode:

    • Forschungslogik

    • Strategien

    • Techniken

    • Heißt: Unterschiedliche Themen, aber gleiches methodisches Vorgehen


Wissenschaftstheorie: Kritischer Rationalismus (Popper)

= Absolute Wahrheit ist nicht beweisbar. Wissenschaftlicher Fortschritt entsteht durch Kritik und Falsifikation

Zentrale Prinzipien:

  • Falsifizierbarkeit als Kriterium für Wissenschaftlichkeit

  • Aussagen gelten nur vorläufig

  • Empirischer Bezug

  • Kritik statt Verifikation

Problem:

  • Prüfung erfolgt über Beobachtungssätze, nicht direkt über Realität

  • Beobachtungen können fehlerhaft sein

Poppers Lösung: Prinzipien wissenschaftlichen Arbeitens

Basissätze werden konventionell und vorläufig akzeptiert durch

  • Intersubjektive Nachvollziehbarkeit

  • Methodische Sorgfalt

  • Transparente Dokumentation aller Schritte


Forschungslogik

  • Induktion (qualitative Studien)

    • Schluss vom Einzelfall auf allgemeine Aussagen

    • Theorie entsteht aus den Daten

    • Hypothesen werden generiert und weiterentwickelt

  • Deduktion (quantitative Studien)

    • Schluss vom Allgemeinen auf den Einzelfall

    • Hypothesen werden vorab aus Theorie abgeleitet

    • Ziel: Überprüfung (Bestätigung oder Falsifizierung)


Deduktiv-nomologisches Modell (D-N-Modell)

= Grundmodell quantitativer Erklärung

  • Voraussetzung einer Hypothese

    • Logisch korrekt ableitbar

    • Enthält allgemeines Gesetz

    • Empirisch überprüfbar

    • (Esser): Explanandum empirisch wahr

  • Bestandteile:

    • Explanandum: zu erklärendes Phänomen

    • Explanans:

      • Allgemeingültige Gesetze (Allaussage)

      • Randbedingungen (konkrete Situation)

    Logik: Gesetz + Randbedingungen → Explanandum (deduktiv)


Induktiv-statistisches Modell (I-S-Modell)

Modifikation des D-N-Modells für Sozialwissenschaften

  • Statt Gesetzen: Wahrscheinlichkeitsaussagen

  • Erklärungen sind nicht sicher, sondern probabilistisch

  • Auch bei wahrem Explanans kann Explanandum ausbleiben

Die induktiv-statistische Erklärung ist ein Erklärungsmodell bestehend aus zwei Arten von Sätzen:

  • Probabilistische Gesetze und

  • Randbedingungen, die nur für konkrete Situationen gelten.

heißt:

  • Ein Phänomen kann nur mit einer gewissen Wahrscheinlichkeit erklärt werden.


Qualitative vs. quantitative Forschung: Zentralvergleich

Gemeinsamkeiten:

  • Arbeiten mit empirischen Informationen

  • Ziel: Aussagen über gesellschaftliche Strukturen und Handlungen

  • Intersubjektive Nachvollziehbarkeit

  • Kritische Reflexion von Fehlern und Verzerrungen

  • Ziel: Transparenz und Verlässlichkeit

Unterschiede:

Dimension

Qualitativ

Quantitativ

Forschungsziel

Verstehen

Erklären

Forschungsprozess

zirkulär

linear

Fallzahl

gering

hoch

Daten

Worte

Zahlen

Hypothesen

generierend

prüfend

Auswertung

offen

statistisch

Generalisierung

gering

hoch


Mixed Methods

  • Kombination qualitativer und quantitativer Ansätze

  • Sinnvoll, wenn Forschungsfragen beide Perspektiven erfordern

Strategien:

  • Sequenziell: Methoden nacheinander

  • Komplementär: Methoden parallel

📌 Aktueller Trend: Zunahme von Mixed-Methods-Studien (Baur et al. 2018), Mehrheit bleibt jedoch klar qualitativ oder quantitativ.






10 Phasen eines sozialwissenschaftlichen Forschungsprojektes

Ablauf:

  1. Festlegung des Forschungsthemas

    • Breites Thema, noch keine konkrete Forschungsfrage

    • Bsp.: „Politisches Vertrauen“

    Auseinandersetzung mit dem Stand der Forschung

    • Literaturrecherche, bestehende Studien

    Formulierung der Forschungsfrage

    • Konkret, überprüfbar, empirisch untersuchbar

  2. Konzeptspezifikation / Begriffsdefinition

    • Alltagsbegriffe → wissenschaftliche Konzepte

    • Nominal- oder Realdefinitionen

    • Bsp.: „Wutbürger“ als messbares Konzept sozialen Protestes

  3. Hypothesenbildung

    • Theoriegeleitete Vermutungen über Ursache-Wirkung

    • Müssen falsifizierbar sein (kritischer Rationalismus)

  4. Operationalisierung

    • Übersetzung theoretischer Begriffe in messbare Indikatoren

    • Bsp.: „Vertrauen“ → Fragebogen: „Wie sehr vertrauen Sie der Regierung?“

  5. Entscheidung Primär- oder Sekundäranalyse

    • Bei Primäranalyse Schritt 6 - 8:

  6. Forschungsdesign entwickeln

    • Untersuchungsebene: Mikro / Meso / Makro

    • Studienart: experimentell / nicht-experimentell

    • Zeitdimension: einmalig (Querschnitt) oder wiederholt (Trend / Panel)

    • Ziel: Design muss Frage & Ressourcen passen

  7. Auswahlverfahren / Stichprobe

    • Wer wird untersucht?

    • Vollerhebung: alle Elemente → teuer, oft unnötig

    • Teilerhebung / Stichprobe: zufällig (repräsentativ) oder bewusst / willkürlich

  8. Datenerhebung

    • Formen: Befragung, Beobachtung, Inhaltsanalyse

    • Arten: Vollerhebung vs. Stichprobe (zufällig oder nicht-zufällig)

  9. Datenaufbereitung & -analyse (ab hier auch Sekundäran.)

    • Bereinigung, Strukturierung und Auswertung: Fehlerkorrektur, fehlende Werte, Overcoverage

    • Analyseverfahren abhängig von Frage & Datentyp

    • Quantitativ: z. B. Regressionsanalyse

    • Qualitativ: z. B. Inhalts- oder Narrative Analyse

    Interpretation & Schlussfolgerung

    • Ergebnisse kritisch reflektieren

    • Generalisierbarkeit prüfen

    • Unsicherheiten benennen

  10. Publikation der Ergebnisse

    • Abschlussbericht (intern)

    • Wissenschaftliche Artikel / Bücher (öffentlich)



Phase 1: Forschungsthema definieren, Forschungsstand erkunden (Literaturrecherche) und Forschungsfrage entwickeln

Ausgangspunkt: Forschunngsthema

  • = grober Rahmen als Arbeitsgrundlage, z.B. Politisches Vertrauen

  • es grenzt den Inhalt eines Forschungsprojekts lediglich lose ab


Schritt 1: Relevanz prüfen

Wichtig: Appelle, persönliche Meinungen oder emotionale Kommentare nicht in wissenschaftliche Texte

  • Theoretisch: Beitrag zum wissenschaftlichen Diskurs, neue Hypothesen, Inkonsistenzen aufdecken, Theorien testen, Konzepte entwickeln

  • Gesellschaftlich: Verständnis / Vorhersage wichtiger Phänomene, Identifikation betroffener Gruppen, Bewertung von Konsequenzen, Handlungsempfehlungen


Schritt 2: Thema eingrenzen

  • Ebene: lokal, national, international

  • Zeit: historische / aktuelle Entwicklung

  • Dimension: Mikro- oder Makroebene

  • Kombination von Kernbegriffen für Präzisierung

    • Bsp.: „Lokale Unterschiede der Wahlbeteiligung in Deutschland“ statt „Wahlforschung“


Schritt 3: Literaturrecherche

  • Überblick über Theorien, empirische Ergebnisse, Forschungslücken

  • Vorgehen:

    • Narrative Review: unsystematisch, subjektiv

    • Systematic Review: transparent, objektiv, Grundlage für Metaanalysen

  • Kriterien zur Quellenbewertung:

    • Zitierfähigkeit (öffentlich zugänglich, Buch, offiz. Statistik)

    • Zitierwürdigkeit (erfüllt wiss. Qualitätsstandards, AutorInnen sind Fachwissenschaft., Veröffentlich. durch anerkannte Verlage/ Fachzeitschriften, Peer-Reeview)

      • Reviewverfahren: Begutachtung (Review) eines Fachaufsatzes vor der Veröffentlichung durch fachspezifische Gutachter

    • Relevanz (passend zur Forschungsfrage)

  • Relevante Quellen: Monografien, Schlüsselwerke, Fachzeitschriften, amtliche Statistiken, Forschungsdatenbanken (GESIS, Politbarometer, ALLBUS, Eurostat, OECD)

    • Erste, überblickartige Recherchen: Online-Kataloge (OPAC) der Universitätsbibliotheken. Findet Monographien, Sammelbände, Titel der Fachzeitschriften.

    • Vertiefende Recherchen: Fachaufsätzen in den verschiedenen Fachzeitschriften. Wichtige Recherchequelle hier: SSCI auf der Plattform „Web of Science“. International aufgestellt, bietet komplette Breite der Veröffentlichungen. Recherchemöglichkeiten (Suchinstrumente) des SSCI sind sehr vielfältig und ausgefeilt.


Repräsentativität

= Abbild der Grundgesamtheit, aber! kein Fachbegriff der empirischen Sozialforschung, sondern eine Metapher in den Medien für ein verkleinertes Abbild der interessierenden Grundgesamtheit. Streng genommen, kann eine Stichprobe niemals sämtliche Merkmalsverteilungen der Grundgesamtheit repräsentieren.



Schritt 4: Forschungsfrage entwickeln

  • Leitet sich aus Forschungslücken oder ungelösten Problemen ab und bedienen die Dimensionen der Relevanz: theoretisch + gesellschaftlich

  • Kriterien für gute Forschungsfragen:

    • Klarheit

    • Begründbarkeit

    • Machbarkeit

    • Prüfbarkeit

    • Bezug zur Theorie

  • Formen:

    • Deskriptiv: „Wie…?“ → Fakten erfassen

      • häufig reine Beschreibungen und erklären keinen Sachverhalt (es werden keine Zusammenhänge von Merkmalen bzw. kausale Mechanismen untersucht)

      • wiss. Forschung sollte allerdings nicht nur beschreiben sondern auch einen Sachverhalt erklären, daher ist sie ungeeignet

    • Erklärend / analytisch: „Warum…?“ → Ursachen / Zusammenhänge

      • Untersucht Ursachen, Zusammenhänge oder Kausalmechanismen zwischen Merkmalen

      • Ziel: Theorieprüfung oder Hypothesenprüfung → über reine Beschreibung hinaus

      • wichtig in Sozialwissenschaften


Phase 2: Konzeptspezifikation


Phase im Forschungsprojekt und dient dazu, einen abstrakten Begriff eindeutig festzulegen

  • zur eindeutigen Definition & Abgrenzung von ähnlichen Konzepten

  • Grundlage für empirische Forschung & Hypothesenbildung

  • um messbare Indikatoren abzuleiten (Operationalisierung)


Elemente eines Konzepts (Gerring 2001)

  1. Term: sprachliche Bezeichnung i.F. eines Namens/Labels des Konzepts (z. B. „Demokratie“)

  2. Intension: Gesamtheit der Attribute, die die inhaltliche Bedeutung eines Konzepts festlegen

    • Attribut = spezifische Eigenschaft eines Konzepts zur inhaltlichen Präzisierung. Für die inhaltliche Beschreibung eines Konzepts sind in der Regel mehrere Attribute erforderlich.

    • Beispiel „Demokratie“: freie Wahlen, Gewaltenteilung und politische Partizipation

  3. Extension: Gesamtheit der Objekte, auf die das Konzept zutrifft. Also der empirische Geltungsbereich eines Konzepts (Begriffsumfang).

    • Beispiel: alle Staaten, die diese Merkmale erfüllen, etwa Deutschland oder Frankreich, nicht jedoch autoritäre Regime.

Inverses Verhältnis: Je mehr Eigenschaften (Intension), desto weniger Fälle (Extension) – und umgekehrt.


Qualitätsmerkmale

  • Präzision: Konzept lässt sich klar zuordnen

  • Eindeutigkeit: Konsistente Nutzung durch Forschende

  • Adäquatheit: Passung von Intension & Extension zum Forschungskontext


Vier Schritte nach Wonka

  1. Identifikation: Welche Konzepte strukturieren die Forschung?

  2. Spezifikation in Literatur: Wie wurde Konzept bisher definiert?

  3. Eigene Intension: Attribute festlegen, Relevanz für Forschungsfrage prüfen

  4. Prüfung: Präzision, Eindeutigkeit, Adäquatheit → ggf. Re-Spezifizierung

    • Re-spezifikation: Häufig sind sozialwissenschaftliche Konzepte/Begriffe an spezifische räumliche und/oder zeitliche Kontexte gebunden (z.B. Parteiidentifikation USA (Zweiparteiensystem). Falls ein Konzept in einem anderen als dem ursprünglichen vorgesehenen räumlichen oder zeitlichen Kontext angewendet wird (z.B. das Konzept Parteiidentifikation in einem Mehrparteiensystem), dann muss geprüft werden, ob die relevanten empirischen Untersuchungsobjekte von dem Konzept erfasst werden.

       

Beispiel: Politikverdrossenheit


Warum eignet sich der Einschätzung von Arzheimer der Begriff Politikverdrossenheit nicht für eine wissenschaftliche Analyse?

  • Antwort: Unscharf, mehrdeutig und wird mit unterschiedlichsten Objekten zb Regierung, Demokratie, sowie verschiedenen Einstellungen, zB. Enttäuschung, Desinteresse, in Verbindung gebracht, sodass keine Grundlage für die Formulierung gehaltvoller Hypothesen gibt

    • Negativ: „Politikverdrossenheit“ → zu heterogen, empirisch schwer fassbar

    • Positiv: „Politische Unterstützung“ (Easton 1965) → klar abgegrenzt, spezifisch/diffus, empirisch nutzbar

    • Kontextabhängig: Konzepte ggf. an neuen Untersuchungsgegenstand anpassen (Re-Spezifizierung)


Heißt: Ohne präzise Konzeptspezifikation: unklare Hypothesen, unbrauchbare Daten, nicht vergleichbare Forschung.


Definitionsarten

  • Nominaldefintion: Bedeutungsübertragung

    • bei der ein neuer Begriff mit einem anderen (bereits bekannten) Begriff gleichgesetzt wird. Beispiel: Weißes Pferd = Schimmel.

    • Achtung: Keine Aussage über das „Wesen“ eines Phänomens

      • Es gibt keine objektiven Kriterien, um zu prüfen, ob das Wesen eines Sachverhalts angemessen erfasst wurde.

  • Realdefintion: Begriff wird durch sein Wesen/ Beschaffenheit definiert

    • 👉 Problematisch, da soziale Phänomene:

      • historisch wandelbar

      • kontextabhängig

      • theoretisch umstritten sind

  • Operationale Definition: Übersetzt theoretische Konzepte in messbare Indikatoren

    • Grundlage empirischer Forschung

    • Unverzichtbar, aber:

      • nur sinnvoll auf Basis einer klaren theoretischen Definition

      • Bsp.: Vertrauen → Skalenfrage in einer Umfrage


Heißt: Sozialwissenschaften arbeiten primär mit nominalen und operationalen Definitionen, nicht mit Realdefinitionen, da soziale Phänomene historisch und kontextabhängig sind.


Phase 3: Hypothesenbildung

Hypothesen = theoriegeleitete, begründete Annahmen über erwartete Zusammenhänge zwischen mindestens zwei Merkmalen i.F. von (un-) abhängigen Variablen (uV → aV), mit dem Ziel, Zusammenhänge dieser Merkmale zu bestätigen oder zu widerlegen.

  • Unterschied zu Alltagsvermutungen: empirisch, überprüfbar, nicht meinungsbasiert


Kriterien guter Hypothesen (Bortz & Döring)

  • Bezug auf reale, empirisch untersuchbare Sachverhalte

  • Generalisierbar über Einzelfälle hinaus

  • Konditionalstruktur (Wenn–dann / Je–desto)

  • Falsifizierbar durch empirische Daten

  • (Theoretisch begründet (Zusammenhang uV–aV))


Arten von Hypothesen

  • Deterministisch: vermutete Zusammenhang tritt zwischen zwei Merkmalen mit Sicherheit ein. → selten in Sozialwissenschaften

  • Probabilistisch: vermutete Zusammenhang tritt zwischen zwei Merkmalen nur mit einer gewissen Wahrscheinlichkeit ein. -> Standard in Sozialwissenschaften

    • Wenn–dann-Hypothese → dichotome Merkmale „Wenn X, dann Y“

    • Je–desto-Hypothese → ordinale / metrische Merkmale „Je mehr X, desto mehr/weniger Y“


Hypothesentypen

Alternativhypothese und Nullhypothese bilden in der empirischen Sozialforschung ein Paar

  • Alternativ-/Forschungshypothese (H₁): beinhaltet die interessierende Aussage i.F. Positiver oder negativer Zusammenhang → Test erfolgt über Zurückweisung von H₀

    • Beispiel: Je höher die Bildung, desto höher das Einkommen.

  • Nullhypothese (H₀): Verneint die interessierende Aussage, indem kein Zusammenhang dargestellt wird

    • Beispiel: Zwischen Bildung und Einkommen besteht kein Zusammenhang.


Zusammenhangsarten

  1. Linear (häufigster Fall) (Uni-/ Bivariate Analysen)

  2. Nicht-linear (Regressionsmodelle)

    • U-förmig

    • Exponentiell

    • Logarithmisch → Form muss theoretisch begründet sein


Analytische Ebenen von Hypothesen

  • Individualhypothese (Mikro → Mikro) → Unterschiede zwischen Individuen (Bildung und Einkommen)

  • Kollektivhypothese (Makro → Makro) → Zusammenhänge zwischen Kontexten/Systemen

    • z.B. Arbeitslosenquote und Inflation

  • Kontexthypothese (Makro → Mikro) → Zusammenhang zwischen Merkmal auf Makroebene (d.h. immer uV) und Merkmal auf Mikroebene (d.h. immer aV) .


Fehlschlüsse zwischen Ebenen

  • Ökologischer Fehlschluss: Makro → Mikro

  • Individualistischer Fehlschluss: Mikro → Makro

  • Naturalistischer Fehlschluss: Sein → Sollen

  • Normativer Fehlschluss: Sollen → Sein


Heißt:

  • Hypothesen sind theoriegeleitet, falsifizierbar und empirisch prüfbar

  • Sozialwissenschaftliche Hypothesen sind fast immer probabilistisch

  • Ohne saubere Hypothesen keine saubere empirische Forschung



Schritt 4: Operationalisierung


Operationalisierung = Zuordnung eines oder mehrerer beobachtbarer Indikatoren zu einem theoretischen Konzept, um Hypothesen empirisch überprüfbar zu machen.

  • Voraussetzung: abgeschlossene Konzeptspezifikation

  • Indikator stellt einen beobachtbaren Sachverhalt dar, der einen theoretischen Begriff in die Realität „übersetzt“


Ablauf

  1. Theoretisches Konzept klären (z. B. „Bildung“)

  2. Indikatoren auswählen (z. B. Schulabschluss)

  3. Korrespondenzregeln festlegen → Wie wird gemessen? (Kodierung, Skala)

    • Allgemein:

      • Rangordnung (Bildung: niedrig → hoch)

      • Dummy-Kodierung (0/1)

      • Skalen (z. B. 1–5 Zustimmung)

        • 🔼 Höheres Skalenniveau = mehr Information = mehr Statistik

          • Nominal: Keine Ordnung (z.B. Geschlecht)

            • Berechnung: Häufigk/ Modus

          • Ordinal: Rangordnung ohne Abstände (z.B. Schulabschlüsse)

            • ⚠️ oft Intervallannahme bei Likert-Skalen

            • Berech.: + Median, Rangstatistik

          • Intervall: Ordnung, gleiche Abstände, ohne abs. Nullpunkt (z.B. Temperatur)

            • Ber.: + Mittelwert, Korrelation

          • Ratio: Ordnung, Abstände, abs. Nullpunkt (z.B Einkommen, Alter)

            • alle statistischen Verfahren

      • Summenindizes

        • Skala (reflektive Indikatoren)

          • Items messen dasselbe Konzept

          • Konzept -> Indikatoren

          • Bsp.: Soziales Vertrauen (ESS)

          • Berechn. → Mittelwert / Summe

        • Index (formative Indikatoren)

          • Indikatoren formen das Konzept

          • Indikatoren → Konzept

          • Bsp.: Sozioökonomischer Status, HDI

          • Ber.→ Standardisierung + Gewichtung

      • Invertierung (bei gegensinnigen Items)

        • z.B. 1 = stimme völlig zu, 5 = überhaupt nicht

          • Problem: 5 ist numerisch hoch, bedeutet aber geringe Zustimmung zur Kritik (also eigentlich etwas Positives).

          • INvertierung = Umcodierung

    • Art der Kodierung:

      • Isomorphismus: eindeutige 1:1-Zuordnung → exakte Analysen

      • Homomorphismus: Zusammenfassung mehrerer Ausprägungen → Vereinfachung, weniger Information

  4. Empirische Messung (Befragung, Statistik, Test)

    • Messen = Zuweisung von Zahlen zu Merkmalsausprägungen nach festen Regeln(Stevens 1946)

    • Ohne klare Zuordnungsregeln ist eine Messung nicht valide

  5. Gütekriterien prüfen (Objektivität, Reliabilität, Validität)

    • Objektivität: Unabhängigkeit einer Messung vom Forschenden, wenn verschiedene Personen mit dem gleichen Messinstrument zum gleichen Ergebnis kommen. Egal Wer misst:

      • Durchführungsobjektivität

      • Auswertungsobjektivität

      • Interpretationsobjektivität

    • Reliabilität: Wie zuverlässig eine Messung ist

      • sie stabil die Ergebnisse sind

      • wenig Zufall / Messfehler enthält

        • z.B: durch Cronbachs Alpha (>0,8 - 1)

    • Validität: Gültigkeit eines Messinstruments. Heißt, Es wird gemessen, was gemessen werden soll

      • Inhaltsvalidität: alle Dimensionen erfasst?

      • Kriteriumsvalidität: Vergleich mit etabliertem Maß

      • Konstruktvalidität: theoretisch sinnvolle Zusammenhänge bestätigt?

        • Viele bestätigte Hypothesen → hohe Konstruktvalidität

Achtung: Ergebnis kann: Reliabel ≠ valide, aber valide ⇒ reliabel sein.



Zentrale Herausforderungen:

  • Unterschiedliche Operationalisierungen → unterschiedliche Ergebnisse

  • Indikatoren oft umstritten

  • Literaturrecherche entscheidend, um Alternativen zu vergleichen



Schritt 5: Entscheidung ob Primär- oder Sekundäranalyse


Woher kommen die Daten? → Primär- oder Sekundäranalyse


Analysearten

  • Primäranalyse: zur Überprüfung der formulierten Hypothese/n werden eigene Daten erhoben.

    • Methoden:

      • Befragung

      • Interview

      • Experiment

      • Beobachtung

    • Vorteile:

      • Daten passgenau zur Forschungsfrage

      • Volle Kontrolle über:

        • Operationalisierung

        • Messinstrumente

        • Stichprobe

    • Nachteile:

      • Sehr zeit- und kostenintensiv

      • Methodisch anspruchsvoll

      • Für Haus-/Abschlussarbeiten oft unrealistisch

    • Heißt: Primäranalyse = maximale Kontrolle, maximaler Aufwand

  • Sekundäranalyse: zur Überprüfung der formulierten Hypothese/n werden vorhandene Daten genutzt.

    • Typische Datensätze: ALLBUS, ESS, SOEP, ISSP, Eurobarometer usw.

    • Strategien der Datenrecherche nach Watteler

      • Institutionelle Suche: z.B. Arbeitsmarkt → IAB (Institut für Arbeitsmarkt- und Berufsforschung)

      • Suche über Forschende: über ZA/ DOI-Nummer von meist verwendeten Datenquellen

      • Inhaltliche Suche: Datenbanken z.B. GESIS


    • Vorteile:

      • Sehr ressourcenschonend

      • Hohe Datenqualität (professionelle Erhebung)

      • Replikation möglich → Qualitätssicherung

        • aber: Replikation ist wichtig, aber nicht immer möglich (z. B. bei historischen oder einmaligen Ereignissen).

      • Diekmann 1998:

        • heilende Wirkung → Aufdeckung von Fehlern

          • indem methodische Schwächen oder Analysefehler sichtbar werden

        • präventive Wirkung → bessere Dokumentation

          • durch Dokumentation und Kontrolle der Forschungsprozesse zur qualitativen Verbesserung zukünftiger Forschung beitragen

    • Nachteile

      • Variablen & Operationalisierung vorgegeben

      • Forschungsfrage muss zu den Daten passen

      • Gefahr der Pfadabhängigkeit

    • Heißt: Sekundäranalyse = weniger Aufwand, weniger Kontrolle




Schritt 6: Forschungsdesign wählen (nur bei Primäranalyse)

= methodische Gesamtplan eines empirischen Forschungsprojekts.Es legt fest, wie eine Forschungsfrage empirisch beantwortet wird und basiert auf:


Ursprung einer Forschung:

  1. Auftragsforschung: Thema durch Auftraggeber

  2. Selbst initiiert: Forschende wählen Thema

Zielrichtung:

  • Grundlagenforschung: Theorieentwicklung

  • Anwendungsorientiert: praktische Lösungen


Bestandteile eines Forschungsdesigns nach Diekmann:

Untersuchungsebene

  • Mikroebene (Individualebene)

    • Bsp.: Einkommen, Bildung, politische Einstellungen

    • Arbeitslosigkeit (uV) → Wahlbeteiligung (aV)

  • Mesoebene (Kontextebene)

    • Fokus: Organisationen, Verbände, Parteien

    • bsp.: Politisches Klima einer Region → individuelles Wahlverhalten

  • Makroebene (gesellschaftliche Ebene)

    • Fokus: Systeme / Aggregate

    • Analyse von Gesellschaften, Staaten, Regionen

    • Bsp.: Arbeitslosenquote (uV) → Wahlbeteiligung (aV)


Untersuchungsform

  • Experimentell (prüft kausale Zusammenhänge)

    • gezielte Manipulation einer uV

    • Beobachtung Ursache-Wirkung-Zsm

    • Hohe interne Validität

    • Merkmale:

      • Manipipulation der uV durch Forschende(Treatment/Stimulus)

      • Randomisierung: zufällige Zuteilung von Personen zu Experimental- und Kontrollgruppe

    • Formen:

      • Labor-Experiment mit kontrollierten Bedingungen; Randomisierung

      • Feld-Experiment: in natürlicher Umgebung, reale Bedinungen

      • Quasi-Experiment: experimentelle Untersuchung ohne Randomisierung mit Manipulation der uV

    • Arten:

      • Nachher-Untersuchung mit Kontrollgruppe

      • Vorher-Nachher-Untersuchung mit Kontrollgruppe

      • Solomon-Vier-Gruppen-Design: Kombination aus beiden, mit vier Gruppen, mit Kombination aus Pretest, Treatment und Posttest

    • Vorteile: hohe interne Validität und ermöglicht Nachweis von Kausalität

    • Nachteile:

      • in SW häufig durch künstliche Bedingungen unethisch/ unpraktisch

      • geringe externe Validität: Veränderung der aV ist nur auf Manipulation der uV zurückzuführen, Ergebnisse lassen sich nur selten auf andere Situationen / Personen generalisieren

        • Allein die erste Befragung („Wie aggressiv bist du?“) kann das Verhalten verändern — z. B. denken die Teilnehmenden darüber nach und verhalten sich danach bewusster oder weniger aggressiv. = Pretest-Effekt


  • Nicht-Experimentell (Ex-post-facto-Designs = „nachträglich festgestellt“)

    • nur Beobachtung bestehender Zusammenhänge ohne Manipulation

    • uV und aVwerden zeitgleich erhoben und erst nach der Datenerhebung (ex post) theoretisch unterschieden, welche Variable als Ursache (uV) und welche als Wirkung (aV) interpretiert wird

    • Vorteil: realitätsnah und praktisch umsetzbar, da Manipulation bei sozialen Phänomen oft nicht möglich

      • z.B. Befragung zu politischen Einstellungen, man kann niemanden zwingen rechts zu sein

    • Probleme:

      • Nur theoretisch begründete Kausalannahmen möglich.

      • Problem der Kontrolle von Drittvariablen

      • Problem der Varianz der uV: Ohne Unterschiede in der Ursache kann man keine Unterschiede in der Wirkung erklären.

    • Heißt: deskriptive und korrelative, aber keine kausalen Schlüsse.


Datenerhebung Methoden (Stategien & Techiken)

Werkzeuge zur Bearbeitung einer Forschungsfrage, z. B.:

  • Befragung

  • Beobachtung

  • Experiment

  • Inhaltsanalyse

  • Sekundäranalyse


Häufigkeit der Datenerhebung

  • Queerschnittstudie: einmalige Erfassung relevanter Merkmale

  • Längsschnittstudie: zu mehreren Zeitpunkten

    • Trendstudie: Mehrmalige Datenerhebung, aber jeweils unterschiedliche Untersuchungsobjekte

      • Vergleich der aggregierten Werte (z. B. Mittelwerte) durch mehrere Querschnittserhebungen → bilden einen Trend

      • Kohortendesign: Spezialfall des Trenddesigns -> Untersuchung von Bevölkerungsgruppen mit gemeinsamem Startereignis (z. B. Geburtsjahr, Heirat, Berufseintritt)

    • Panelstudie: Gleiche Untersuchungseinheiten, dieselben Merkmale zu verschiedenen Zeitpunkten erheben

      • Beispiel: Sozioökonomisches Panel (SOEP)

      • Panelmortalität: Anteil der Personen, die im Verlauf einer Panelstudie ausfallen

        • Lösung:

          • Alternierendes Panel: Zwei Gruppen abwechselnd befragt

          • Rotierendes Panel: Teilgruppe wird ersetzt

          • Geteiltes Panel: Kombination aus Panel und wiederholten Querschnitten

    • Informationshierarchie:

      Paneldesign > Trenddesign > Querschnittdesign Panel enthält die meiste, Querschnitt die wenigste Information.(Man kann aus Paneldaten Trends und Querschnitte berechnen, aber nicht umgekehrt.)



Schritt 7: Auswahlverfahren (Sampling)

Grundgesamtheit / Stichprobe

(Nur bei Primäranalyse)

Leitfrage: Über wen oder was sollen Aussagen gemacht werden – und mit welchen Daten?

  • Wer / was wird untersucht? → Grundgesamtheit & Stichprobe

  • Ziel: systematische und begründete Auswahl von Untersuchungseinheiten zu treffen, um Aussagen über eine Grundgesamtheit zu ermöglichen.


Grundbegriffe:

  • Grundgesamtheit: Gesamtheit aller Elemente, über die eine wissenschaftliche Aussage getroffen werden soll (räumlich, sachlich, zeitlich definiert)

    • Bsp.: Alle wahlberechtigten Bürger:innen einer Gemeinde

  • Auswahlgesamtheit: Alle Elemente einer Grundgesamtheit, die eine Chance haben, in die Stichprobe zu gelangen. Im Idealfall ist die Auswahlgesamtheit mit der Grundgesamtheit deckungsgleich

    • Bsp.: Einwohnermelderegister

  • Auswahleinheit: Einheit, auf die das Auswahlverfahren angewendet wird

    • z.B. Einzelperson im Register

  • Stichprobe: Elemente (z.B. Personen) einer Auswahlgesamtheit, die im Rahmen einer Teilerhebung ausgewählt wurden.

    • z.B. 500 zufällig ausgewählte Bürger:innen aus dem Register

  • Erhebungseinheit: Einheit, bei der die Daten tatsächlich erhoben werden

    • Person, die tatsächlich befragt wurde


Probleme:

  • Overcoverage: Elemente in der Auswahl, die nicht zur Grundgesamtheit gehören

    • z.B. Minderjährige Personen im Register

  • Undercoverage

    • Elemente der Grundgesamtheit die nicht in der Auswahl enthalten sind

      • z.B. Wahlberechtigte ohne Internet bei Online-Befragungen

  • Stichprobenfehler: Abweichung zwischen Stichprobenwert und wahrem Wert der Grundgesamtheit→ normal und erwartbar


Erhebungsumfang

  • Vollerhebung: Alle Elemente der Grundgesamtheit werden untersucht

    • Vorteile: exakte Werte, keine Stichprobenfehler

    • Nachteile: sehr teuer, zeitaufwendig, oft unrealistisch

  • Teilerhebung (Stichprobe): Nur ein Teil der Grundgesamtheit wird untersucht

    • Standardfall in den Sozialwissenschaften

    • Ziel: Schätzung von Parametern der Grundgesamtheit


Erhebungsart

  • Zufällige Auswahl (probabilistische Stichprobe)

    • Jedes Element der Grundgesamtheit hat eine bekannte Auswahlwahrscheinlichkeit > 0

    • Konsequenz:

      • Repräsentativität* u.

      • Inferenzstatistik möglich (Rückschluss von Stichprobe auf Grundgesamtheit)

    • Typen

      • Einfache Zufallsstichprobe (SRS)

        • Jede mögliche Stichprobe hat die gleiche von verschiedene Chance in die Stichprobe zu gelangen

        • z.B: 1.000 Studierende zufällig aus einer vollständigen Liste

      • Geschichtete Stichprobe (Stratified Sampling)

        • Grundgesamtheit in Gruppen (Schichten), sodass jedes Element der Grundgesamtheit zu einer - und nur zu einer - Schicht gehört und anschließend Zufallsstichproben aus jeder Schicht gezogen werden

        • z.B: Fakultäten, Geschlecht, Altersgruppen→ proportional oder disproportional

      • Klumpenstichprobe (Cluster Sampling)

        • Zufallsauswahl von zusammengefassten Elemente (d.h. Klumpen/Gruppen), dann Erhebung aller Elemente im Cluster

        • z.B. PISA (Schulen zufällig aber alle SchülerInnen befragt)

  • Nicht-zufällige Auswahl (nicht-probabilistisch)

    • Auswahlwahrscheinlichkeit unbekannt

    • Konsequenz:

      • ❌ Keine Generalisierung auf die Grundgesamtheit

      • ❌ Keine valide Inferenzstatistik

    • Typen:

      • Willkürliche Auswahl: aufs Geratewohl

        • Entscheidung über die Aufnahme eines Elements der Grundgesamtheit durch Ermessen der Forschenden

          • z.B: Straßeninterviews, Online-Umfragen ohne Dokumentation

        • Problem: Grundgesamtheit oft unklar → keine Rückschlüsse möglich

      • Bewusste/ theoretische Auswahl

        • Auswahl nach inhaltlichen Kriterien, nicht auf Zufallsprinnzip

        • Ziel: Theoriebildung oder Falsifikation

        • Nicht repräsentativ

        • Typische Verfahren:

          • Quotenauswahl (Quoten nach Geschlecht, Alter etc.) → Verzerrungsrisiko durch Interviewer

          • Most Similar Cases Design (MSCD)

          • Most Different Cases Design (MDCD)

          ⚠️ MSCD/MDCD sind Idealtypen, empirisch selten vollständig umsetzbar


Repräsentativität

= Stichprobe als „verkleinertes Abbild“ der Grundgesamtheit

Problem:

  • Kein eigenständiges Gütekriterium

  • Oft unscharf verwendet

  • Nur Zufallsstichproben erlauben echte Generalisierung

👉 Fazit (Schnell et al.): „Repräsentativität“ ist häufig eine inhaltlich leere Floskel, bestenfalls eine Metapher.



Auswahlverfahren in der Forschungspraxis

Da vollständige Listen der Grundgesamtheit oft fehlen, werden mehrstufige Auswahlverfahren genutzt, um eine Stichprobe zu generieren:

  • ADM-Design (persönliche Befragung)

    • 1. Gebietsauswahl Deutschland in ca. 53.000 Sample Points

    • 2. Haushaltsauswahl Random Walk / Random Route

      • mit oder ohne Adressvorlauf

    • 3. Zielpersonenauswahl

      • Geburtstagsmethode (Last-Birthday-Method)

      • Schwedenschlüssel / Kish Grid

    • Fehlerquellen:

      • Abweichungen vom Random Walk

      • Bevorzugung leicht erreichbarer Personen

  • Telefonische Stichprobe:

    • Gabler-Häder-Design (Best Practice in DE)

      • Kombination aus registrierten + generierten Nummern

    • Dual-Frame: Festnetz + Mobilfunk

    • Problem: Mobilnummern nicht regional zuzuordnen

  • Registerstichproben (EWR)

    • Nutzung von Einwohnermelderegistern

    • Vorteile:

      • Geringer Interviewereinfluss

      • Demografische Informationen verfügbar

      • Hohe Kontrollierbarkeit

    • Nachteile:

      • Hoher Aufwand, Kosten, lange Lieferzeiten

      • Nur bei „öffentlichem Interesse“

      • Abhängigkeit von Behörden

    • Typische Verwendung bei: ALBUSS, ESS (DE)



Schritt 8: Datenerhebung (Nur bei Primäranalyse)

Ziel: Systematische Sammlung von Daten zur Beantwortung der Forschungsfrage


Drei klassische Methoden: Beobachtung, Befragung, Inhaltsanalyse.


Beobachtung

Direktes, unmittelbares Registrieren relevanter Sachverhalte für den Forschungszusammenhang.

  • z.B.: Sprache, Verhalten, soziale Merkmale, „geronnenes Verhalten“.

  • Abgrenzung zur Alltagswahrnehmung: Systematisch, theoriebasiert, kontrolliert, intersubjektiv nachvollziehbar.

  • Kriterien:

    • Hypothesenfundierung

    • Kontrolle / Überprüfbarkeit

    • Wissenschaftliche Auswahl der Beobachtungseinheiten

    • Systematische Auswertung (replizierbar, nachvollziehbar)

  • Phasen:

    • Fragestellung & Hypothesen

    • Operationalisierung

    • Kodierschema entwickeln

    • Auswahl der Untersuchungsobjekte

    • Pretest

    • Haupterhebung

    • Datenaufbereitung & Auswertung

    Vorteile: Erfassung realen und nonverbalen Verhaltens, auch unbewusste Handlungen

  • Nachteile:

    • Zeitaufwendig

    • kleine Fallzahlen,

    • ethische Probleme (Privatsphäre, Zustimmung Datenschutz fehlt)

    • Subjektivität

    • Hawthorne-Effekt (Verhalten verändert sich, wenn Beobachtete wissen, dass sie beobachtet werden)

  • Varianten:

    • Teilnehmende vs. nichtteilnehmend

    • offen vs. verdeckt

    • Feldbeobachtung vs. Laborbeobachtung

    • strukturiert vs. unstrukturiert

    • Selbstbeobachtung vs. Fremdbeobachtung.

Variante

Beschreibung

Vorteil

Nachteil

Beispiel

Teilnehmend

Beobachter integriert sich in Gruppe

Tiefes Verständnis

„Going native“

Parteitage der Grünen/Linken

Nichtteilnehmend

Beobachter bleibt passiv

Objektiver

Weniger Einsicht

Politische Veranstaltungen

Offen

Beobachtete wissen von Beobachtung

Ethisch unbedenklich

Reaktivität

Unterrichtsbeobachtung

Verdeckt

Beobachtete wissen nichts

Natürliches Verhalten

Ethisch problematisch

Alltagsverhalten

Feld

Natürliche Umgebung

Hohe ökologische Validität

Geringe Kontrolle

Wahlkreisarbeit

Labor

Kontrollierte Umgebung

Vergleichbarkeit

Geringe Realitätsnähe

Experiment

Strukturiert

Vorgabe von Kategorien

Vergleichbarkeit, Reliabilität

Eingeschränkt

Quantitative Forschung

Unstrukturiert

Offene Exploration

Hypothesenbildung

Subjektivität

Qualitative Feldforschung


Befragung

= Systematische Erhebung von Einstellungen, Meinungen, Wissen und Verhalten von Personen.

  • Sie kann

    • quantitativ (standardisiert) oder

    • qualitativ (offen, explorativ) durchgeführt werden.

  • Vorteile:

    • Direktes Erfassen von Wissen, Einstellungen, Verhalten

    • Standardisierbar → Vergleichbarkeit

    • Quantitativ und qualitativ einsetzbar

    • Schnelle Datenerhebung (je nach Modus)

  • Nachteile:

    • Soziale Erwünschtheit → Verzerrung

    • Antwortausfälle (Non-Response)

    • Missverständnisse bei Fragen

    • Kosten und Zeitaufwand bei Face-to-Face

    • Reaktive Effekte möglich (Verhalten durch Befragung beeinflusst)


Grundformen:

  • Persönlich (face-to-face): Interviewer stellt Fragen direkt; CAPI (Computer Assisted) oder PAPI (Papier)

    • z.B. Haushaltsbefragungen, detaillierte Interviews bis 60 min; hohe Teilnahmebereitschaft; teue

    • Grundgesamtheit abbildbar: hoch

  • Telefonisch (CATI): Zentral gesteuerte Interviews per Telefon

    • z.B Wahlforschung, schnelle Datenerhebung; max. 30 min; moderate Kosten

    • Grundgesamtheit abbildbar: mittel

  • Schriftlich (Paper): Fragebogen per Post

    • Lokale Studien, kleinere Grundgesamtheit; niedrige Response-Rate

    • Grundgesamtheit abbildbar: mittel

  • Online (CAWI): Web-basierter Fragebogen

    • z.B Große Online-Studien, Studierende, niedrige Kosten, schnelle Auswertung; Ausschluss nicht-internetfähiger Personen

    • Grundgesamtheit abbildbar: gering


Non-Response:

= Fehlen von Daten bei Befragungen

  • Item-Nonresponse: einzelne Fragen unvollständig

  • Unit-Nonresponse: Befragte nicht erreichbar oder verweigern

Ausschöpfung / Response-Rate: Verhältnis realisierte Interviews zu gezogenen Stichprobenelementen


Teilnehmermotivation:

  • Incentives: Beispiele: Gutscheine, kleine Geschenke, Teilnahme an Verlosungen, Geldbeträge.

  • Follow-ups: Erinnerung per E-Mail, Telefon, Postkarte

  • Personalisierung: persönliche Anschreiben mit Namen, Bezug auf vorherige Teilnahme, freundliche Sprache.


Fragebogenentwicklung

  • Grundprinzipien:

    • Iterativer Prozess: Fragen werden fortgehend überarbeitet, Reihenfolge angepasst, Module ergänzt.

    • Module/Blöcke: ähnliche Fragen zusammenfassen (z. B. Politik, Mediennutzung, Wohlbefinden).

    • Reihenfolge: allgemein → speziell; Einstiegsfragen leicht & motivierend; sensible Fragen am Ende.

    • Filterfragen: überspringen irrelevante Items.

    Pretests:

  • = Erhebungsinstruments vor der eigentlichen Datenerhebung. Zielt darauf ab, die Mängel eines Erhebungsinstruments zu identifizieren, um die Qualität der Datenerhebung sicherzustellen.

  • Formen:

    1. Kognitive Interviews → Verständlichkeit prüfen, Probleme beim Beantworten erkennen

    2. Fragebewertungssystem (FBS) → Checkliste zur systematischen Analyse

    3. Feldpretest → Test mit 10–200 Personen, Dauer, Ablauf, Navigation prüfen


10 Gebote der Frageformulierung nach Porst

  1. Einfache, verständliche Begriffe

  2. Kurze, klare Fragen

  3. Keine hypothetischen Fragen

  4. Keine Verneinungen

  5. Keine Unterstellungen / suggestive Fragen

  6. Keine Fragen zu unbekannten Informationen (Überfragung)

  7. Klarer zeitlicher Bezug

  8. Klare Antwortvorgaben (überschneidungsfrei)

  9. Kontext beachten (Assimilation / Kontrasteffekte)

  10. Unklare Begriffe definieren


Fragetypen:

Fragetyp

Beschreibung

Beispiel

Offen

Befragter antwortet frei

„Was denken Sie über die aktuelle Klimapolitik?“

Dichotom

Zwei Antwortmöglichkeiten

„Sind Sie Mitglied einer Partei? Ja / Nein“

Hybrid / Halboffen

Kombination geschlossene + offene Option

„Welchen Schulabschluss haben Sie? Hauptschule, Realschule, Gymnasium, Anderer: ______“

Skalenfrage

Bewertung auf Intensitäts/ Einstufung

„Wie zufrieden sind Sie mit Ihrem Arbeitsplatz? 1 = sehr unzufrieden – 5 = sehr zufrieden“

Rangordnung

Items nach Wichtigkeit ordnen

„Ordnen Sie diese politischen Ziele nach Priorität: 1. Sicherheit, 2. Bildung, 3. Umwelt, 4. Gesundheit“

Mehrfachantwort

Mehrere Optionen wählbar

„Welche Verkehrsmittel nutzen Sie regelmäßig? Auto, Fahrrad, Bus, Bahn, Zu Fuß“

Forced-Choice

Aus mehreren Optionen eine richtige Wahl

„Wer wählt den Bundeskanzler? a) Volk, b) Bundestag, c) Bundesrat → Richtig: b) Bundestag“


Probleme

  • Geschlossene Fragen: Antwortoptionen erschöpfend und disjunkt.

  • Effekte von Skalen:

    • Verzerrung durch Intervallwahl, Mittelkategorie möglich

    • Verbal vs. numerisch → Kombination kann verwirren

    • Reihenfolge (negativ → positiv vs. positiv → negativ) kann Einfluss haben

    • Standardisierte Skalen = einfache Auswertung; item-spezifische = besseres Verständnis

  • Leitfragen zu Skalen nach Porst:

    • Anzahl Kategorien: Faustregel 5–7

    • Gerade vs. ungerade Anzahl: neutral möglich vs. zwingt zu Meinung


heißt: Die Qualität hängt stark ab von Fragebogenkonstruktion, Pretests, Auswahl der Stichprobe, Antwortkategorien und Vermeidung von Bias (systematische Verzerrungen) durch neutrale Fragen, Randomisierung, standardisierte Interviews.


Randomisierung = zufällige Verteilung von Untersuchungsobjekten in Experimental- oder Kontrollgruppe gemeint. Dadurch sollen bei Experimantaldesigns systematische Unterschiede zwischen Experimental- und Kontrollgruppe vermieden werden.


Inhaltsanalyse

= Empirische, systematische Erhebung und Auswertung von Texten, Bildern und Filmen zur Rückschlusserhebung auf gesellschaftliche Sachverhalte.

  • Keine Datengenerierung, Nutzung vorhandener Materialien

    • Sekundäranalyse = bereits existierende quantitative Daten (z. B. Umfragen, Statistiken)

    • Inhaltsanalyse = bereits vorhandenes Material systematisch qualitativ oder quantitativ codieren

    • Beispiele

      • Texte: Wahlprogramme, Zeitungsartikel, Kinderaufsätze

      • Bilder / Filme: Werbespots, Spielfilme, Social-Media-Beiträge

      • Codierung: Häufigkeit von Begriffen, Bewertung von Aussagen (positiv/negativ), Kontingenz (Begriff A erscheint zusammen mit Begriff B)

  • Quantitativ, wenn:

    • Inhalte gezählt, klassifiziert oder verglichen werden

    • Ergebnisse als Zahlen vorliegen

    • statistisch auswertbar

    (Abgrenzung: qualitative Inhaltsanalyse = interpretativ, weniger Zählungen)

  • Systematisch, intersubjektiv nachvollziehbar

  • Varianten:

    • Frequenzanalyse: Häufigkeit bestimmter Begriffe, Themen, Personen etc.

      • z.B. Wie oft wird „Klimaschutz“ im Wahlprogramm erwähnt?

    • Valenzanalyse: Bewertung positiv/neutral/negativ

      • z.B: Wie wird ein Kanzlerkandidat in Zeitungsartikeln dargestellt?

    • Intensitätsanalyse: Stärke der Bewertung

      • z.B „leicht positiv“ – „sehr positiv“ – „extrem negativ“

    • Kontingenzanalyse: gemeinsame Auftretensmuster, Untersucht Zusammenhänge zwischen Begriffen/Themen

      • Tritt der Begriff „Migration“ häufiger zusammen mit „Kriminalität“ oder mit „Arbeitsmarkt“ auf?

  • Phasen:

    • Planungsphase: Forschungsfrage, Grundgesamtheit, Zeitraum

    • Entwicklungsphase: Kategorienschema (deduktiv/induktiv), Codierungsvorgaben

    • Testphase: Probecodierung, Schulung, Reliabilitätsprüfungen

    • Anwendungsphase: Codierung, Softwareeinsatz

    • Auswertungsphase: Datenmatrix, quantitative/qualitative Analyse, Interpretation

  • Vorteile:

    • Analyse historischen Materials möglich

    • Nichtreaktiv (keine Beeinflussung der Daten durch Forscher)

    • Analyse sozialen Wandels

  • Beispiele

    • Parteitagsbeobachtungen (Nieland 2011)

    • Todesanzeigenanalyse (Schmied 2002)

    • Kinderhörspiele (Strohmeier 2005)

    • Medienpräsenz Bundestagsdebatten (Hierlemann & Sieberer 2014)


Schritt 9: Datenaufbereitung und Analyse*

= Organisation, Prüfung, Verdichtung und statistische Auswertung erhobener Daten zur Beantwortung der Forschungsfrage.


Prinzipien der Datensammlung

  • Vergleichbarkeit: Merkmale für alle Objekte gleich definiert

  • Klassifizierbarkeit: Für jedes Objekt und Merkmal genau ein Wert

  • Vollständigkeit: Keine leeren Zellen; fehlende Angaben = Missing Values (z. B. 9/99 = „weiß nicht“)


Datenaufarbeitung

= Fehlerkontrolle, Codebuch, Missing Values

  • Fehlerarten:

    • Wild codes: Werte außerhalb des zulässigen Bereichs

    • Unplausible Werte: Realistisch unmögliche Angaben (z. B. 300 Std./Monat ehrenamtlich)

    • Inkonsistente Werte: Widersprüche innerhalb der Daten (z. B. Ehedauer > Alter)

  • Lösung: Korrektur durch Original, Kennzeichnung als Missing Value

    • R/Studio: NA steht für „Not Available“

    • na.rm = TRUE, um fehlende Werte bei Berechnungen zu ignorieren.


Testphase

  • Probecodierung: Schema testen, Kategorien anpassen

  • Codierschulung: Einheitliche Anwendung sicherstellen

  • Reliabilitätsprüfung:

    • Intercoder-Reliabilität: Verschiedene Codierer codieren gleich

    • Intracoder-Reliabilität: Ein Codierer codiert gleich zu verschiedenen Zeiten

    • Maße: Holsti CR, Scott Pi, Krippendorff’s Kappa

  • Validitätsprüfung: Codierung misst, was sie messen soll


Hypothesentestung/ Datenanalyse:

  • Explorativ: Muster, Trends, erste Zusammenhänge → Deskriptiv, Grafiken

  • inferenzstatistisch: Übertrag auf Grundgesamtheit → Signifikanztests, Regression


Deskriptive Datenanalyse (Univariat)

Zur Verdichtung großer Datenmengen ohne Hypothesenprüfung

  • Lagemaße: Zentrum der Verteilung

    • Modus (häufigster Wert, nominal)

    • Median (mittlerer Wert, ordinal)

    • Mittelwert (Durchschnitt, intervallskaliert)

  • Streuungsmaße: Variation der Daten

    • Varianz: durchschnittliche quadrierte Abweichung vom arithmetischen Mittel.

    • Standardabweichung

  • Beispiel: Gleicher Mittelwert → unterschiedliche Streuungen sichtbar


Hypothesenprüfung bei bivariaten Zusammenhängen

um Beziehung zwischen Variablen zu prüfen

  • Nominal x Nominal: Cramer’s V (0–1)

  • Ordinal x Ordinal: Spearman’s rho (-1 bis 1)

  • Metrisch x Metrisch: Pearson’s r (-1 bis 1)

  • Beispiele:

    • Geschlecht x Wahlentscheidung → Cramer’s V

    • Politikinteresse x Wahlbeteiligung → Spearman’s rho

    • Bildung x Einkommen → Pearson’s r


Multivariate Analysen

Misst den Einfluss mehrerer unabhängiger Variablen auf eine abhängige Variable

  • Verfahren: Regressionsanalyse

    • Lineare Regression → metrische AV

    • Logistische Regression → dichotome AV

    • Multinomiale logistische Regression → nominale AV mit >2 Ausprägungen

    • Ordinale Logitmodelle → ordinale AV


Inferenzstatistik & Signifikanztest

Rückschluss von Stichprobe auf Grundgesamtheit

  • Schritte:

    1. Nullhypothese H₀: kein Zusammenhang

    2. Alternativhypothese H₁: Zusammenhang

    3. Statistisches Maß: Cramer’s V, Spearman, Pearson

    4. p-Wert bestimmen (p < 0,05 = signifikant)

    5. t-test durchführen

  • Interpretation: Signifikant → Zusammenhang sehr wahrscheinlich auch in Grundgesamtheit, nicht automatisch Effektgröße oder Wichtigkeit


Author

Cathérine C.

Informationen

Zuletzt geändert