Buffl

Quantitative Sozialforschung - Grundbegriffe

CC
by Cathérine C.

Qualitative und Quantitative Methoden der Sozialwissenschaften und Mixed Methodes

Zentrale Merkmale:

Dimension

Qualitative Meth.

Quantitative Meth.

Forschungsziel

verstehen

erklären

Forschungsprozess

zirkulär

linear

Fallzahl

gering

viele

Forschungsdaten

Worte

Zahlen

Hypothesen

generierend

- anfangs sehr allgemein, um neue Aspekte im Untersuchungsprozess berücksichtigen zu können.

-werden dann fortlaufend präzisiert, modifiziert und revidiert

prüfend

-werden explizit vor Datenerhebung formuliert, basierend auf Theorie und bestehendem Forschungsstand.

-Ziel: Überprüfung von Zusammenhängen

-Ergebnis der Prüfung= (vorläufige) Bestätigung oder Falsifizierung

Forschungslogik

Induktion

-Von Einzelfall (Beobachtung) auf allgemeine Regel (Gesetz)

Deduktion

-vom Allgemeine auf das Besondere

Auswertung

offen

Verfahren nach Przyborski:

  • Methodologie der Grounded Theory

  • Verfahren der Narrationsanalyse

  • objektive Hermeneutik

  • dokumentarische Methode

statistische Verfahren

z.B: quantit. Datenerhebung

  • Empirische Informationen werden numerisch kodiert (z. B. politische Interesse: 0 = „überhaupt nicht“, 3 = „sehr interessiert“).

  • Zahlen ermöglichen statistische Auswertungen.

Genelralisierung

= Erkenntnisse über den Einzelfall hinaus auf allgemeine Zusammenhänge übertragen (Abstraktion).

gering

hoch

  • Fallauswahl meist durch Zufallsstichproben.

  • Mit Inferenzstatistik lassen sich Ergebnisse innerhalb bestimmter Fehlergrenzen auf die Grundgesamtheit übertragen.


Gemeinsamkeiten

  • arbeiten mit empirischen Informationen.

  • Ziel, Erkenntnisse über gesellschaftliche Strukturen und Handlungen zu erlangen, die über den konkreten Einzelfall hinausweisen

  1. Intersubjektive Nachvollziehbarkeit (Prüfbarkeit)

    • andere Forschende müssen verstehen können, wie man zu den Ergebnissen gekommen ist.

  2. Fundierte Generalisierungen

    • Schlussfolgerungen, die über einzelne Fälle hinausgehen, basierend auf tiefgehender Kenntnis des Untersuchungsgegenstands

  3. Kritische Reflexion der Ergebnisse

    • z.B. Wo könnten Fehler, Verzerrungen oder methodische Schwächen liegen?

    • Ziel: Verlässlichkeit und Transparenz der Forschung


Mixed Methodes

= Kombination beider Ansätze, weil Viele Forschungsfragen lassen sich sowohl qualitativ als auch quantitativ bearbeiten

Methodenmix:

  • Quantitative Daten: standardisierte Befragungen, Bibliotheksstatistiken

  • Qualitative Daten: Beobachtungen, Schulaufsätze, informelle Gespräche

Durch foolgende Strategien:

  • Sequenziell: qualitative und quantitative Forschung folgen nacheinander.

  • Komplementär: beide Methoden ergänzen sich gleichzeitig.

Aktuelle Tendenz:

  • Zunahme von Mixed-Methods-Studien (Baur et al. 2018),

  • Mehrheit der Forschung bleibt jedoch klar qualitativ oder quantitativ.


4 Kriterien zur Charakterisierung sozialwissenschaftlicher Forschung

  1. Ziel wiss. Forschung = Inferenz (vgl. Schlussfolgerung)

    -> Erklärung soz. Sachverhalte auf Basis empirischer Daten, durch:

    1. deskriptive Inferenz, bei der aus beobachteten Daten auf nicht beobachtete Fakten geschlossen wird, oder

    2. kausale Inferenz, bei der Erklärungen für die Beobachtungen entwickelt werden.

  2. Wissenschaftl. Vorgehensweise = öffentlich

    -> sozialwiss. Forschung erfordert transparente und nachvollziehbare Methoden, durch:

    • Offenlegung von empirischen Beobachtungen, theoretischer Argumentation, methodischem Vorgehen und Schlussfolgerungen

    • Möglichkeit für andere, diese kritisch zu prüfen, nachzuvollziehen und zu replizieren

    → ohne Transparenz kein überprüfbarer, öffentlicher wissenschaftlicher Akt.

  3. Schlussfolgerungen sind unsicher (vgl. Fehleranfälligkeit)

    -> bei Erhebung, Analyse und Interpretation von Daten können Fehler entstehen -> wissenschaftliche Schlussfolgerungen sind daher grundsätzlich unsicher -> Ausmaß dieser Unsicherheit kann jedoch abgeschätzt werden

  4. Gemeinsamkeit ist die Methode

    -> Sozialwissenschaftliche Forschung lässt sich nicht über Inhalte definieren, sondern nur über ihre Methode.

    Heißt: Forschungslogik, Strategien und Techniken bilden die Grundlage der Wissenschaft.


Wichtig - nach King et al. (1994, S. 9:

Wissenschaft ist ein soziales Unternehmen: Trotz unvermeidbarer Fehler trägt Forschung nur dann zum Erkenntnisfortschritt bei, wenn ihre Methoden verstanden, offengelegt und kritisch diskutiert werden – so können alle an Beschreibung, Theorieentwicklung und Theorietestung mitwirken.

2 Grundmodelle der Erklärung sozialer Sachverhalte

  1. Deduktiv-nomologisches Modell (auch: D-N-Modell / Hempel-Oppenheim-Modell)

Quantitative Sozialforschung nutzt das D-N-Modell als Grundmodell der Erklärung.

Bestandteile:

  • Explanandum: „Zu erklärendes Phänomen“ – die Aussage über den Sachverhalt, z. B. „Die Wahlbeteiligung in Deutschland sank von 1998–2009“.

  • Explanas: „Erklärende“ – umfasst allgemeines Gesetz (Allaussage) + Randbedingungen (konkrete situative Angaben).

Funktionsweise:

  1. Wenn-Dann-Beziehung: Allgemeines Gesetz beschreibt zeitlich und räumlich unbeschränkten Zusammenhang zwischen zwei Sachverhalten

  2. Randbedingungen beziehen sich auf die konkrete Situation.

  3. Erklärung durch deduktive Ableitung: Explanandum wird aus Gesetz + Randbedingungen logisch gefolgert.

= Gesetz(G): Wenn ein Faden mit einer Mindestlast belastet wird, dann reißt er + Randbedingung 1 (R1) Maximalbelastung 1kg + R2: Angehängtes Gewicht 2kg -> Explanandum: Faden reißt


Voraussetzungen einer DN-Erklärung:

  • Explanandum muss logisch korrekt aus dem Explanans ableitbar sein.

  • Explanans muss ein allgemeines Gesetz enthalten.

  • Explanans muss wahr sein.

  • Explanans muss empirisch überprüfbar sein (Gesetz + Randbedingungen).

  • Erweiterung nach Esser (1999b): Explanandum muss empirisch wahr sein.


  1. Induktiv-statistisches Modell (auch: I-S-Modell / probabilistische Erklärung)

In den Sozialwissenschaften gibt es keine strikten, allgemein gültigen Gesetze wie in den Naturwissenschaften. Deshalb wird das D-N-Modell modifiziert: statt absoluter Gesetze werden Wahrscheinlichkeiten verwendet.

Ziel: Vorhersage sozialer Phänomene mit Wahrscheinlichkeit, nicht mit logischer Sicherheit.


Bestandteile

  • Probabilistische Gesetz (PG): Gesetz in Form einer Wahrscheinlichkeit.

    • Beispiel: Bürger, die sich sehr für Politik interessieren, gehen wahrscheinlich wählen

  • Randbedingung: die nur für konkrete Situationen gelten

    • Beispiel: Max Mustermann interessiert sich sehr für Politik

  • Explanandum: zu erklärendes Phänomen

    • Beispiel: Max Mustermann beteiligt sich wahrscheinlich an den Wahlen

Heißt: Je höher die Wahrscheinlichkeit im Gesetz, desto wahrscheinlicher ist das Explanandum, aber keine Sicherheit.


Vergleich:

Merkmal

D-N-Modell

I-S-Modell

Gesetz

Allgemeingültig (Allaussage), zeitlich-räumlich unbeschränkt

Probabilistisches Gesetz (statistische Wahrscheinlichkeit)

Explanandum

Kann deduktiv abgeleitet werden

Kann nur mit Wahrscheinlichkeit prognostiziert werden

Sicherheit

Logisch zwingend

Nicht sicher, auch bei richtigem Explanans kann Explanandum falsch sein

Fachbegriff

D-N-Erklärung

I-S-Erklärung oder I-S-Begründung


Wissenschaftstheorie - Kritischer Rationalismus

Wissenschaftstheorie = „Aussagenbündel darüber, was Wissenschaft ist und wie sie vorzugehen hat“ (Gehring & Weins 2009).

Allgemeine Prinzipien für:

  • Formulierung inhaltlicher Theorien

  • Methodisches Vorgehen bei Untersuchungen

  • Synonyme: Metatheorien oder „Theorien über Theorien“

Funktion der Wissenschaftstheorie (Häder 2019)

  1. Beschäftigt sich mit der Logik des Forschens.

  2. Legt Spielregeln für wissenschaftliches Arbeiten fest und begründet sie.

  3. Vergleich: gutes Kochbuch – sagt nicht nur wie, sondern auch warum bestimmte Vorgehensweisen sinnvoll sind.

= Wissenschaftstheorie legt die Regeln und Prinzipien wissenschaftlichen Arbeitens fest, erklärt deren Begründung, und dient als Metaebene, um Theorien und Methoden systematisch zu gestalten.


Kritischer Rationalismus (Karl Popper)

Wissenschaft soll wahre Aussagen über die Realität machen — aber: absolute Wahrheit kann nie endgültig bewiesen werden

Stattdessen sollen Theorien kritisch geprüft werden und an Realität scheitern können.Nur so kann Wissenschaft lernen und Fortschritt erzeugen.

Merkmale:

  • Falsifizierbarkeit: Laut Popper sind nur Aussagen wissenschaftlich, die an der Realität überprüfbar sind und widerlegt (falsifiziert) werden können.

    • ungleich: Verifikation = Versuch, eine Aussage endgültig zu bestätigen („beweisen”)

  • Vorläufigkeit: Auch bestätigte Aussagen gelten nur vorläufig („bewährt“).

  • Empirischer Bezug: Begriffe beziehen sich auf beobachtbare Realität

  • Kritik statt Bestätigung: Ziel, Aussagen kritisch zu prüfen, statt blind zu bestätigen

Aber Achtung vor: Basissatzproblem

  • Basissatz: durch Konventionen beschlossene Festsetzungen, die sich auf intersubjetiv beobachtbare Sachverhalte beziehen.

  • Aussagen werden nicht direkt durch „die Realität“ geprüft, sondern durch Beobachtungssätze (Aussagen über Beobachtungen).

  • Diese Beobachtungssätze können fehlerhaft sein → eine direkte, unproblematische Prüfung ist nicht möglich.

Beispiel:

> Du kannst nie alle Raben der Welt sehen → also nie beweisen, dass alle schwarz sind.

> Aber: ein einziger weißer Rabe reicht, um die Aussage

Poppers Lösung

  • Beobachtungssätze (Basissätze) werden konventionell anerkannt: man akzeptiert sie per Beschluss vorläufig als Prüfgrundlage = Diese Anerkennung ist vorläufig

Praktische Konsequenzen für Forschende

  1. Intersubjektive Nachvollziehbarkeit:

    • Der gesamte Forschungsprozess muss so dokumentiert werden, dass Dritte nachvollziehen können, wie Ergebnisse zustande gekommen sind (Methoden, Entscheidungen, Kriterien).

  2. Methodische Sorgfalt:

    • Bei Datenerhebung und -auswertung sind die höchstmöglichen methodischen Standards anzuwenden, damit die Basissätze (Beobachtungen) so zuverlässig wie möglich sind.



10 Projektphasen sozialwissenschaftlicher Forschungsprojekte


Klärung, ob man Quantitativ oder Qualititativ forschen möchte. Unterschiede bestehen in der Art, wie man vorgeht (z. B. Datenerhebung, Analyse), aber:

  • Beide müssen Themen wählen, Begriffe klären, Daten erheben, auswerten und veröffentlichen. → Die Gemeinsamkeiten sind größer als die Unterschiede

Ablauf:

(1) Festlegung des Forschungsthemas

│Beispiel: „Politisches Vertrauen“ ist ein Thema – aber noch keine konkrete Forschungsfrage

(2) Auseinandersetzung mit dem Stand der Forschung

│ → Beide zusammen führen zu…

(3) Formulierung der Forschungsfrage

konkret und überprüfbar

(4) Konzeptspezifikation (Begriffsdefinition)

│Begriffe müssen präzise theoretisch geklärt werden, um eindeutig und messbar zu sein

  • Beispiel: Was meint man genau mit „Vertrauen“ oder „Legitimität“?

  • Alltagsbegriffe müssen in wissenschaftliche Konzepte übersetzt werden.

    • z. B. „Wutbürger“ → ein Konzept sozialer Proteste, das man empirisch untersuchen kann.

(5) Hypothesenbildung

│Hypothesen = theoriegeleitete Vermutungen über Ursache-Wirkungs-Zusammenhänge.

  • Wichtig: Hypothesen müssen falsifizierbar sein – also an der Realität scheitern können (Prinzip des Kritischen Rationalismus).

(6) Operationalisierung

│Übersetzung theoretischer Begriffe in beobachtbare Indikatoren, um Theorien empirisch messbar zu machen, über Korrespondenzregeln.

  • z. B. das theoretische Konzept „Vertrauen“ → messbar durch Fragen wie „Wie sehr vertrauen Sie der Regierung?“

(7) Prüfung: Liegen geeignete Daten vor?

├──► JA → (8) Sekundäranalyse

└──► NEIN → (9) Primäranalyse: Entwicklung eines Forschungsdesigns

│Wichtige Entscheidungen:

  1. Untersuchungsebene: Gesellschaft (Makro) oder Individuum (Mikro)?

  2. Art der Studie: Experimentell (Labor, Feld) oder nicht-experimentell (Querschnitt, Panel, Trend)?

  3. Zeitdimension: Einmalige oder wiederholte Erhebung?

  1. Ziel: Ein Design wählen, das zur Frage und zu den Ressourcen passt.

(10) Auswahlverfahren: Über wen/welche Einheiten will man Aussagen treffen?

|

(11) Datenerhebung:

Formen: Befragung, Beobachtung, Inhaltsanalyse

| Arten

  • Vollerhebung: z.B. Bundestagswahl: alle wahlberechtigten Bürger*innen

  • Vorteile: vollständige Datenbasis.

  • Nachteile: sehr aufwändig, oft nicht praktikabel, häufig unnötig.

  • Teilerhebung: nur einer Auswahl der Elemente der Grundgesamtheit als dominantes Verfahren in den Sozialwissenschaften.

    • Zufallsverfahren → nach mathematischem Zufallsprinzip.

      • repräsentativ, statistisch sauber.

    • Nicht-zufällige Verfahren → z. B. bewusste Auswahl (oft in qualitativer Forschung).

    • Stichprobe: Elemente aus der Grundgesamtheit nach festen Regeln ausgewählt

    • Willkürliche Auswahl: keine festen Regeln; Elemente werden frei oder opportunistisch gewählt.

(12) Datenaufbereitung & Datenanalyse

│Daten müssen bereinigt, strukturiert und ausgewertet werden.

  • Bereinigung = Fehlerkorrektur, Umgang mit fehlenden Werten usw.

  • Analyseverfahren hängen von Forschungsfrage & Datentyp ab (z. B. Regressionsanalyse, qualitative Inhaltsanalyse).

(13) Publikation der Ergebnisse

  • Ergebnisse müssen veröffentlicht werden, sonst tragen sie nicht zum wissenschaftlichen Fortschritt bei.

  • Typische Formen:

    • Abschlussbericht (oft intern)

    • Bücher, Zeitschriftenartikel (öffentlich & wissenschaftlich relevant)


Forschungsthema, Forschungsstand (Literaturrecherche) und Forschungsfrage

Das Forschungsthema bildet den Ausgangspunkt jedes Forschungsprojekts.

  • = grober Rahmen , ist aber noch keine ausreichende Arbeitsgrundlage.

  • Erst die Forschungsfrage macht ein Projekt konkret, überprüfbar und zielgerichtet.

  • Relevanz = entscheidend, damit die Arbeit nicht nur geschrieben, sondern auch gelesen wird (Stykow et al. 2010).

🔹 Vom Thema zur Frage – Vorgehen

  1. Themenwahl: Orientierung an persönlichem Interesse (Auftrag) und wissenschaftlicher Relevanz durch Auseinandersetzung mit bestehendem Forschungsstand

    • Dimensionen der Relevanz: Idealfall: Forschungsprojekt erfüllt beide Kriterien.

      • Theoretisch: Beitrag zum wissenschaftlichen Diskurs, zur Erweiterung des Wissens, Prüfung von Hypothesen, Verbesserung von Theorien oder Methoden

        • Empirische Prüfung ungetesteter Hypothesen

        • Aufdeckung von Inkonsistenzen in Theorien

        • Identifizierung empirischer Fälle, die Theorien bisher nicht erklären

        • Entwicklung klarer Konzepte oder Messinstrumente

        • Formulierung alternativer Erklärungen

        • Anwendung einer bestehenden Theorie auf neues Forschungsfeld

      • Gesellschaftlich: Bedeutung für die „reale Welt“, zum Verständnis und Vorhersage sozialer, politischer oder ökonomischer Phänomene, die viele Menschen betreffen

        • Wer ist betroffen? – Identifikation der betroffenen Personengruppen

        • Wie lassen sich die Effekte bewerten? – Analyse der Konsequenzen; Bewertung nach mehreren, explizit ausgewählten Maßstäben

        • Welche Ratschläge können erteilt werden? – Diskussion praktischer Implikationen; Empfehlungen müssen normativ fundiert und argumentativ nachvollziehbar sein

        • ⚠️ Appelle, persönliche Meinungen oder emotionale Kommentare gehören nicht in wissenschaftliche Texte.

      • Beispiel: Direkte Demokratie

        • Vorteile: politische Aufmerksamkeit, politisches Lernen, staatsbürgerliche Verantwortung („Schule der Demokratie“)

        • Problem: geringe Beteiligung → soziale Selektivität (überproportional Gebildete, Männer)

        • Bewertung abhängig vom Demokratieverständnis:

          • Liberales Modell: problematisch → verletzt politische Gleichheit

          • Elitäres Modell: positiv → qualifiziertere Entscheidungen

  2. Thema eingrenzen:

    • Breite Themen wie „soziale Ungleichheit“ → zu groß. Eingrenzen nach:

      • Ebene: lokal, national, international

      • Zeit: z. B. Entwicklung über die Jahre

      • Dimension: Mikro- oder Makroebene

    • oder Präzisierung durch Kombination von Kernbegriffen

      • z. B. statt „Wahlforschung“

      • → „Lokale Unterschiede der Wahlbeteiligung in Deutschland“.

  3. Forschungsstand analysieren:

    • Gibt Kenntnis über bestehende Erkenntnisse, Theorien und offener Fragen zum Erkennen von:

      • theoretischen Ansätzen

      • empirischen Ergebnissen

      • Forschungslücken

    • Vermeidung von Überschneidungen mit bereits erforschten Themen.

      • Auseinandersetzung mit dem Forschungsstand sichert den kumulativen Charakter der Wissenschaft → Forschung baut aufeinander auf (Lehnert et al. 2007).

    • Literaturrecherche gibt Überblick über den aktuellen Forschungsstand gewinnen.

      • = Grundlage für Formulierung der Forschungsfrage.

      • Wissenschaftliche Texte = Texte, die wissenschaftlich geprüft, nachvollziehbar und theoretisch fundiert sind.

      • Erkennbar an:

        • Literaturverzeichnis / Quellenangaben

        • Autorenschaft durch Fachwissenschaftler

        • Veröffentlichung in anerkannten wissenschaftlichen Verlagen oder Zeitschriften

      • Kriterien zur Bewertung von Fachliteratur

        • Zitierfähigkeit: Quelle ist öffentlich zugänglich und nachvollziehbar

        • Zitierwürdigkeit: Quelle erfüllt wissenschaftliche Qualitätsstandards

        • Relevanz: Quelle ist inhaltlich relevant zur Forschungsfrage

      • Leitfragen: Was suche ich? (Thema grob festlegen)→ Wo suche ich? (Rechercheorte & -mittel, Thema weiter eingrenzen)

      • Erst bei einer ungefähren Forschungsfrage → systematische Recherche (nach Stykow)

        • wenn alle verfügbaren Bibliotheks- und elektronischen Recherchemittel konsequent genutzt werden, um sämtliche Erscheinungsformen wissenschaftlicher Information abzudecken

      • Arten wiss. Fachliteratur

        • Monografie: Buch zu einzelnem Thema oder Forschungsproblem, unterteilt in:

          • Lehrbücher: Überblick & Grundlagen (z. B. Diekmann 2011; Schnell et al. 2023)

          • Studien: spezifische Forschungsfragen, oft aus Dissertationen/Habilitationen

          • Schlüsselwerke: prägende Klassiker (z. B. Almond & Verba 1963, Huntington 1996, Lijphart 1999)

          • Rechercheort:

            • Online-Kataloge der Universitätsbibliotheken

              • OPAC (Online Public Access Catalogue)

            • KVK (Karlsruher Virtueller Katalog: Meta-Suchmaschine, durchsucht mehrere Bibliothekskataloge gleichzeitig.

            • BASE (Bielefeld Academic Search Engine): Eine der weltweit größten Suchmaschinen für wissenschaftliche Web-Dokumente (> 340 Mio.).

            • Pollux (FID Politikwissenschaft): Fachinformationsdienst speziell für Politikwissenschaft, ca. 12 Mio. Nachweise.

        • Sammelbände: Sammlung mehrerer Beiträge verschiedener Autoren

          • Herausgegeben von Fachwissenschaftlern

          • z.B. Handbuch empirische Sozialforschung (Baur & Blasius 2022)

          • Rechercheort: wie Monografie

        • Fachzeitschriften: z.B: Kölner Zeitschrift für Soziologie und Sozialpsychologie (KZfSS)

          • Fachaufsätze = zentrale Kommunikationsmedium, i.F. aktuellste und verlässlichste Quelle für neue Forschungsergebnisse

          • Rechercheort:

            • Web-of-Science

            • SSCI (Social Science Citation Index): Wichtigste Fachdatenbank der Sozialwissenschaften.

            • IBZ: monatlich aktualisiert > 3,5 Mio. Aufsätze aus 11.500 Zeitschriften (seit 1983) ABER nicht alle Zeitschriften erfüllen wissenschaftliche Standards

            • JSTOR: Online-Archiv älterer Fachzeitschriftenausgaben.

        • Statistiken & Forschungsdaten:

          • Amtliche Statistiken:

            • Statistischen Bundesamt

            • Eurostat

            • OECD

            • Weltbank

            • ACHTEN AUF Datenharmonisierung bei internationalen Vergleichen

            • als PRIMÄRQUELLEN bevorzugt

          • Komerzielle Datenportale: Statista

          • Sozialwissenschaftl. Datensätze: von Forschungsinstituten

            • z.B. Gesis: größte deutsche Infrastruktureinrichtung für Sozialwissenschaften

            • Politbarometer

            • ALLBUS

            • Grundlage für empirische Sekundäranalysen

      • Formen der Literaturübersicht:

        • Narrative Review (traditionelle Literaturübersicht):

          • unsystematisch / subjektiv, Typisch für theoretisch-argumentative Arbeiten

        • Systematic Review (systematische Literaturübersicht)

          • Auswahl: nach festgelegten Kriterien (Ein-/Ausschlusskriterien, Datenbanken, Suchbegriffe) = transparent und nachvollziehbar für objektive Zusammenfassung des Forschungsstands

          • Grundlage häufig für Metaanalysen oder quantitative Vergleiche

      • Wichtige Begriffe bei Recherche:

        • Open Access: Freier und kostenloser Zugang zur Maximierung der Verbreitung

        • DOI (Digital Objekt Identifier): Dauerhafte, eindeutige Kennung zur Online-Version eines Dokuments

      • Zentrale Prinzipien:

        • Primärquellen vor Sekundärquellen!

        • Kombination mehrerer Recherchemittel notwendig.

        • Abstracts helfen bei schneller Relevanzbewertung.

        • Zitationshäufigkeit (Times Cited) = Indikator für Bedeutung eines Werks.

        • VPN-Verbindung oft nötig für Volltextzugriff.

  4. Entwicklung der Forschungsfrage:

    • Leitet sich aus Lücken oder offener Probleme des Forschungsstands ab.

    • Muss präzise, forschungsleitend und beantwortbar sein und dient Strukturierung des gesamten Projekts (Theorie, Methode, Analyse).

    • Grundformen

      • Deskriptiv: meist WIE-Fragen zur Erfassung & Darstellung von Fakten

      • Erklärend (analytisch): meist WARUM-Fragen zur Untersuchung von Ursachen und Zusammenhängen

        • In den Sozialwis. zentral!

    • Strategien zur Entwicklung nach Westle & Stykow

      • Identifizierung neuer Phänomene: Gesellschaftliche, technologische oder ökonomische Veränderungen führen zu neuen Fragestellungen.

        • Beispiel: Wie beeinflusst das Internet die politische Partizipation?

      • Theorienkonkurrenz: Vergleich unterschiedlicher theoretischer Ansätze zur Erklärung eines Phänomens; empirische Überprüfung, welche Theorie zutreffender ist.

        • Beispiel: Welcher Ansatz erklärt am besten die Zustimmung zur EU? (Gabel 1998)

      • Identifizierung wissenschaftl. Rästel (puzzles): Überraschende empirische Befunde, die bestehenden Theorien widersprechen → Erklärungsbedarf.

        • Beispiel: Warum fördert das Internet nicht die politische Partizipation, obwohl es Informationskosten senkt?

      • Zentrale Methode: Formulierung einer Warum-Frage, um Diskrepanzen zwischen Theorie und Empirie zu erklären.

    • Dimensionen der Relevanz einer Forschungsfrage

      • Theoretische Relevanz

      • Gesellschaftliche Relevanz

    • Kriterien für eine gute Forschungsfrage

    1. Klarheit: eindeutig und verständlich formuliert

    2. Begründbarkeit: theoretisch und empirisch relevant

    3. Machbarkeit: im Rahmen des Projekts bearbeitbar

    4. Prüfbarkeit: empirisch untersuchbar (z. B. durch Daten)

    5. Bezug zur Theorie: knüpft an bestehende Forschung an


Merksätze:

  • Forschungsfragen entstehen nicht aus dem Bauchgefühl, sondern aus dem Forschungsstand.

  • Deskriptive Fragen sind Basiswissen – erklärende Fragen treiben Forschung voran.

  • Gute Fragen beginnen mit „Warum“ und zielen auf Kausalzusammenhänge.

  • In Hausarbeiten steht die Reflexion und Anwendung existierender Literatur im Mittelpunkt, nicht originäre Forschung.

  • Forschungsfrage grenzt das Projekt ein, bearbeitet ein Problem und wird als Frage formuliert.



Hypothesen

= (begründete) Annahmen über erwartete Zusammenhänge von mind. zwei Merkmalen realer Sachverhalte in Form von abhängigen und unabhängigen Variablen, die abgeleitet aus Theorie und Forschung sind, mit dem Ziel, Zusammenhänge dieser Merkmale zu bestätigen oder zu widerlegen.

  • Unterschied zu Alltagsvermutungen: Bezieht sich auf reale, empirische Zusammenhänge, nicht nur persönliche Meinung.

Merkmale/ Kriterien nach Bortz und Döring

  1. Bezug auf reale, empirisch untersuchbare Sachverhalte

  2. Generalisierbar über den Einzelfall hinaus, i.F. allgemeingültiger Aussage

  3. Konditionalstruktur vorhanden (Wenn-dann / Je-desto)

  4. Falsifizierbar durch empirische Daten

  5. (Begründbarkeit durch Argumentation über Zusammenhänge von Variablen)

Arten von Hypothesen

  • Deterministisch → strikter Zusammenhang, z. B. „A führt immer zu B“ (typisch in Naturwissenschaften)

    • bereits ein Gegenbeispiel widerlegt die Hypothese

  • Probabilistisch → Zusammenhang in Wahrscheinlichkeit (typisch in Sozialwissenschaften, da menschliches Verhalten nie deterministisch erklärbar ist.)

  • Nullhypothese (H0): formuliert keinen Zusammenhang mehrer Merkmale

    • Beispiel: Zwischen Bildung und Einkommen besteht kein Zusammenhang

  • (Forschungs-)/Alternativhypothese (H1): Behauptet positiven/ negativenZusammenhang

    • z.B. „Je höher/niedriger die Bildung, desto höher/niedriger das Einkommen

  • Vorgehen: Forschungshypothese wird durch Aufstellen einer Nullhypothese getestet

Formen von Hypothesen

  • Wenn-dann-Hypothese → „Wenn X, dann Y“

    • Für dichotome Merkmale (z.B. Geschlecht, Region)

    • Beispiel: „Wenn das Geschlecht weiblich ist, dann ist das politische Wissen geringer als bei Männern.“

  • Je-desto-Hypothese → „Je mehr X, desto stärker Y“

    • Für metrische oder ordinale Merkmale

    • Beispiel: „Je höher die Bildung, desto höher das Einkommen.“

    • Positive oder negative Zusammenhänge möglich

Zusammenhänge zwischen diesen Variablen

= ist meist linear, können aber auch nicht-lineare auftreten, z.B.

  • U-förmige Zusammenhänge: z. B. Arbeitszufriedenheit vs. Aufstiegschancen (Diekmann 2011, Stouffer 1949)

    • Mittlere Aufstiegschancen → geringere Zufriedenheit als bei sehr niedrigen oder hohen Chancen

  • Exponentiell steigende Zusammenhänge: z. B. beim Lernen einer Fremdsprache → Wissen wächst zunächst langsam, dann schneller

  • Logarithmisch steigende Zusammenhänge: z. B. Bildung vs. Einkommen → erste Bildungsjahre haben stärkeren Effekt als spätere

    • (Bild: siehe Quantitative Sozialforschung S. 82)


Analytische Ebene einer Hypothese

Zusammenhänge zwischen Merkmalen als uV → aV

  1. Analytische Ebenen: Mikro/ Makro/ Meso

    • Individualhypothese: uV und aV auf Mikroebene

      • Ziel: Faktoren identifizieren, die Unterschiede zwischen Individuen erklären

      • Forschungsstrategie: Individualdatenanalyse

      • Typische Merkmale: Geschlecht, Alter, Bildung, Einkommen, Einstellungen, Verhalten

        • Beispiel: „Je größer die Bildung, desto höher das Einkommen“

    • Kollektivhypothese: uV und aV auf Makroebene

      • Ebene bestimmt Forschungskontext: lokal, regional, national, international

      • Analysestrategie: Aggregatdatenanalyse aus zB amtliche Statistiken (z. B. Statistische Ämter, Eurostat)

      • Vorteile: schnell verfügbare Daten, geringe Erhebungsfehler, langfristige Entwicklungen abbildbar

      • Problem: ökologischer Fehlschluss → Übertragung von Makro- auf Individualebene kann falsch sein

        • Beispiel: „Je höher Arbeitslosenquote, desto geringer Wahlbeteiligung“

    • Kontexthypothesen: uV auf Makroebene, aV auf Mikroebene = Makro-Faktor beeinflusst individuelles Verhalten

      • Bsp.: Je größer die Klassengröße (uV), desto geringer die Testpunktzahl (aV)

Allgemein gilt: Zusammenhänge auf der Makroebene nicht auf die Mikroebene übertragen. Für Individualanalysen sind Individualdaten erforderlich

  • Beispiel: Feststellung, dass in Regionen mit hoher Arbeitslosigkeit die Wahlbeteiligung gering ist.→ heißt nicht, dass arbeitslose Individuen seltener wählen.Vielleicht leben dort viele politisch frustrierte Menschen, oder es gibt regionale Effekte, die gar nichts mit individueller Arbeitslosigkeit zu tun haben.

  • = Makro-Zusammenhang ≠ Mikro-Zusammenhang.

Fehlschlüsse zwischen Analyseebenen

  1. Ökologischer Fehlschluss: Makro->Mikro.

    Beispiel: Wenn Länder mit höherer Arbeitslosigkeit eine höhere Kriminalitätsrate haben, bedeutet das nicht, dass arbeitslose Individuen eher kriminell sind. Zusammenhang auf Länderebene muss nicht auf die individuelle Ebene übertragbar sein (Armut, Ausschluss, etc)

  2. Individualistischer Fehlschluss: Mikro->Makro

    Beispiel: Wenn gebildete Menschen tendenziell toleranter sind, heißt das nicht, dass eine Gesellschaft mit höherem Bildungsniveau automatisch toleranter ist — kollektive Dynamiken (z. B. soziale Normen, politische Strukturen) spielen eine eigene Rolle.

  3. Naturalistischer Fehlschluss: Vom „Sein“ auf „Sollen“ - wenn man aus empirischen Tatsachen (deskriptiven Aussagen) direkt normative Schlussfolgerungen zieht

    Beispiel: „Menschen sind egoistisch, also soll man egoistisch sein - Nur weil etwas ist, soll es nicht so sein.

  4. Normativer Fehlschluss: Vom „Sollen“ auf „Sein“ -

    Beispiel: “Alle Menschen sind gleich, also werden alle gleich behandelt.“ - Nur weil etwas sein soll, ist es nicht so.

Lösung: Colemans Badewanne (Makro-Mikro-Makro-Puzzle)

  • zeigt, wie Makro-Phänomene über Mikroprozesse (individuelles Handeln) auf neue Makro-Ergebnisse wirken: Makro → Mikro (Situationslogik) → Makro (Selektionslogik).


Analysestrategie die beide Ebenen gleichzeitig berücksichtigen:

  • Kontextanalyse (auch: Mehrebenenanalyse oder Multilevel Analysis)= statistisches Verfahren, das simultan Effekte auf mehreren Ebenen schätzt

    • Mikroebene: Individuen (z. B. Personen, Schüler, Wähler)

    • Makroebene: Kontexte (z. B. Länder, Schulen, Wahlkreise)

  • und so Cross-Level-Interaktionen identifizieren kann

Prinzip: Individuelles Verhalten hängt nicht nur von individuellen Merkmalen ab, sondern auch vom Kontext, in dem Menschen leben. → Ein Kontextfaktor verändert die Wirkung eines Individualfaktors auf ein individuelles Verhalten.


Schulbeispiel: Testleistung hängt also von individuellen Merkmalen und von Kontextmerkmalen ab

  • Mikro: Schüler (Interesse, Intelligenz, Motivation)

  • Makro: Klasse (Klassengröße, Lehrstil, Zusammensetzung)

Arbeitslosenwahlverhalten Beispiel:

Makroebene: In Wahlkreisen mit höherer Arbeitslosigkeit ist die Wahlbeteiligung niedriger.

Mikroebene: Wie beeinflusst individuelle Arbeitslosigkeit die Wahrscheinlichkeit zu wählen?

Cross-Level-Beispiel: zeigt, dass der Zusammenhang zwischen individueller Arbeitslosigkeit (Mikro) und Wahlbeteiligung (Mikro) durch die regionale Arbeitslosenquote (Makro) moderiert wird.

  • Hängt der Effekt individueller Arbeitslosigkeit vom Kontext der Arbeitslosenquote ab?

  • Mögliche Hypothese:

    • Variante 1: „Je höher die Arbeitslosenquote in einer Region ist, desto geringer unterscheidet sich die politische Beteiligung von Arbeitslosen und Erwerbstätigen.“

    • Variante 2: „Je höher die Arbeitslosenquote in einer Region ist, desto stärker unterscheidet sich die politische Beteiligung von Arbeitslosen und Erwerbstätigen.“



Konzeptspezifikation

Elemente eines Konzepts (Gerring 2001)

  1. Term: Name/Label des Konzepts (z. B. „Politikverdrossenheit“)

  2. Intension: Menge notwendiger und hinreichender Eigenschaften eines Konzepts

    • Beispiel „Auto“: Motor, Räder, Türen

  3. Extension: Menge aller realen Fälle, die diese Eigenschaften erfüllen.

    • Beispiel „Auto“: alle realen Fahrgeräte mit Motor, Rädern und Türen

Merksatz: Je mehr Eigenschaften (Intension), desto weniger Fälle (Extension) – und umgekehrt.


Warum Konzeptspezifikation?

  • Viele sozialwissenschaftliche Begriffe (z. B. Politikverdrossenheit, Vertrauen, politische Beteiligung) stammen aus dem Alltag.

  • Alltagssprache ist oft mehrdeutig, wertend und unpräzise → keine einheitliche Definition.

  • Problem: Unscharfe Begriffe führen zu:

    • Schwieriger Interpretation empirischer Befunde

    • Unklaren Hypothesen

    • Eingeschränkter kumulativer Forschung

> „Concepts are central to the enterprise of political science. The concepts we use shape the world we see… Without solid conceptual foundations, the edifice of political science is insecure.“ (Schedler 2011, S. 370-371)

> „Concept formation thus lies at the heart of all social science endeavor… It is impossible even to conceptualize a topic, as the term suggests, without putting a label on it.“ (Gerring 2001, S. 35)


Ziel der Konzeptspezifikation

  • Begriffe eindeutig definieren, um sie von ähnlichen Konzepten abzugrenzen

  • Grundlage für:

    • Empirische Forschung

    • Hypothesenformulierung

    • Valide Operationalisierung

  • Ziel: Identifikation, Definition und systematischer Vergleich relevanter Konzepte.


Grundprinzipien guter Konzeptspezifikation

  • Eindeutige Definition: Begriff klar beschreiben

  • Abgrenzung: Ähnliche Begriffe differenzieren

  • Operationalisierung: Messbare Indikatoren ableiten

  • Empirische Relevanz: Begriff erlaubt konkrete Hypothesen und Forschung

Qualitätsmerkmale

  • Präzision: Wie genau lässt sich ein Objekt oder Ereignis dem Konzept zuordnen?

  • Eindeutigkeit: Konsistente Verwendung des Konzepts durch verschiedene Personen

  • Adäquatheit: Passung von Intension und Extension; das Konzept umfasst relevante Objekte, aber nicht zu viele oder zu wenige

Vier Schritte der erfolgreichen Konzeptspezif. (Wonka 2007)

= zeigt, was untersucht wird, wie es verstanden wird und warum es so sinnvoll ist

  1. Identifikation → Was untersuche ich?

    • Ausgangspunkt: Forschungsthema bzw. Forschungsfrage mit zentralen Konzepten = meist abhängige und unabhängige Variablen.

    • Ziel: Festlegen, welche Schlüsselbegriffe die Untersuchung strukturieren.

    • Beispiele:

      • Forschung zu sozialem Vertrauen → Konzept „Soziales Vertrauen“

      • Forschung zu Europäisierung → Konzept „Europäisierung“

  1. Spezifikation der Literaturprüfung → Wie wird es bisher verstanden?

    • Orientierung an etablierten Konzepten der Disziplindurch intensive Literaturrecherche → kumulatives Wissen

    • Bei unterschiedlichen Bedeutungen:

      • passendste Spezifikation für Forschungsfrage auswählen und begründen.

      • Falls nötig → Re-Spezifizierung (Anpassung an neuen Kontext).

  1. Intension offenlegen → Wie definiere ich es selbst?

    • Wichtig: Bedeutung und Attribute des Konzepts klar darstellen. Beispiel: „Sozialkapital“ (Bourdieu vs. Putnam).

    • Ziel: Intersubjektive Nachvollziehbarkeit → Grundlage für wissenschaftlichen Diskurs

  1. Prüfung → Ist es präzise, eindeutig, adäquat?

    1. Präzision: Wie genau ist das Konzept definiert?

    2. Eindeutigkeit: Wird es konsistent verwendet?

    3. Adäquatheit: Passt es zur Forschungsfrage?

  • Zweckmäßigkeit der Spezifikation ist kontextabhängig – sie kann nur im Hinblick auf das konkrete Forschungsthema beurteilt werden.


Negativ-Beispiel: Politikverdrossenheit

  • Heterogenes Konzept (Arzheimer 2002):

    • Objekte: Parteien, Politiker, Regierung, Demokratieprinzip, Verwaltungen, Kirchen, Gewerkschaften

    • Einstellungen: Unzufriedenheit, Enttäuschung, Misstrauen, Desinteresse, Angst, manchmal politisches Interesse

  • Problem: keine einheitliche Definition → unklare empirische Forschung

  • Lösung: Präzisere Konzepte nutzen, z. B. politische Unterstützung

Positiv-Beispiel: Politische Unterstützung (Easton 1965)

  • Objekte politischer Unterstützung:

    1. Politische Gemeinschaft

    2. Politisches Regime

    3. Politische Autoritäten

  • Arten politischer Unterstützung:

    • Spezifisch: abhängig von Leistungen der Institution

    • Diffus: unabhängig von konkreten Leistungen

  • Bedeutung:

    • Zentral in der empirischen Demokratieforschung

    • Grundlage für zahlreiche Weiterentwicklungen (z. B. Fuchs 1989; Norris 1999; Braun & Schmitt 2009)


Praxisbezogenheit:

  • Begriffe müssen definiert und abgegrenzt werden, bevor sie empirisch untersucht werden.

  • Beispiel „Politikverdrossenheit“: heterogen, unklar → ersetzt durch präzisere Konzepte wie politische Unterstützung (Easton 1965).

  • Wissenschaftliche Begriffe ermöglichen:

    • Formulierung gehaltvoller Hypothesen

    • Validierbare Operationalisierung

    • Kumulative Forschung


Zentrale Schwierigkeiten:

  • Gleicher Begriff, unterschiedliche Bedeutung (Intension)

    • Viele Konzepte nutzen denselben Begriff, aber unterschiedliche Definitionen (Attribute).

    • Beispiel: „Sozialkapital“

      • Bourdieu (1983): Ressourcen durch Zugehörigkeit zu Netzwerken („Vitamin B“)

      • Putnam (2000): Netzwerke, Normen & Vertrauen als Quelle sozialer Kooperation

    • → Beide nutzen denselben Term, aber mit verschiedener Intension.

    • Konsequenz: Begriffliche Unklarheit, Missverständnisse, nicht vergleichbare Forschung.

    • Lösung: Offenlegung der verwendeten Konzeptspezifikation im Forschungsprozess.

  • Kontextabhängigkeit der Konzepte → evtl. Re-Spezifizierung nötig

    • Konzepte sind oft zeitlich oder räumlich gebunden.

    • Bei Anwendung in anderem Kontext → prüfen, ob Konzept noch passend („Fit“)

      • Wenn nicht: Re-Spezifizierung erforderlich

        • = Anpassung eines Konzepts an neuen Untersuchungsgegenstand, z. B. durch Änderung oder Erweiterung der Attribute.

        • Beispiel:

          • Früher: Nur Wahlbeteiligung (Verba & Nie 1972)

          • Erweiterung auf alle freiwilligen Tätigkeiten zur Einflussnahme auf Politik→ z. B. Demonstrationen, Unterschriftenaktionen (Kaase 1995)

          • Später: Diskussion über individualisierte Formen (politischer Konsum, Online-Aktivismus)→ erneute Re-Spezifizierung (van Deth 2014 ff.)

      • Gefahr: falsche analytische Erfassung und fehlerhafte Schlussfolgerungen (Wonka 2007)

    • = Konzepte sind nie „neutral“ → Bedeutung hängt vom theoretischen Kontext ab.

    • Offenlegung, Präzisierung und Kontextanpassung sind entscheidend für wissenschaftliche Nachvollziehbarkeit.

    • Re-Spezifizierung hält Konzepte anschlussfähig und empirisch brauchbar.



Operationalisierung

= Zuordnung eines/ mehrerer messbarer Indikator(en) zu einem theoretischen Konzept, um theoretische Hypothesen empirisch überprüfbar zu machen.

  • Voraussetzung: abgeschlossene Konzeptspezifikation

  • Auswahl von Indikatoren muss begründet und überprüfbar sein


Herausforderungen:

Indikatoren sind häufig umstritten

  • Theoretische Konzepte können unterschiedlich verstanden oder operationalisiert werden

    • Konsequenz: Empirische Ergebnisse unterscheiden sich

  • Literaturrecherche entscheidend → alternative Operationalisierungen prüfen und gegeneinander abwägen


Begriffsdefinitionen

  • Messen = Zahlen zuweisen, die die Struktur der Merkmale widerspiegeln, um zu zeigen, wie die Merkmalsausprägungen zueinander stehen.

    • Definitionen:

      • Stevens (1946): „Assignment of numerals to objects or events according to rules“ → Zahlen werden Merkmalen von Objekten zugeordnet, nicht den Objekten selbst

      • Kromrey et al. (2016): „Zuweisung von Ziffern zu Objekten entsprechend den Ausprägungen der betrachteten Merkmale“

    Merksatz: Ohne klare Regeln für die Zuordnung von Zahlen ist die Messung nicht valide.

  • Korrespondenzregeln = Regeln, nach denen wir entscheiden, welcher Indikator zu welchem Konzept gehört und wie er gemessen wird.

    • Rangordnung (Isomorphismus)

    • Ähnlichkeiten (Homomorphismus)

    • Intervalle (z.B. Sehr zufrieden, bis sehr unzufrieden)

    • Absolute Werte (z.B: Körpergröße, Einkommen in EUR)

    • Dummy-Kodierung/ Dichotomisierung (z.B Geschlecht in 0 und 1)

    • Skalenbildung durch Summierung (Mehrere Indikatoren werden zu einem Index zusammengefasst.)

      • Beispiel: Politische Partizipation = Summe von Aktionen (Wählen, Demonstrieren, Unterschriften)

    • Invertierung (Skalen falsch herum kodiert)

      • Beispiel: Zustimmung zu einer Aussage:

        • 1 = stimme völlig zu

        • 5 = stimme überhaupt nicht zu

      • 5 ist höher aber hat am wenigsten Zustimmung

  • Arten der Abbildung einer durch Indikatoren zugeordneten Merkmalsausprägung

    • Morphismen = strukturerhaltende Abbildung von empirischen Merkmalen (z. B. Schulabschlüssen) die Zahlen zugeordnet sind, die die hierarchische/relative Ordnung/ Beziehungen der Merkmalsausprägungen korrekt widerspiegeln

      • Isomorphismus: für exakte Rückschlüsse und feine Analysen

        • Jede Merkmalsausprägung bekommt eine eigene Zahl zugeordnet = Eindeutige, wechselseitige Zuordnung von Merkmalen zu Zahlen

          • Beispiel: Schulabschluss -> Ohne Abschluss 0, Hauptschule 1, Realschule 2….in Rangfolge

      • Homomorphismus: für Gruppierung, Vereinfachung, praktische Handhabbarkeit

        • Mehrere Merkmalsausprägungen erhalten dieselbe Zahl, man kann nicht exakt zurückschließen.

          • Beispiel: Schulabschlüsse → „kein Abschluss 0 / mittlerer Abschluss (Hapt- und Realabschluss) 1 / hoher Abschluss (Abitur, Fachabitur) 2“

    • Skalen = strukturtreue Abbildung eines empirischen Relativs in ein numerisches Relativ.

      • Wichtig: Höheres Skalenniveau → mehr Informationsgehalt → mehr statistische Auswertungsmöglichkeiten.

      • Reihenfolge der Skalenniveaus: <

        • Nominalskala = Unterscheidung von Objekten/Kategorien, keine Rangordnung

          • Beispiel: Geschlehct, Konfession

          • Auswertungsmöglichkeiten: Zählen, Modus

        • Ordinalskala = Objekte können durch Zahlen in Rangfolge gebracht werden, spiegeln aber Abstände nicht gleich wieder

          • Beispiel: Schulnoten, politisches Interesse (sehr stark → überhaupt nicht)

          • Tipp: Bei >5 Ausprägungen (z. B. „überhaupt nicht, wenig, mittel, stark, sehr stark“).

            • Äquidistanz = Man geht davon aus, dass die Abstände zwischen den einzelnen Antwortoptionen gleich groß sind, z. B. der Unterschied zwischen „mittel“ und „stark“ ist derselbe wie zwischen „stark“ und „sehr stark“.

            • Intervallannahme = behandelt man die ordinalen Daten wie Intervallskalen, sodass man z. B. Mittelwert oder Standardabweichung berechnen kann.

            • Auswertungsmöglichkeiten: Rangstatistiken, Median

        • Intervallskala = Reihenfolge + gleiche Abstände zwischen den Werten. Unterschiede interpretierbar, kein natürlicher Nullpunkt

          • Beispiele: Temperatur 0°C NICHT gleich keine Temperatur, sondern Gefrierpunkt

          • = Deshalb kann man hier keine sinnvollen Quotienten bilden (z. B. „20 °C ist doppelt so warm wie 10 °C“ ist falsch, weil 0 °C ist nicht das „Nicht-Temperatur“, es ist einfach ein Messpunkt.)

          • Auswertungsmöglichkeiten: Mittelwert, Standardabweichung, Korrelation

        • Ratio-/ Verhältnisskala = Reihenfolge + gleiche Abstände + natürlicher Nullpunkt i.F. absoluter Werte interpretierbar → sinnvolle Quotienten

          • Einkommen: 0 € = Person hat kein Einkommen.

          • Körpergröße: 0 cm = keine Länge vorhanden ist.

          • Anzahl Bücher: 0 Bücher = keine Bücher.

          • Auswertungsmöglichkeiten: alle metrischen Verfahren + Verhältnisse

    • Skalenniveaus von Variablen

      • Nominalskala = kategorische Variablen

        • Merkmal: Keine Rangordnung, man kann nur Gleichheit oder Unterschied feststellen.

        • Beispiel-Varialen:

          • Geschlecht (m/w/divers)

          • Partei (SPD, CDU, Grüne)

          • Haustier (Hund, Katze, Vogel)

      • Ordinalskala = Rangvariablen

        • Merkmal: Reihenfolge ist relevant, aber Differenzen nicht exakt messbar.

        • Beispiele:

          • Schulnoten (1, 2, 3…)

          • Zufriedenheit (sehr unzufrieden – unzufrieden – neutral – zufrieden – sehr zufrieden)

          • Politikinteresse (gering – mittel – hoch)

      • Intervallskala = Variablen mit geordneter Reihenfolge und gleichen Abständen zwischen den Werten, aber kein absoluter Nullpunkt

        • Merkmal: Man kann Differenzen berechnen, aber Verhältnisse sind nicht sinnvoll (z.B. 40°C ist nicht „doppelt so warm“ wie 20°C).

        • Beispiele:

          • Temperatur in °C (0°C bedeutet nicht „kein Temperaturwert“)

          • IQ-Werte

      • Ratioskala = Variablen mit geordneter Reihenfolge, gleichen Abständen und absolutem Nullpunkt, d.h. 0 bedeutet „kein Vorhandensein des Merkmals“.

        • Merkmal: Man kann Differenzen und Verhältnisse sinnvoll berechnen.

        • Beispiele:

          • Einkommen

          • Alter

          • Gewicht

          • Anzahl Kinder

      • Metrische Variablen = Sammelbegriff für Intervall- und Ratioskala, weil beide arithmetische Operationen wie Mittelwert, Standardabweichung, Regression zulassen.

    • Skalenkonstruktion

      • Zweck: Innerhalb eines Konzepts mehrere Items kombinieren, um ein komplexes Konstrukt zu erfassen.

      • Indikatorenart: Reflektive Indikatoren → alle Items messen dasselbe Konzept.

      • Beispiel: European Social Survey – Soziales Vertrauen

        • Vertrauenswürdigkeit (1–10)

        • Fairness (1–10)

        • Hilfsbereitschaft (1–10)

      • Eigenschaften:

        • Höhere Werte bei allen Items → höherer Wert des Gesamtkonzepts

        • Zusammenfassung der Items durch Summe oder Mittelwert

        • Ziel: Items können verschiedene Facetten desselben Konzepts erfassen

      Indexbildung

      • Zweck: Mehrere Items/Datenpunkte zu einem neuen Konstrukt zusammenfassen, das verschiedene Dimensionen(Konzepte) abbildet.

      • Indikatorenart: Formative Indikatoren -> INdikatoren formen das Konzept

      • Konzept: Resultiert aus den Indikatoren, nicht umgekehrt.

      • Beispiel: Sozioökonomischer Status / Human Development Index (HDI)

        • Dimension 1: Bildung, Schulabschluss (Ordinalskala)

        • Dimension 2: Einkommen, Euro pro Monat (Ratioskala)

        • Dimension 3: Beruf, Prestige oder Rang (Ordinal-/Nominalskala)

      • Vorgehen:

        1. Alle Werte auf vergleichbare Skala bringen (z. B. 0–10)

        2. Zusammenfassen durch Addition oder gewichteten Durchschnitt

        3. Ergebnis: Indexwert, der die verschiedenen Dimensionen quantitativ abbildet


Ablauf der Operationalisierung

  1. Theoretisches Konzept klären → Welche Bedeutung hat z. B. „Bildung”?

  1. Geeignete Indikatoren auswählen → Welche beobachtbaren Merkmale erfassen das Konzept am besten? Durch:

  2. Korrespondenzregeln festlegen → Verknüpft Konzept mit empirischem Indikator

    • legen fest, welcher beobachtbare Sachverhalt (Indikator) zu welchem theoretischen Konzept gehört

    • Bspw: Schulabschluss 1-5

  3. Empirische Messung durchführen → Datenerhebung (z. B. Befragung, Test, Statistik)

  4. Gütekriterien prüfen

    • Objektivität: Unabhängigkeit vom Forschenden, wenn verschiedene Personen mit dem gleichen Messinstrument zum gleichen Ergebnis kommen

      • Durchführungsobjektivität

      • Auswertungsobjektivität

      • Interpretationsobjektivität

    • Reliabilität: Zuverlässigkeit, indem Messwerte sich bei wiederholter Messung zum gleichen Ergebnis führen

      • Klassische Testtheorie: x = t + e

        • x = gemessener Wert

        • t = true Score (wahrer Wert)

        • e = Messfehler (z.B. Reaktionszeit beim Stoppen einer Zeit oder Versprecher in einem Fragebogen)

      • = Messung wird reliabel, wenn Fehler bei wiederholten Messungen sich ausgleichen.

      • Methoden:

        • Test-Retest-Methode:

          • Gleiches Messinstrument, gleiche Personen, zwei Zeitpunkte.

          • Problem: Konzept muss zeitlich stabil sein.

        • Paralleltest-Methode:

          • Zwei unterschiedliche Instrumente messen dasselbe Konzept.

          • Problem: hoher Aufwand und schwer vergleichbare Instrumente.

        • Testhalbierung / Cronbachs Alpha:

          • = Viele Konzepte in der Sozialforschung sind nicht direkt messbar, z. B. „soziales Vertrauen“ oder „kognitive Mobilisierung“. Deshalb wird ein Konzept über mehrere Fragen (Items) erfasst.

            • Beispiel: Soziales Vertrauen (3 Fragen im ESS, Skala 0–10).

              1. „Glauben Sie, dass man den meisten Menschen vertrauen kann?“

              2. „Versuchen die meisten Menschen, Sie auszunutzen, oder fair zu sein?“

              3. „Versuchen die meisten Menschen eher hilfsbereit zu sein oder auf den eigenen Vorteil bedacht?“

          • Idee: Wer bei einer Frage hohe Werte angibt, sollte bei den anderen Fragen ähnlich hohe Werte angeben – die Antworten hängen also zusammen, weil sie dasselbe Konzept messen.

          • Die Items werden in zwei Hälften geteilt (z. B. Fragen 1–2 vs. 3). Dann wird geprüft, wie stark die beiden Hälften zusammenhängen.

          • Wenn die Antworten stark zusammenpassen → Messung ist reliabel.

          • Cronbachs Alpha = Reliabilitäskoeffizient: 0–1, alles bis >0,8 gilt als akzeptabel.

          • Heißt: Cronbachs Alpha <0,7 → eher niedrig, Messinstrument überdenken

    • Validität: Es wurde gemessen, was auch gemessen werden sollte

      • Inhaltsvalidität = Alle Dimensionen eines Konzepts werden abgedeckt.

      • Kriteriumsvalidität = Vergleich des eigenen Instruments mit einem etablierten Messinstrument.

      • Konstruktvalidität =prüft, ob ein Messinstrument theoretisch sinnvolle Zusammenhänge zeigt.

        • durch Bestätigung mehrerer Hypothesen → Hinweise auf hohe Konstruktvalidität

        • Beispiel:

          • Je höher die kognitive Mobilisierung, desto größer das politische Vertrauen.

          • Je höher die kognitive Mobilisierung, desto stärker das politische Interesse.

          • Je höher die kognitive Mobilisierung, desto geringer die politische Entfremdung.

        • Bestätigung vieler Hypothesen → hohe Konstruktvalidität

        • Nichtbestätigung kann mehrere Ursachen haben: fehlerhafte Hypothese, Messfehler, andere Variablen nicht valide



Primär- und Sekundäranalyse

Primäranalyse

= Eigene Datenerhebung zur Überprüfung der Hypothesen.

  • Primärdaten = neu erhobene Daten.

  • Vorteile:

    • Daten sind genau auf die eigene Forschungsfrage zugeschnitten.

    • Kontrolle über Operationalisierung, Messung und Auswahlverfahren.

  • Nachteile:

    • Hoher Aufwand (Zeit, Geld, Personal).

    • Erfordert methodisches Know-how (Fragebogen, Pretest, Sampling usw.).

    • Oft nicht realistisch im Rahmen von Haus- oder Abschlussarbeiten.

Sekundäranalyse

Nutzung bereits existierender Datensätze zur Überprüfung eigener Hypothesen.

  • Sekundärdaten = schon vorhandene, z. B. aus ALLBUS, ESS, SOEP.

  • Vorteile:

    1. Ressourcenschonend (keine eigene Erhebung nötig).

    2. Hohe Datenqualität, weil große Institute (z. B. GESIS, Eurostat) die Erhebungen professionell durchführen.

    3. Replikation möglich: Überprüfung und Kontrolle anderer Studien → Qualitätssicherung.

      • „Heilende Wirkung“: Fehler können aufgedeckt werden.

      • „Präventive Wirkung“: Forscher dokumentieren sorgfältiger, wenn Replikation möglich ist.

  • Nachteile:

    • Daten passen nicht immer exakt zur eigenen Fragestellung.

    • Operationalisierung (z. B. der Variablen) ist vorgegeben und oft nicht optimal.

    • Gefahr von Pfadabhängigkeit (immer dieselben Daten → immer ähnliche Ergebnisse).

⚙️ Replikationsstudien

= Replizierbare Forschung = überprüfbar, transparent, vertrauenswürdig.

Aber: Replikation ist wichtig, aber nicht immer möglich (z. B. bei historischen oder einmaligen Ereignissen).

  • Ziel: Kontrolle der Nachvollziehbarkeit und Zuverlässigkeit empirischer Forschung.

  • Beispiel: Replikationsserver.de (Initiative von Fachzeitschriften und GESIS).

  • „Ich prüfe, ob andere mit denselben Daten zum selben Ergebnis kommen.“


Strategien der Datenrecherche nach Watteler

1. Institutionelle Suche

  • Du suchst bei Einrichtungen, die in deinem Themenfeld forschen. Beispiele:

    • Arbeitsmarkt → IAB (Institut für Arbeitsmarkt- und Berufsforschung)

    • Jugendforschung → Deutsches Jugendinstitut (DJI)

    • Wirtschaftsdaten → ZEW (Zentrum für Europäische Wirtschaftsforschung)

  • Tipp: Diese Institute zeigen oft direkt, welche Datensätze sie nutzen oder bereitstellen.

2. Suche über Forschende

  • Du schaust dir wissenschaftliche Publikationen an, die mit deinem Thema zu tun haben.

    • In empirischen Studien steht meist die verwendete Datenquelle.

    • Viele Datensätze haben eine ZA-Nummer (von GESIS) oder eine DOI → damit kannst du sie direkt finden.

3. Inhaltliche Suche

  • Du nutzt Suchkataloge oder Datenbanken, z. B. den GESIS-Datenkatalog.

    • Du kannst dort nach Schlagworten, Jahren, Ländern oder Forschenden suchen.

💬 Weitere Tipps

  • Lies die Dokumentationen der Datensätze (da steht, wie die Daten erhoben wurden).

  • Du kannst dich an Kontaktpersonen der Institutionen wenden.

  • Auch Dozent:innen oder Betreuer:innen können bei der Auswahl helfen.


Datensätze Unterscheidung nach analytischer Ebene:

  • Mikroebene: Individualdaten (z. B. Befragungen von Personen)

  • Makroebene: Aggregatdaten = verdichtete Informationen über größere Analyseeinheiten, z. B.:

    • Länder, Regionen, Städte, Organisationen

    • Beispiele: Arbeitslosenquote, BIP, Wahlbeteiligung

Wichtigsten Institute

  • Leitende Institution: GESIS – Leibniz-Institut für Sozialwissenschaften

  • ZBW – Deutsche Zentralbibliothek für Wirtschaftswissenschaften 👉 spezialisiert auf wirtschaftsbezogene Daten

  • Rat für Sozial- und Wirtschaftsdaten (RatSWD) 👉 koordiniert und berät bei Datennutzung und -archivierung 🔗 www.ratswd.de

Mikroebene - Individualdatensätze

Datensatz

Beschreibung / Besonderheiten

Quelle

ALLBUS

Allgemeine Bevölkerungsumfrage der Sozialwissenschaften; seit 1980; Querschnittstudie; Themenschwerpunkte wechseln. Ostdeutsche überrepräsentiert → Designgewicht notwendig.

GESIS

CHES

Chapel Hill Expert Survey – Expertenbefragung über nationale Parteipositionen zu EU-Themen.

chesdata.eu

Politbarometer / DeutschlandTrend

Regelmäßige Meinungsumfragen zu Politik und Gesellschaft (ZDF bzw. ARD).

GESIS, Forschungsgruppe Wahlen, Infratest dimap

Eurobarometer

EU-Kommissionsumfrage seit 1973; halbjährlich; Fokus auf EU-Themen; politisch motiviert, aber weit genutzt.

GESIS, EU-Kommission

EES

European Election Studies – akademische Wahlforschung zur Europawahl (seit 1979); mehrere Teilstudien (Wähler, Medien, Programme, Kandidaten).

GESIS

ESS

European Social Survey – hohe methodische Qualität; alle 2 Jahre; Einstellungen, Werte, Verhalten in Europa.

europeansocialsurvey.org

GLES

German Longitudinal Election Study – nationale Wahlforschung in Deutschland; seit 2009; viele Komponenten (z. B. Panel, Medienanalyse, Kandidatenstudie).

gles.eu

ISSP

International Social Survey Programme – internationale Kooperation mit jährlichen thematischen Modulen (z. B. Religion, soziale Ungleichheit).

issp.org, GESIS

Mikrozensus

Amtliche Statistik Deutschlands; 1 % der Bevölkerung; zentrale Quelle zu Demographie, Arbeit, Familie etc.

destatis.de, GESIS/MISSY

pairfam / FReDA

Längsschnittstudie zu Familie & Partnerschaft in Deutschland; seit 2008 (pairfam), ab 2022 fortgeführt als FReDA.

pairfam.de, freda-panel.de

PIAAC

OECD-Studie zur Kompetenzmessung Erwachsener (Lesen, Mathematik, Problemlösen).

GESIS, OECD

PISA

OECD-Schulleistungsstudie seit 2000; misst Kompetenzen von 15-Jährigen (Mathe, Lesen, Naturwissenschaften).

oecd.org/pisa

SHARE

Survey of Health, Ageing and Retirement in Europe – Panelstudie über 50+ Bevölkerung; 2-jährlich; gesundheitliche & soziale Daten.

share-project.org

SOEP

Sozio-ökonomisches Panel – jährliche Wiederholungsbefragung seit 1984; Haushalte in Deutschland; Panelstudie (nicht Querschnitt).

diw.de/soep

WVS / EVS

World Values Survey / European Values Study – globale bzw. europäische Befragungen zu Werten, Moral, Religion, Politik etc.

worldvaluessurvey.org, europeanvaluesstudy.eu


Makrodaten

Wichtig: Wikipedia ist keine wissenschaftliche Datenquelle, da Nachvollziehbarkeit und Primärdatenbezug fehlen.

Quelle / Institution

Beschreibung

Themenbereiche / Besonderheiten

Website

Bundesagentur für Arbeit / IAB

Amtliche Arbeitsmarkt- & Beschäftigungsstatistik (regional gegliedert); IAB = Forschungseinrichtung der BA

Arbeitslosenquote, Beschäftigung, Hilfequote

statistik.arbeitsagentur.de / iab.de

CIA World Factbook

Kompaktes Nachschlagewerk zu Länderinformationen

Bevölkerung, Wirtschaft, Militär, Geographie

cia.gov/the-world-factbook

Manifesto Project (WZB)

Inhaltsanalytische Auswertung von Wahlprogrammen aus 50+ Ländern seit 1945

Parteipositionen, Programmveränderungen

manifesto-project.wzb.eu

Eurostat (EU)

Statistisches Amt der EU; harmonisierte Daten zwischen Mitgliedsstaaten

BIP, Inflation, Beschäftigung, Bevölkerung

ec.europa.eu/eurostat

Freedom House

Misst politische Rechte & Bürgerrechte weltweit (Skala 1 = frei bis 7 = unfrei)

Demokratie, Freiheit, Menschenrechte

freedomhouse.org

OECD

Internationale Organisation; große Makrodatenbank und Publikationen

Wirtschaft, Bildung, Gesellschaft, Umwelt

data.oecd.org

ParlGov

Datenbank zu Wahlen, Parteien und Regierungen (EU & OECD)

Parteipositionen, Regierungszusammensetzung, Wahlergebnisse

parlgov.org

Polity Project

Jährliche Infos über Regimeformen in 167 Staaten

Demokratien vs. Autokratien (Partizipation, Exekutive etc.)

systemicpeace.org/polityproject.html

Quality of Government (QoG)

Universität Göteborg; kombiniert Daten aus vielen Quellen

Korruption, Gleichberechtigung, Vertrauen, Bürokratie

qog.pol.gu.se

Statista

Kommerzielle Plattform mit Daten aus Wirtschaft, Politik, Gesellschaft

Kombiniert Daten vieler Anbieter (teilweise kostenpflichtig)

statista.com

Statistisches Bundesamt (Destatis)

Zentrale amtliche Statistik Deutschlands

Bevölkerung, Wirtschaft, Preise, Finanzen, Wahlen

destatis.de / genesis-online.de

Bundeswahlleiter

Amtliche Wahlergebnisse in Deutschland

Bundestags- & Europawahlen

bundeswahlleiter.de

Statistische Landesämter / Kommunale Ämter

Datensammlungen auf Landes- & Gemeindeebene

Wahlen, Erwerbstätigkeit, Demografie

je nach Bundesland

Vereinte Nationen (UN)

Meta-Datenbank zu 34 Themenbereichen

Bildung, Entwicklung, Nachhaltigkeitsziele (SDGs), Gesundheit

data.un.org / unstats.un.org/sdgs

Human Development Index (HDI)

Misst menschliche Entwicklung (seit 1990)

Lebenserwartung, Bildung, Einkommen

hdr.undp.org

Weltbank

UN-Sonderorganisation; Publikationen & Entwicklungsdaten

Armut, soziale Entwicklung, Umwelt, Wirtschaft

worldbank.org


Forschungsdesign (Primäranalyse)

Forschungsdesign (Untersuchungsanordnung) legt fest, wann, wo, wie und wie oft empirische Indikatoren an welchen Objekten erhoben werden, um Hypothesen zu prüfen.

👉 = Verbindung von Theorie, Hypothese, Datenerhebung & Analyseebene.


Zentrale Entscheidungen (nach Diekmann 2011)

  1. Untersuchungsebene (Mikro, Makro, Kontext)

    • Individualhypothesen (Mikroebene)

      • durch: Individualdatenanalyse

      • Methode: z. B. logistische Regression

      • Datengrundlage: Befragungen (vor/nach der Wahl)

      • Ziel: Unterschiede zwischen Individuen erklären

    • Kollektivhypothese (Makro)

      • durch: Aggregatdatenanalyse

      • Gefahr: ökologischer Fehlschluss (falsche Übertragung von Aggregatebene auf Individuen)

    • Kontexthypothese (KOmbination)

      • durch:

        • Struktureller Effekt = direkter Einfluss des Kontexts

        • Cross-Level-Interaktion = Kontext verändert Beziehung zwischen Variablen der Individualebene

    Heißt: Hypothesenform bestimmt automatisch die Untersuchungsebene.

  2. Untersuchungsform = wie Hypothesen empirisch überprüft werden sollen (z. B. durch Experiment, Umfrage, Beobachtung etc.)

    • Es gibt zwei Grundtypen:

      • Experimetell - prüfen kausale Zusammenhänge zwischen uV und aV

        • Merkmale:

          • Manipipulation der uV durch Forschende(Treatment/Stimulus)

          • Randomisierung: zufällige Zuteilung von Personen zu Experimental- und Kontrollgruppe

        • Vorteile:

          • hohe interne Validität und ermöglicht Nachweis von Kausalität

        • Nachteile:

          • künstliche Bedingungen

          • geringe externe Validität: Veränderung der aV ist nur auf Manipulation der uV zurückzuführen, Ergebnisse lassen sich nur selten auf andere Situationen / Personen generalisieren

            • Trade-off: Hohe interne Validität → oft geringe externe Validität (und umgekehrt).

            • Aber: In Forschung wird interne Validität meist höher gewichtet,da sie Voraussetzung für belastbare Kausalinterpretation ist.

          • in SW häufig ethisch/ praktisch nicht umsetzbar

        • Designs

          • Nachher-Untersuchung mit Kontrollgruppe: Nur nach dem Treatment wird die aV gemessen

            • = Vergleich der Gruppen nach Stimulus

          • Vorher-Nachher-Untersuchung mit Kontrollgruppe: aV wird vor und nach Treatment gemessen

            • = Kontrolle von Ausgangsunterschieden

          • Solomon-Vier-Gruppen-Design: Kombination aus beiden, mit vier Gruppen, mit Kombination aus Pretest, Treatment und Posttest

            • = Kontrolle von Pretest-Effekten

              • Heißt: ob die Vorher-Messung selbst einen Einfluss auf das Ergebnis (die abhängige Variable) hat.

              • Allein die erste Befragung („Wie aggressiv bist du?“) kann das Verhalten verändern — z. B. denken die Teilnehmenden darüber nach und verhalten sich danach bewusster oder weniger aggressiv. = Pretest-Effekt

        • Formen

          • Labor-Experiment: Künstliche, kontrollierte Bedingungen; Randomisierung

            • Vorteil: hohe interne Validität

            • Nachteil: geringe externe Validität, da künstlich

          • Feld-Experiment: in natürlicher Umgebung, reale Bedinungen

            • Vorteil: Hohe externe Validität

            • Nachteil: Geringere Kontrolle (interne Validität)

          • Quasi-Experiment: experimentelle Untersuchung ohne Randomisierung,bei der die unabhängige Variable manipuliert, aber die Zuteilung der Teilnehmendenzu Experimental- und Kontrollgruppe nicht zufällig erfolgt.Dadurch ist die interne Validität eingeschränkt, während die externe Validität oft höher ist.

            • z.B. Vergleich von Schülern aus Ganztags- vs. Halbtagsschulen (keine Zufallszuweisung → alternative Erklärungen möglich).

            • Nachteil: Eingeschränkte Kausalinterpretation

      • Nicht-experimentelle Untersuchungsformen (Ex-post-facto-Designs = „nachträglich festgestellt“)

        • Merkmale:

          • unabhängige (uV) und abhängige Variable (aV) werden zeitgleich erhoben.Erst nach der Datenerhebung (ex post) wird theoretisch unterschieden,welche Variable als Ursache (uV) und welche als Wirkung (aV) interpretiert wird.

          • Untersuchung bereits vorhandener Unterschiede- Beobachtungs- oder Befragungsdaten ohne Manipualtion

        • Vorteile:

          • Realitätsnah und praktisch umsetzbar

        • Zentrale Probleme:

          • Problem der Kausalen Reihenfolge: keine eindeutige Kausalitätsaussagen möglich 🧭 → Nur theoretisch begründete Kausalannahmen möglich.

          • Problem der Kontrolle von Drittvariablen: Keine Randomisierung → mögliche Störfaktoren

            • Ergebnis: Scheinkorrelation / Scheinkausalität= Zwei Merkmale korrelieren, aber ohne echten Kausalzusammenhang.

            • Beispiel: Mehr Feuerwehrleute → höherer Sachschaden?→ Nein: Größe des Feuers (Drittvariable) erklärt beides.

          • Problem der Varianz der uV: dass die unabhängige Variable unterschiedliche Ausprägungen aufweisen muss,damit ihr Einfluss auf die abhängige Variable überhaupt untersucht werden kann.Fehlt diese Varianz (alle haben ähnliche Werte),kann kein Zusammenhang festgestellt werden.

            • Ohne Unterschiede in der Ursache kann man keine Unterschiede in der Wirkung erklären.

        • Lösung:

          • Theoretische Fundierung: Erklärung auf Basis einer Theorie, warum eine Variable Ursache und die andere Wirkung ist.

          • Statistische Kontrolle: zeitlich klar geordnete Variablen wählen und Drittvariablen in multivariaten Analysen (z. B. Regression) berücksichtigen.

          • Paneldesigns: Mehrfache Befragungen derselben Personen → zeitliche Reihenfolge erkennbar.

      • Heißt: Ex-post-facto-Design untersucht Zusammenhänge zwischen Variablen,die zeitgleich erhoben und nachträglich in unabhängige und abhängige Variablen unterteilt werden.Es erlaubt nur deskriptive und korrelative, aber keine kausalen Schlüsse.

  3. Häufigkeit der Datenerhebung (z. B. einmalig = Querschnitt, mehrfach = Längsschnitt)

    • Grundtypen

      • Querschnittdesign: einmalige Datenerhebung relevanter uV & aV (Momentaufnahme oder kurzer Zeitspanne)

      • Längsschnittdesign: mehrmalige Datenerhebung der gleichen Merkmalez.B im Zeitverlauf, um Veränderungen beobachten zu können

        • Trenddesign: Gleiche Merkmale → verschiedene Personen zu mehreren Zeitpunkten

          • Vergleich der aggregierten Werte (z. B. Mittelwerte) durch mehrere Querschnittserhebungen → bilden einen Trend

          • Bedingungen für Vergleichbarkeit:

            1. Identische Messinstrumente

            2. Gleicher Typ der Untersuchungseinheit

            3. Gleiches Auswahlverfahren

            4. Möglichst gleiche Durchführung

          • Beispiel: Jährliche Befragung der Bevölkerung zur Zufriedenheit mit der Bundesregierung.

          • Problem: Stichprobenfehler können Veränderungen vortäuschen

        • Kohortendesign: Spezialfall des Trenddesigns -> Untersuchung von Bevölkerungsgruppen mit gemeinsamem Startereignis (z. B. Geburtsjahr, Heirat, Berufseintritt)

          • Ziel: Kohorten-, Lebenszyklus- und Periodeneffekte unterscheiden

          • Beispiel: Heiratskohorten 1955, 1965, 1975 → Scheidungsratenvergleich.

          • Typische Effekte:

            • Kohorteneffekt: Unterschiede zwischen Generationen (z. B. Wertewandel)

            • Lebenszykluseffekt: Veränderungen über Alter hinweg

            • Periodeneffekt: Einfluss aktueller Ereignisse auf alle (z. B. Wiedervereinigung)

        • Paneldesign: Mehrfache Befragung derselben Personen

          • Erlaubt Analyse von:

            • Interindividuellen Veränderungen (zwischen Personen)

            • Intraindividuellen Veränderungen (innerhalb derselben Person)

          • Beispiel: SOEP, pairfam, GLES

          • Vorteile: Zeitliche Abfolge (Kausalität besser prüfbar) und Individuelle Entwicklungen sichtbar

          • Nachteile:

            • Teuer und organisatorisch aufwendig

            • Panelmortalität: Ausfälle über Zeit − Paneleffekte (Panel Conditioning): Befragung verändert Antworten

              • Panelvarianten zur Problemminderung:

                • Alternierendes Panel: Zwei Gruppen abwechselnd befragt

                • Rotierendes Panel: Teilgruppe wird ersetzt

                • Geteiltes Panel: Kombination aus Panel und wiederholten Querschnitten

  • Informationshierarchie:

    Paneldesign > Trenddesign > QuerschnittdesignPanel enthält die meiste, Querschnitt die wenigste Information.(Man kann aus Paneldaten Trends und Querschnitte berechnen, aber nicht umgekehrt.)

= beeinflussen Stichprobenziehung und Datenerhebung


Korrelation vs. Kausalität

  • Korrelation: Statistischer Zusammenhang zwischen zwei Merkmalen (positiv oder negativ)

  • Kausalität: Ursache-Wirkungs-Beziehung: eine Variable verursacht eine Veränderung der anderen

Achtung: Eine Korrelation beweist keine Kausalität (z. B. mehr Feuerwehrleute → höherer Schaden = Scheinzusammenhang, Ursache ist die Feuergröße).


Bedingungen für Kausalität (nach Hill 1965 / Schnell et al. 2023)

  1. Zeitliche Reihenfolge: Ursache geht Wirkung voraus.

  2. Starker Zusammenhang zwischen den Variablen.

  3. Replikation in verschiedenen Kontexten / Populationen.

  4. Theoretische Plausibilität: nachvollziehbarer Wirkmechanismus.


Auswahlverfahren (Primäranalyse)

Grundfrage: Über wen oder was sollen Aussagen gemacht werden?


Grundbegriffe

  • Grundgesamtheit: Alle Elemente, über die eine Aussage getroffen werden soll (räumlich, sachlich, zeitlich definiert)

    • Beispiel: Alle wahlberechtigten BürgerInnen einer Gemeinde

  • Auswahlgesamtheit: Alle Elemente, die faktisch in die Stichprobe gelangen können

    • Beispiel Einwohnermelderegister

    • Auswahleinheit: Auf die das Auswahlverfahren angewendet wrid

      • Beispiel: Einzelperson im Register

  • Stichprobe: Ausgewählte Elemente aus der Auswahlgesamtheit

    • Beispiel: 500 zufällig ausgewählte BürgerInnen

  • Erhebungseinheit: Bei denen Daten tatsächlich erhoben werden

    • Beispiel: Befragte BürgerInnen

  • Overcoverage: Elemente in der Auswahl, die nicht zur Grundgesamtheit gehören

    • Beispiel: Minderjährige im Register

  • Untercoverage: Elemente der Grundgesamtheit, die nicht in der Auswahl sind

    • Beispiel: Wahlberechtigte ohne Internet bei Online-Umfragen

Erhebungsarten

  • Vollerhebung: Alle Untersuchungsobjekte der Grundgesamtheit werden erhoben

    • Vorteile: exakte Werte, keine Schätzfehler

    • Nachteile: teuer, zeitaufwendig, evtl. destruktiv, Ergebnisse veraltet bei großen Grundgesamtheiten

  • Teilerhebung (Stichprobe): Nur Teil der Grundgesamtheit wird erhoben

    • Zufällige Auswahl: Repräsentativität → Generalisierung möglich

      • Jedes Element der Grundgesamtheit hat die gleiche Chance, in die Stichprobe zu gelangen (>0)

      • Grundlage für Inferenzstatistik: Aussagen von Stichprobe → Grundgesamtheit

      • Voraussetzung: Liste aller Elemente der Grundgesamtheit

      • Typen:

        • Einfache Zufallsstichprobe (SRS): Jede mögliche Stichprobe von n Elementen hat gleiche Wahrscheinlichkeit

          • z.B: 1000 Studierende der FernUni Hagen zufällig ausgewählt

        • Geschichtete Zufallsstichprobe (Stratified Sampling): Grundgesamtheit in Schichten aufgeteilt → aus jeder Schicht Zufallsauswahl

          • z.B: Fakultäten der FernUni als Schichten, proportional/ disproportional Stichprobe

        • Klumpenstichprobe (Cluster Sampling): Zufallsauswahl von Gruppen/Clustern, dann alle Elemente innerhalb der Cluster erheben

          • z.B: PISA: Schulen zufällig ausgewählt, alle 15-jährigen Schüler befragt

    • Nicht-zufällige Auswahl: nicht generalisierbar

      • Fälle werden nicht per Zufall ausgewählt → keine Inferenz auf Grundgesamtheit möglich

      • Zwei Hauptgruppen:

        1. Willkürliche Auswahl („Auswahl aufs Geratewohl“)

          • Entscheidung über Stichprobenaufnahme liegt im Ermessen des Auswählenden

          • z.B: Straßeninterviews, Medienbefragungen („Wir haben Personen in der Innenstadt befragt“)

          • Probleme: Grundgesamtheit nicht definiert, wodurch keine Rückschlüsse möglich sind

          • insb. bei Psychologische Experimente: Teilnehmende oft selektiv (z. B. Studierende), Randomisierung erfolgt nur innerhalb Experimental-/Kontrollgruppen

        2. Bewusste Auswahl (systematisch, theoretisch begründet

          • Auswahl erfolgt nach inhaltlichen Kriterien, nicht Zufall

          • Kann zur Theoriebildung oder Falsifikation beitragen, aber nicht generalisierbar

          • Typische Verfahren:

            1. Auswahl entscheidender Fälle

              • Wählt Fälle, die Hypothese unter unwahrscheinlichen Bedingungen testen

            2. Quotenauswahl (Quotenverfahren)

              • Stichprobe entspricht bekannten Merkmalen der Grundgesamtheit (z. B. Geschlecht, Alter)

              • Interviewer wählt Personen innerhalb Quote → Risiko von Verzerrungen

              • Inferenzstatistik erschwert/kaum möglich

            3. Most Similar Cases Design (MSCD)

              • Einheit ähnlich in allen Merkmalen außer unabhängiger Variable

              • Beispiel: Wahlpflicht und Wahlbeteiligung → Länder mit ähnlichem Kontext

            4. Most Different Cases Design (MDCD)

              • Einheit möglichst unterschiedlich in allen Merkmalen, um Hypothese in diversen Kontexten zu prüfen

              • Beispiel: Postmaterialisten wählen grüne Parteien → Test in unterschiedlichen Ländern

      • Achtung: MSCD und MDCD sind Idealvorstellungen, selten vollständig umsetzbar

        • Fallauswahl muss systematisch und begründet sein


Auswahlverfahren in der Forschungspraxis

-> Einfache Zufallsstichproben selten möglich, da oft keine vollständige Liste der Grundgesamtheit existiert. Meist kommt es zu mehrstufigen Auswahlverfahren zur repräsentativen Stichprobe, um inferenzstatistische Rückschlüsse ziehen zu können:

  • ADM-Design für persönliche Befragungen

    • = „Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute e.V.“

    • Drei Auswahlschritte:

      • Gebietsdefinition → Sample Points

        • Deutschland in ~53.000 Teilflächen (Sample Points) unterteilt

        • Durchschnittlich 750 Haushalte pro Sample Point

        • 258 Sample Points für gesamtdeutsches Netz (z. B. 202 alte Länder, 43 neue Länder, 13 Berlin)

      • Zielhaushalte auswählen → Random Walk / Random Route

        • Interviewer folgt festgelegten Regeln (z. B. jede x-te Wohnung, Richtungswechsel bei Kreuzungen)

        • Varianten:

          • Mit Adressvorlauf → Haushaltsliste ans Institut → zufällige Auswahl

          • Ohne Adressvorlauf → Interviewer sucht Haushalte direkt → günstiger, aber Risiko von Verzerrungen

      • Zielperson auswählen

        • Methoden:

          • Geburtstagsmethode (Last- oder Next-Birthday)

          • Schwedenschlüssel / Kish Grid → systematische Liste + Zufallszahl

        • Berücksichtigung der Haushaltsgröße → Auswahlwahrscheinlichkeit korrigierbar

    • Probleme / Fehlerquellen:

      • Abweichungen beim Random Walk

      • Nichtbeachtung von Schwedenschlüssel oder Geburtstagsmethode

      • Leicht erreichbare, befragungswillige Personen überrepräsentiert

  • Telefonische Befragung

    • Häufige Methode in Markt- und Sozialforschung → kostengünstig, schnell, zentral kontrollierbar (CATI).

    • Arten:

      • Gabler-Häder-Design: beste Praxis für Tel.-Stichproben in DE

        • Kombination von registrierten Rufnummern + generierten Rufnummern

        • Ziel: möglichst verzerrungsfreie Abbildung aller aktiven Rufnummern

        • Zielperson: Last-Birthday oder Next-Birthday

      • Dual-Frame-Ansatz: Kombiniert Festnetz- und Mobilfunkstichproben

        • Problem:

          • Mobilfunknummern schwer regional zuzuordnen → lokale Erhebungen problematisch

          • Unterschied in politischen Einstellungen zwischen Festnetz- und Mobilfunknutzer moderat

      • Registerstichprobe: Auf Basis von Einwohnermeldeämtern / offiziellen Registern

        • Vorteile: weniger Verzerrung und hoher Kontrollierbarkeit.

        • Nachteile:

          • Register nicht immer aktuell: Umzüge oder Sterbefälle werden verzögert erfasst.

          • Fehleranfälligkeit der Register: Nicht alle Einwohner korrekt gemeldet oder abgemeldet.

          • Hoher Aufwand

            • Institut auf Kooperation der Gemeinden angewiesen.

            • Hohe Gebühren, teils unbrauchbare Datenformate.

            • Lieferzeit kann mehrere Monate dauern → beeinflusst Datenqualität.

          • Nur bei „öffentlichem Interesse“ möglich

            • Private Institutionen erhalten in der Regel keine Genehmigung.

            • Wissenschaftliche Projekte müssen das öffentliche Interesse nachweisen.

            • Entscheidung häufig durch Gemeinden oder Stadtoberhaupt.

        • Vorteile gegenüber ADM-Design

          1. Geringer Einfluss der Interviewer

            • Zielhaushalte und Zielpersonen werden aus einer zufällig generierten Liste ausgewählt.

            • Interviewer können die Auswahl nicht willkürlich beeinflussen.

          2. Demografische Informationen verfügbar

            • z. B. Alter, Geschlecht → bessere Kontrolle der Stichprobenzusammensetzung.

            • Hohe Regelgebundenheit, Kontrollsicherheit und Dokumentierbarkeit.

          3. Anwendung in bedeutenden Studien

            • ALLBUS (Allgemeine Bevölkerungsumfrage für Sozialwissenschaften)

            • European Social Survey (deutsche Teilstudie)

  • -> Auswahl hängt von der Forschungsfrage ab.


Datenerhebung (Primäranalyse)

Befragung (standardisiert)



Nach Festlegung von Forschungsdesign und Auswahlverfahren erfolgt die konkrete Datenerhebung.


Drei klassische Varianten der Datenerhebung:

  1. Befragung (standardisiert / qualitativ)

  2. Beobachtung

  3. Inhaltsanalyse

> Standardisierte Befragung = „Königsweg der praktischen Sozialforschung“, Grundlage der meisten empirischen Studien.


Zu 1)

Befragungsform

  • Persönlich (Face-to-face): CAPI/ PAPI

    • längere Interviews möglich (bis 60 Min.), höhere Teilnahmebereitschaft, aber teuer.

    • z.B: Haushaltsinterviews

  • Telefonisch: CATI

    • zentralisiert, schnell, moderate Kosten, max. 30 Min.

    • z.B: Wahlfroschung

  • Schriftlich: Papierfragebögen

    • abhängig von Postadressen, response rate problematisch, max. 12–16 Seiten.z.B: lokale Studien, kleinere Grundgesamtheit

  • online: CAWI

    • niedrigste Kosten, schnelle Datenerfassung, Ausschluss der nicht-internetfähigen Bevölkerung (~10 %).

    • z.B: Studierende, breitflächige Onlinebefragung

Charakterisierung der Befragungsformen

Merkmal

Persönlich

Telefonisch

Schriftlich

Online

Abbildung der Grundgesamtheit

hoch

mittel

mittel

gering

Maximale Interviewdauer

lang, max. 60min

mittel, ~30 Min.

mittel, ca. 12–16 Seiten

kurz, ~15 Min.

Visuelle Hilfsmittel

ja

nein

begrenzt

ja

Soziale Erwünschtheit

hoch

mittel

gering

gering

Dauer der Feldphase

lang

kurz

lang

mittel

Kosten je Interview

hoch

mittel

mittel

gering

Teilnahmebereitschaft

  • Teilnahme freiwillig, Entscheidung basiert auf Nutzen-Kosten-Abwägung (Theorie des rationalen Handelns / Low-Cost-Situation).

  • Faktoren, die Teilnahme fördern: kleine Geschenke, Sprache/Geschlecht des Interviewers, Interesse am Thema.


Methoden:

  • Standardisierte Befragung

    • Alle Befragten erhalten die gleichen Fragen, Antwortoptionen und Reihenfolge.

    • Rahmenbedingungen (z. B. Interviewsituation) sind identisch.

    • Ziel: Unterschiede in Antworten spiegeln tatsächliche Merkmale, Einstellungen oder Verhaltensweisen, nicht unterschiedliche Bedingungen.

    • Besonders relevant für Einstellungen, Sozialstruktur, politische Meinungen.

    • Methoden:

      • Mixed-Mode-Surveys: Kombination mehrerer Befragungsformen (z. B. Papier + Online).

        • Vorteile:

          • Höhere Teilnahmebereitschaft

          • Reduzierung von Nachteilen einzelner Modi (z. B. Online-Kompetenz, technische Barrieren)

      • Tailored Design Method (TDM) von Don Dillman: Weiterentwicklung der Total Design Method.

        • Idee: Jede Entscheidung in der Befragungsgestaltung kann Einfluss auf die Antwortquote und die Qualität der Daten haben – daher sollte alles bewusst „maßgeschneidert“ (tailored) werden.

        • Ziel: höhere Teilnahmebereitschaft und Datenqualität

        • Grundprinzip:

          • Kommunikation mit den Befragten: Anschreiben, Einladungen, Erinnerungen werden klar verständlich, freundlich, motivierend und personalisiert geschrieben

          • Fragebogen-Gestaltung

            • Fragen: verständlich, neutral, präzise

            • Reihenfolge: logisch aufgebaut, einfache Struktur

            • Antwortmöglichkeiten: konsistent, klar abgrenzbar

          • Äußeres Erscheinungsbild / Layout

            • Papierfarbe, Schriftgröße, Abstände, Design-Elemente: alle Details können die Teilnahmebereitschaft beeinflussen

            • Professionelles Layout signalisiert Seriosität und Vertrauen

          • Praktische Durchführung

            • Versand, Erinnerungen, Rücklaufkontrolle

            • Zeitpunkt der Befragung (z. B. Wochentag, Tageszeit)

          • Technische Unterstützung (bei Online-Befragungen)

            • Einfache Bedienung, Fehlerhinweise bei Eingaben, Fortschrittsanzeige

Fragearten

  • offene Fragen: Befragte antwortet in eigenen Worten, ohne vorgegebene Antwortoptionen.

    • Vorteile:

      • Antworten sind nicht durch vorgegebene Kategorien eingeschränkt.

      • Erfassen Wissensstand, Einstellungen oder Bedeutungswandel.

    • Nachteile:

      • Hoher Aufwand für Notieren und Auswertung (Codierung notwendig).

      • Unterschiedliche Ausdrucksfähigkeit der Befragten kann Ergebnisse verfälschen.

      • Interviewer-Effekte möglich (wie präzise die Antwort notiert wird).

    • Beispiel: „Würden Sie mir bitte sagen, was Sie mit dem Begriff ‚links‘ verbinden?“ (ALLBUS 2008)

  • Dichotome Fragen: genau zwei Antwortmöglichkeiten, meist „Ja – Nein“ oder „Vorhanden – Nicht vorhanden“.

    • Vorteile:

      • Einfach zu beantworten und auszuwerten.

      • Klare Unterscheidung zwischen zwei Alternativen.

    • Beispiel: „Haben Sie im Laufe Ihres Lebens privaten Musikunterricht erhalten?“ → Ja / Nein

  • Hybridfragen (Halboffen): Kombination aus geschlossenen Antwortoptionen und einer offenen „Sonstige“-Kategorie.

    • Vorteile: Ermöglicht individuelle Antworten, wenn vorgegebene Optionen nicht passen.

    • Nachteile: Erhöht Auswertungsaufwand und Interviewdauer.

    • Beispiel: Schulabschluss: „Anderen Schulabschluss, und zwar: ______“

  • Fragen mit Skalenvorgaben: (z. B. von „sehr stark“ bis „überhaupt nicht“).

    • Vorteile: Schnelle Beantwortung, einfache Auswertung.

  • Rangordnungsfragen: Befragte ordnen mehrere Items nach Wichtigkeit.

    • Vorteile: Erfassen Prioritäten und Präferenzen.

    • Beispiel:

      • Politische Ziele: „Welches Ziel ist Ihnen am wichtigsten? Welches zweitwichtigste?“

        • A. Ruhe & Ordnung

        • B. Mehr Bürgerbeteiligung

        • C. Kampf gegen steigende Preise

        • D. Schutz der Meinungsfreiheit

      • Auswertung: Materialist / Postmaterialist / Mischtyp

  • Mehrfachantwortfragen: Befragte können mehrere Antworten auswählen.

    • Vorteile: Realitätsnah, wenn mehrere Optionen zutreffen.

    • Nachteile: Fehleranfälliger, schwieriger auszuwerten.

    • Beispiel: „An welchen chronischen Krankheiten leiden Sie?“ → Mehrfachauswahl möglich

  • Forced-Choice-Fragen: Befragte müssen die richtige Antwort aus mehreren vorgegebenen Optionen wählen.

    • Beispiel: „Durch wen wird der Bundeskanzler gewählt?“

      • Optionen: Volk / Bundesrat / Bundestag / Bundesversammlung

      • Richtige Antwort: Bundestag

Zusammengefasst

  • Offen: eigene Worte, qualitativ reich, aufwendig

  • Dichotom: 2 Optionen, einfach, schnell

  • Hybrid: Kombination aus offen + geschlossen, flexibel

  • Skala: Bewertung / Stärke / Intensität, quantitativ leicht auswertbar

  • Rangordnung: Prioritäten erkennen

  • Mehrfach: mehrere Optionen möglich, realistisch, aufwendig

  • Forced-Choice: Wissens- oder Entscheidungsfragen, klar


10 Grundregeln (Gebote) der Frageformulierung nach Porst

  1. Einfache, verständliche Begriffe

    • Fragen sollen keine Fremdwörter oder komplexe Begriffe enthalten, damit alle Befragten sie gleich verstehen.

  2. Kurze, klare Fragen

    • Lange und komplizierte Fragen überfordern die Befragten. Unnötige Füllwörter streichen.

  3. Keine hypothetischen Fragen

    • „Was wäre, wenn…?“ ist oft unzulässig, nur in Ausnahmefällen akzeptabel, wenn Befragte die Situation schon erlebt haben könnten.

  4. Keine doppelten Stimuli und Verneinungen

    • Kombinierte Fragen (z.B. „Kino oder Theater?“) verwirren, ebenso doppelte Verneinungen.

  5. Keine Unterstellungen oder suggestive Fragen

    • Fragen dürfen keine bestimmte Antwort provozieren oder wertend sein („beste Film aller Zeiten“).

  6. Keine Fragen zu Informationen, die Befragte vermutlich nicht haben

    • Z.B. detaillierte Haushaltsbudgets oder Unfallstatistiken. Sonst raten Befragte oder brechen ab.

  7. Eindeutiger zeitlicher Bezug

    • Statt „in der letzten Zeit“ besser: „in den letzten 12 Monaten“.

  8. Antwortkategorien erschöpfend und disjunkt gestalten

    • Jede Person sollte genau eine Kategorie auswählen können. Kategorien dürfen sich nicht überschneiden.

  9. Kontext beachten

    • Vorherige Fragen können Antworten beeinflussen (Assimilations- oder Kontrasteffekte). Pretests helfen, solche Effekte zu erkennen.

  10. Unklare Begriffe definieren

  • Fachbegriffe müssen erklärt werden, wenn sie nicht allen Befragten bekannt sind.


Merkmale der Antwortvorgaben

  • Geschlossene Fragen brauchen immer Antwortvorgaben. Ohne diese wäre die Frage unvollständig.

  • Antwortkategorien sollen erschöpfend (alle Möglichkeiten abdecken) und disjunkt (sich nicht überschneidend) sein.

  • Die Gestaltung der Antwortskalen kann direkt das Antwortverhalten beeinflussen.


Effekte von Antwortskalen:

  • Antwortverzerrung durch Skala: Befragte orientieren sich an der Skala, z.B. kleine vs. große Intervalle bei Zeitangaben können unterschiedliche Ergebnisse liefern.

  • Mittelkategorie: Kann echte Neutralität abbilden, wird aber manchmal auch als „einfacher Ausweg“ genutzt.

  • Verbal vs. numerisch:

    • Zahlen allein sind präziser und leichter zu merken, verbal ist alltagsnäher.

    • Kombination kann verwirren – besonders negative Zahlen sollten vermieden werden.

  • Skalenreihenfolge:

    • Positiv → negativ oder negativ → positiv kann kleine Effekte auf die Antworten haben.

  • Standardisierung vs. Variation:

    • Standardisierte Skalen vereinfachen die Auswertung.

    • Item-spezifische Skalen können das Verständnis verbessern, verhindern aber Ermüdungseffekte nicht vollständig.


Leitfragen bei der Konstruktion von Antwortskalen nach Franzen und Porst

  1. Wie viele Kategorien? – Zu viele Kategorien können überfordern, zu wenige reduzieren Differenzierungsmöglichkeiten.

    • Faustregel: 5–7 Kategorien (Miller 1956: 7 ± 2).

  2. Gerade oder ungerade Anzahl?

    • Gerade: zwingt zu Zustimmung oder Ablehnung, keine neutrale Mitte.

    • Ungerade: enthält eine neutrale Mittelkategorie.

  3. Alle Kategorien beschriften oder nur Endpunkte?

    • Verbale Beschriftung aller Kategorien macht Skala für Befragte verständlicher.

    • Bei längeren Skalen oft nur Endpunkte beschriften.

  4. Bipolar oder unipolar?

    • Bipolar: Gegensatzpaare („unzufrieden – zufrieden“)

    • Unipolar: Abstufung in einer Richtung („überhaupt nicht wichtig – sehr wichtig“)

  5. Positiv oder negativ beginnen?

    • Optische Skala: meist negativ → positiv.

    • Telefonische Skala: umgekehrt empfohlen.

  6. Item-spezifisch oder standardisiert?

    • Standardisierte Skalen vereinfachen die Bearbeitung, können aber Ermüdung verursachen.

    • Spezifische Skalen können Verständnis verbessern.

Zusammenfassend: Es gibt keine „perfekte“ Antwortskala. Jede Entscheidung hat Vor- und Nachteile, die sorgfältig abgewogen werden müssen.


Fragebogenentwicklung

…ist iterativ: Fragen werden überarbeitet, Reihenfolgen angepasst, neue Fragen hinzugefügt.

  • Systeme wie QDDS dokumentieren alle Änderungen und erleichtern spätere Analysen und Weiterentwicklungen.

  • Gestaltung

    • Frageblöcke (Module): Ähnliche Fragen werden zu Frageblöcken zusammengefasst (z. B. Politik, Mediennutzung, Wohlbefinden).

      • Sinnvolle Reihenfolge: allgemein → speziell.

      • Bei Modulen mit Einstellungs- und Verhaltensfragen: zuerst Verhaltensfragen (leichter zu beantworten).

      • Zentrale Themen in der Mitte platzieren, da Aufmerksamkeit am Anfang hoch, später abnimmt.

      • Einstiegsfragen: spannend, relevant, leicht zu beantworten → erhöhen Teilnahmebereitschaft.

      • Soziodemographische Fragen meist am Ende (sensible Fragen wie Einkommen).

        • Empfehlung: kurze Erklärung, warum diese Daten erhoben werden.

      • Abschlussfragen: Dankeschön und Möglichkeit für Kommentare einräumen

      • Filterfragen/Filterführungen: überspringen irrelevante Fragen, reduzieren Befragungszeit.

        • Online: Programmierung erledigt Navigation automatisch.

        • Schriftlich: klare Kennzeichnung notwendig.

    • Layout: Optisch ansprechend, gut lesbare Schrift, nicht zu viele Fragen pro Seite.

  • Pretests: Prüfung des Fragebogens vor der Haupterhebung zur Qualitätssicherung.

    • Drei Pretest-Typen:

      1. Kognitive Interviews (früh): Verständlichkeit, Probleme beim Beantworten.

        • Techniken: Nachfragen (Probing), Confidence Rating, Paraphrasieren, Card Sorting, Think Aloud.

      2. Fragebewertungssystem (FBS) (mittel): Checkliste zur systematischen Analyse von Fragen (z. B. Wortwahl, Annahmen über Befragte).

      3. Feldpretest / Standard-Pretest (spät): Test unter realistischen Bedingungen (10–200 Personen).

        • Ziel: Ablauf, Dauer, Filterführung, Bedienbarkeit prüfen.

    • Tipp: GESIS Pretest-Datenbank: Sammlung von Erfahrungen aus kognitiven Pretests, zur Orientierung für neue Fragen.


Non-Response

= Nichtteilnahme an Befragungen bzw. fehlende Daten.

  • Arten:

    1. Item-Nonresponse: Einzelne Fragen werden nicht beantwortet (z. B. Einkommen, intime Fragen).

      • Lösungen: Randomized-Response-Technik (Anonymität), statistische Imputation (einschließlich multiple Imputation).

    2. Unit-Nonresponse: Befragte nehmen überhaupt nicht teil.

      • Unterarten:

        • Nicht-Erreichte: nicht kontaktiert (z. B. mobile Personen).

        • Nicht-Befragbare: Verständigungsprobleme, Krankheit.

        • Verweigerer: erreichen, aber Teilnahme abgelehnt.

  • Beteiligungsraten: sinkend seit 1980er Jahre (z. B. ALLBUS von >70 % auf 30–40 %; ESS von 55,7 % auf 26,7 %).

  • Ausschöpfung / Response-Rate: Verhältnis realisierte Interviews zu gezogenen Stichprobenelementen.

    • Definitionen uneinheitlich → umfassender Methodenbericht empfohlen.

    • Niedrige Ausschöpfung ≠ automatisch Verzerrung; Selektivität entsteht nur bei systematischen Unterschieden zwischen Teilnehmern und Nicht-Teilnehmern.

  • Forschung: Maßnahmen zur Erhöhung der Teilnahme (z. B. Follow-ups, Anreize) sind zentral für die Surveyqualität.

Formel für die Response-Rate 1 (RR1, Minimum Response Rate):

RR1= I

_________________________

I+P+R+NC+O+UH+UO

Legende:

  • I = vollständig realisierte Interviews

  • P = unvollständig realisierte Interviews

  • R = Verweigerer (befragt, aber Teilnahme verweigert)

  • NC = Nicht-Erreichte

  • O = andere Ausfallgründe (bekannte Zielperson, aber Befragung nicht möglich, z. B. Sprachproblem)

  • UH = unbekannte Haushalte (nicht klar, ob Zielperson existiert)

  • UO = andere unbekannte Ausfallursachen

Die RR1 gibt also den Anteil der vollständig realisierten Interviews an allen gezogenen Stichprobenelementen einschließlich aller bekannten und unbekannten Ausfälle wieder.


2) Beobachtung


Datenerhebung (Primäranalyse)

Beobachtung

Hier ist eine kompakte und strukturierte Lernkarte zum Thema „Beobachtung als Datenerhebungsmethode“ basierend auf deinem Text:

Beobachtung (als Datenerhebungsmethode)

Einleitung:

Die Beobachtung ist eine grundlegende Methode der Datenerhebung in den Sozialwissenschaften. Sie dient der systematischen Erfassung von sozialem Handeln und kann – je nach Verständnis – weit oder eng gefasst werden.

Definition

Beobachtung = direkte, unmittelbare Registrieren relevanter Sachverhalte für einen Forschungszusammenhang (Häder 2019, S. 320–321).

in Form von zB

  • Sprache

  • Verbales und nonverbales Verhalten (Mimik, Gestik)

  • Soziale Merkmale (Kleidung, Symbole, Abzeichen etc.)

  • „Geronnenes Verhalten“ (z. B. Schaufensterauslagen, Klingelschilder)

Abgrenzung zur AlltagswahrnehmunG

  • Alltägliche Beobachtungen = Wahrnehmungen (Behnke et al. 2010)

  • Wissenschaftliche Beobachtungen unterscheiden sich durch systematische und theoretisch fundierte Vorgehensweise.

Vier Kriterien wissenschaftlicher Beobachtung (nach Häder 2019)

  1. Theoretische Fundierung durch Hypothesen: Beobachtungen basieren auf Hypothesen, die auf Theorien und bisherigen Befunden aufbauen.

  2. Kontrolle: Ergebnisse müssen überprüfbar sein – z. B. durch Vergleich mehrerer Beobachter oder systematische Dokumentation.

  3. Wissenschaftliche Auswahl der Beobachtungseinheiten: Auswahl erfolgt nach begründeten, nachvollziehbaren Kriterien.

  4. Systematische und intersubjektive Auswertung: Beobachtungen müssen so gestaltet sein, dass sie replizierbar und nachvollziehbar sind.

Vorteile wissenschaftlicher Beobachtung (Häder 2019)

  1. Erfassung tatsächlichen Verhaltens – im Gegensatz zu Befragungen, die nur berichtetes Verhalten liefern.

  2. Erfassung unbewusster Verhaltensweisen – z. B. Routinen oder spontane Reaktionen.

  3. Dokumentation nonverbaler Verhaltensweisen – z. B. Mimik, Gestik, Körpersprache.

Nachteile wissenschaftlicher Beobachtung (Häder 2019)

  1. Zeit- und kostenintensiv → kleinere Fallzahlen.

  2. Keine repräsentativen Stichproben → eingeschränkte Verallgemeinerbarkeit.

  3. Begrenzte Themenzugänglichkeit → nicht alles ist beobachtbar.

  4. Beobachterfehler → Gefährdung von Validität und Reliabilität.

  5. Ethische Probleme bei verdeckten Beobachtungen.

Zusammenfassung

Beobachtung = systematisches, theoriebasiertes Verfahren zur Erhebung sozialen Handelns. Sie erlaubt den Zugang zu tatsächlichem und nonverbalem Verhalten, ist aber ressourcenaufwändig und methodisch wie ethisch anspruchsvoll.

Beobachtung in den Sozialwissenschaften

dient der systematischen Erfassung sozialen Handelns und kann in unterschiedlichen Formen durchgeführt werden:

Varianten der Beobachtung (nach Diekmann 2011; Kromrey et al. 2016; Häder 2019)

  1. Teilnehmende vs. Nichtteilnehmende Beobachtung

    • Teilnehmend: Beobachter ist in die Gruppe integriert → ermöglicht tiefere Einblicke, aber Gefahr des „going native“ (Verlust wissenschaftlicher Distanz).

    • Nichtteilnehmend: Beobachter bleibt passiv und distanziert → geringere Beeinflussung des Geschehens.

  2. Offene vs. Verdeckte Beobachtung

    • Offen: Beobachtete wissen, dass sie beobachtet werden.

    • Verdeckt: Beobachtung erfolgt ohne Wissen der Betroffenen → realistischere Verhaltensdaten, aber ethisch problematisch.

  3. Feld- vs. Laborbeobachtung

    • Feldbeobachtung: Untersuchung in natürlicher Umgebung → hohe ökologische Validität.

    • Laborbeobachtung: Kontrolle von Störfaktoren möglich, aber geringere Realitätsnähe.

  4. Strukturierte vs. Unstrukturierte Beobachtung

    • Strukturiert: Klare Beobachtungskriterien und Kategorien; ermöglicht Vergleichbarkeit.

    • Unstrukturiert: Explorativ und offen; geeignet zur Hypothesenbildung.

  5. Fremd- vs. Selbstbeobachtung

    • Fremdbeobachtung: Verhalten anderer Personen wird erfasst.

    • Selbstbeobachtung: Forscher reflektiert eigenes Verhalten (selten in der empirischen Sozialforschung).

Variante

Merkmale / Beschreibung

Vorteile

Nachteile / Herausforderungen

Typische Anwendung / Beispiel

1. Teilnehmende Beobachtung

Beobachter ist aktiv am Geschehen beteiligt, wird Teil der Gruppe („Insider-Perspektive“)

Tiefer Einblick in Gruppenprozesse und Dynamiken

Gefahr der Beeinflussung der Beobachteten; Verlust der Distanz („going native“)

Nieland (2011): Beobachtung von Parteitagen der Grünen und Linken

Nichtteilnehmende Beobachtung

Beobachter bleibt passiv und hält räumlichen Abstand

Objektivere Beobachtung, keine Einflussnahme

Geringere Einsicht in interne Abläufe

Politische Veranstaltungen aus Beobachterperspektive

2. Offene Beobachtung

Beobachtete wissen, dass sie beobachtet werden

Ethisch unbedenklich, Transparenz

Verhaltensänderung durch Beobachtung (Reaktivität)

Öffentliche Feldstudien, z. B. Unterrichtsbeobachtungen

Verdeckte Beobachtung

Beobachter tritt nicht als solcher auf; Beobachtete wissen nichts von der Beobachtung

Natürliches Verhalten (nichtreaktiv)

Ethisch problematisch

Untersuchungen von Alltagsverhalten

3. Feldbeobachtung

Beobachtung in natürlicher Umgebung

Hohe ökologische Validität, authentisches Verhalten

Geringe Kontrolle über Störfaktoren

Parteitage, Wahlkreisarbeit (CITREP)

Laborbeobachtung

Beobachtung in künstlicher, kontrollierter Umgebung

Kontrolle über Bedingungen, Vergleichbarkeit

Geringe Realitätsnähe

Experimente (z. B. Verhalten nach Medienkonsum)

4. Strukturierte Beobachtung

Vorgegebenes Beobachtungsschema oder Protokoll; klare Kategorien

Vergleichbarkeit, Reliabilität, statistische Auswertbarkeit

Eingeschränkte Offenheit, Fokus auf vordefinierte Merkmale

Quantitative Forschung, z. B. Analyse von Wortbeiträgen

Unstrukturierte Beobachtung

Offenes, exploratives Vorgehen ohne feste Kategorien

Entdeckung neuer Phänomene, Hypothesenbildung

Geringe Vergleichbarkeit, hohe Subjektivität

Qualitative Feldforschung, ethnografische Studien

5. Fremdbeobachtung

Verhalten anderer wird von geschulten Beobachtern erfasst

Objektivität durch externe Erhebung

Beobachterfehler möglich

Standardverfahren in Sozialforschung

Selbstbeobachtung (Introspektion)

Person beobachtet sich selbst, reflektiert eigenes Verhalten

Zugang zu inneren Prozessen, Selbstreflexion

Subjektiv, schwer überprüfbar

Psychologische oder experimentelle Studien

Beispiele klassischer und moderner Beobachtungsstudien

  1. „Die Arbeitslosen von Marienthal“ (Jahoda et al. 1975 [1933])

    • Ziel: Untersuchung der sozialen und psychischen Folgen von Arbeitslosigkeit.

    • Methodenkombination: Beobachtung, Interviews, Dokumentenanalyse.

    • Beobachtungseinsatz:

      • Erfassung von Sauberkeit, Ordnung und Zustand der Wohnungen (Beobachtungsprotokolle).

      • Messung von Gehgeschwindigkeit und Verhaltensmustern zur Analyse der Zeitverwendung.

    • Befund: Arbeitslosigkeit führte zu Verlust der Tagesstruktur, insbesondere bei Männern.

  2. CITREP-Projekt („Citizens and Representatives in France and Germany“) – Siefken (2013)

    • Gegenstand: Begleitung von 64 Bundestagsabgeordneten für jeweils drei Tage im Wahlkreis.

    • Erhebungsmethode:

      • Standardisierte Erhebungsbögen + offene Beobachtungsprotokolle.

      • Erfassung von Kontextfaktoren (Teilnehmerzahl, Medienpräsenz, Themenrelevanz).

    • Ergebnisse:

      • Wahlkreisarbeit stark durch lokale Themen geprägt (49 %), gefolgt von Bundespolitik (35 %), Kommunalpolitik (21 %) und Landespolitik (20 %).

      • Ergänzung durch leitfadengestützte Interviews → Vergleich von Beobachtung und Befragung möglich.

  3. Beobachtungen bei Parteitagen – Nieland (2011)

    • Thema: Inszenierung und Atmosphäre von Europawahlparteitagen der Grünen und der Linken.

    • Methode: Teilnehmende Beobachtung, explorativ angelegt.

    • Ergebnisse:

      • Vergleichbares Bühnen-Setting, aber inhaltlich deutliche Unterschiede:

        • Grüne: europapolitische Themen im Vordergrund.

        • Linke: kaum konstruktive Europadebatte.

Phasen einer Beobachtung (nach Diekmann 2011; Häder 2019)

1. Fragestellung und Entwicklung von Hypothesen

  • Formulierung einer klaren Forschungsfrage und überprüfbarer Hypothesen

  • Hypothesen beschreiben die zu untersuchenden Zusammenhänge

  • Voraussetzung: Auseinandersetzung mit Theorien und bisherigen empirischen Befunden

  • Ziel: empirische Überprüfung der Hypothesen durch Beobachtung

2. Operationalisierung

  • Theoretische Konzepte werden in beobachtbare Sachverhalte übersetzt

  • Auswahl geeigneter Indikatoren für die Erfassung des Untersuchungsgegenstands

  • Prüfung, ob Indikatoren empirisch beobachtbar sind

  • Berücksichtigung methodenspezifischer Herausforderungen der Beobachtung

3. Entwicklung eines Beobachtungsschemas (Kodierschema)

  • Erstellung eines systematischen Schemas zur Erfassung der Beobachtungen

  • Drei Grundformen (nach Westle & Krumm 2018):

    1. Zählschema – Erfassung des bloßen Auftretens bestimmter Ereignisse

    2. Kategorienschema – Klassifikation von Ereignissen nach festgelegten Kriterien

    3. Schätzschema – Einschätzung zusätzlicher Eigenschaften (z. B. Lautstärke, Intensität)

  • Fünf Minimalanforderungen an ein Schema:

    1. Vollständigkeit (alle relevanten Sachverhalte erfassbar)

    2. Ausschließlichkeit (jeder Sachverhalt nur einer Kategorie zugeordnet)

    3. Eindimensionalität (Kategorien beziehen sich auf nur einen Aspekt)

    4. Konkretisierung (eindeutige Zuordnung möglich)

    5. Sensibilität (angemessene Differenzierung ohne Überforderung der Beobachter)

4. Auswahl der Untersuchungsobjekte

  • Festlegung und Begründung der zu beobachtenden Einheiten

  • Bevorzugt Zufallsstichproben; falls nicht möglich: theoretische Begründung der Auswahl

  • Beispiel: CITREP-Studie (Siefken 2013) nutzte theoretisches Sampling nach 19 Kriterien (z. B. Alter, Partei, Urbanisierungsgrad des Wahlkreises)

  • Ziel: theoretisch fundierte, aber nicht inferenzstatistisch generalisierbare Stichprobe

5. Pretest

  • Überprüfung des Beobachtungsinstruments vor der Haupterhebung

  • Kontrolle auf:

    • Eindeutigkeit der Kategorienzuordnungen

    • Vollständigkeit und Handhabbarkeit des Schemas

  • Durchführung einer Beobachterschulung empfohlen

  • Ziel: Sicherstellung der Reliabilität und Praktikabilität des Instruments

6. Haupterhebung

  • Anwendung des geprüften Kodierschemas in der eigentlichen Datenerhebung

  • Idealfall: mehrere Beobachter pro Untersuchungsobjekt → höhere Reliabilität

  • Systematische Dokumentation der Beobachtungen

7. Datenaufbereitung und Auswertung

  • Übertragung der Beobachtungsprotokolle in eine Datenmatrix

    • Zeilen = Untersuchungsobjekte

    • Spalten = Beobachtungskategorien

  • Anschließende statistische oder inhaltsanalytische Auswertung der Daten

Datenerhebung (Primäranalyse)

Inhaltsanalyse

Definition (nach Früh 2017, S. 29)

„Eine empirische Methode zur systematischen, intersubjektiv nachvollziehbaren Beschreibung inhaltlicher und formaler Merkmale von Mitteilungen, meist mit dem Ziel einer darauf gestützten interpretativen Inferenz auf mitteilungsexterne Sachverhalte.“

Kernpunkte:

  • empirische Methode

  • systematisch und intersubjektiv nachvollziehbar

  • Analyse inhaltlicher und formaler Merkmale

  • Ziel: Rückschlüsse auf mitteilungsexterne Sachverhalte (z. B. gesellschaftliche Einstellungen, Werte)

Inhaltsanalyse = sozialwissenschaftliche Methode zur systematischen Untersuchung bestehender Materialien (z. B. Texte, Bilder, Filme). Sie dient nicht nur der Datenerhebung, sondern ebenso der Datenanalyse und ermöglicht die systematische Erfassung inhaltlicher und formaler Merkmale von Mitteilungen.


Allgemeines

  • Ursprünge in der amerikanischen Massenkommunikationsforschung der 1940er Jahre (Analyse von Medienprodukten)

  • Erste Anwendungen bereits im 18. Jahrhundert (vgl. Früh 2017)

  • Nach Kuckartz (2009): keine reine Datenerhebungsmethode, sondern auch Datenanalysemethode

  • Es werden keine neuen Daten generiert, sondern bereits vorhandene Materialien ausgewertet

  • Untersucht werden können:

    • Texte (z. B. Zeitungsartikel, Wahlprogramme)

    • Bilder oder Filme

    • Formale Aspekte: Textlänge, Wortwahl, Stilmittel (z. B. Konjunktiv)

  • Beispiel:

    • Jahoda et al. (1975 [1933]), Die Arbeitslosen von Marienthal: Analyse von Kinderaufsätzen → häufig Konjunktivformen und bescheidene Wünsche


Vorteile der Inhaltsanalyse (nach Diekmann 2011, S. 586)

  1. Vergangenheitsbezug

    • Auch älteres Material kann analysiert werden

    • Beispiel: Berichterstattung zur RAF bleibt auswertbar

  2. Analyse sozialen Wandels

    • Zeitlich verfügbare Texte ermöglichen die Untersuchung von Veränderungen über längere Zeiträume

  3. Nichtreaktivität

    • Daten liegen unabhängig von der Forschungssituation vor

    • Produzenten der Dokumente wissen meist nicht, dass ihre Inhalte untersucht werden → keine Verzerrung durch soziale Erwünschtheit oder Erinnerungsfehler


Inhaltsanalyse in den Sozialwissenschaften


Varianten der Inhaltsanalyse (nach Kromrey et al. 2016; Schnell et al. 2023)

Variante

Ziel / Beschreibung

Beispiel

Frequenzanalyse

Erfassung der Häufigkeit bestimmter Begriffe oder Themen

Nennung von Bürgermeisterkandidaten in Lokalzeitungen

Valenzanalyse

Analyse der Bewertung (positiv, neutral, negativ)

Bewertung von Kandidaten in Presseberichten

Intensitätsanalyse

Erfassung der Intensität einer Bewertung

Wie stark positiv oder negativ wird berichtet?

Kontingenzanalyse

Untersuchung gemeinsamer Auftretensmuster von Begriffen

Auftreten von Kandidatennamen zusammen mit Parteien


3. Phasen einer Inhaltsanalyse (nach Früh 2017; Rössler 2010; Krippendorff 2013)

a) Planungsphase

  • Präzisierung der Forschungsfrage und Untersuchungsziele

    • Beispiel: „Berichterstattung in Tageszeitungen zur Bundestagswahl“

  • Festlegung der Grundgesamtheit (z. B. Zeitungen)

    • Differenzierung: Qualitätszeitungen vs. Boulevardpresse

  • Bestimmung des Erhebungszeitraums

  • Entscheidung über Vollerhebung oder Stichprobe

  • Theoretische Fundierung und Entwicklung erster Hypothesen

b) Entwicklungsphase

  • Erstellung des Kategoriensystems / Kategorienschemas

    • Zentrales Instrument der Inhaltsanalyse (Schnell et al. 2023)

    • Definition: Liste von Merkmalen, die die Analyseeinheiten aufweisen müssen

    • Beispiel: bei Zeitungsanalyse Erfassung von

      • allgemeinen Informationen (Zeitung, Erscheinungsdatum, Beitragsart)

      • inhaltlichen Merkmalen (Personennennungen, Politikfelder, Wertungen)

  • Für jede Kategorie wird ein Code festgelegt

  • Kategorienbildung:

    • Deduktiv → Ableitung aus Theorie oder bisherigen Befunden

    • Induktiv → Entwicklung aus dem Material selbst

  • Formale Anforderungen an ein Kategorienschema (Behnke et al. 2010; Schnell et al. 2023):

    • Eindimensionalität – jede Kategorie erfasst nur eine Bedeutungsdimension

    • Vollständigkeit – jede Einheit kann zugeordnet werden

    • Überschneidungsfreiheit – eindeutige Zuordnung der Merkmale

    • Unabhängigkeit – Kategorien beeinflussen sich nicht gegenseitig

c) Testphase

  • Probecodierung – gemeinsames Testen und Diskutieren des Kategorienschemas

    • Anpassung durch Präzisierung, Hinzufügen oder Streichen von Kategorien

  • Codierschulung – Einweisung der Codierer anhand des Codebuchs

  • Reliabilitätstests:

    • Intercoder-Reliabilität → Übereinstimmung verschiedener Codierer

    • Intracoder-Reliabilität → Stabilität bei Wiederholung durch dieselbe Person

    • Maße: Holsti CR, Scott’s Pi, Krippendorff’s Kappa

  • Validitätsprüfung – Gültigkeit der Codierungen

    • Codierungen müssen das theoretische Konzept tatsächlich messen

    • Hohe Übereinstimmung zwischen Forscher und Codierer als Hinweis auf Validität

d) Anwendungsphase

  • Durchführung der Codierung nach Kategorienschema

  • Zufällige Verteilung der Texte auf Codierer

  • Einsatz von Software zur Unterstützung der Codierung:

    • Quantitativ: Textpack, Wordfish, Wordscore

    • Qualitativ: ATLAS.ti, MAXQDA

e) Auswertungsphase

  • Speicherung der Daten in einem Rohdatensatz (Fall = Text, Variable = Kategorie)

  • Quantitative Auswertung mit Statistiksoftware

  • Interpretation der Ergebnisse im theoretischen Kontext

  • Ableitung von Rückschlüssen auf kommunikative oder gesellschaftliche Strukturen


Anwendungsbeispiele

  • Schmied (2002) – Todesanzeigenanalyse (1970–2000)

    • Vergleich öffentlicher und privater Beisetzungen („in aller Stille“)

    • Anteil privater Beisetzungen stieg von 0,01 % auf 24 % → Hinweis auf zunehmende Familienbezogenheit bei Trauerfällen

  • Medieninhaltsanalysen – Wahlkämpfe und politische Berichterstattung

    • Untersuchung, wie Massenmedien politische Ereignisse darstellen

    • Nationale und europäische Wahlkampfstudien (z. B. Holtz-Bacha 2010; Schuck et al. 2011)

  • Strohmeier (2005) – Politikdarstellung in Kinderhörspielen (Benjamin Blümchen, Bibi Blocksberg)

    • Politiker als „lächerliche und inkompetente Figuren“

    • Thematisierung v. a. von Umweltfragen → Politische Sozialisation durch Kinderhörspiele

  • Hierlemann & Sieberer (2014) – Mediale Präsenz von Bundestagsdebatten

    • Vergleich 2005/06 vs. 2013/14

    • Ergebnis: geringe und abnehmende Sichtbarkeit; über DAX-Unternehmen häufiger berichtet

  • Manifesto- und Euromanifesto-Projekte (WZB)

    • Inhaltsanalytische Auswertung von Wahlprogrammen in > 50 Ländern seit 1945

    • Analyse nationaler und europäischer Wahlprogramme (Pappi et al. 2011; Bräuninger & Debus 2012)

    • Ziel: Messung von Parteipositionen, Themenprioritäten und innerparteilicher Demokratie


Datenaufbereitung und -analyse

= Organisation, Prüfung, Verdichtung und statistische Auswertung von erhobenen Daten.


Datenerhebung und Datenmatrix (Kapitel 12 im Reader angucken!)

  • Untersuchungsobjekte: Personen, Gemeinden, Staaten usw.

  • Merkmale: Interessierende Variablen wie politisches Interesse, Einkommen, Lebenszufriedenheit

  • Variablen: Merkmale, die für alle Untersuchungsobjekte erfasst werden

  • Datenmatrix: Tabelle mit

    • Zeilen: Untersuchungsobjekte

    • Spalten: Variablen

    • Zellen: Merkmalsausprägungen der Objekte

  • Codebuch / Variablenreport: Dokumentiert die Variablen, deren Ausprägungen und Bedeutung (z. B. 1 = weiblich, 2 = männlich)

  • Beispiel: Variable v1 = Geschlecht (1 = weiblich, 2 = männlich), Variable v2 = politische Zufriedenheit


Prinzipien der Datensammlung (Kromrey et al. 2016)

  1. Vergleichbarkeit: Merkmal einer Variable ist für alle Objekte gleich definiert

  2. Klassifizierbarkeit: Für jedes Untersuchungsobjekt und jedes Merkmal existiert genau ein Wert

  3. Vollständigkeit: Keine Zellen dürfen leer bleiben; fehlende Angaben = missing values (z. B. 9 oder 99 = „weiß nicht“ oder „keine Angabe“)


Datenaufbereitung

  • Fehlerarten: (Diekmann 2011; Lück & Landrock 2022)

    1. Wild codes: Werte außerhalb des zulässigen Bereichs

    2. Unplausible Werte: Zahlen, die realistisch nicht möglich sind (z. B. 300 Stunden/Monat ehrenamtlich)

    3. Inkonsistente Werte: Widersprüche innerhalb der Daten (z. B. Ehedauer > Alter der Person)

  • Lösungsstrategien: Korrektur durch Vergleich mit Originalfragebogen oder Kennzeichnung als Missing Value

  • Software: Excel, EpiData, SPSS, Stata, R

Testphase (bei Inhaltsanalyse / Codierung)

= dient dazu, das entwickelte Kategorienschema auf seine Praxistauglichkeit zu prüfen und die Codierer auf eine einheitliche Anwendung vorzubereiten. Sie umfasst mehrere Schritte:

  1. Probecodierung: Vorläufiges Kategorienschema wird getestet, Codierentscheidungen diskutiert und Kategorien ggf. angepasst

  2. Codierschulung: Codierer mit Schema vertraut machen

  3. Reliabilitätsprüfung:

    • Intercoder-Reliabilität: Prüft, ob verschiedene Codierer dasselbe Material einheitlich codieren.

    • Intracoder-Reliabilität: Prüft, ob ein Codierer dasselbe Material zu verschiedenen Zeitpunkten gleich codiert.

    • Reliabilitätsmaße: Quantitative Kennzahlen zur Bewertung der Codierübereinstimmung, z. B.:

      • Holsti CR

      • Scott Pi

      • Krippendorff’s Kappa

  4. Validitätsprüfung: Sicherstellen, dass die Codierung das misst, was sie messen soll. Übereinstimmung Forscher – Codierer = Hinweis auf Validität

Deskriptive Datenanalyse

= beschreibt die Daten, ohne bereits Zusammenhänge oder Hypothesen zu testen.

  • Ziel: Verdichtung großer Datenmengen auf zentrale Kennwerte

  • Maßzahlen, die verdichtet werden:

    • Lagemaße: Zentrum der Verteilung

      • Modus: häufigster Wert (nominal)

      • Median: mittlerer Wert (ordinal)

      • Mittelwert: Durchschnitt (intervallskaliert)

    • Streuungsmaße: Variation/Dispersion der Daten (z.B. Varianz, Standardabweichung)

  • Beispiel: Trotz gleicher Mittelwerte (Lagemaße) kann die Streuung des wöchentlichen Taschengeldes bei Stadt- und Landkindern sehr unterschiedlich sein. Deshalb sind Streuungsmaße notwendig, um Unterschiede sichtbar zu machen.

Hypothesenprüfung

  • Ziel: Beziehungen zwischen Variablen prüfen durch Bivariate Zusammenhänge: Welches Maß geeignet ist, hängt vom Skalenniveau der Variablen ab.

    • Zwei nominalskalierte Variablen → Cramer’s V

      • Zweck: Misst die Stärke des Zusammenhangs zwischen den Variablen

      • Wertebereich: 0 (kein Zusammenhang) bis 1 (starker Zusammenhang)

      • Beispiel: Zusammenhang zwischen Geschlecht (m/w) und Parteipräferenz (SPD/CDU/Grüne/Linke)

        • = Geschlecht x Wahlentscheidung

    • Zwei ordinalskalierte Variablen → Spearman’s rho

      • Zweck: Misst, wie gut die Rangordnung einer Variable die Rangordnung der anderen Variable vorhersagt

      • Wertebereich: -1 bis 1

        • +1 → perfekte positive Rangkorrelation (beide Variablen steigen gemeinsam)

        • -1 → perfekte negative Rangkorrelation (eine steigt, die andere fällt)

        • 0 → kein Zusammenhang

      • Beispiel: Zusammenhang zwischen politischem Interesse (gering – hoch) und Wahlbeteiligung (nie – immer)

        • = Politikinteresse x Wahlbeteiligung

    • Zwei metrische Variablen → Pearson’s r

      • Zweck: Misst die lineare Korrelation zwischen zwei Variablen

      • Wertebereich: -1 bis 1

        • +1 → perfekter positiver linearer Zusammenhang

        • -1 → perfekter negativer linearer Zusammenhang

        • 0 → kein linearer Zusammenhang

      • Beispiel: Zusammenhang zwischen Bildungsabschluss und Einkommen

        • Bildung x Einkommen

  • Multivariate Analyse: Einfluss mehrerer unabhängiger Variablen auf eine abhängige Variable

    • Dominantes Verfahren: Regressionsanalyse

      • Lineare Regression → metrische aV

      • Logistische Regression → dichotome aV

      • Multinomiale logistische Regression → nominale aV mit >2 Ausprägungen

      • Ordinale Logitmodelle → ordinale aV

Inferenzstatistik und Signifikanztests

  • Ziel: Rückschluss von Stichprobe auf Grundgesamtheit

  • Stichprobe: Zufällige Auswahl aus Grundgesamtheit (z. B. ALLBUS, n ≈ 3500)

  • Signifikanztest: Prüft, ob ein beobachteter Zusammenhang in der Stichprobe sehr wahrscheinlich auch in der Grundgesamtheit existiert

    • Schritte:

      1. Nullhypothese (H₀) formulieren: → Es besteht kein Zusammenhang zwischen uV und aV.

      2. Alternativhypothese (H₁): → Es besteht ein Zusammenhang zwischen uV und aV.

      3. Statistisches Maß berechnen:

        • Nominal → Cramer’s V

        • Ordinal → Spearman’s rho

        • Metrisch → Pearson’s r

      4. p-Wert bestimmen:

        • Der p-Wert gibt an, wie wahrscheinlich das gefundene Ergebnis unter der Nullhypothese wäre.

        • Häufig gilt: p < 0,05 → Ergebnis statistisch signifikant (d.h. sehr wahrscheinlich nicht zufällig).

      5. Interpretation:

        • Ein signifikantes Ergebnis sagt nur: Zusammenhang sehr wahrscheinlich auch in der Grundgesamtheit.

        • Es sagt nicht, dass der Effekt groß oder wichtig ist.

      Beispiel

      • Hypothese: Bildung beeinflusst Einkommen.

      • Daten: metrisch (Beide Variablen) → Pearson’s r

      • Berechnung: r = 0,45, p = 0,002

      • Interpretation:

        • r = 0,45 → moderater positiver Zusammenhang

        • p = 0,002 → sehr wahrscheinlich auch in der Grundgesamtheit vorhanden

  • Interpretationshinweise: Ein signifikanter Effekt bedeutet nicht automatisch:

    • wichtiger Effekt

    • bewiesene Existenz

    • starker Effekt

  • Beispiel: Zusammenhang Bildung → Einkommen, Geschlecht → Wahlverhalten


Wichtig: In der Praxis berechnet man den p-Wert meistens mit Statistikprogrammen (SPSS, R, Stata), weil die Berechnungen bei großen Datensätzen sehr aufwendig wären.


Softwareunterstützung

  • Quantitative Datenanalyse: SPSS, Stata, R, Excel

  • Inhaltsanalyse: ATLAS.ti, MAXQDA, Textpack, Wordfish, Wordscore

  • Software übernimmt Berechnungen, nicht die Interpretation → Verantwortung liegt beim Anwender

Zusammenfassung

  1. Datenaufbereitung: Fehlerkontrolle, Codebuch, Missing Values

  2. Deskriptive Analyse: Lagemaße, Streuungsmaße, Verdichtung großer Datenmengen

  3. Hypothesenprüfung: Bivariate und multivariate Verfahren, Regressionsanalyse

  4. Inferenzstatistik: Rückschluss von Stichprobe auf Grundgesamtheit, Signifikanztests

  5. Software: Effiziente Berechnung, menschliche Interpretation bleibt erforderlich


Publikation

Forschungsergebnisse gelten erst dann als anerkannt, wenn sie veröffentlicht und damit kritisch überprüfbar sind (DFG 2013, S. 43).

heißt: Publikation = integraler Bestandteil des Forschungsprozesses (Döring 2023, S. 768).


Publikationsformen


  1. Bericht

    • Zweck: Rechenschaftspflicht gegenüber Förderinstitutionen.

    • Inhalt: Ausgangsfragen, Zielsetzung, durchgeführte Arbeiten, Abweichungen, wissenschaftliche Fehlschläge, Probleme in Organisation/Technik, Ergebnisse, Diskussion.

    • Besonderheit: Kein Publikationsmedium im engeren Sinne; enthält jedoch Verzeichnisse bereits erschienener oder angenommener Publikationen.

    • Zwischenberichte können für die Weiterförderung erforderlich sein.

  2. Vortrag / Konferenzbeitrag

    • Präsentation erster Forschungsergebnisse auf nationalen/internationalen Konferenzen.

    • Zweck: Information, Feedback, Anregungen, Basis für spätere Publikationen (Tagungsband oder Fachzeitschrift).

  3. Buchveröffentlichung

    • Möglichkeit, ein Forschungsprojekt umfassend und ausführlich darzustellen.

    • Häufig bei Qualifikationsarbeiten (Promotion, Habilitation).

  4. Fachzeitschriftenartikel

    • Heute die wichtigste Form der Veröffentlichung.

    • Zentral für die wissenschaftliche Kommunikation, auch in den Sozialwissenschaften.

    • Funktion:

      1. Neue Ergebnisse werden in das Wissenschaftssystem eingespeist und können kritisiert werden.

      2. Erkenntnisse können neue Forschungsprojekte anstoßen.

    • Fachaufsätze zeigen den kumulativen Prozess von Wissenschaft – jede Publikation erweitert das Wissen ein Stück.

Hinweis: Tages- oder Wochenzeitungen sind keine Fachzeitschriften, da sie journalistische Produkte sind.


Sozialwissenschaftliche Fachzeitschriften

  • Die Auswahl ist groß: über 4500 politikwissenschaftliche und 4200 soziologische Fachzeitschriften.

  • Qualitätskriterien:

    1. Begutachtungsverfahren (Review) – Prüfung durch Fachexperten auf Validität und Originalität.

      • Typischerweise Peer-Review-Verfahren.

      • Gutachter geben Empfehlungen: Annahme ohne Änderungen, Annahme nach geringfügiger Überarbeitung, Überarbeitung & erneute Begutachtung (Regelfall), Ablehnung.

      • Zwischen Einreichung und Publikation können 12–18 Monate vergehen.

    2. Aufnahme in den Social Sciences Citation Index (SSCI) – Indikator für wissenschaftliche Relevanz.

  • Impact-Faktor:

    • Misst, wie oft Beiträge einer Zeitschrift in anderen Fachzeitschriften zitiert werden.

    • Höherer Impact-Faktor → größere Bedeutung/Relevanz der Zeitschrift.

    • Umstritten, aber grobe Orientierung möglich.

  • Beispiele deutschsprachiger Fachzeitschriften:

    • Mit Peer-Review: „Der moderne Staat“ (dms), „Kölner Zeitschrift für Soziologie und Sozialpsychologie“ (KZfSS), „Politische Vierteljahresschrift“ (PVS).

    • Ohne Review: „Aus Politik und Zeitgeschichte“ (APuZ) – Beiträge trotzdem oft qualitativ gut, aber nicht offiziell wissenschaftlich.

  • Internationale Fachzeitschriften:

    • Forschungsergebnisse zunehmend auf Englisch veröffentlicht.

    • SSCI enthält relevante Zeitschriften, z. B.:

      • Politikwissenschaft (Top 10 z. B. American Journal of Political Science, Journal of Public Administration Research and Theory).

      • Soziologie (Top 10 z. B. Annual Review of Sociology, American Sociological Review).

      • Verwaltungswissenschaft (Top 10 z. B. Public Administration Review, Journal of Public Administration Research and Theory).

  • Ziel:

    • Forschungsergebnisse veröffentlichen, um das Wissen zu erweitern, Kritik zu ermöglichen und neue Forschungsfragen zu generieren.


Author

Cathérine C.

Information

Last changed