Grundfragen bei der Auseinandersetzung mit quanitativen Studien
Welche aV und uVs gibt es?
Welche analytische Ebene haben die Forschenden im Blick?
Variable und Konstante
Konstante = sw. Merkmal mit nur einer Ausprägung
Variable = sozialwissenschaftliches Merkmal mit mindestens 2 Ausprägungen
Manifeste Variable: direkt beobachtbar (z.B. Haarfarbe, Größe)
Lantente Variable: nicht direkt beobachtbar (z.B. Bildung, Einkommen)
diese können unterteilt werden in vermutete Ursache-Wirkungs-Beziehung:
abhängige Variable (aV): Sachverhalt, der erklärt werden soll
unabhängige Variable (uV): Merkmal, das einen (vermuteten) Einfluss auf die aV hat
oft gibt es mehrere uVs!
Indikator = beobachtbarer Sachverhalt, der einen theoretischen Begriff in die Realität "übersetzt".
Forschungsdesign
= methodische Gesamtplan eines empirischen Forschungsprojekts — also der Rahmen, der festlegt, wie du deine Forschungsfrage beantworten willst.
Geklärt wird:
Untersuchungsebene
Mikroebene = Individualebene
Zusammenhang zwischen Individualmerkmalen wie Einkommen & Bildung
Mesoebene (Kontextebene) = analytische Ebene der Verbände, Parteien und Organisationen und verknüpft Makro/Mikro Ebenen (z. B. wie beeinflusst das politische Klima in einer Region das individuelle Wahlverhalten?)
Makroebene = Gesellschafliche Ebene
Zusammenhang zwischen Merkmalen Systemeigenschaften wie Nationalstaaten, oder auf regionaler oder lokaler Ebene
Beispiel:
Mirkoebene: Arbeitslosigkeit (uV) -> Wahlbeteiligung (aV)
Makroebene: Arbeitslosenquote (uV) -> Wahlbeteiligung (aV)
Untersuchungsform
Experimentell:Manipulation einer Variable und Ursache beobachten -> Laborexperiment zur Wirkung politischer Werbung
Nicht-Experimentell: Beobachtung nur vorhandener Zusammenhänge -> Befragung zur politischen Einstellung
Querschnittstudie: Daten an einem Zeitpunkt erhoben.
Trendstudie: Daten zu mehreren Zeitpunkten, aber bei unterschiedlichen Untersuchungseinheiten erhoben.
Panelstudie: Daten bei den gleichen Untersuchungseinheiten mehrmals erhoben.
Häufigkeit der Datenerhebung
einmalig: Querschnitt
Mehrmalig: Trend, Panel
Methoden der sozialwissenschaftlichen Forschung
Forschungslogik = systematische Vorgehen, das in der Wissenschaft angewendet wird, um von Fragen oder Problemen zu empirisch überprüfbaren Schlussfolgerungen zu gelangen
z.B.: qualitativ (Induktion) oder quantitativ (Deduktion)
Strategien/ Techniken = Werkzeuge, die zur Bearbeitung einer konkreten Forschungsfrage zur Verfügung stehen
Befragung, Beobachtung, Experimente, Sekundäranalysen, Aktionsforschung, Inhaltsanalysen, Querschnitts- oder Längsschnittstudien
Qualitative und Quantitative Methoden der Sozialwissenschaften und Mixed Methodes
Zentrale Merkmale:
Dimension
Qualitative Meth.
Quantitative Meth.
Forschungsziel
verstehen
erklären
Forschungsprozess
zirkulär
linear
Fallzahl
gering
viele
Forschungsdaten
Worte
Zahlen
Hypothesen
generierend
- anfangs sehr allgemein, um neue Aspekte im Untersuchungsprozess berücksichtigen zu können.
-werden dann fortlaufend präzisiert, modifiziert und revidiert
prüfend
-werden explizit vor Datenerhebung formuliert, basierend auf Theorie und bestehendem Forschungsstand.
-Ziel: Überprüfung von Zusammenhängen
-Ergebnis der Prüfung= (vorläufige) Bestätigung oder Falsifizierung
Forschungslogik
Induktion
-Von Einzelfall (Beobachtung) auf allgemeine Regel (Gesetz)
Deduktion
-vom Allgemeine auf das Besondere
Auswertung
offen
Verfahren nach Przyborski:
Methodologie der Grounded Theory
Verfahren der Narrationsanalyse
objektive Hermeneutik
dokumentarische Methode
statistische Verfahren
z.B: quantit. Datenerhebung
Empirische Informationen werden numerisch kodiert (z. B. politische Interesse: 0 = „überhaupt nicht“, 3 = „sehr interessiert“).
Zahlen ermöglichen statistische Auswertungen.
Genelralisierung
= Erkenntnisse über den Einzelfall hinaus auf allgemeine Zusammenhänge übertragen (Abstraktion).
hoch
Fallauswahl meist durch Zufallsstichproben.
Mit Inferenzstatistik lassen sich Ergebnisse innerhalb bestimmter Fehlergrenzen auf die Grundgesamtheit übertragen.
Gemeinsamkeiten
arbeiten mit empirischen Informationen.
Ziel, Erkenntnisse über gesellschaftliche Strukturen und Handlungen zu erlangen, die über den konkreten Einzelfall hinausweisen
Intersubjektive Nachvollziehbarkeit (Prüfbarkeit)
andere Forschende müssen verstehen können, wie man zu den Ergebnissen gekommen ist.
Fundierte Generalisierungen
Schlussfolgerungen, die über einzelne Fälle hinausgehen, basierend auf tiefgehender Kenntnis des Untersuchungsgegenstands
Kritische Reflexion der Ergebnisse
z.B. Wo könnten Fehler, Verzerrungen oder methodische Schwächen liegen?
Ziel: Verlässlichkeit und Transparenz der Forschung
Mixed Methodes
= Kombination beider Ansätze, weil Viele Forschungsfragen lassen sich sowohl qualitativ als auch quantitativ bearbeiten
Methodenmix:
Quantitative Daten: standardisierte Befragungen, Bibliotheksstatistiken
Qualitative Daten: Beobachtungen, Schulaufsätze, informelle Gespräche
Durch foolgende Strategien:
Sequenziell: qualitative und quantitative Forschung folgen nacheinander.
Komplementär: beide Methoden ergänzen sich gleichzeitig.
Aktuelle Tendenz:
Zunahme von Mixed-Methods-Studien (Baur et al. 2018),
Mehrheit der Forschung bleibt jedoch klar qualitativ oder quantitativ.
4 Kriterien zur Charakterisierung sozialwissenschaftlicher Forschung
Ziel wiss. Forschung = Inferenz (vgl. Schlussfolgerung)
-> Erklärung soz. Sachverhalte auf Basis empirischer Daten, durch:
deskriptive Inferenz, bei der aus beobachteten Daten auf nicht beobachtete Fakten geschlossen wird, oder
kausale Inferenz, bei der Erklärungen für die Beobachtungen entwickelt werden.
Wissenschaftl. Vorgehensweise = öffentlich
-> sozialwiss. Forschung erfordert transparente und nachvollziehbare Methoden, durch:
Offenlegung von empirischen Beobachtungen, theoretischer Argumentation, methodischem Vorgehen und Schlussfolgerungen
Möglichkeit für andere, diese kritisch zu prüfen, nachzuvollziehen und zu replizieren
→ ohne Transparenz kein überprüfbarer, öffentlicher wissenschaftlicher Akt.
Schlussfolgerungen sind unsicher (vgl. Fehleranfälligkeit)
-> bei Erhebung, Analyse und Interpretation von Daten können Fehler entstehen -> wissenschaftliche Schlussfolgerungen sind daher grundsätzlich unsicher -> Ausmaß dieser Unsicherheit kann jedoch abgeschätzt werden
Gemeinsamkeit ist die Methode
-> Sozialwissenschaftliche Forschung lässt sich nicht über Inhalte definieren, sondern nur über ihre Methode.
Heißt: Forschungslogik, Strategien und Techniken bilden die Grundlage der Wissenschaft.
Wichtig - nach King et al. (1994, S. 9:
Wissenschaft ist ein soziales Unternehmen: Trotz unvermeidbarer Fehler trägt Forschung nur dann zum Erkenntnisfortschritt bei, wenn ihre Methoden verstanden, offengelegt und kritisch diskutiert werden – so können alle an Beschreibung, Theorieentwicklung und Theorietestung mitwirken.
Nominaldefinition
Wichtiger Bestandteil der Konzeptspezifikation: sorgt für eindeutige Begriffsbestimmung und Abgrenzung.
Nominaldefinition = reine Bedeutungsübertragung zur Festlegung, wie ein (neuer) Begriff verwendet wird, indem auf bereits bekannte Begriffe zurückgegriffen wird.
Beispiel: Schimmel = Pferd mit weißem Fell.
Bestandteile:
Definiendum = das zu definierende Wort / der neue Begriff.
Schimmel
Definiens = das definierende Wort / Ausdruck, der zur Erklärung genutzt wird.
Pferd mit weißem Fell
Funktionen
ermöglicht eindeutige Kommunikation über abstrakte Begriffe.
schaffen klare Abgrenzungen zu anderen Konzepten.
Grundlage für empirische Forschung (Theorien, Analysen, Befunde).
Ohne ND könnten Begriffe mehrdeutig verwendet werden, was zu Missverständnissen führt.
Probleme:
Unklare Begriffe im Definiens: Wenn die verwendeten Begriffe selbst nicht eindeutig sind, müssen sie ebenfalls definiert werden.
Beispiel: Wenn „Pferd“ oder „Fell“ unklar ist, müssten sie selbst zum Definiendum erhoben werden.
Definitorischer Regress: Gefahr einer endlosen Definitionskette → muss durch allgemein anerkannte, „selbstverständliche“ Grundbegriffe gestoppt werden.
Definitorische Zirkel: Definitionen, in denen das Definiendum im Definiens enthalten ist → Zirkularität.
Beispiel: „Politische Beteiligung ist, wenn sich ein Bürger politisch beteiligt.“
Realdefinition
auch: ontologische oder sachbezogene Definition
Mit dem Ziel des Verstehens und Erklärens, nicht nur des Benennens (wie bei der ND), unterscheidet sie sich deutlich von der Nominaldefinition:
Realdefinition = wird ein (neuer) Begriff durch sein Wesen bzw. seine Beschaffenheit definiert.
beschreibt die realen Merkmale, Eigenschaften oder Ursachen, die einen Gegenstand oder Begriff ausmachen, und geht über eine bloße Bedeutungszuweisung hinaus.
Heißt: Legt verbindlich fest, was zum Kern des Sachverhalts gehört.
Beispiel
Nominaldefinition: „Schimmel = Pferd mit weißem Fell“ → bloße Bezeichnung.
Realdefinition: „Ein Schimmel ist ein Pferd, dessen Fellpigmente durch genetische Faktoren weiß erscheinen, wodurch das Tier charakteristische physiologische Merkmale aufweist.“ → erklärt wesentliche Eigenschaften und Ursachen.
Probleme
Es gibt keine objektiven Kriterien, um zu prüfen, ob das Wesen eines Sachverhalts angemessen erfasst wurde.
Daher sind Realdefinitionen nicht eindeutig richtig oder falsch
Konsequenz: eignen sich nicht für wissenschaftliche Arbeiten, da die Überprüfbarkeit fehlt.
Erklärung:
Sie ist eine Behauptung über die Realität, nicht nur über die Bedeutung eines Begriffs.
Wissenschaft funktioniert über prüfbare, nachvollziehbare Aussagen.
Bei einer Realdefinition gibt es kein objektives Kriterium, um festzustellen, ob sie „richtig“ oder „falsch“ ist, bei Nominaldefinitionen schon
Operationale Definition
Operationalisierung = Übersetzung eines theoretischen Begriffs in empirisch messbare Indikatoren.
Verbindet theoretische Begriffe mit der empirischen Realität.
Legt fest, wie ein Begriff (z. B. „Intelligenz“) durch beobachtbare Indikatoren messbar gemacht wird.
Heißt: Operationale Definitionen sind entscheidend, um theoretische Konzepte messbar und überprüfbar zu machen. Sie sind zentral für die Validität empirischer Forschung.
Problem:
Ein Begriff kann in unterschiedlichen Studien verschiedene Indikatoren erhalten (z. B. „Bildung“, „Demokratie“).
Unterschiedliche Indikatoren → unterschiedliche empirische Ergebnisse.
Kritische Analyse empirischer Studien: Prüfung der Angemessenheit der verwendeten Indikatoren.
2 Grundmodelle der Erklärung sozialer Sachverhalte
Deduktiv-nomologisches Modell (auch: D-N-Modell / Hempel-Oppenheim-Modell)
Quantitative Sozialforschung nutzt das D-N-Modell als Grundmodell der Erklärung.
Explanandum: „Zu erklärendes Phänomen“ – die Aussage über den Sachverhalt, z. B. „Die Wahlbeteiligung in Deutschland sank von 1998–2009“.
Explanas: „Erklärende“ – umfasst allgemeines Gesetz (Allaussage) + Randbedingungen (konkrete situative Angaben).
Funktionsweise:
Wenn-Dann-Beziehung: Allgemeines Gesetz beschreibt zeitlich und räumlich unbeschränkten Zusammenhang zwischen zwei Sachverhalten
Randbedingungen beziehen sich auf die konkrete Situation.
Erklärung durch deduktive Ableitung: Explanandum wird aus Gesetz + Randbedingungen logisch gefolgert.
= Gesetz(G): Wenn ein Faden mit einer Mindestlast belastet wird, dann reißt er + Randbedingung 1 (R1) Maximalbelastung 1kg + R2: Angehängtes Gewicht 2kg -> Explanandum: Faden reißt
Voraussetzungen einer DN-Erklärung:
Explanandum muss logisch korrekt aus dem Explanans ableitbar sein.
Explanans muss ein allgemeines Gesetz enthalten.
Explanans muss wahr sein.
Explanans muss empirisch überprüfbar sein (Gesetz + Randbedingungen).
Erweiterung nach Esser (1999b): Explanandum muss empirisch wahr sein.
Induktiv-statistisches Modell (auch: I-S-Modell / probabilistische Erklärung)
In den Sozialwissenschaften gibt es keine strikten, allgemein gültigen Gesetze wie in den Naturwissenschaften. Deshalb wird das D-N-Modell modifiziert: statt absoluter Gesetze werden Wahrscheinlichkeiten verwendet.
Ziel: Vorhersage sozialer Phänomene mit Wahrscheinlichkeit, nicht mit logischer Sicherheit.
Bestandteile
Probabilistische Gesetz (PG): Gesetz in Form einer Wahrscheinlichkeit.
Beispiel: Bürger, die sich sehr für Politik interessieren, gehen wahrscheinlich wählen
Randbedingung: die nur für konkrete Situationen gelten
Beispiel: Max Mustermann interessiert sich sehr für Politik
Explanandum: zu erklärendes Phänomen
Beispiel: Max Mustermann beteiligt sich wahrscheinlich an den Wahlen
Heißt: Je höher die Wahrscheinlichkeit im Gesetz, desto wahrscheinlicher ist das Explanandum, aber keine Sicherheit.
Vergleich:
Merkmal
D-N-Modell
I-S-Modell
Gesetz
Allgemeingültig (Allaussage), zeitlich-räumlich unbeschränkt
Probabilistisches Gesetz (statistische Wahrscheinlichkeit)
Explanandum
Kann deduktiv abgeleitet werden
Kann nur mit Wahrscheinlichkeit prognostiziert werden
Sicherheit
Logisch zwingend
Nicht sicher, auch bei richtigem Explanans kann Explanandum falsch sein
Fachbegriff
D-N-Erklärung
I-S-Erklärung oder I-S-Begründung
Wissenschaftstheorie - Kritischer Rationalismus
Wissenschaftstheorie = „Aussagenbündel darüber, was Wissenschaft ist und wie sie vorzugehen hat“ (Gehring & Weins 2009).
Allgemeine Prinzipien für:
Formulierung inhaltlicher Theorien
Methodisches Vorgehen bei Untersuchungen
Synonyme: Metatheorien oder „Theorien über Theorien“
Funktion der Wissenschaftstheorie (Häder 2019)
Beschäftigt sich mit der Logik des Forschens.
Legt Spielregeln für wissenschaftliches Arbeiten fest und begründet sie.
Vergleich: gutes Kochbuch – sagt nicht nur wie, sondern auch warum bestimmte Vorgehensweisen sinnvoll sind.
= Wissenschaftstheorie legt die Regeln und Prinzipien wissenschaftlichen Arbeitens fest, erklärt deren Begründung, und dient als Metaebene, um Theorien und Methoden systematisch zu gestalten.
Kritischer Rationalismus (Karl Popper)
Wissenschaft soll wahre Aussagen über die Realität machen — aber: absolute Wahrheit kann nie endgültig bewiesen werden
Stattdessen sollen Theorien kritisch geprüft werden und an Realität scheitern können.Nur so kann Wissenschaft lernen und Fortschritt erzeugen.
Merkmale:
Falsifizierbarkeit: Laut Popper sind nur Aussagen wissenschaftlich, die an der Realität überprüfbar sind und widerlegt (falsifiziert) werden können.
ungleich: Verifikation = Versuch, eine Aussage endgültig zu bestätigen („beweisen”)
Vorläufigkeit: Auch bestätigte Aussagen gelten nur vorläufig („bewährt“).
Empirischer Bezug: Begriffe beziehen sich auf beobachtbare Realität
Kritik statt Bestätigung: Ziel, Aussagen kritisch zu prüfen, statt blind zu bestätigen
Aber Achtung vor: Basissatzproblem
Basissatz: durch Konventionen beschlossene Festsetzungen, die sich auf intersubjetiv beobachtbare Sachverhalte beziehen.
Aussagen werden nicht direkt durch „die Realität“ geprüft, sondern durch Beobachtungssätze (Aussagen über Beobachtungen).
Diese Beobachtungssätze können fehlerhaft sein → eine direkte, unproblematische Prüfung ist nicht möglich.
> Du kannst nie alle Raben der Welt sehen → also nie beweisen, dass alle schwarz sind.
> Aber: ein einziger weißer Rabe reicht, um die Aussage
Poppers Lösung
Beobachtungssätze (Basissätze) werden konventionell anerkannt: man akzeptiert sie per Beschluss vorläufig als Prüfgrundlage = Diese Anerkennung ist vorläufig
Praktische Konsequenzen für Forschende
Intersubjektive Nachvollziehbarkeit:
Der gesamte Forschungsprozess muss so dokumentiert werden, dass Dritte nachvollziehen können, wie Ergebnisse zustande gekommen sind (Methoden, Entscheidungen, Kriterien).
Methodische Sorgfalt:
Bei Datenerhebung und -auswertung sind die höchstmöglichen methodischen Standards anzuwenden, damit die Basissätze (Beobachtungen) so zuverlässig wie möglich sind.
Arten von Forschungsprojekten
Unterscheidung
Typ
Merkmale
Initiierung/Finanzierung
Auftragsforschung
Auftraggeber bestimmt Thema, Ziel, Zeit, Geld; Ergebnisse dürfen nicht beeinflusst werden
Ministerium beauftragt Studie zur Integration
Selbst initiiert
Forschende wählen Thema selbst, beantragen Mittel (z. B. DFG)
Wissenschaftlerin untersucht freiwillige Arbeit in Großstädten
Zielrichtung
Grundlagenforschung
Theorien prüfen/entwickeln, Wissen erweitern
Einfluss digitaler Medien auf Wahlverhalten
Anwendungsorientierte Forschung
Praktische Probleme lösen, Handlungsempfehlungen geben
Entwicklung eines Bürgerbeteiligungskonzepts
Achtung: Hausarbeit ist kein Forschungsprojekt!
Studierende durchlaufen nicht alle Phasen eines empirischen Forschungsprojekts.
Besonders am Studienanfang handelt es sich meist um Literaturberichte:
Der Forschungsstand zu einem Thema wird zusammengefasst und bewertet.
Eine konkrete Forschungsfrage wird auf Basis vorhandener Literatur beantwortet – nicht durch eigene Datenerhebung.
10 Projektphasen sozialwissenschaftlicher Forschungsprojekte
Klärung, ob man Quantitativ oder Qualititativ forschen möchte. Unterschiede bestehen in der Art, wie man vorgeht (z. B. Datenerhebung, Analyse), aber:
Beide müssen Themen wählen, Begriffe klären, Daten erheben, auswerten und veröffentlichen. → Die Gemeinsamkeiten sind größer als die Unterschiede
Ablauf:
(1) Festlegung des Forschungsthemas
│Beispiel: „Politisches Vertrauen“ ist ein Thema – aber noch keine konkrete Forschungsfrage
▼
(2) Auseinandersetzung mit dem Stand der Forschung
│ → Beide zusammen führen zu…
(3) Formulierung der Forschungsfrage
│konkret und überprüfbar
(4) Konzeptspezifikation (Begriffsdefinition)
│Begriffe müssen präzise theoretisch geklärt werden, um eindeutig und messbar zu sein
Beispiel: Was meint man genau mit „Vertrauen“ oder „Legitimität“?
Alltagsbegriffe müssen in wissenschaftliche Konzepte übersetzt werden.
z. B. „Wutbürger“ → ein Konzept sozialer Proteste, das man empirisch untersuchen kann.
(5) Hypothesenbildung
│Hypothesen = theoriegeleitete Vermutungen über Ursache-Wirkungs-Zusammenhänge.
Wichtig: Hypothesen müssen falsifizierbar sein – also an der Realität scheitern können (Prinzip des Kritischen Rationalismus).
(6) Operationalisierung
│Übersetzung theoretischer Begriffe in beobachtbare Indikatoren, um Theorien empirisch messbar zu machen, über Korrespondenzregeln.
z. B. das theoretische Konzept „Vertrauen“ → messbar durch Fragen wie „Wie sehr vertrauen Sie der Regierung?“
(7) Prüfung: Liegen geeignete Daten vor?
├──► JA → (8) Sekundäranalyse
│
└──► NEIN → (9) Primäranalyse: Entwicklung eines Forschungsdesigns
│Wichtige Entscheidungen:
Untersuchungsebene: Gesellschaft (Makro) oder Individuum (Mikro)?
Art der Studie: Experimentell (Labor, Feld) oder nicht-experimentell (Querschnitt, Panel, Trend)?
Zeitdimension: Einmalige oder wiederholte Erhebung?
Ziel: Ein Design wählen, das zur Frage und zu den Ressourcen passt.
(10) Auswahlverfahren: Über wen/welche Einheiten will man Aussagen treffen?
|
(11) Datenerhebung:
Formen: Befragung, Beobachtung, Inhaltsanalyse
| Arten
Vollerhebung: z.B. Bundestagswahl: alle wahlberechtigten Bürger*innen
Vorteile: vollständige Datenbasis.
Nachteile: sehr aufwändig, oft nicht praktikabel, häufig unnötig.
Teilerhebung: nur einer Auswahl der Elemente der Grundgesamtheit als dominantes Verfahren in den Sozialwissenschaften.
Zufallsverfahren → nach mathematischem Zufallsprinzip.
repräsentativ, statistisch sauber.
Nicht-zufällige Verfahren → z. B. bewusste Auswahl (oft in qualitativer Forschung).
Stichprobe: Elemente aus der Grundgesamtheit nach festen Regeln ausgewählt
Willkürliche Auswahl: keine festen Regeln; Elemente werden frei oder opportunistisch gewählt.
(12) Datenaufbereitung & Datenanalyse
│Daten müssen bereinigt, strukturiert und ausgewertet werden.
Bereinigung = Fehlerkorrektur, Umgang mit fehlenden Werten usw.
Analyseverfahren hängen von Forschungsfrage & Datentyp ab (z. B. Regressionsanalyse, qualitative Inhaltsanalyse).
(13) Publikation der Ergebnisse
Ergebnisse müssen veröffentlicht werden, sonst tragen sie nicht zum wissenschaftlichen Fortschritt bei.
Typische Formen:
Abschlussbericht (oft intern)
Bücher, Zeitschriftenartikel (öffentlich & wissenschaftlich relevant)
Forschungsthema, Forschungsstand (Literaturrecherche) und Forschungsfrage
Das Forschungsthema bildet den Ausgangspunkt jedes Forschungsprojekts.
= grober Rahmen , ist aber noch keine ausreichende Arbeitsgrundlage.
Erst die Forschungsfrage macht ein Projekt konkret, überprüfbar und zielgerichtet.
Relevanz = entscheidend, damit die Arbeit nicht nur geschrieben, sondern auch gelesen wird (Stykow et al. 2010).
🔹 Vom Thema zur Frage – Vorgehen
Themenwahl: Orientierung an persönlichem Interesse (Auftrag) und wissenschaftlicher Relevanz durch Auseinandersetzung mit bestehendem Forschungsstand
Dimensionen der Relevanz: Idealfall: Forschungsprojekt erfüllt beide Kriterien.
Theoretisch: Beitrag zum wissenschaftlichen Diskurs, zur Erweiterung des Wissens, Prüfung von Hypothesen, Verbesserung von Theorien oder Methoden
Empirische Prüfung ungetesteter Hypothesen
Aufdeckung von Inkonsistenzen in Theorien
Identifizierung empirischer Fälle, die Theorien bisher nicht erklären
Entwicklung klarer Konzepte oder Messinstrumente
Formulierung alternativer Erklärungen
Anwendung einer bestehenden Theorie auf neues Forschungsfeld
Gesellschaftlich: Bedeutung für die „reale Welt“, zum Verständnis und Vorhersage sozialer, politischer oder ökonomischer Phänomene, die viele Menschen betreffen
Wer ist betroffen? – Identifikation der betroffenen Personengruppen
Wie lassen sich die Effekte bewerten? – Analyse der Konsequenzen; Bewertung nach mehreren, explizit ausgewählten Maßstäben
Welche Ratschläge können erteilt werden? – Diskussion praktischer Implikationen; Empfehlungen müssen normativ fundiert und argumentativ nachvollziehbar sein
⚠️ Appelle, persönliche Meinungen oder emotionale Kommentare gehören nicht in wissenschaftliche Texte.
Beispiel: Direkte Demokratie
Vorteile: politische Aufmerksamkeit, politisches Lernen, staatsbürgerliche Verantwortung („Schule der Demokratie“)
Problem: geringe Beteiligung → soziale Selektivität (überproportional Gebildete, Männer)
Bewertung abhängig vom Demokratieverständnis:
Liberales Modell: problematisch → verletzt politische Gleichheit
Elitäres Modell: positiv → qualifiziertere Entscheidungen
Thema eingrenzen:
Breite Themen wie „soziale Ungleichheit“ → zu groß. Eingrenzen nach:
Ebene: lokal, national, international
Zeit: z. B. Entwicklung über die Jahre
Dimension: Mikro- oder Makroebene
oder Präzisierung durch Kombination von Kernbegriffen →
z. B. statt „Wahlforschung“
→ „Lokale Unterschiede der Wahlbeteiligung in Deutschland“.
Forschungsstand analysieren:
Gibt Kenntnis über bestehende Erkenntnisse, Theorien und offener Fragen zum Erkennen von:
theoretischen Ansätzen
empirischen Ergebnissen
Forschungslücken
Vermeidung von Überschneidungen mit bereits erforschten Themen.
Auseinandersetzung mit dem Forschungsstand sichert den kumulativen Charakter der Wissenschaft → Forschung baut aufeinander auf (Lehnert et al. 2007).
Literaturrecherche gibt Überblick über den aktuellen Forschungsstand gewinnen.
= Grundlage für Formulierung der Forschungsfrage.
Wissenschaftliche Texte = Texte, die wissenschaftlich geprüft, nachvollziehbar und theoretisch fundiert sind.
Erkennbar an:
Literaturverzeichnis / Quellenangaben
Autorenschaft durch Fachwissenschaftler
Veröffentlichung in anerkannten wissenschaftlichen Verlagen oder Zeitschriften
Kriterien zur Bewertung von Fachliteratur
Zitierfähigkeit: Quelle ist öffentlich zugänglich und nachvollziehbar
Zitierwürdigkeit: Quelle erfüllt wissenschaftliche Qualitätsstandards
Relevanz: Quelle ist inhaltlich relevant zur Forschungsfrage
Leitfragen: Was suche ich? (Thema grob festlegen)→ Wo suche ich? (Rechercheorte & -mittel, Thema weiter eingrenzen)
Erst bei einer ungefähren Forschungsfrage → systematische Recherche (nach Stykow)
wenn alle verfügbaren Bibliotheks- und elektronischen Recherchemittel konsequent genutzt werden, um sämtliche Erscheinungsformen wissenschaftlicher Information abzudecken
Arten wiss. Fachliteratur
Monografie: Buch zu einzelnem Thema oder Forschungsproblem, unterteilt in:
Lehrbücher: Überblick & Grundlagen (z. B. Diekmann 2011; Schnell et al. 2023)
Studien: spezifische Forschungsfragen, oft aus Dissertationen/Habilitationen
Schlüsselwerke: prägende Klassiker (z. B. Almond & Verba 1963, Huntington 1996, Lijphart 1999)
Rechercheort:
Online-Kataloge der Universitätsbibliotheken
OPAC (Online Public Access Catalogue)
KVK (Karlsruher Virtueller Katalog: Meta-Suchmaschine, durchsucht mehrere Bibliothekskataloge gleichzeitig.
BASE (Bielefeld Academic Search Engine): Eine der weltweit größten Suchmaschinen für wissenschaftliche Web-Dokumente (> 340 Mio.).
Pollux (FID Politikwissenschaft): Fachinformationsdienst speziell für Politikwissenschaft, ca. 12 Mio. Nachweise.
Sammelbände: Sammlung mehrerer Beiträge verschiedener Autoren
Herausgegeben von Fachwissenschaftlern
z.B. Handbuch empirische Sozialforschung (Baur & Blasius 2022)
Rechercheort: wie Monografie
Fachzeitschriften: z.B: Kölner Zeitschrift für Soziologie und Sozialpsychologie (KZfSS)
Fachaufsätze = zentrale Kommunikationsmedium, i.F. aktuellste und verlässlichste Quelle für neue Forschungsergebnisse
Web-of-Science
SSCI (Social Science Citation Index): Wichtigste Fachdatenbank der Sozialwissenschaften.
IBZ: monatlich aktualisiert > 3,5 Mio. Aufsätze aus 11.500 Zeitschriften (seit 1983) ABER nicht alle Zeitschriften erfüllen wissenschaftliche Standards
JSTOR: Online-Archiv älterer Fachzeitschriftenausgaben.
Statistiken & Forschungsdaten:
Amtliche Statistiken:
Statistischen Bundesamt
Eurostat
OECD
Weltbank
ACHTEN AUF Datenharmonisierung bei internationalen Vergleichen
als PRIMÄRQUELLEN bevorzugt
Komerzielle Datenportale: Statista
Sozialwissenschaftl. Datensätze: von Forschungsinstituten
z.B. Gesis: größte deutsche Infrastruktureinrichtung für Sozialwissenschaften
Politbarometer
ALLBUS
Grundlage für empirische Sekundäranalysen
Formen der Literaturübersicht:
Narrative Review (traditionelle Literaturübersicht):
unsystematisch / subjektiv, Typisch für theoretisch-argumentative Arbeiten
Systematic Review (systematische Literaturübersicht)
Auswahl: nach festgelegten Kriterien (Ein-/Ausschlusskriterien, Datenbanken, Suchbegriffe) = transparent und nachvollziehbar für objektive Zusammenfassung des Forschungsstands
Grundlage häufig für Metaanalysen oder quantitative Vergleiche
Wichtige Begriffe bei Recherche:
Open Access: Freier und kostenloser Zugang zur Maximierung der Verbreitung
DOI (Digital Objekt Identifier): Dauerhafte, eindeutige Kennung zur Online-Version eines Dokuments
Zentrale Prinzipien:
Primärquellen vor Sekundärquellen!
Kombination mehrerer Recherchemittel notwendig.
Abstracts helfen bei schneller Relevanzbewertung.
Zitationshäufigkeit (Times Cited) = Indikator für Bedeutung eines Werks.
VPN-Verbindung oft nötig für Volltextzugriff.
Entwicklung der Forschungsfrage:
Leitet sich aus Lücken oder offener Probleme des Forschungsstands ab.
Muss präzise, forschungsleitend und beantwortbar sein und dient Strukturierung des gesamten Projekts (Theorie, Methode, Analyse).
Grundformen
Deskriptiv: meist WIE-Fragen zur Erfassung & Darstellung von Fakten
Erklärend (analytisch): meist WARUM-Fragen zur Untersuchung von Ursachen und Zusammenhängen
In den Sozialwis. zentral!
Strategien zur Entwicklung nach Westle & Stykow
Identifizierung neuer Phänomene: Gesellschaftliche, technologische oder ökonomische Veränderungen führen zu neuen Fragestellungen.
Beispiel: Wie beeinflusst das Internet die politische Partizipation?
Theorienkonkurrenz: Vergleich unterschiedlicher theoretischer Ansätze zur Erklärung eines Phänomens; empirische Überprüfung, welche Theorie zutreffender ist.
Beispiel: Welcher Ansatz erklärt am besten die Zustimmung zur EU? (Gabel 1998)
Identifizierung wissenschaftl. Rästel (puzzles): Überraschende empirische Befunde, die bestehenden Theorien widersprechen → Erklärungsbedarf.
Beispiel: Warum fördert das Internet nicht die politische Partizipation, obwohl es Informationskosten senkt?
Zentrale Methode: Formulierung einer Warum-Frage, um Diskrepanzen zwischen Theorie und Empirie zu erklären.
Dimensionen der Relevanz einer Forschungsfrage
Theoretische Relevanz
Gesellschaftliche Relevanz
Kriterien für eine gute Forschungsfrage
Klarheit: eindeutig und verständlich formuliert
Begründbarkeit: theoretisch und empirisch relevant
Machbarkeit: im Rahmen des Projekts bearbeitbar
Prüfbarkeit: empirisch untersuchbar (z. B. durch Daten)
Bezug zur Theorie: knüpft an bestehende Forschung an
Forschungsfragen entstehen nicht aus dem Bauchgefühl, sondern aus dem Forschungsstand.
Deskriptive Fragen sind Basiswissen – erklärende Fragen treiben Forschung voran.
Gute Fragen beginnen mit „Warum“ und zielen auf Kausalzusammenhänge.
In Hausarbeiten steht die Reflexion und Anwendung existierender Literatur im Mittelpunkt, nicht originäre Forschung.
Forschungsfrage grenzt das Projekt ein, bearbeitet ein Problem und wird als Frage formuliert.
= (begründete) Annahmen über erwartete Zusammenhänge von mind. zwei Merkmalen realer Sachverhalte in Form von abhängigen und unabhängigen Variablen, die abgeleitet aus Theorie und Forschung sind, mit dem Ziel, Zusammenhänge dieser Merkmale zu bestätigen oder zu widerlegen.
Unterschied zu Alltagsvermutungen: Bezieht sich auf reale, empirische Zusammenhänge, nicht nur persönliche Meinung.
Merkmale/ Kriterien nach Bortz und Döring
Bezug auf reale, empirisch untersuchbare Sachverhalte
Generalisierbar über den Einzelfall hinaus, i.F. allgemeingültiger Aussage
Konditionalstruktur vorhanden (Wenn-dann / Je-desto)
Falsifizierbar durch empirische Daten
(Begründbarkeit durch Argumentation über Zusammenhänge von Variablen)
Arten von Hypothesen
Deterministisch → strikter Zusammenhang, z. B. „A führt immer zu B“ (typisch in Naturwissenschaften)
bereits ein Gegenbeispiel widerlegt die Hypothese
Probabilistisch → Zusammenhang in Wahrscheinlichkeit (typisch in Sozialwissenschaften, da menschliches Verhalten nie deterministisch erklärbar ist.)
Nullhypothese (H0): formuliert keinen Zusammenhang mehrer Merkmale
Beispiel: Zwischen Bildung und Einkommen besteht kein Zusammenhang
(Forschungs-)/Alternativhypothese (H1): Behauptet positiven/ negativenZusammenhang
z.B. „Je höher/niedriger die Bildung, desto höher/niedriger das Einkommen
Vorgehen: Forschungshypothese wird durch Aufstellen einer Nullhypothese getestet
Formen von Hypothesen
Wenn-dann-Hypothese → „Wenn X, dann Y“
Für dichotome Merkmale (z.B. Geschlecht, Region)
Beispiel: „Wenn das Geschlecht weiblich ist, dann ist das politische Wissen geringer als bei Männern.“
Je-desto-Hypothese → „Je mehr X, desto stärker Y“
Für metrische oder ordinale Merkmale
Beispiel: „Je höher die Bildung, desto höher das Einkommen.“
Positive oder negative Zusammenhänge möglich
Zusammenhänge zwischen diesen Variablen
= ist meist linear, können aber auch nicht-lineare auftreten, z.B.
U-förmige Zusammenhänge: z. B. Arbeitszufriedenheit vs. Aufstiegschancen (Diekmann 2011, Stouffer 1949)
Mittlere Aufstiegschancen → geringere Zufriedenheit als bei sehr niedrigen oder hohen Chancen
Exponentiell steigende Zusammenhänge: z. B. beim Lernen einer Fremdsprache → Wissen wächst zunächst langsam, dann schneller
Logarithmisch steigende Zusammenhänge: z. B. Bildung vs. Einkommen → erste Bildungsjahre haben stärkeren Effekt als spätere
(Bild: siehe Quantitative Sozialforschung S. 82)
Analytische Ebene einer Hypothese
Zusammenhänge zwischen Merkmalen als uV → aV
Analytische Ebenen: Mikro/ Makro/ Meso
Individualhypothese: uV und aV auf Mikroebene
Ziel: Faktoren identifizieren, die Unterschiede zwischen Individuen erklären
Forschungsstrategie: Individualdatenanalyse
Typische Merkmale: Geschlecht, Alter, Bildung, Einkommen, Einstellungen, Verhalten
Beispiel: „Je größer die Bildung, desto höher das Einkommen“
Kollektivhypothese: uV und aV auf Makroebene
Ebene bestimmt Forschungskontext: lokal, regional, national, international
Analysestrategie: Aggregatdatenanalyse aus zB amtliche Statistiken (z. B. Statistische Ämter, Eurostat)
Vorteile: schnell verfügbare Daten, geringe Erhebungsfehler, langfristige Entwicklungen abbildbar
Problem: ökologischer Fehlschluss → Übertragung von Makro- auf Individualebene kann falsch sein
Beispiel: „Je höher Arbeitslosenquote, desto geringer Wahlbeteiligung“
Kontexthypothesen: uV auf Makroebene, aV auf Mikroebene = Makro-Faktor beeinflusst individuelles Verhalten
Bsp.: Je größer die Klassengröße (uV), desto geringer die Testpunktzahl (aV)
Allgemein gilt: Zusammenhänge auf der Makroebene nicht auf die Mikroebene übertragen. Für Individualanalysen sind Individualdaten erforderlich
Beispiel: Feststellung, dass in Regionen mit hoher Arbeitslosigkeit die Wahlbeteiligung gering ist.→ heißt nicht, dass arbeitslose Individuen seltener wählen.Vielleicht leben dort viele politisch frustrierte Menschen, oder es gibt regionale Effekte, die gar nichts mit individueller Arbeitslosigkeit zu tun haben.
= Makro-Zusammenhang ≠ Mikro-Zusammenhang.
Fehlschlüsse zwischen Analyseebenen
Ökologischer Fehlschluss: Makro->Mikro.
Beispiel: Wenn Länder mit höherer Arbeitslosigkeit eine höhere Kriminalitätsrate haben, bedeutet das nicht, dass arbeitslose Individuen eher kriminell sind. Zusammenhang auf Länderebene muss nicht auf die individuelle Ebene übertragbar sein (Armut, Ausschluss, etc)
Individualistischer Fehlschluss: Mikro->Makro
Beispiel: Wenn gebildete Menschen tendenziell toleranter sind, heißt das nicht, dass eine Gesellschaft mit höherem Bildungsniveau automatisch toleranter ist — kollektive Dynamiken (z. B. soziale Normen, politische Strukturen) spielen eine eigene Rolle.
Naturalistischer Fehlschluss: Vom „Sein“ auf „Sollen“ - wenn man aus empirischen Tatsachen (deskriptiven Aussagen) direkt normative Schlussfolgerungen zieht
Beispiel: „Menschen sind egoistisch, also soll man egoistisch sein - Nur weil etwas ist, soll es nicht so sein.
Normativer Fehlschluss: Vom „Sollen“ auf „Sein“ -
Beispiel: “Alle Menschen sind gleich, also werden alle gleich behandelt.“ - Nur weil etwas sein soll, ist es nicht so.
Lösung: Colemans Badewanne (Makro-Mikro-Makro-Puzzle)
zeigt, wie Makro-Phänomene über Mikroprozesse (individuelles Handeln) auf neue Makro-Ergebnisse wirken: Makro → Mikro (Situationslogik) → Makro (Selektionslogik).
Analysestrategie die beide Ebenen gleichzeitig berücksichtigen:
Kontextanalyse (auch: Mehrebenenanalyse oder Multilevel Analysis)= statistisches Verfahren, das simultan Effekte auf mehreren Ebenen schätzt
Mikroebene: Individuen (z. B. Personen, Schüler, Wähler)
Makroebene: Kontexte (z. B. Länder, Schulen, Wahlkreise)
und so Cross-Level-Interaktionen identifizieren kann
Prinzip: Individuelles Verhalten hängt nicht nur von individuellen Merkmalen ab, sondern auch vom Kontext, in dem Menschen leben. → Ein Kontextfaktor verändert die Wirkung eines Individualfaktors auf ein individuelles Verhalten.
Schulbeispiel: Testleistung hängt also von individuellen Merkmalen und von Kontextmerkmalen ab
Mikro: Schüler (Interesse, Intelligenz, Motivation)
Makro: Klasse (Klassengröße, Lehrstil, Zusammensetzung)
Arbeitslosenwahlverhalten Beispiel:
Makroebene: In Wahlkreisen mit höherer Arbeitslosigkeit ist die Wahlbeteiligung niedriger.
Mikroebene: Wie beeinflusst individuelle Arbeitslosigkeit die Wahrscheinlichkeit zu wählen?
Cross-Level-Beispiel: zeigt, dass der Zusammenhang zwischen individueller Arbeitslosigkeit (Mikro) und Wahlbeteiligung (Mikro) durch die regionale Arbeitslosenquote (Makro) moderiert wird.
Hängt der Effekt individueller Arbeitslosigkeit vom Kontext der Arbeitslosenquote ab?
Mögliche Hypothese:
Variante 1: „Je höher die Arbeitslosenquote in einer Region ist, desto geringer unterscheidet sich die politische Beteiligung von Arbeitslosen und Erwerbstätigen.“
Variante 2: „Je höher die Arbeitslosenquote in einer Region ist, desto stärker unterscheidet sich die politische Beteiligung von Arbeitslosen und Erwerbstätigen.“
Konzeptspezifikation
Elemente eines Konzepts (Gerring 2001)
Term: Name/Label des Konzepts (z. B. „Politikverdrossenheit“)
Intension: Menge notwendiger und hinreichender Eigenschaften eines Konzepts
Beispiel „Auto“: Motor, Räder, Türen
Extension: Menge aller realen Fälle, die diese Eigenschaften erfüllen.
Beispiel „Auto“: alle realen Fahrgeräte mit Motor, Rädern und Türen
Merksatz: Je mehr Eigenschaften (Intension), desto weniger Fälle (Extension) – und umgekehrt.
Warum Konzeptspezifikation?
Viele sozialwissenschaftliche Begriffe (z. B. Politikverdrossenheit, Vertrauen, politische Beteiligung) stammen aus dem Alltag.
Alltagssprache ist oft mehrdeutig, wertend und unpräzise → keine einheitliche Definition.
Problem: Unscharfe Begriffe führen zu:
Schwieriger Interpretation empirischer Befunde
Unklaren Hypothesen
Eingeschränkter kumulativer Forschung
> „Concepts are central to the enterprise of political science. The concepts we use shape the world we see… Without solid conceptual foundations, the edifice of political science is insecure.“ (Schedler 2011, S. 370-371)
> „Concept formation thus lies at the heart of all social science endeavor… It is impossible even to conceptualize a topic, as the term suggests, without putting a label on it.“ (Gerring 2001, S. 35)
Ziel der Konzeptspezifikation
Begriffe eindeutig definieren, um sie von ähnlichen Konzepten abzugrenzen
Grundlage für:
Empirische Forschung
Hypothesenformulierung
Valide Operationalisierung
Ziel: Identifikation, Definition und systematischer Vergleich relevanter Konzepte.
Grundprinzipien guter Konzeptspezifikation
Eindeutige Definition: Begriff klar beschreiben
Abgrenzung: Ähnliche Begriffe differenzieren
Operationalisierung: Messbare Indikatoren ableiten
Empirische Relevanz: Begriff erlaubt konkrete Hypothesen und Forschung
Qualitätsmerkmale
Präzision: Wie genau lässt sich ein Objekt oder Ereignis dem Konzept zuordnen?
Eindeutigkeit: Konsistente Verwendung des Konzepts durch verschiedene Personen
Adäquatheit: Passung von Intension und Extension; das Konzept umfasst relevante Objekte, aber nicht zu viele oder zu wenige
Vier Schritte der erfolgreichen Konzeptspezif. (Wonka 2007)
= zeigt, was untersucht wird, wie es verstanden wird und warum es so sinnvoll ist
Identifikation → Was untersuche ich?
Ausgangspunkt: Forschungsthema bzw. Forschungsfrage mit zentralen Konzepten = meist abhängige und unabhängige Variablen.
Ziel: Festlegen, welche Schlüsselbegriffe die Untersuchung strukturieren.
Beispiele:
Forschung zu sozialem Vertrauen → Konzept „Soziales Vertrauen“
Forschung zu Europäisierung → Konzept „Europäisierung“
Spezifikation der Literaturprüfung → Wie wird es bisher verstanden?
Orientierung an etablierten Konzepten der Disziplindurch intensive Literaturrecherche → kumulatives Wissen
Bei unterschiedlichen Bedeutungen:
passendste Spezifikation für Forschungsfrage auswählen und begründen.
Falls nötig → Re-Spezifizierung (Anpassung an neuen Kontext).
Intension offenlegen → Wie definiere ich es selbst?
Wichtig: Bedeutung und Attribute des Konzepts klar darstellen. Beispiel: „Sozialkapital“ (Bourdieu vs. Putnam).
Ziel: Intersubjektive Nachvollziehbarkeit → Grundlage für wissenschaftlichen Diskurs
Prüfung → Ist es präzise, eindeutig, adäquat?
Präzision: Wie genau ist das Konzept definiert?
Eindeutigkeit: Wird es konsistent verwendet?
Adäquatheit: Passt es zur Forschungsfrage?
Zweckmäßigkeit der Spezifikation ist kontextabhängig – sie kann nur im Hinblick auf das konkrete Forschungsthema beurteilt werden.
Negativ-Beispiel: Politikverdrossenheit
Heterogenes Konzept (Arzheimer 2002):
Objekte: Parteien, Politiker, Regierung, Demokratieprinzip, Verwaltungen, Kirchen, Gewerkschaften
Einstellungen: Unzufriedenheit, Enttäuschung, Misstrauen, Desinteresse, Angst, manchmal politisches Interesse
Problem: keine einheitliche Definition → unklare empirische Forschung
Lösung: Präzisere Konzepte nutzen, z. B. politische Unterstützung
Positiv-Beispiel: Politische Unterstützung (Easton 1965)
Objekte politischer Unterstützung:
Politische Gemeinschaft
Politisches Regime
Politische Autoritäten
Arten politischer Unterstützung:
Spezifisch: abhängig von Leistungen der Institution
Diffus: unabhängig von konkreten Leistungen
Bedeutung:
Zentral in der empirischen Demokratieforschung
Grundlage für zahlreiche Weiterentwicklungen (z. B. Fuchs 1989; Norris 1999; Braun & Schmitt 2009)
Praxisbezogenheit:
Begriffe müssen definiert und abgegrenzt werden, bevor sie empirisch untersucht werden.
Beispiel „Politikverdrossenheit“: heterogen, unklar → ersetzt durch präzisere Konzepte wie politische Unterstützung (Easton 1965).
Wissenschaftliche Begriffe ermöglichen:
Formulierung gehaltvoller Hypothesen
Validierbare Operationalisierung
Kumulative Forschung
Zentrale Schwierigkeiten:
Gleicher Begriff, unterschiedliche Bedeutung (Intension)
Viele Konzepte nutzen denselben Begriff, aber unterschiedliche Definitionen (Attribute).
Beispiel: „Sozialkapital“
Bourdieu (1983): Ressourcen durch Zugehörigkeit zu Netzwerken („Vitamin B“)
Putnam (2000): Netzwerke, Normen & Vertrauen als Quelle sozialer Kooperation
→ Beide nutzen denselben Term, aber mit verschiedener Intension.
Konsequenz: Begriffliche Unklarheit, Missverständnisse, nicht vergleichbare Forschung.
Lösung: Offenlegung der verwendeten Konzeptspezifikation im Forschungsprozess.
Kontextabhängigkeit der Konzepte → evtl. Re-Spezifizierung nötig
Konzepte sind oft zeitlich oder räumlich gebunden.
Bei Anwendung in anderem Kontext → prüfen, ob Konzept noch passend („Fit“)
Wenn nicht: Re-Spezifizierung erforderlich
= Anpassung eines Konzepts an neuen Untersuchungsgegenstand, z. B. durch Änderung oder Erweiterung der Attribute.
Früher: Nur Wahlbeteiligung (Verba & Nie 1972)
Erweiterung auf alle freiwilligen Tätigkeiten zur Einflussnahme auf Politik→ z. B. Demonstrationen, Unterschriftenaktionen (Kaase 1995)
Später: Diskussion über individualisierte Formen (politischer Konsum, Online-Aktivismus)→ erneute Re-Spezifizierung (van Deth 2014 ff.)
Gefahr: falsche analytische Erfassung und fehlerhafte Schlussfolgerungen (Wonka 2007)
= Konzepte sind nie „neutral“ → Bedeutung hängt vom theoretischen Kontext ab.
Offenlegung, Präzisierung und Kontextanpassung sind entscheidend für wissenschaftliche Nachvollziehbarkeit.
Re-Spezifizierung hält Konzepte anschlussfähig und empirisch brauchbar.
Operationalisierung
= Zuordnung eines/ mehrerer messbarer Indikator(en) zu einem theoretischen Konzept, um theoretische Hypothesen empirisch überprüfbar zu machen.
Voraussetzung: abgeschlossene Konzeptspezifikation
Auswahl von Indikatoren muss begründet und überprüfbar sein
Herausforderungen:
Indikatoren sind häufig umstritten
Theoretische Konzepte können unterschiedlich verstanden oder operationalisiert werden
Konsequenz: Empirische Ergebnisse unterscheiden sich
Literaturrecherche entscheidend → alternative Operationalisierungen prüfen und gegeneinander abwägen
Begriffsdefinitionen
Messen = Zahlen zuweisen, die die Struktur der Merkmale widerspiegeln, um zu zeigen, wie die Merkmalsausprägungen zueinander stehen.
Definitionen:
Stevens (1946): „Assignment of numerals to objects or events according to rules“ → Zahlen werden Merkmalen von Objekten zugeordnet, nicht den Objekten selbst
Kromrey et al. (2016): „Zuweisung von Ziffern zu Objekten entsprechend den Ausprägungen der betrachteten Merkmale“
Merksatz: Ohne klare Regeln für die Zuordnung von Zahlen ist die Messung nicht valide.
Korrespondenzregeln = Regeln, nach denen wir entscheiden, welcher Indikator zu welchem Konzept gehört und wie er gemessen wird.
Rangordnung (Isomorphismus)
Ähnlichkeiten (Homomorphismus)
Intervalle (z.B. Sehr zufrieden, bis sehr unzufrieden)
Absolute Werte (z.B: Körpergröße, Einkommen in EUR)
Dummy-Kodierung/ Dichotomisierung (z.B Geschlecht in 0 und 1)
Skalenbildung durch Summierung (Mehrere Indikatoren werden zu einem Index zusammengefasst.)
Beispiel: Politische Partizipation = Summe von Aktionen (Wählen, Demonstrieren, Unterschriften)
Invertierung (Skalen falsch herum kodiert)
Beispiel: Zustimmung zu einer Aussage:
1 = stimme völlig zu
5 = stimme überhaupt nicht zu
5 ist höher aber hat am wenigsten Zustimmung
Arten der Abbildung einer durch Indikatoren zugeordneten Merkmalsausprägung
Morphismen = strukturerhaltende Abbildung von empirischen Merkmalen (z. B. Schulabschlüssen) die Zahlen zugeordnet sind, die die hierarchische/relative Ordnung/ Beziehungen der Merkmalsausprägungen korrekt widerspiegeln
Isomorphismus: für exakte Rückschlüsse und feine Analysen
Jede Merkmalsausprägung bekommt eine eigene Zahl zugeordnet = Eindeutige, wechselseitige Zuordnung von Merkmalen zu Zahlen
Beispiel: Schulabschluss -> Ohne Abschluss 0, Hauptschule 1, Realschule 2….in Rangfolge
Homomorphismus: für Gruppierung, Vereinfachung, praktische Handhabbarkeit
Mehrere Merkmalsausprägungen erhalten dieselbe Zahl, man kann nicht exakt zurückschließen.
Beispiel: Schulabschlüsse → „kein Abschluss 0 / mittlerer Abschluss (Hapt- und Realabschluss) 1 / hoher Abschluss (Abitur, Fachabitur) 2“
Skalen = strukturtreue Abbildung eines empirischen Relativs in ein numerisches Relativ.
Wichtig: Höheres Skalenniveau → mehr Informationsgehalt → mehr statistische Auswertungsmöglichkeiten.
Reihenfolge der Skalenniveaus: <
Nominalskala = Unterscheidung von Objekten/Kategorien, keine Rangordnung
Beispiel: Geschlehct, Konfession
Auswertungsmöglichkeiten: Zählen, Modus
Ordinalskala = Objekte können durch Zahlen in Rangfolge gebracht werden, spiegeln aber Abstände nicht gleich wieder
Beispiel: Schulnoten, politisches Interesse (sehr stark → überhaupt nicht)
Tipp: Bei >5 Ausprägungen (z. B. „überhaupt nicht, wenig, mittel, stark, sehr stark“).
Äquidistanz = Man geht davon aus, dass die Abstände zwischen den einzelnen Antwortoptionen gleich groß sind, z. B. der Unterschied zwischen „mittel“ und „stark“ ist derselbe wie zwischen „stark“ und „sehr stark“.
Intervallannahme = behandelt man die ordinalen Daten wie Intervallskalen, sodass man z. B. Mittelwert oder Standardabweichung berechnen kann.
Auswertungsmöglichkeiten: Rangstatistiken, Median
Intervallskala = Reihenfolge + gleiche Abstände zwischen den Werten. Unterschiede interpretierbar, kein natürlicher Nullpunkt
Beispiele: Temperatur 0°C NICHT gleich keine Temperatur, sondern Gefrierpunkt
= Deshalb kann man hier keine sinnvollen Quotienten bilden (z. B. „20 °C ist doppelt so warm wie 10 °C“ ist falsch, weil 0 °C ist nicht das „Nicht-Temperatur“, es ist einfach ein Messpunkt.)
Auswertungsmöglichkeiten: Mittelwert, Standardabweichung, Korrelation
Ratio-/ Verhältnisskala = Reihenfolge + gleiche Abstände + natürlicher Nullpunkt i.F. absoluter Werte interpretierbar → sinnvolle Quotienten
Einkommen: 0 € = Person hat kein Einkommen.
Körpergröße: 0 cm = keine Länge vorhanden ist.
Anzahl Bücher: 0 Bücher = keine Bücher.
Auswertungsmöglichkeiten: alle metrischen Verfahren + Verhältnisse
Skalenniveaus von Variablen
Nominalskala = kategorische Variablen
Merkmal: Keine Rangordnung, man kann nur Gleichheit oder Unterschied feststellen.
Beispiel-Varialen:
Geschlecht (m/w/divers)
Partei (SPD, CDU, Grüne)
Haustier (Hund, Katze, Vogel)
Ordinalskala = Rangvariablen
Merkmal: Reihenfolge ist relevant, aber Differenzen nicht exakt messbar.
Schulnoten (1, 2, 3…)
Zufriedenheit (sehr unzufrieden – unzufrieden – neutral – zufrieden – sehr zufrieden)
Politikinteresse (gering – mittel – hoch)
Intervallskala = Variablen mit geordneter Reihenfolge und gleichen Abständen zwischen den Werten, aber kein absoluter Nullpunkt
Merkmal: Man kann Differenzen berechnen, aber Verhältnisse sind nicht sinnvoll (z.B. 40°C ist nicht „doppelt so warm“ wie 20°C).
Temperatur in °C (0°C bedeutet nicht „kein Temperaturwert“)
IQ-Werte
Ratioskala = Variablen mit geordneter Reihenfolge, gleichen Abständen und absolutem Nullpunkt, d.h. 0 bedeutet „kein Vorhandensein des Merkmals“.
Merkmal: Man kann Differenzen und Verhältnisse sinnvoll berechnen.
Einkommen
Alter
Gewicht
Anzahl Kinder
Metrische Variablen = Sammelbegriff für Intervall- und Ratioskala, weil beide arithmetische Operationen wie Mittelwert, Standardabweichung, Regression zulassen.
Skalenkonstruktion
Zweck: Innerhalb eines Konzepts mehrere Items kombinieren, um ein komplexes Konstrukt zu erfassen.
Indikatorenart: Reflektive Indikatoren → alle Items messen dasselbe Konzept.
Beispiel: European Social Survey – Soziales Vertrauen
Vertrauenswürdigkeit (1–10)
Fairness (1–10)
Hilfsbereitschaft (1–10)
Eigenschaften:
Höhere Werte bei allen Items → höherer Wert des Gesamtkonzepts
Zusammenfassung der Items durch Summe oder Mittelwert
Ziel: Items können verschiedene Facetten desselben Konzepts erfassen
Indexbildung
Zweck: Mehrere Items/Datenpunkte zu einem neuen Konstrukt zusammenfassen, das verschiedene Dimensionen(Konzepte) abbildet.
Indikatorenart: Formative Indikatoren -> INdikatoren formen das Konzept
Konzept: Resultiert aus den Indikatoren, nicht umgekehrt.
Beispiel: Sozioökonomischer Status / Human Development Index (HDI)
Dimension 1: Bildung, Schulabschluss (Ordinalskala)
Dimension 2: Einkommen, Euro pro Monat (Ratioskala)
Dimension 3: Beruf, Prestige oder Rang (Ordinal-/Nominalskala)
Vorgehen:
Alle Werte auf vergleichbare Skala bringen (z. B. 0–10)
Zusammenfassen durch Addition oder gewichteten Durchschnitt
Ergebnis: Indexwert, der die verschiedenen Dimensionen quantitativ abbildet
Ablauf der Operationalisierung
Theoretisches Konzept klären → Welche Bedeutung hat z. B. „Bildung”?
Geeignete Indikatoren auswählen → Welche beobachtbaren Merkmale erfassen das Konzept am besten? Durch:
Korrespondenzregeln festlegen → Verknüpft Konzept mit empirischem Indikator
legen fest, welcher beobachtbare Sachverhalt (Indikator) zu welchem theoretischen Konzept gehört
Bspw: Schulabschluss 1-5
Empirische Messung durchführen → Datenerhebung (z. B. Befragung, Test, Statistik)
Gütekriterien prüfen
Objektivität: Unabhängigkeit vom Forschenden, wenn verschiedene Personen mit dem gleichen Messinstrument zum gleichen Ergebnis kommen
Durchführungsobjektivität
Auswertungsobjektivität
Interpretationsobjektivität
Reliabilität: Zuverlässigkeit, indem Messwerte sich bei wiederholter Messung zum gleichen Ergebnis führen
Klassische Testtheorie: x = t + e
x = gemessener Wert
t = true Score (wahrer Wert)
e = Messfehler (z.B. Reaktionszeit beim Stoppen einer Zeit oder Versprecher in einem Fragebogen)
= Messung wird reliabel, wenn Fehler bei wiederholten Messungen sich ausgleichen.
Methoden:
Test-Retest-Methode:
Gleiches Messinstrument, gleiche Personen, zwei Zeitpunkte.
Problem: Konzept muss zeitlich stabil sein.
Paralleltest-Methode:
Zwei unterschiedliche Instrumente messen dasselbe Konzept.
Problem: hoher Aufwand und schwer vergleichbare Instrumente.
Testhalbierung / Cronbachs Alpha:
= Viele Konzepte in der Sozialforschung sind nicht direkt messbar, z. B. „soziales Vertrauen“ oder „kognitive Mobilisierung“. Deshalb wird ein Konzept über mehrere Fragen (Items) erfasst.
Beispiel: Soziales Vertrauen (3 Fragen im ESS, Skala 0–10).
„Glauben Sie, dass man den meisten Menschen vertrauen kann?“
„Versuchen die meisten Menschen, Sie auszunutzen, oder fair zu sein?“
„Versuchen die meisten Menschen eher hilfsbereit zu sein oder auf den eigenen Vorteil bedacht?“
Idee: Wer bei einer Frage hohe Werte angibt, sollte bei den anderen Fragen ähnlich hohe Werte angeben – die Antworten hängen also zusammen, weil sie dasselbe Konzept messen.
Die Items werden in zwei Hälften geteilt (z. B. Fragen 1–2 vs. 3). Dann wird geprüft, wie stark die beiden Hälften zusammenhängen.
Wenn die Antworten stark zusammenpassen → Messung ist reliabel.
Cronbachs Alpha = Reliabilitäskoeffizient: 0–1, alles bis >0,8 gilt als akzeptabel.
Heißt: Cronbachs Alpha <0,7 → eher niedrig, Messinstrument überdenken
Validität: Es wurde gemessen, was auch gemessen werden sollte
Inhaltsvalidität = Alle Dimensionen eines Konzepts werden abgedeckt.
Kriteriumsvalidität = Vergleich des eigenen Instruments mit einem etablierten Messinstrument.
Konstruktvalidität =prüft, ob ein Messinstrument theoretisch sinnvolle Zusammenhänge zeigt.
durch Bestätigung mehrerer Hypothesen → Hinweise auf hohe Konstruktvalidität
Je höher die kognitive Mobilisierung, desto größer das politische Vertrauen.
Je höher die kognitive Mobilisierung, desto stärker das politische Interesse.
Je höher die kognitive Mobilisierung, desto geringer die politische Entfremdung.
Bestätigung vieler Hypothesen → hohe Konstruktvalidität
Nichtbestätigung kann mehrere Ursachen haben: fehlerhafte Hypothese, Messfehler, andere Variablen nicht valide
Primär- und Sekundäranalyse
Primäranalyse
= Eigene Datenerhebung zur Überprüfung der Hypothesen.
Primärdaten = neu erhobene Daten.
Vorteile:
Daten sind genau auf die eigene Forschungsfrage zugeschnitten.
Kontrolle über Operationalisierung, Messung und Auswahlverfahren.
Nachteile:
Hoher Aufwand (Zeit, Geld, Personal).
Erfordert methodisches Know-how (Fragebogen, Pretest, Sampling usw.).
Oft nicht realistisch im Rahmen von Haus- oder Abschlussarbeiten.
Sekundäranalyse
Nutzung bereits existierender Datensätze zur Überprüfung eigener Hypothesen.
Sekundärdaten = schon vorhandene, z. B. aus ALLBUS, ESS, SOEP.
Ressourcenschonend (keine eigene Erhebung nötig).
Hohe Datenqualität, weil große Institute (z. B. GESIS, Eurostat) die Erhebungen professionell durchführen.
Replikation möglich: Überprüfung und Kontrolle anderer Studien → Qualitätssicherung.
„Heilende Wirkung“: Fehler können aufgedeckt werden.
„Präventive Wirkung“: Forscher dokumentieren sorgfältiger, wenn Replikation möglich ist.
Daten passen nicht immer exakt zur eigenen Fragestellung.
Operationalisierung (z. B. der Variablen) ist vorgegeben und oft nicht optimal.
Gefahr von Pfadabhängigkeit (immer dieselben Daten → immer ähnliche Ergebnisse).
⚙️ Replikationsstudien
= Replizierbare Forschung = überprüfbar, transparent, vertrauenswürdig.
Aber: Replikation ist wichtig, aber nicht immer möglich (z. B. bei historischen oder einmaligen Ereignissen).
Ziel: Kontrolle der Nachvollziehbarkeit und Zuverlässigkeit empirischer Forschung.
Beispiel: Replikationsserver.de (Initiative von Fachzeitschriften und GESIS).
„Ich prüfe, ob andere mit denselben Daten zum selben Ergebnis kommen.“
Strategien der Datenrecherche nach Watteler
1. Institutionelle Suche
Du suchst bei Einrichtungen, die in deinem Themenfeld forschen. Beispiele:
Arbeitsmarkt → IAB (Institut für Arbeitsmarkt- und Berufsforschung)
Jugendforschung → Deutsches Jugendinstitut (DJI)
Wirtschaftsdaten → ZEW (Zentrum für Europäische Wirtschaftsforschung)
Tipp: Diese Institute zeigen oft direkt, welche Datensätze sie nutzen oder bereitstellen.
2. Suche über Forschende
Du schaust dir wissenschaftliche Publikationen an, die mit deinem Thema zu tun haben.
In empirischen Studien steht meist die verwendete Datenquelle.
Viele Datensätze haben eine ZA-Nummer (von GESIS) oder eine DOI → damit kannst du sie direkt finden.
3. Inhaltliche Suche
Du nutzt Suchkataloge oder Datenbanken, z. B. den GESIS-Datenkatalog.
Du kannst dort nach Schlagworten, Jahren, Ländern oder Forschenden suchen.
Lies die Dokumentationen der Datensätze (da steht, wie die Daten erhoben wurden).
Du kannst dich an Kontaktpersonen der Institutionen wenden.
Auch Dozent:innen oder Betreuer:innen können bei der Auswahl helfen.
Datensätze Unterscheidung nach analytischer Ebene:
Mikroebene: Individualdaten (z. B. Befragungen von Personen)
Makroebene: Aggregatdaten = verdichtete Informationen über größere Analyseeinheiten, z. B.:
Länder, Regionen, Städte, Organisationen
Beispiele: Arbeitslosenquote, BIP, Wahlbeteiligung
Wichtigsten Institute
Leitende Institution: GESIS – Leibniz-Institut für Sozialwissenschaften
ZBW – Deutsche Zentralbibliothek für Wirtschaftswissenschaften 👉 spezialisiert auf wirtschaftsbezogene Daten
Rat für Sozial- und Wirtschaftsdaten (RatSWD) 👉 koordiniert und berät bei Datennutzung und -archivierung 🔗 www.ratswd.de
Mikroebene - Individualdatensätze
Datensatz
Beschreibung / Besonderheiten
Quelle
Allgemeine Bevölkerungsumfrage der Sozialwissenschaften; seit 1980; Querschnittstudie; Themenschwerpunkte wechseln. Ostdeutsche überrepräsentiert → Designgewicht notwendig.
GESIS
CHES
Chapel Hill Expert Survey – Expertenbefragung über nationale Parteipositionen zu EU-Themen.
chesdata.eu
Politbarometer / DeutschlandTrend
Regelmäßige Meinungsumfragen zu Politik und Gesellschaft (ZDF bzw. ARD).
GESIS, Forschungsgruppe Wahlen, Infratest dimap
Eurobarometer
EU-Kommissionsumfrage seit 1973; halbjährlich; Fokus auf EU-Themen; politisch motiviert, aber weit genutzt.
GESIS, EU-Kommission
EES
European Election Studies – akademische Wahlforschung zur Europawahl (seit 1979); mehrere Teilstudien (Wähler, Medien, Programme, Kandidaten).
ESS
European Social Survey – hohe methodische Qualität; alle 2 Jahre; Einstellungen, Werte, Verhalten in Europa.
europeansocialsurvey.org
GLES
German Longitudinal Election Study – nationale Wahlforschung in Deutschland; seit 2009; viele Komponenten (z. B. Panel, Medienanalyse, Kandidatenstudie).
gles.eu
ISSP
International Social Survey Programme – internationale Kooperation mit jährlichen thematischen Modulen (z. B. Religion, soziale Ungleichheit).
issp.org, GESIS
Mikrozensus
Amtliche Statistik Deutschlands; 1 % der Bevölkerung; zentrale Quelle zu Demographie, Arbeit, Familie etc.
destatis.de, GESIS/MISSY
pairfam / FReDA
Längsschnittstudie zu Familie & Partnerschaft in Deutschland; seit 2008 (pairfam), ab 2022 fortgeführt als FReDA.
pairfam.de, freda-panel.de
PIAAC
OECD-Studie zur Kompetenzmessung Erwachsener (Lesen, Mathematik, Problemlösen).
GESIS, OECD
PISA
OECD-Schulleistungsstudie seit 2000; misst Kompetenzen von 15-Jährigen (Mathe, Lesen, Naturwissenschaften).
oecd.org/pisa
SHARE
Survey of Health, Ageing and Retirement in Europe – Panelstudie über 50+ Bevölkerung; 2-jährlich; gesundheitliche & soziale Daten.
share-project.org
SOEP
Sozio-ökonomisches Panel – jährliche Wiederholungsbefragung seit 1984; Haushalte in Deutschland; Panelstudie (nicht Querschnitt).
diw.de/soep
WVS / EVS
World Values Survey / European Values Study – globale bzw. europäische Befragungen zu Werten, Moral, Religion, Politik etc.
worldvaluessurvey.org, europeanvaluesstudy.eu
Makrodaten
Wichtig: Wikipedia ist keine wissenschaftliche Datenquelle, da Nachvollziehbarkeit und Primärdatenbezug fehlen.
Quelle / Institution
Beschreibung
Themenbereiche / Besonderheiten
Website
Bundesagentur für Arbeit / IAB
Amtliche Arbeitsmarkt- & Beschäftigungsstatistik (regional gegliedert); IAB = Forschungseinrichtung der BA
Arbeitslosenquote, Beschäftigung, Hilfequote
statistik.arbeitsagentur.de / iab.de
CIA World Factbook
Kompaktes Nachschlagewerk zu Länderinformationen
Bevölkerung, Wirtschaft, Militär, Geographie
cia.gov/the-world-factbook
Manifesto Project (WZB)
Inhaltsanalytische Auswertung von Wahlprogrammen aus 50+ Ländern seit 1945
Parteipositionen, Programmveränderungen
manifesto-project.wzb.eu
Eurostat (EU)
Statistisches Amt der EU; harmonisierte Daten zwischen Mitgliedsstaaten
BIP, Inflation, Beschäftigung, Bevölkerung
ec.europa.eu/eurostat
Freedom House
Misst politische Rechte & Bürgerrechte weltweit (Skala 1 = frei bis 7 = unfrei)
Demokratie, Freiheit, Menschenrechte
freedomhouse.org
Internationale Organisation; große Makrodatenbank und Publikationen
Wirtschaft, Bildung, Gesellschaft, Umwelt
data.oecd.org
ParlGov
Datenbank zu Wahlen, Parteien und Regierungen (EU & OECD)
Parteipositionen, Regierungszusammensetzung, Wahlergebnisse
parlgov.org
Polity Project
Jährliche Infos über Regimeformen in 167 Staaten
Demokratien vs. Autokratien (Partizipation, Exekutive etc.)
systemicpeace.org/polityproject.html
Quality of Government (QoG)
Universität Göteborg; kombiniert Daten aus vielen Quellen
Korruption, Gleichberechtigung, Vertrauen, Bürokratie
qog.pol.gu.se
Statista
Kommerzielle Plattform mit Daten aus Wirtschaft, Politik, Gesellschaft
Kombiniert Daten vieler Anbieter (teilweise kostenpflichtig)
statista.com
Statistisches Bundesamt (Destatis)
Zentrale amtliche Statistik Deutschlands
Bevölkerung, Wirtschaft, Preise, Finanzen, Wahlen
destatis.de / genesis-online.de
Bundeswahlleiter
Amtliche Wahlergebnisse in Deutschland
Bundestags- & Europawahlen
bundeswahlleiter.de
Statistische Landesämter / Kommunale Ämter
Datensammlungen auf Landes- & Gemeindeebene
Wahlen, Erwerbstätigkeit, Demografie
je nach Bundesland
Vereinte Nationen (UN)
Meta-Datenbank zu 34 Themenbereichen
Bildung, Entwicklung, Nachhaltigkeitsziele (SDGs), Gesundheit
data.un.org / unstats.un.org/sdgs
Human Development Index (HDI)
Misst menschliche Entwicklung (seit 1990)
Lebenserwartung, Bildung, Einkommen
hdr.undp.org
UN-Sonderorganisation; Publikationen & Entwicklungsdaten
Armut, soziale Entwicklung, Umwelt, Wirtschaft
worldbank.org
Forschungsdesign (Primäranalyse)
Forschungsdesign (Untersuchungsanordnung) legt fest, wann, wo, wie und wie oft empirische Indikatoren an welchen Objekten erhoben werden, um Hypothesen zu prüfen.
👉 = Verbindung von Theorie, Hypothese, Datenerhebung & Analyseebene.
Zentrale Entscheidungen (nach Diekmann 2011)
Untersuchungsebene (Mikro, Makro, Kontext)
Individualhypothesen (Mikroebene)
durch: Individualdatenanalyse
Methode: z. B. logistische Regression
Datengrundlage: Befragungen (vor/nach der Wahl)
Ziel: Unterschiede zwischen Individuen erklären
Kollektivhypothese (Makro)
durch: Aggregatdatenanalyse
Gefahr: ökologischer Fehlschluss (falsche Übertragung von Aggregatebene auf Individuen)
Kontexthypothese (KOmbination)
durch:
Struktureller Effekt = direkter Einfluss des Kontexts
Cross-Level-Interaktion = Kontext verändert Beziehung zwischen Variablen der Individualebene
Heißt: Hypothesenform bestimmt automatisch die Untersuchungsebene.
Untersuchungsform = wie Hypothesen empirisch überprüft werden sollen (z. B. durch Experiment, Umfrage, Beobachtung etc.)
Es gibt zwei Grundtypen:
Experimetell - prüfen kausale Zusammenhänge zwischen uV und aV
Manipipulation der uV durch Forschende(Treatment/Stimulus)
Randomisierung: zufällige Zuteilung von Personen zu Experimental- und Kontrollgruppe
hohe interne Validität und ermöglicht Nachweis von Kausalität
künstliche Bedingungen
geringe externe Validität: Veränderung der aV ist nur auf Manipulation der uV zurückzuführen, Ergebnisse lassen sich nur selten auf andere Situationen / Personen generalisieren
Trade-off: Hohe interne Validität → oft geringe externe Validität (und umgekehrt).
Aber: In Forschung wird interne Validität meist höher gewichtet,da sie Voraussetzung für belastbare Kausalinterpretation ist.
in SW häufig ethisch/ praktisch nicht umsetzbar
Designs
Nachher-Untersuchung mit Kontrollgruppe: Nur nach dem Treatment wird die aV gemessen
= Vergleich der Gruppen nach Stimulus
Vorher-Nachher-Untersuchung mit Kontrollgruppe: aV wird vor und nach Treatment gemessen
= Kontrolle von Ausgangsunterschieden
Solomon-Vier-Gruppen-Design: Kombination aus beiden, mit vier Gruppen, mit Kombination aus Pretest, Treatment und Posttest
= Kontrolle von Pretest-Effekten
Heißt: ob die Vorher-Messung selbst einen Einfluss auf das Ergebnis (die abhängige Variable) hat.
Allein die erste Befragung („Wie aggressiv bist du?“) kann das Verhalten verändern — z. B. denken die Teilnehmenden darüber nach und verhalten sich danach bewusster oder weniger aggressiv. = Pretest-Effekt
Formen
Labor-Experiment: Künstliche, kontrollierte Bedingungen; Randomisierung
Vorteil: hohe interne Validität
Nachteil: geringe externe Validität, da künstlich
Feld-Experiment: in natürlicher Umgebung, reale Bedinungen
Vorteil: Hohe externe Validität
Nachteil: Geringere Kontrolle (interne Validität)
Quasi-Experiment: experimentelle Untersuchung ohne Randomisierung,bei der die unabhängige Variable manipuliert, aber die Zuteilung der Teilnehmendenzu Experimental- und Kontrollgruppe nicht zufällig erfolgt.Dadurch ist die interne Validität eingeschränkt, während die externe Validität oft höher ist.
z.B. Vergleich von Schülern aus Ganztags- vs. Halbtagsschulen (keine Zufallszuweisung → alternative Erklärungen möglich).
Nachteil: Eingeschränkte Kausalinterpretation
Nicht-experimentelle Untersuchungsformen (Ex-post-facto-Designs = „nachträglich festgestellt“)
unabhängige (uV) und abhängige Variable (aV) werden zeitgleich erhoben.Erst nach der Datenerhebung (ex post) wird theoretisch unterschieden,welche Variable als Ursache (uV) und welche als Wirkung (aV) interpretiert wird.
Untersuchung bereits vorhandener Unterschiede- Beobachtungs- oder Befragungsdaten ohne Manipualtion
Realitätsnah und praktisch umsetzbar
Zentrale Probleme:
Problem der Kausalen Reihenfolge: keine eindeutige Kausalitätsaussagen möglich 🧭 → Nur theoretisch begründete Kausalannahmen möglich.
Problem der Kontrolle von Drittvariablen: Keine Randomisierung → mögliche Störfaktoren
Ergebnis: Scheinkorrelation / Scheinkausalität= Zwei Merkmale korrelieren, aber ohne echten Kausalzusammenhang.
Beispiel: Mehr Feuerwehrleute → höherer Sachschaden?→ Nein: Größe des Feuers (Drittvariable) erklärt beides.
Problem der Varianz der uV: dass die unabhängige Variable unterschiedliche Ausprägungen aufweisen muss,damit ihr Einfluss auf die abhängige Variable überhaupt untersucht werden kann.Fehlt diese Varianz (alle haben ähnliche Werte),kann kein Zusammenhang festgestellt werden.
Ohne Unterschiede in der Ursache kann man keine Unterschiede in der Wirkung erklären.
Lösung:
Theoretische Fundierung: Erklärung auf Basis einer Theorie, warum eine Variable Ursache und die andere Wirkung ist.
Statistische Kontrolle: zeitlich klar geordnete Variablen wählen und Drittvariablen in multivariaten Analysen (z. B. Regression) berücksichtigen.
Paneldesigns: Mehrfache Befragungen derselben Personen → zeitliche Reihenfolge erkennbar.
Heißt: Ex-post-facto-Design untersucht Zusammenhänge zwischen Variablen,die zeitgleich erhoben und nachträglich in unabhängige und abhängige Variablen unterteilt werden.Es erlaubt nur deskriptive und korrelative, aber keine kausalen Schlüsse.
Häufigkeit der Datenerhebung (z. B. einmalig = Querschnitt, mehrfach = Längsschnitt)
Grundtypen
Querschnittdesign: einmalige Datenerhebung relevanter uV & aV (Momentaufnahme oder kurzer Zeitspanne)
Längsschnittdesign: mehrmalige Datenerhebung der gleichen Merkmalez.B im Zeitverlauf, um Veränderungen beobachten zu können
Trenddesign: Gleiche Merkmale → verschiedene Personen zu mehreren Zeitpunkten
Vergleich der aggregierten Werte (z. B. Mittelwerte) durch mehrere Querschnittserhebungen → bilden einen Trend
Bedingungen für Vergleichbarkeit:
Identische Messinstrumente
Gleicher Typ der Untersuchungseinheit
Gleiches Auswahlverfahren
Möglichst gleiche Durchführung
Beispiel: Jährliche Befragung der Bevölkerung zur Zufriedenheit mit der Bundesregierung.
Problem: Stichprobenfehler können Veränderungen vortäuschen
Kohortendesign: Spezialfall des Trenddesigns -> Untersuchung von Bevölkerungsgruppen mit gemeinsamem Startereignis (z. B. Geburtsjahr, Heirat, Berufseintritt)
Ziel: Kohorten-, Lebenszyklus- und Periodeneffekte unterscheiden
Beispiel: Heiratskohorten 1955, 1965, 1975 → Scheidungsratenvergleich.
Typische Effekte:
Kohorteneffekt: Unterschiede zwischen Generationen (z. B. Wertewandel)
Lebenszykluseffekt: Veränderungen über Alter hinweg
Periodeneffekt: Einfluss aktueller Ereignisse auf alle (z. B. Wiedervereinigung)
Paneldesign: Mehrfache Befragung derselben Personen
Erlaubt Analyse von:
Interindividuellen Veränderungen (zwischen Personen)
Intraindividuellen Veränderungen (innerhalb derselben Person)
Beispiel: SOEP, pairfam, GLES
Vorteile: Zeitliche Abfolge (Kausalität besser prüfbar) und Individuelle Entwicklungen sichtbar
Teuer und organisatorisch aufwendig
Panelmortalität: Ausfälle über Zeit − Paneleffekte (Panel Conditioning): Befragung verändert Antworten
Panelvarianten zur Problemminderung:
Alternierendes Panel: Zwei Gruppen abwechselnd befragt
Rotierendes Panel: Teilgruppe wird ersetzt
Geteiltes Panel: Kombination aus Panel und wiederholten Querschnitten
Informationshierarchie:
Paneldesign > Trenddesign > QuerschnittdesignPanel enthält die meiste, Querschnitt die wenigste Information.(Man kann aus Paneldaten Trends und Querschnitte berechnen, aber nicht umgekehrt.)
= beeinflussen Stichprobenziehung und Datenerhebung
Korrelation vs. Kausalität
Korrelation: Statistischer Zusammenhang zwischen zwei Merkmalen (positiv oder negativ)
Kausalität: Ursache-Wirkungs-Beziehung: eine Variable verursacht eine Veränderung der anderen
Achtung: Eine Korrelation beweist keine Kausalität (z. B. mehr Feuerwehrleute → höherer Schaden = Scheinzusammenhang, Ursache ist die Feuergröße).
Bedingungen für Kausalität (nach Hill 1965 / Schnell et al. 2023)
Zeitliche Reihenfolge: Ursache geht Wirkung voraus.
Starker Zusammenhang zwischen den Variablen.
Replikation in verschiedenen Kontexten / Populationen.
Theoretische Plausibilität: nachvollziehbarer Wirkmechanismus.
Auswahlverfahren (Primäranalyse)
Grundfrage: Über wen oder was sollen Aussagen gemacht werden?
Grundbegriffe
Grundgesamtheit: Alle Elemente, über die eine Aussage getroffen werden soll (räumlich, sachlich, zeitlich definiert)
Beispiel: Alle wahlberechtigten BürgerInnen einer Gemeinde
Auswahlgesamtheit: Alle Elemente, die faktisch in die Stichprobe gelangen können
Beispiel Einwohnermelderegister
Auswahleinheit: Auf die das Auswahlverfahren angewendet wrid
Beispiel: Einzelperson im Register
Stichprobe: Ausgewählte Elemente aus der Auswahlgesamtheit
Beispiel: 500 zufällig ausgewählte BürgerInnen
Erhebungseinheit: Bei denen Daten tatsächlich erhoben werden
Beispiel: Befragte BürgerInnen
Overcoverage: Elemente in der Auswahl, die nicht zur Grundgesamtheit gehören
Beispiel: Minderjährige im Register
Untercoverage: Elemente der Grundgesamtheit, die nicht in der Auswahl sind
Beispiel: Wahlberechtigte ohne Internet bei Online-Umfragen
Erhebungsarten
Vollerhebung: Alle Untersuchungsobjekte der Grundgesamtheit werden erhoben
Vorteile: exakte Werte, keine Schätzfehler
Nachteile: teuer, zeitaufwendig, evtl. destruktiv, Ergebnisse veraltet bei großen Grundgesamtheiten
Teilerhebung (Stichprobe): Nur Teil der Grundgesamtheit wird erhoben
Zufällige Auswahl: Repräsentativität → Generalisierung möglich
Jedes Element der Grundgesamtheit hat die gleiche Chance, in die Stichprobe zu gelangen (>0)
Grundlage für Inferenzstatistik: Aussagen von Stichprobe → Grundgesamtheit
Voraussetzung: Liste aller Elemente der Grundgesamtheit
Typen:
Einfache Zufallsstichprobe (SRS): Jede mögliche Stichprobe von n Elementen hat gleiche Wahrscheinlichkeit
z.B: 1000 Studierende der FernUni Hagen zufällig ausgewählt
Geschichtete Zufallsstichprobe (Stratified Sampling): Grundgesamtheit in Schichten aufgeteilt → aus jeder Schicht Zufallsauswahl
z.B: Fakultäten der FernUni als Schichten, proportional/ disproportional Stichprobe
Klumpenstichprobe (Cluster Sampling): Zufallsauswahl von Gruppen/Clustern, dann alle Elemente innerhalb der Cluster erheben
z.B: PISA: Schulen zufällig ausgewählt, alle 15-jährigen Schüler befragt
Nicht-zufällige Auswahl: nicht generalisierbar
Fälle werden nicht per Zufall ausgewählt → keine Inferenz auf Grundgesamtheit möglich
Zwei Hauptgruppen:
Willkürliche Auswahl („Auswahl aufs Geratewohl“)
Entscheidung über Stichprobenaufnahme liegt im Ermessen des Auswählenden
z.B: Straßeninterviews, Medienbefragungen („Wir haben Personen in der Innenstadt befragt“)
Probleme: Grundgesamtheit nicht definiert, wodurch keine Rückschlüsse möglich sind
insb. bei Psychologische Experimente: Teilnehmende oft selektiv (z. B. Studierende), Randomisierung erfolgt nur innerhalb Experimental-/Kontrollgruppen
Bewusste Auswahl (systematisch, theoretisch begründet
Auswahl erfolgt nach inhaltlichen Kriterien, nicht Zufall
Kann zur Theoriebildung oder Falsifikation beitragen, aber nicht generalisierbar
Typische Verfahren:
Auswahl entscheidender Fälle
Wählt Fälle, die Hypothese unter unwahrscheinlichen Bedingungen testen
Quotenauswahl (Quotenverfahren)
Stichprobe entspricht bekannten Merkmalen der Grundgesamtheit (z. B. Geschlecht, Alter)
Interviewer wählt Personen innerhalb Quote → Risiko von Verzerrungen
Inferenzstatistik erschwert/kaum möglich
Most Similar Cases Design (MSCD)
Einheit ähnlich in allen Merkmalen außer unabhängiger Variable
Beispiel: Wahlpflicht und Wahlbeteiligung → Länder mit ähnlichem Kontext
Most Different Cases Design (MDCD)
Einheit möglichst unterschiedlich in allen Merkmalen, um Hypothese in diversen Kontexten zu prüfen
Beispiel: Postmaterialisten wählen grüne Parteien → Test in unterschiedlichen Ländern
Achtung: MSCD und MDCD sind Idealvorstellungen, selten vollständig umsetzbar
Fallauswahl muss systematisch und begründet sein
Auswahlverfahren in der Forschungspraxis
-> Einfache Zufallsstichproben selten möglich, da oft keine vollständige Liste der Grundgesamtheit existiert. Meist kommt es zu mehrstufigen Auswahlverfahren zur repräsentativen Stichprobe, um inferenzstatistische Rückschlüsse ziehen zu können:
ADM-Design für persönliche Befragungen
= „Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute e.V.“
Drei Auswahlschritte:
Gebietsdefinition → Sample Points
Deutschland in ~53.000 Teilflächen (Sample Points) unterteilt
Durchschnittlich 750 Haushalte pro Sample Point
258 Sample Points für gesamtdeutsches Netz (z. B. 202 alte Länder, 43 neue Länder, 13 Berlin)
Zielhaushalte auswählen → Random Walk / Random Route
Interviewer folgt festgelegten Regeln (z. B. jede x-te Wohnung, Richtungswechsel bei Kreuzungen)
Varianten:
Mit Adressvorlauf → Haushaltsliste ans Institut → zufällige Auswahl
Ohne Adressvorlauf → Interviewer sucht Haushalte direkt → günstiger, aber Risiko von Verzerrungen
Zielperson auswählen
Geburtstagsmethode (Last- oder Next-Birthday)
Schwedenschlüssel / Kish Grid → systematische Liste + Zufallszahl
Berücksichtigung der Haushaltsgröße → Auswahlwahrscheinlichkeit korrigierbar
Probleme / Fehlerquellen:
Abweichungen beim Random Walk
Nichtbeachtung von Schwedenschlüssel oder Geburtstagsmethode
Leicht erreichbare, befragungswillige Personen überrepräsentiert
Telefonische Befragung
Häufige Methode in Markt- und Sozialforschung → kostengünstig, schnell, zentral kontrollierbar (CATI).
Arten:
Gabler-Häder-Design: beste Praxis für Tel.-Stichproben in DE
Kombination von registrierten Rufnummern + generierten Rufnummern
Ziel: möglichst verzerrungsfreie Abbildung aller aktiven Rufnummern
Zielperson: Last-Birthday oder Next-Birthday
Dual-Frame-Ansatz: Kombiniert Festnetz- und Mobilfunkstichproben
Mobilfunknummern schwer regional zuzuordnen → lokale Erhebungen problematisch
Unterschied in politischen Einstellungen zwischen Festnetz- und Mobilfunknutzer moderat
Registerstichprobe: Auf Basis von Einwohnermeldeämtern / offiziellen Registern
Vorteile: weniger Verzerrung und hoher Kontrollierbarkeit.
Register nicht immer aktuell: Umzüge oder Sterbefälle werden verzögert erfasst.
Fehleranfälligkeit der Register: Nicht alle Einwohner korrekt gemeldet oder abgemeldet.
Hoher Aufwand
Institut auf Kooperation der Gemeinden angewiesen.
Hohe Gebühren, teils unbrauchbare Datenformate.
Lieferzeit kann mehrere Monate dauern → beeinflusst Datenqualität.
Nur bei „öffentlichem Interesse“ möglich
Private Institutionen erhalten in der Regel keine Genehmigung.
Wissenschaftliche Projekte müssen das öffentliche Interesse nachweisen.
Entscheidung häufig durch Gemeinden oder Stadtoberhaupt.
Vorteile gegenüber ADM-Design
Geringer Einfluss der Interviewer
Zielhaushalte und Zielpersonen werden aus einer zufällig generierten Liste ausgewählt.
Interviewer können die Auswahl nicht willkürlich beeinflussen.
Demografische Informationen verfügbar
z. B. Alter, Geschlecht → bessere Kontrolle der Stichprobenzusammensetzung.
Hohe Regelgebundenheit, Kontrollsicherheit und Dokumentierbarkeit.
Anwendung in bedeutenden Studien
ALLBUS (Allgemeine Bevölkerungsumfrage für Sozialwissenschaften)
European Social Survey (deutsche Teilstudie)
-> Auswahl hängt von der Forschungsfrage ab.
Datenerhebung (Primäranalyse)
Befragung (standardisiert)
Nach Festlegung von Forschungsdesign und Auswahlverfahren erfolgt die konkrete Datenerhebung.
Drei klassische Varianten der Datenerhebung:
Befragung (standardisiert / qualitativ)
Beobachtung
Inhaltsanalyse
> Standardisierte Befragung = „Königsweg der praktischen Sozialforschung“, Grundlage der meisten empirischen Studien.
Zu 1)
Befragungsform
Persönlich (Face-to-face): CAPI/ PAPI
längere Interviews möglich (bis 60 Min.), höhere Teilnahmebereitschaft, aber teuer.
z.B: Haushaltsinterviews
Telefonisch: CATI
zentralisiert, schnell, moderate Kosten, max. 30 Min.
z.B: Wahlfroschung
Schriftlich: Papierfragebögen
abhängig von Postadressen, response rate problematisch, max. 12–16 Seiten.z.B: lokale Studien, kleinere Grundgesamtheit
online: CAWI
niedrigste Kosten, schnelle Datenerfassung, Ausschluss der nicht-internetfähigen Bevölkerung (~10 %).
z.B: Studierende, breitflächige Onlinebefragung
Charakterisierung der Befragungsformen
Persönlich
Telefonisch
Schriftlich
Online
Abbildung der Grundgesamtheit
mittel
Maximale Interviewdauer
lang, max. 60min
mittel, ~30 Min.
mittel, ca. 12–16 Seiten
kurz, ~15 Min.
Visuelle Hilfsmittel
ja
nein
begrenzt
Soziale Erwünschtheit
Dauer der Feldphase
lang
kurz
Kosten je Interview
Teilnahmebereitschaft
Teilnahme freiwillig, Entscheidung basiert auf Nutzen-Kosten-Abwägung (Theorie des rationalen Handelns / Low-Cost-Situation).
Faktoren, die Teilnahme fördern: kleine Geschenke, Sprache/Geschlecht des Interviewers, Interesse am Thema.
Standardisierte Befragung
Alle Befragten erhalten die gleichen Fragen, Antwortoptionen und Reihenfolge.
Rahmenbedingungen (z. B. Interviewsituation) sind identisch.
Ziel: Unterschiede in Antworten spiegeln tatsächliche Merkmale, Einstellungen oder Verhaltensweisen, nicht unterschiedliche Bedingungen.
Besonders relevant für Einstellungen, Sozialstruktur, politische Meinungen.
Mixed-Mode-Surveys: Kombination mehrerer Befragungsformen (z. B. Papier + Online).
Höhere Teilnahmebereitschaft
Reduzierung von Nachteilen einzelner Modi (z. B. Online-Kompetenz, technische Barrieren)
Tailored Design Method (TDM) von Don Dillman: Weiterentwicklung der Total Design Method.
Idee: Jede Entscheidung in der Befragungsgestaltung kann Einfluss auf die Antwortquote und die Qualität der Daten haben – daher sollte alles bewusst „maßgeschneidert“ (tailored) werden.
Ziel: höhere Teilnahmebereitschaft und Datenqualität
Grundprinzip:
Kommunikation mit den Befragten: Anschreiben, Einladungen, Erinnerungen werden klar verständlich, freundlich, motivierend und personalisiert geschrieben
Fragebogen-Gestaltung
Fragen: verständlich, neutral, präzise
Reihenfolge: logisch aufgebaut, einfache Struktur
Antwortmöglichkeiten: konsistent, klar abgrenzbar
Äußeres Erscheinungsbild / Layout
Papierfarbe, Schriftgröße, Abstände, Design-Elemente: alle Details können die Teilnahmebereitschaft beeinflussen
Professionelles Layout signalisiert Seriosität und Vertrauen
Praktische Durchführung
Versand, Erinnerungen, Rücklaufkontrolle
Zeitpunkt der Befragung (z. B. Wochentag, Tageszeit)
Technische Unterstützung (bei Online-Befragungen)
Einfache Bedienung, Fehlerhinweise bei Eingaben, Fortschrittsanzeige
Fragearten
offene Fragen: Befragte antwortet in eigenen Worten, ohne vorgegebene Antwortoptionen.
Antworten sind nicht durch vorgegebene Kategorien eingeschränkt.
Erfassen Wissensstand, Einstellungen oder Bedeutungswandel.
Hoher Aufwand für Notieren und Auswertung (Codierung notwendig).
Unterschiedliche Ausdrucksfähigkeit der Befragten kann Ergebnisse verfälschen.
Interviewer-Effekte möglich (wie präzise die Antwort notiert wird).
Beispiel: „Würden Sie mir bitte sagen, was Sie mit dem Begriff ‚links‘ verbinden?“ (ALLBUS 2008)
Dichotome Fragen: genau zwei Antwortmöglichkeiten, meist „Ja – Nein“ oder „Vorhanden – Nicht vorhanden“.
Einfach zu beantworten und auszuwerten.
Klare Unterscheidung zwischen zwei Alternativen.
Beispiel: „Haben Sie im Laufe Ihres Lebens privaten Musikunterricht erhalten?“ → Ja / Nein
Hybridfragen (Halboffen): Kombination aus geschlossenen Antwortoptionen und einer offenen „Sonstige“-Kategorie.
Vorteile: Ermöglicht individuelle Antworten, wenn vorgegebene Optionen nicht passen.
Nachteile: Erhöht Auswertungsaufwand und Interviewdauer.
Beispiel: Schulabschluss: „Anderen Schulabschluss, und zwar: ______“
Fragen mit Skalenvorgaben: (z. B. von „sehr stark“ bis „überhaupt nicht“).
Vorteile: Schnelle Beantwortung, einfache Auswertung.
Rangordnungsfragen: Befragte ordnen mehrere Items nach Wichtigkeit.
Vorteile: Erfassen Prioritäten und Präferenzen.
Politische Ziele: „Welches Ziel ist Ihnen am wichtigsten? Welches zweitwichtigste?“
A. Ruhe & Ordnung
B. Mehr Bürgerbeteiligung
C. Kampf gegen steigende Preise
D. Schutz der Meinungsfreiheit
Auswertung: Materialist / Postmaterialist / Mischtyp
Mehrfachantwortfragen: Befragte können mehrere Antworten auswählen.
Vorteile: Realitätsnah, wenn mehrere Optionen zutreffen.
Nachteile: Fehleranfälliger, schwieriger auszuwerten.
Beispiel: „An welchen chronischen Krankheiten leiden Sie?“ → Mehrfachauswahl möglich
Forced-Choice-Fragen: Befragte müssen die richtige Antwort aus mehreren vorgegebenen Optionen wählen.
Beispiel: „Durch wen wird der Bundeskanzler gewählt?“
Optionen: Volk / Bundesrat / Bundestag / Bundesversammlung
Richtige Antwort: Bundestag
Zusammengefasst
Offen: eigene Worte, qualitativ reich, aufwendig
Dichotom: 2 Optionen, einfach, schnell
Hybrid: Kombination aus offen + geschlossen, flexibel
Skala: Bewertung / Stärke / Intensität, quantitativ leicht auswertbar
Rangordnung: Prioritäten erkennen
Mehrfach: mehrere Optionen möglich, realistisch, aufwendig
Forced-Choice: Wissens- oder Entscheidungsfragen, klar
10 Grundregeln (Gebote) der Frageformulierung nach Porst
Einfache, verständliche Begriffe
Fragen sollen keine Fremdwörter oder komplexe Begriffe enthalten, damit alle Befragten sie gleich verstehen.
Kurze, klare Fragen
Lange und komplizierte Fragen überfordern die Befragten. Unnötige Füllwörter streichen.
Keine hypothetischen Fragen
„Was wäre, wenn…?“ ist oft unzulässig, nur in Ausnahmefällen akzeptabel, wenn Befragte die Situation schon erlebt haben könnten.
Keine doppelten Stimuli und Verneinungen
Kombinierte Fragen (z.B. „Kino oder Theater?“) verwirren, ebenso doppelte Verneinungen.
Keine Unterstellungen oder suggestive Fragen
Fragen dürfen keine bestimmte Antwort provozieren oder wertend sein („beste Film aller Zeiten“).
Keine Fragen zu Informationen, die Befragte vermutlich nicht haben
Z.B. detaillierte Haushaltsbudgets oder Unfallstatistiken. Sonst raten Befragte oder brechen ab.
Eindeutiger zeitlicher Bezug
Statt „in der letzten Zeit“ besser: „in den letzten 12 Monaten“.
Antwortkategorien erschöpfend und disjunkt gestalten
Jede Person sollte genau eine Kategorie auswählen können. Kategorien dürfen sich nicht überschneiden.
Kontext beachten
Vorherige Fragen können Antworten beeinflussen (Assimilations- oder Kontrasteffekte). Pretests helfen, solche Effekte zu erkennen.
Unklare Begriffe definieren
Fachbegriffe müssen erklärt werden, wenn sie nicht allen Befragten bekannt sind.
Merkmale der Antwortvorgaben
Geschlossene Fragen brauchen immer Antwortvorgaben. Ohne diese wäre die Frage unvollständig.
Antwortkategorien sollen erschöpfend (alle Möglichkeiten abdecken) und disjunkt (sich nicht überschneidend) sein.
Die Gestaltung der Antwortskalen kann direkt das Antwortverhalten beeinflussen.
Effekte von Antwortskalen:
Antwortverzerrung durch Skala: Befragte orientieren sich an der Skala, z.B. kleine vs. große Intervalle bei Zeitangaben können unterschiedliche Ergebnisse liefern.
Mittelkategorie: Kann echte Neutralität abbilden, wird aber manchmal auch als „einfacher Ausweg“ genutzt.
Verbal vs. numerisch:
Zahlen allein sind präziser und leichter zu merken, verbal ist alltagsnäher.
Kombination kann verwirren – besonders negative Zahlen sollten vermieden werden.
Skalenreihenfolge:
Positiv → negativ oder negativ → positiv kann kleine Effekte auf die Antworten haben.
Standardisierung vs. Variation:
Standardisierte Skalen vereinfachen die Auswertung.
Item-spezifische Skalen können das Verständnis verbessern, verhindern aber Ermüdungseffekte nicht vollständig.
Leitfragen bei der Konstruktion von Antwortskalen nach Franzen und Porst
Wie viele Kategorien? – Zu viele Kategorien können überfordern, zu wenige reduzieren Differenzierungsmöglichkeiten.
Faustregel: 5–7 Kategorien (Miller 1956: 7 ± 2).
Gerade oder ungerade Anzahl? –
Gerade: zwingt zu Zustimmung oder Ablehnung, keine neutrale Mitte.
Ungerade: enthält eine neutrale Mittelkategorie.
Alle Kategorien beschriften oder nur Endpunkte? –
Verbale Beschriftung aller Kategorien macht Skala für Befragte verständlicher.
Bei längeren Skalen oft nur Endpunkte beschriften.
Bipolar oder unipolar? –
Bipolar: Gegensatzpaare („unzufrieden – zufrieden“)
Unipolar: Abstufung in einer Richtung („überhaupt nicht wichtig – sehr wichtig“)
Positiv oder negativ beginnen? –
Optische Skala: meist negativ → positiv.
Telefonische Skala: umgekehrt empfohlen.
Item-spezifisch oder standardisiert? –
Standardisierte Skalen vereinfachen die Bearbeitung, können aber Ermüdung verursachen.
Spezifische Skalen können Verständnis verbessern.
Zusammenfassend: Es gibt keine „perfekte“ Antwortskala. Jede Entscheidung hat Vor- und Nachteile, die sorgfältig abgewogen werden müssen.
Fragebogenentwicklung
…ist iterativ: Fragen werden überarbeitet, Reihenfolgen angepasst, neue Fragen hinzugefügt.
Systeme wie QDDS dokumentieren alle Änderungen und erleichtern spätere Analysen und Weiterentwicklungen.
Gestaltung
Frageblöcke (Module): Ähnliche Fragen werden zu Frageblöcken zusammengefasst (z. B. Politik, Mediennutzung, Wohlbefinden).
Sinnvolle Reihenfolge: allgemein → speziell.
Bei Modulen mit Einstellungs- und Verhaltensfragen: zuerst Verhaltensfragen (leichter zu beantworten).
Zentrale Themen in der Mitte platzieren, da Aufmerksamkeit am Anfang hoch, später abnimmt.
Einstiegsfragen: spannend, relevant, leicht zu beantworten → erhöhen Teilnahmebereitschaft.
Soziodemographische Fragen meist am Ende (sensible Fragen wie Einkommen).
Empfehlung: kurze Erklärung, warum diese Daten erhoben werden.
Abschlussfragen: Dankeschön und Möglichkeit für Kommentare einräumen
Filterfragen/Filterführungen: überspringen irrelevante Fragen, reduzieren Befragungszeit.
Online: Programmierung erledigt Navigation automatisch.
Schriftlich: klare Kennzeichnung notwendig.
Layout: Optisch ansprechend, gut lesbare Schrift, nicht zu viele Fragen pro Seite.
Pretests: Prüfung des Fragebogens vor der Haupterhebung zur Qualitätssicherung.
Drei Pretest-Typen:
Kognitive Interviews (früh): Verständlichkeit, Probleme beim Beantworten.
Techniken: Nachfragen (Probing), Confidence Rating, Paraphrasieren, Card Sorting, Think Aloud.
Fragebewertungssystem (FBS) (mittel): Checkliste zur systematischen Analyse von Fragen (z. B. Wortwahl, Annahmen über Befragte).
Feldpretest / Standard-Pretest (spät): Test unter realistischen Bedingungen (10–200 Personen).
Ziel: Ablauf, Dauer, Filterführung, Bedienbarkeit prüfen.
Tipp: GESIS Pretest-Datenbank: Sammlung von Erfahrungen aus kognitiven Pretests, zur Orientierung für neue Fragen.
Non-Response
= Nichtteilnahme an Befragungen bzw. fehlende Daten.
Item-Nonresponse: Einzelne Fragen werden nicht beantwortet (z. B. Einkommen, intime Fragen).
Lösungen: Randomized-Response-Technik (Anonymität), statistische Imputation (einschließlich multiple Imputation).
Unit-Nonresponse: Befragte nehmen überhaupt nicht teil.
Unterarten:
Nicht-Erreichte: nicht kontaktiert (z. B. mobile Personen).
Nicht-Befragbare: Verständigungsprobleme, Krankheit.
Verweigerer: erreichen, aber Teilnahme abgelehnt.
Beteiligungsraten: sinkend seit 1980er Jahre (z. B. ALLBUS von >70 % auf 30–40 %; ESS von 55,7 % auf 26,7 %).
Ausschöpfung / Response-Rate: Verhältnis realisierte Interviews zu gezogenen Stichprobenelementen.
Definitionen uneinheitlich → umfassender Methodenbericht empfohlen.
Niedrige Ausschöpfung ≠ automatisch Verzerrung; Selektivität entsteht nur bei systematischen Unterschieden zwischen Teilnehmern und Nicht-Teilnehmern.
Forschung: Maßnahmen zur Erhöhung der Teilnahme (z. B. Follow-ups, Anreize) sind zentral für die Surveyqualität.
Formel für die Response-Rate 1 (RR1, Minimum Response Rate):
RR1= I
_________________________
I+P+R+NC+O+UH+UO
Legende:
I = vollständig realisierte Interviews
P = unvollständig realisierte Interviews
R = Verweigerer (befragt, aber Teilnahme verweigert)
NC = Nicht-Erreichte
O = andere Ausfallgründe (bekannte Zielperson, aber Befragung nicht möglich, z. B. Sprachproblem)
UH = unbekannte Haushalte (nicht klar, ob Zielperson existiert)
UO = andere unbekannte Ausfallursachen
Die RR1 gibt also den Anteil der vollständig realisierten Interviews an allen gezogenen Stichprobenelementen einschließlich aller bekannten und unbekannten Ausfälle wieder.
2) Beobachtung
Hier ist eine kompakte und strukturierte Lernkarte zum Thema „Beobachtung als Datenerhebungsmethode“ basierend auf deinem Text:
Beobachtung (als Datenerhebungsmethode)
Einleitung:
Die Beobachtung ist eine grundlegende Methode der Datenerhebung in den Sozialwissenschaften. Sie dient der systematischen Erfassung von sozialem Handeln und kann – je nach Verständnis – weit oder eng gefasst werden.
Definition
Beobachtung = direkte, unmittelbare Registrieren relevanter Sachverhalte für einen Forschungszusammenhang (Häder 2019, S. 320–321).
in Form von zB
Sprache
Verbales und nonverbales Verhalten (Mimik, Gestik)
Soziale Merkmale (Kleidung, Symbole, Abzeichen etc.)
„Geronnenes Verhalten“ (z. B. Schaufensterauslagen, Klingelschilder)
Abgrenzung zur AlltagswahrnehmunG
Alltägliche Beobachtungen = Wahrnehmungen (Behnke et al. 2010)
Wissenschaftliche Beobachtungen unterscheiden sich durch systematische und theoretisch fundierte Vorgehensweise.
Vier Kriterien wissenschaftlicher Beobachtung (nach Häder 2019)
Theoretische Fundierung durch Hypothesen: Beobachtungen basieren auf Hypothesen, die auf Theorien und bisherigen Befunden aufbauen.
Kontrolle: Ergebnisse müssen überprüfbar sein – z. B. durch Vergleich mehrerer Beobachter oder systematische Dokumentation.
Wissenschaftliche Auswahl der Beobachtungseinheiten: Auswahl erfolgt nach begründeten, nachvollziehbaren Kriterien.
Systematische und intersubjektive Auswertung: Beobachtungen müssen so gestaltet sein, dass sie replizierbar und nachvollziehbar sind.
Vorteile wissenschaftlicher Beobachtung (Häder 2019)
Erfassung tatsächlichen Verhaltens – im Gegensatz zu Befragungen, die nur berichtetes Verhalten liefern.
Erfassung unbewusster Verhaltensweisen – z. B. Routinen oder spontane Reaktionen.
Dokumentation nonverbaler Verhaltensweisen – z. B. Mimik, Gestik, Körpersprache.
Nachteile wissenschaftlicher Beobachtung (Häder 2019)
Zeit- und kostenintensiv → kleinere Fallzahlen.
Keine repräsentativen Stichproben → eingeschränkte Verallgemeinerbarkeit.
Begrenzte Themenzugänglichkeit → nicht alles ist beobachtbar.
Beobachterfehler → Gefährdung von Validität und Reliabilität.
Ethische Probleme bei verdeckten Beobachtungen.
Zusammenfassung
Beobachtung = systematisches, theoriebasiertes Verfahren zur Erhebung sozialen Handelns. Sie erlaubt den Zugang zu tatsächlichem und nonverbalem Verhalten, ist aber ressourcenaufwändig und methodisch wie ethisch anspruchsvoll.
Beobachtung in den Sozialwissenschaften
dient der systematischen Erfassung sozialen Handelns und kann in unterschiedlichen Formen durchgeführt werden:
Varianten der Beobachtung (nach Diekmann 2011; Kromrey et al. 2016; Häder 2019)
Teilnehmende vs. Nichtteilnehmende Beobachtung
Teilnehmend: Beobachter ist in die Gruppe integriert → ermöglicht tiefere Einblicke, aber Gefahr des „going native“ (Verlust wissenschaftlicher Distanz).
Nichtteilnehmend: Beobachter bleibt passiv und distanziert → geringere Beeinflussung des Geschehens.
Offene vs. Verdeckte Beobachtung
Offen: Beobachtete wissen, dass sie beobachtet werden.
Verdeckt: Beobachtung erfolgt ohne Wissen der Betroffenen → realistischere Verhaltensdaten, aber ethisch problematisch.
Feld- vs. Laborbeobachtung
Feldbeobachtung: Untersuchung in natürlicher Umgebung → hohe ökologische Validität.
Laborbeobachtung: Kontrolle von Störfaktoren möglich, aber geringere Realitätsnähe.
Strukturierte vs. Unstrukturierte Beobachtung
Strukturiert: Klare Beobachtungskriterien und Kategorien; ermöglicht Vergleichbarkeit.
Unstrukturiert: Explorativ und offen; geeignet zur Hypothesenbildung.
Fremd- vs. Selbstbeobachtung
Fremdbeobachtung: Verhalten anderer Personen wird erfasst.
Selbstbeobachtung: Forscher reflektiert eigenes Verhalten (selten in der empirischen Sozialforschung).
Variante
Merkmale / Beschreibung
Vorteile
Nachteile / Herausforderungen
Typische Anwendung / Beispiel
1. Teilnehmende Beobachtung
Beobachter ist aktiv am Geschehen beteiligt, wird Teil der Gruppe („Insider-Perspektive“)
Tiefer Einblick in Gruppenprozesse und Dynamiken
Gefahr der Beeinflussung der Beobachteten; Verlust der Distanz („going native“)
Nieland (2011): Beobachtung von Parteitagen der Grünen und Linken
Nichtteilnehmende Beobachtung
Beobachter bleibt passiv und hält räumlichen Abstand
Objektivere Beobachtung, keine Einflussnahme
Geringere Einsicht in interne Abläufe
Politische Veranstaltungen aus Beobachterperspektive
2. Offene Beobachtung
Beobachtete wissen, dass sie beobachtet werden
Ethisch unbedenklich, Transparenz
Verhaltensänderung durch Beobachtung (Reaktivität)
Öffentliche Feldstudien, z. B. Unterrichtsbeobachtungen
Verdeckte Beobachtung
Beobachter tritt nicht als solcher auf; Beobachtete wissen nichts von der Beobachtung
Natürliches Verhalten (nichtreaktiv)
Ethisch problematisch
Untersuchungen von Alltagsverhalten
3. Feldbeobachtung
Beobachtung in natürlicher Umgebung
Hohe ökologische Validität, authentisches Verhalten
Geringe Kontrolle über Störfaktoren
Parteitage, Wahlkreisarbeit (CITREP)
Laborbeobachtung
Beobachtung in künstlicher, kontrollierter Umgebung
Kontrolle über Bedingungen, Vergleichbarkeit
Geringe Realitätsnähe
Experimente (z. B. Verhalten nach Medienkonsum)
4. Strukturierte Beobachtung
Vorgegebenes Beobachtungsschema oder Protokoll; klare Kategorien
Vergleichbarkeit, Reliabilität, statistische Auswertbarkeit
Eingeschränkte Offenheit, Fokus auf vordefinierte Merkmale
Quantitative Forschung, z. B. Analyse von Wortbeiträgen
Unstrukturierte Beobachtung
Offenes, exploratives Vorgehen ohne feste Kategorien
Entdeckung neuer Phänomene, Hypothesenbildung
Geringe Vergleichbarkeit, hohe Subjektivität
Qualitative Feldforschung, ethnografische Studien
5. Fremdbeobachtung
Verhalten anderer wird von geschulten Beobachtern erfasst
Objektivität durch externe Erhebung
Beobachterfehler möglich
Standardverfahren in Sozialforschung
Selbstbeobachtung (Introspektion)
Person beobachtet sich selbst, reflektiert eigenes Verhalten
Zugang zu inneren Prozessen, Selbstreflexion
Subjektiv, schwer überprüfbar
Psychologische oder experimentelle Studien
Beispiele klassischer und moderner Beobachtungsstudien
„Die Arbeitslosen von Marienthal“ (Jahoda et al. 1975 [1933])
Ziel: Untersuchung der sozialen und psychischen Folgen von Arbeitslosigkeit.
Methodenkombination: Beobachtung, Interviews, Dokumentenanalyse.
Beobachtungseinsatz:
Erfassung von Sauberkeit, Ordnung und Zustand der Wohnungen (Beobachtungsprotokolle).
Messung von Gehgeschwindigkeit und Verhaltensmustern zur Analyse der Zeitverwendung.
Befund: Arbeitslosigkeit führte zu Verlust der Tagesstruktur, insbesondere bei Männern.
CITREP-Projekt („Citizens and Representatives in France and Germany“) – Siefken (2013)
Gegenstand: Begleitung von 64 Bundestagsabgeordneten für jeweils drei Tage im Wahlkreis.
Erhebungsmethode:
Standardisierte Erhebungsbögen + offene Beobachtungsprotokolle.
Erfassung von Kontextfaktoren (Teilnehmerzahl, Medienpräsenz, Themenrelevanz).
Ergebnisse:
Wahlkreisarbeit stark durch lokale Themen geprägt (49 %), gefolgt von Bundespolitik (35 %), Kommunalpolitik (21 %) und Landespolitik (20 %).
Ergänzung durch leitfadengestützte Interviews → Vergleich von Beobachtung und Befragung möglich.
Beobachtungen bei Parteitagen – Nieland (2011)
Thema: Inszenierung und Atmosphäre von Europawahlparteitagen der Grünen und der Linken.
Methode: Teilnehmende Beobachtung, explorativ angelegt.
Vergleichbares Bühnen-Setting, aber inhaltlich deutliche Unterschiede:
Grüne: europapolitische Themen im Vordergrund.
Linke: kaum konstruktive Europadebatte.
Phasen einer Beobachtung (nach Diekmann 2011; Häder 2019)
1. Fragestellung und Entwicklung von Hypothesen
Formulierung einer klaren Forschungsfrage und überprüfbarer Hypothesen
Hypothesen beschreiben die zu untersuchenden Zusammenhänge
Voraussetzung: Auseinandersetzung mit Theorien und bisherigen empirischen Befunden
Ziel: empirische Überprüfung der Hypothesen durch Beobachtung
2. Operationalisierung
Theoretische Konzepte werden in beobachtbare Sachverhalte übersetzt
Auswahl geeigneter Indikatoren für die Erfassung des Untersuchungsgegenstands
Prüfung, ob Indikatoren empirisch beobachtbar sind
Berücksichtigung methodenspezifischer Herausforderungen der Beobachtung
3. Entwicklung eines Beobachtungsschemas (Kodierschema)
Erstellung eines systematischen Schemas zur Erfassung der Beobachtungen
Drei Grundformen (nach Westle & Krumm 2018):
Zählschema – Erfassung des bloßen Auftretens bestimmter Ereignisse
Kategorienschema – Klassifikation von Ereignissen nach festgelegten Kriterien
Schätzschema – Einschätzung zusätzlicher Eigenschaften (z. B. Lautstärke, Intensität)
Fünf Minimalanforderungen an ein Schema:
Vollständigkeit (alle relevanten Sachverhalte erfassbar)
Ausschließlichkeit (jeder Sachverhalt nur einer Kategorie zugeordnet)
Eindimensionalität (Kategorien beziehen sich auf nur einen Aspekt)
Konkretisierung (eindeutige Zuordnung möglich)
Sensibilität (angemessene Differenzierung ohne Überforderung der Beobachter)
4. Auswahl der Untersuchungsobjekte
Festlegung und Begründung der zu beobachtenden Einheiten
Bevorzugt Zufallsstichproben; falls nicht möglich: theoretische Begründung der Auswahl
Beispiel: CITREP-Studie (Siefken 2013) nutzte theoretisches Sampling nach 19 Kriterien (z. B. Alter, Partei, Urbanisierungsgrad des Wahlkreises)
Ziel: theoretisch fundierte, aber nicht inferenzstatistisch generalisierbare Stichprobe
5. Pretest
Überprüfung des Beobachtungsinstruments vor der Haupterhebung
Kontrolle auf:
Eindeutigkeit der Kategorienzuordnungen
Vollständigkeit und Handhabbarkeit des Schemas
Durchführung einer Beobachterschulung empfohlen
Ziel: Sicherstellung der Reliabilität und Praktikabilität des Instruments
6. Haupterhebung
Anwendung des geprüften Kodierschemas in der eigentlichen Datenerhebung
Idealfall: mehrere Beobachter pro Untersuchungsobjekt → höhere Reliabilität
Systematische Dokumentation der Beobachtungen
7. Datenaufbereitung und Auswertung
Übertragung der Beobachtungsprotokolle in eine Datenmatrix
Zeilen = Untersuchungsobjekte
Spalten = Beobachtungskategorien
Anschließende statistische oder inhaltsanalytische Auswertung der Daten
Definition (nach Früh 2017, S. 29)
„Eine empirische Methode zur systematischen, intersubjektiv nachvollziehbaren Beschreibung inhaltlicher und formaler Merkmale von Mitteilungen, meist mit dem Ziel einer darauf gestützten interpretativen Inferenz auf mitteilungsexterne Sachverhalte.“
Kernpunkte:
empirische Methode
systematisch und intersubjektiv nachvollziehbar
Analyse inhaltlicher und formaler Merkmale
Ziel: Rückschlüsse auf mitteilungsexterne Sachverhalte (z. B. gesellschaftliche Einstellungen, Werte)
Inhaltsanalyse = sozialwissenschaftliche Methode zur systematischen Untersuchung bestehender Materialien (z. B. Texte, Bilder, Filme). Sie dient nicht nur der Datenerhebung, sondern ebenso der Datenanalyse und ermöglicht die systematische Erfassung inhaltlicher und formaler Merkmale von Mitteilungen.
Allgemeines
Ursprünge in der amerikanischen Massenkommunikationsforschung der 1940er Jahre (Analyse von Medienprodukten)
Erste Anwendungen bereits im 18. Jahrhundert (vgl. Früh 2017)
Nach Kuckartz (2009): keine reine Datenerhebungsmethode, sondern auch Datenanalysemethode
Es werden keine neuen Daten generiert, sondern bereits vorhandene Materialien ausgewertet
Untersucht werden können:
Texte (z. B. Zeitungsartikel, Wahlprogramme)
Bilder oder Filme
Formale Aspekte: Textlänge, Wortwahl, Stilmittel (z. B. Konjunktiv)
Jahoda et al. (1975 [1933]), Die Arbeitslosen von Marienthal: Analyse von Kinderaufsätzen → häufig Konjunktivformen und bescheidene Wünsche
Vorteile der Inhaltsanalyse (nach Diekmann 2011, S. 586)
Vergangenheitsbezug
Auch älteres Material kann analysiert werden
Beispiel: Berichterstattung zur RAF bleibt auswertbar
Analyse sozialen Wandels
Zeitlich verfügbare Texte ermöglichen die Untersuchung von Veränderungen über längere Zeiträume
Nichtreaktivität
Daten liegen unabhängig von der Forschungssituation vor
Produzenten der Dokumente wissen meist nicht, dass ihre Inhalte untersucht werden → keine Verzerrung durch soziale Erwünschtheit oder Erinnerungsfehler
Inhaltsanalyse in den Sozialwissenschaften
Varianten der Inhaltsanalyse (nach Kromrey et al. 2016; Schnell et al. 2023)
Ziel / Beschreibung
Frequenzanalyse
Erfassung der Häufigkeit bestimmter Begriffe oder Themen
Nennung von Bürgermeisterkandidaten in Lokalzeitungen
Valenzanalyse
Analyse der Bewertung (positiv, neutral, negativ)
Bewertung von Kandidaten in Presseberichten
Intensitätsanalyse
Erfassung der Intensität einer Bewertung
Wie stark positiv oder negativ wird berichtet?
Kontingenzanalyse
Untersuchung gemeinsamer Auftretensmuster von Begriffen
Auftreten von Kandidatennamen zusammen mit Parteien
3. Phasen einer Inhaltsanalyse (nach Früh 2017; Rössler 2010; Krippendorff 2013)
a) Planungsphase
Präzisierung der Forschungsfrage und Untersuchungsziele
Beispiel: „Berichterstattung in Tageszeitungen zur Bundestagswahl“
Festlegung der Grundgesamtheit (z. B. Zeitungen)
Differenzierung: Qualitätszeitungen vs. Boulevardpresse
Bestimmung des Erhebungszeitraums
Entscheidung über Vollerhebung oder Stichprobe
Theoretische Fundierung und Entwicklung erster Hypothesen
b) Entwicklungsphase
Erstellung des Kategoriensystems / Kategorienschemas
Zentrales Instrument der Inhaltsanalyse (Schnell et al. 2023)
Definition: Liste von Merkmalen, die die Analyseeinheiten aufweisen müssen
Beispiel: bei Zeitungsanalyse Erfassung von
allgemeinen Informationen (Zeitung, Erscheinungsdatum, Beitragsart)
inhaltlichen Merkmalen (Personennennungen, Politikfelder, Wertungen)
Für jede Kategorie wird ein Code festgelegt
Kategorienbildung:
Deduktiv → Ableitung aus Theorie oder bisherigen Befunden
Induktiv → Entwicklung aus dem Material selbst
Formale Anforderungen an ein Kategorienschema (Behnke et al. 2010; Schnell et al. 2023):
Eindimensionalität – jede Kategorie erfasst nur eine Bedeutungsdimension
Vollständigkeit – jede Einheit kann zugeordnet werden
Überschneidungsfreiheit – eindeutige Zuordnung der Merkmale
Unabhängigkeit – Kategorien beeinflussen sich nicht gegenseitig
c) Testphase
Probecodierung – gemeinsames Testen und Diskutieren des Kategorienschemas
Anpassung durch Präzisierung, Hinzufügen oder Streichen von Kategorien
Codierschulung – Einweisung der Codierer anhand des Codebuchs
Reliabilitätstests:
Intercoder-Reliabilität → Übereinstimmung verschiedener Codierer
Intracoder-Reliabilität → Stabilität bei Wiederholung durch dieselbe Person
Maße: Holsti CR, Scott’s Pi, Krippendorff’s Kappa
Validitätsprüfung – Gültigkeit der Codierungen
Codierungen müssen das theoretische Konzept tatsächlich messen
Hohe Übereinstimmung zwischen Forscher und Codierer als Hinweis auf Validität
d) Anwendungsphase
Durchführung der Codierung nach Kategorienschema
Zufällige Verteilung der Texte auf Codierer
Einsatz von Software zur Unterstützung der Codierung:
Quantitativ: Textpack, Wordfish, Wordscore
Qualitativ: ATLAS.ti, MAXQDA
e) Auswertungsphase
Speicherung der Daten in einem Rohdatensatz (Fall = Text, Variable = Kategorie)
Quantitative Auswertung mit Statistiksoftware
Interpretation der Ergebnisse im theoretischen Kontext
Ableitung von Rückschlüssen auf kommunikative oder gesellschaftliche Strukturen
Anwendungsbeispiele
Schmied (2002) – Todesanzeigenanalyse (1970–2000)
Vergleich öffentlicher und privater Beisetzungen („in aller Stille“)
Anteil privater Beisetzungen stieg von 0,01 % auf 24 % → Hinweis auf zunehmende Familienbezogenheit bei Trauerfällen
Medieninhaltsanalysen – Wahlkämpfe und politische Berichterstattung
Untersuchung, wie Massenmedien politische Ereignisse darstellen
Nationale und europäische Wahlkampfstudien (z. B. Holtz-Bacha 2010; Schuck et al. 2011)
Strohmeier (2005) – Politikdarstellung in Kinderhörspielen (Benjamin Blümchen, Bibi Blocksberg)
Politiker als „lächerliche und inkompetente Figuren“
Thematisierung v. a. von Umweltfragen → Politische Sozialisation durch Kinderhörspiele
Hierlemann & Sieberer (2014) – Mediale Präsenz von Bundestagsdebatten
Vergleich 2005/06 vs. 2013/14
Ergebnis: geringe und abnehmende Sichtbarkeit; über DAX-Unternehmen häufiger berichtet
Manifesto- und Euromanifesto-Projekte (WZB)
Inhaltsanalytische Auswertung von Wahlprogrammen in > 50 Ländern seit 1945
Analyse nationaler und europäischer Wahlprogramme (Pappi et al. 2011; Bräuninger & Debus 2012)
Ziel: Messung von Parteipositionen, Themenprioritäten und innerparteilicher Demokratie
Datenaufbereitung und -analyse
= Organisation, Prüfung, Verdichtung und statistische Auswertung von erhobenen Daten.
Datenerhebung und Datenmatrix (Kapitel 12 im Reader angucken!)
Untersuchungsobjekte: Personen, Gemeinden, Staaten usw.
Merkmale: Interessierende Variablen wie politisches Interesse, Einkommen, Lebenszufriedenheit
Variablen: Merkmale, die für alle Untersuchungsobjekte erfasst werden
Datenmatrix: Tabelle mit
Zeilen: Untersuchungsobjekte
Spalten: Variablen
Zellen: Merkmalsausprägungen der Objekte
Codebuch / Variablenreport: Dokumentiert die Variablen, deren Ausprägungen und Bedeutung (z. B. 1 = weiblich, 2 = männlich)
Beispiel: Variable v1 = Geschlecht (1 = weiblich, 2 = männlich), Variable v2 = politische Zufriedenheit
Prinzipien der Datensammlung (Kromrey et al. 2016)
Vergleichbarkeit: Merkmal einer Variable ist für alle Objekte gleich definiert
Klassifizierbarkeit: Für jedes Untersuchungsobjekt und jedes Merkmal existiert genau ein Wert
Vollständigkeit: Keine Zellen dürfen leer bleiben; fehlende Angaben = missing values (z. B. 9 oder 99 = „weiß nicht“ oder „keine Angabe“)
Datenaufbereitung
Fehlerarten: (Diekmann 2011; Lück & Landrock 2022)
Wild codes: Werte außerhalb des zulässigen Bereichs
Unplausible Werte: Zahlen, die realistisch nicht möglich sind (z. B. 300 Stunden/Monat ehrenamtlich)
Inkonsistente Werte: Widersprüche innerhalb der Daten (z. B. Ehedauer > Alter der Person)
Lösungsstrategien: Korrektur durch Vergleich mit Originalfragebogen oder Kennzeichnung als Missing Value
Software: Excel, EpiData, SPSS, Stata, R
Testphase (bei Inhaltsanalyse / Codierung)
= dient dazu, das entwickelte Kategorienschema auf seine Praxistauglichkeit zu prüfen und die Codierer auf eine einheitliche Anwendung vorzubereiten. Sie umfasst mehrere Schritte:
Probecodierung: Vorläufiges Kategorienschema wird getestet, Codierentscheidungen diskutiert und Kategorien ggf. angepasst
Codierschulung: Codierer mit Schema vertraut machen
Reliabilitätsprüfung:
Intercoder-Reliabilität: Prüft, ob verschiedene Codierer dasselbe Material einheitlich codieren.
Intracoder-Reliabilität: Prüft, ob ein Codierer dasselbe Material zu verschiedenen Zeitpunkten gleich codiert.
Reliabilitätsmaße: Quantitative Kennzahlen zur Bewertung der Codierübereinstimmung, z. B.:
Holsti CR
Scott Pi
Krippendorff’s Kappa
Validitätsprüfung: Sicherstellen, dass die Codierung das misst, was sie messen soll. Übereinstimmung Forscher – Codierer = Hinweis auf Validität
Deskriptive Datenanalyse
= beschreibt die Daten, ohne bereits Zusammenhänge oder Hypothesen zu testen.
Ziel: Verdichtung großer Datenmengen auf zentrale Kennwerte
Maßzahlen, die verdichtet werden:
Lagemaße: Zentrum der Verteilung
Modus: häufigster Wert (nominal)
Median: mittlerer Wert (ordinal)
Mittelwert: Durchschnitt (intervallskaliert)
Streuungsmaße: Variation/Dispersion der Daten (z.B. Varianz, Standardabweichung)
Beispiel: Trotz gleicher Mittelwerte (Lagemaße) kann die Streuung des wöchentlichen Taschengeldes bei Stadt- und Landkindern sehr unterschiedlich sein. Deshalb sind Streuungsmaße notwendig, um Unterschiede sichtbar zu machen.
Hypothesenprüfung
Ziel: Beziehungen zwischen Variablen prüfen durch Bivariate Zusammenhänge: Welches Maß geeignet ist, hängt vom Skalenniveau der Variablen ab.
Zwei nominalskalierte Variablen → Cramer’s V
Zweck: Misst die Stärke des Zusammenhangs zwischen den Variablen
Wertebereich: 0 (kein Zusammenhang) bis 1 (starker Zusammenhang)
Beispiel: Zusammenhang zwischen Geschlecht (m/w) und Parteipräferenz (SPD/CDU/Grüne/Linke)
= Geschlecht x Wahlentscheidung
Zwei ordinalskalierte Variablen → Spearman’s rho
Zweck: Misst, wie gut die Rangordnung einer Variable die Rangordnung der anderen Variable vorhersagt
Wertebereich: -1 bis 1
+1 → perfekte positive Rangkorrelation (beide Variablen steigen gemeinsam)
-1 → perfekte negative Rangkorrelation (eine steigt, die andere fällt)
0 → kein Zusammenhang
Beispiel: Zusammenhang zwischen politischem Interesse (gering – hoch) und Wahlbeteiligung (nie – immer)
= Politikinteresse x Wahlbeteiligung
Zwei metrische Variablen → Pearson’s r
Zweck: Misst die lineare Korrelation zwischen zwei Variablen
+1 → perfekter positiver linearer Zusammenhang
-1 → perfekter negativer linearer Zusammenhang
0 → kein linearer Zusammenhang
Beispiel: Zusammenhang zwischen Bildungsabschluss und Einkommen
Bildung x Einkommen
Multivariate Analyse: Einfluss mehrerer unabhängiger Variablen auf eine abhängige Variable
Dominantes Verfahren: Regressionsanalyse
Lineare Regression → metrische aV
Logistische Regression → dichotome aV
Multinomiale logistische Regression → nominale aV mit >2 Ausprägungen
Ordinale Logitmodelle → ordinale aV
Inferenzstatistik und Signifikanztests
Ziel: Rückschluss von Stichprobe auf Grundgesamtheit
Stichprobe: Zufällige Auswahl aus Grundgesamtheit (z. B. ALLBUS, n ≈ 3500)
Signifikanztest: Prüft, ob ein beobachteter Zusammenhang in der Stichprobe sehr wahrscheinlich auch in der Grundgesamtheit existiert
Schritte:
Nullhypothese (H₀) formulieren: → Es besteht kein Zusammenhang zwischen uV und aV.
Alternativhypothese (H₁): → Es besteht ein Zusammenhang zwischen uV und aV.
Statistisches Maß berechnen:
Nominal → Cramer’s V
Ordinal → Spearman’s rho
Metrisch → Pearson’s r
p-Wert bestimmen:
Der p-Wert gibt an, wie wahrscheinlich das gefundene Ergebnis unter der Nullhypothese wäre.
Häufig gilt: p < 0,05 → Ergebnis statistisch signifikant (d.h. sehr wahrscheinlich nicht zufällig).
Interpretation:
Ein signifikantes Ergebnis sagt nur: Zusammenhang sehr wahrscheinlich auch in der Grundgesamtheit.
Es sagt nicht, dass der Effekt groß oder wichtig ist.
Hypothese: Bildung beeinflusst Einkommen.
Daten: metrisch (Beide Variablen) → Pearson’s r
Berechnung: r = 0,45, p = 0,002
r = 0,45 → moderater positiver Zusammenhang
p = 0,002 → sehr wahrscheinlich auch in der Grundgesamtheit vorhanden
Interpretationshinweise: Ein signifikanter Effekt bedeutet nicht automatisch:
wichtiger Effekt
bewiesene Existenz
starker Effekt
Beispiel: Zusammenhang Bildung → Einkommen, Geschlecht → Wahlverhalten
Wichtig: In der Praxis berechnet man den p-Wert meistens mit Statistikprogrammen (SPSS, R, Stata), weil die Berechnungen bei großen Datensätzen sehr aufwendig wären.
Softwareunterstützung
Quantitative Datenanalyse: SPSS, Stata, R, Excel
Inhaltsanalyse: ATLAS.ti, MAXQDA, Textpack, Wordfish, Wordscore
Software übernimmt Berechnungen, nicht die Interpretation → Verantwortung liegt beim Anwender
Datenaufbereitung: Fehlerkontrolle, Codebuch, Missing Values
Deskriptive Analyse: Lagemaße, Streuungsmaße, Verdichtung großer Datenmengen
Hypothesenprüfung: Bivariate und multivariate Verfahren, Regressionsanalyse
Inferenzstatistik: Rückschluss von Stichprobe auf Grundgesamtheit, Signifikanztests
Software: Effiziente Berechnung, menschliche Interpretation bleibt erforderlich
Publikation
Forschungsergebnisse gelten erst dann als anerkannt, wenn sie veröffentlicht und damit kritisch überprüfbar sind (DFG 2013, S. 43).
heißt: Publikation = integraler Bestandteil des Forschungsprozesses (Döring 2023, S. 768).
Publikationsformen
Bericht
Zweck: Rechenschaftspflicht gegenüber Förderinstitutionen.
Inhalt: Ausgangsfragen, Zielsetzung, durchgeführte Arbeiten, Abweichungen, wissenschaftliche Fehlschläge, Probleme in Organisation/Technik, Ergebnisse, Diskussion.
Besonderheit: Kein Publikationsmedium im engeren Sinne; enthält jedoch Verzeichnisse bereits erschienener oder angenommener Publikationen.
Zwischenberichte können für die Weiterförderung erforderlich sein.
Vortrag / Konferenzbeitrag
Präsentation erster Forschungsergebnisse auf nationalen/internationalen Konferenzen.
Zweck: Information, Feedback, Anregungen, Basis für spätere Publikationen (Tagungsband oder Fachzeitschrift).
Buchveröffentlichung
Möglichkeit, ein Forschungsprojekt umfassend und ausführlich darzustellen.
Häufig bei Qualifikationsarbeiten (Promotion, Habilitation).
Fachzeitschriftenartikel
Heute die wichtigste Form der Veröffentlichung.
Zentral für die wissenschaftliche Kommunikation, auch in den Sozialwissenschaften.
Funktion:
Neue Ergebnisse werden in das Wissenschaftssystem eingespeist und können kritisiert werden.
Erkenntnisse können neue Forschungsprojekte anstoßen.
Fachaufsätze zeigen den kumulativen Prozess von Wissenschaft – jede Publikation erweitert das Wissen ein Stück.
Hinweis: Tages- oder Wochenzeitungen sind keine Fachzeitschriften, da sie journalistische Produkte sind.
Sozialwissenschaftliche Fachzeitschriften
Die Auswahl ist groß: über 4500 politikwissenschaftliche und 4200 soziologische Fachzeitschriften.
Qualitätskriterien:
Begutachtungsverfahren (Review) – Prüfung durch Fachexperten auf Validität und Originalität.
Typischerweise Peer-Review-Verfahren.
Gutachter geben Empfehlungen: Annahme ohne Änderungen, Annahme nach geringfügiger Überarbeitung, Überarbeitung & erneute Begutachtung (Regelfall), Ablehnung.
Zwischen Einreichung und Publikation können 12–18 Monate vergehen.
Aufnahme in den Social Sciences Citation Index (SSCI) – Indikator für wissenschaftliche Relevanz.
Impact-Faktor:
Misst, wie oft Beiträge einer Zeitschrift in anderen Fachzeitschriften zitiert werden.
Höherer Impact-Faktor → größere Bedeutung/Relevanz der Zeitschrift.
Umstritten, aber grobe Orientierung möglich.
Beispiele deutschsprachiger Fachzeitschriften:
Mit Peer-Review: „Der moderne Staat“ (dms), „Kölner Zeitschrift für Soziologie und Sozialpsychologie“ (KZfSS), „Politische Vierteljahresschrift“ (PVS).
Ohne Review: „Aus Politik und Zeitgeschichte“ (APuZ) – Beiträge trotzdem oft qualitativ gut, aber nicht offiziell wissenschaftlich.
Internationale Fachzeitschriften:
Forschungsergebnisse zunehmend auf Englisch veröffentlicht.
SSCI enthält relevante Zeitschriften, z. B.:
Politikwissenschaft (Top 10 z. B. American Journal of Political Science, Journal of Public Administration Research and Theory).
Soziologie (Top 10 z. B. Annual Review of Sociology, American Sociological Review).
Verwaltungswissenschaft (Top 10 z. B. Public Administration Review, Journal of Public Administration Research and Theory).
Ziel:
Forschungsergebnisse veröffentlichen, um das Wissen zu erweitern, Kritik zu ermöglichen und neue Forschungsfragen zu generieren.
Last changed25 days ago