Buffl

Prüfung: Grundbegriffe

CC
by Cathérine C.

Variablen, Konstante, Indikatoren

Unterscheidung:

  • Konstante: Merkmal mit nur einer Ausprägung

  • Variable: Merkmal mit mindestens zwei Ausprägungen

    • Bsp.: Geschlecht, Schulabschluss, politisches Interesse

    • Arten:

      • Manifeste Variable: direkt beobachtbar → z. B. Haarfarbe, Körpergröße

      • Latente Variable: nicht direkt beobachtbar → z. B. Bildung, Intelligenz, politisches Interesse

        • Operationalisierung: Prozess, bei dem latente Variablen durch messbare Indikatoren erfasst werden (z. B. Fragen im Fragebogen).

    • Ursache-Wirkungs-Beziehung

      • Abhängige Variable (aV): zu erklärender Sachverhalt

      • Unabhängige Variable (uV): vermuteter Einflussfaktor auf die aV

        • Oft existieren mehrere uVs

  • Indikator: beobachtbarer Sachverhalt, der einen theoretischen Begriff empirisch messbar macht

    • Zur Übersetzung von Theorie in empirische Realität


Korrelation vs. Kausalität

  • Korrelation: Statistischer Zusammenhang zwischen zwei Merkmalen

    • Positiv: hohe Werte eines Merkmals tendenziell mit hohen Werten eines anderen Merkmals auftreten.

    • Negativ: hohe Werte eines Merkmals tendenziell mit niedrigen Werten eines anderen Merkmals auftreten.

    • Nicht-lineare Korrelation

  • Scheinkorrelation: Zusammenhang von zwei Merkmalen bezeichnet, der durch einen dritten Faktor verursacht wird. Da die Korrelation zwischen den beiden Merkmalen faktisch existiert, wird häufig auch der Begriff Scheinkausalität verwendet. (es existiert keine Kausalität)

  • Kausalität: Ursache-Wirkungs-Beziehung: eine Variable verursacht eine Veränderung der anderen = Richtung des Zusammenhangs zwischen zwei Merkmalen. Dabei gilt, dass die unabhängige Variable (uV) als Ursache und die abhängige Variable (aV) als Wirkung fungiert. Die Ursache ist dabei der Wirkung zeitlich vorgelagert.

Achtung: Eine Korrelation beweist keine Kausalität (z. B. mehr Feuerwehrleute → höherer Schaden = Scheinzusammenhang, Ursache ist die Feuergröße).


Bedingungen für Kausalität (nach Hill 1965 / Schnell et al. 2023)

  1. Zeitliche Reihenfolge: Ursache geht Wirkung voraus.

  2. Starker Zusammenhang zwischen den Variablen.

  3. Replikation in verschiedenen Kontexten / Populationen.

  4. Theoretische Plausibilität: nachvollziehbarer Wirkmechanismus.



Skalen, Skalenniveaus und Index

Skala = strukturelle Abbildung eines empirischen Relativs in ein numerisches Relativ


Skalenniveau (nach Stevens 1946)

👉 entscheidet, welche statistischen Verfahren zulässig sind.

Sie dienen der geordneten Messung, nicht der bloßen Codierung


Je höher das Skalenniveau, desto mehr Rechenoperationen und Analyseverfahren sind möglich.


Wichtig:

Traditionell werden in der Sozialforschung vier Skalenniveaus unterschieden (Nominal-, Ordinal-, Intervall- und Ratioskala). In der Praxis werden Intervall- und Ratioskalen als metrische Skalen behandelt.


🔹Nominalskala

  • Merkmale ohne Rangfolge

  • Jede Ausprägung erhält genau einen Wert

  • Keine doppelten Zuordnungen möglich

  • Zulässig: Modus

Beispiel:

  • Geschlecht: weiblich = 1, männlich = 2

  • Man kann entweder mänl. ODER weibl. sein


🔹 Ordinalskala

  • Rangfolge möglich, aber keine gleichen Abstände

  • Relationsbegriffe: höher, stärker, besser

  • Zulässig: Modus, Median

Beispiel:

  • Schulabschluss ohne Abschluss = 1 Hauptschule = 2 Mittlere Reife = 3


🔹 Intervallskala (metrisch)

  • Rangfolge + gleiche Abstände

  • Kein natürlicher Nullpunkt

  • Zulässig: Modus, Median, Mittelwert

Beispiel:

  • Temperatur (°C) → Abstand 15–20 °C = Abstand 20–25 °C


🔹 Ratio- / Verhältnisskala (metrisch)

  • Rangfolge

  • Gleiche Abstände

  • Natürlicher Nullpunkt

  • Verhältnisaussagen möglich („doppelt so viel“)

  • Zulässig: Modus, Median, Mittelwert

Beispiel:

  • Einkommen (0 € = kein Einkommen)

  • Alter (0 Jahre)


Übersicht:

Skalenniveau

Beispiele

Zulässige Operationen

Merkmale

Nominal

Geschlecht, Religion

Auszählen

Keine Rangfolge

Ordinal

Schulabschluss, politisches Interesse

Auszählen, Ordnen

Rangfolge, aber keine gleichen Abstände

Intervall

(metrisch)

Temperatur (°C)

+ Differenzen

Gleiche Abstände, kein natürlicher Nullpunkt

Ratio

(metrisch)

Einkommen, Alter, Temperatur (K)

+ Verhältnisse

Natürlicher Nullpunkt


Pseudometrische Variablen

  • Ordinale Variablen mit mind. 5 geordneten Ausprägungen

  • und wenn gleiche Abstände plausibel angenommen werden (= Äquidistanz)

    • Bsp.: Likert-Skalen („stimme gar nicht zu“ – „stimme voll zu“)

    • Arten:

      • Diskret: abzählbare Ausprägungen, keine Zwischenwerte → z. B. Kinderzahl, Fachsemester

      • Stetig: unendlich viele Ausprägungen, Zwischenwerte möglich → z. B. Einkommen, Größe, Zeit

    • Ausprägung:

      • Dichotom: genau zwei Ausprägungen → z. B. Wahlbeteiligung (Ja/Nein) 📌 Sonderform diskreter Variablen

      • Polytom: mehr als zwei Ausprägungen → z. B. Religionszugehörigkeit


Skalen im Prozess der Operationalisierung

  • Operationalisierung = Messbarmachung theoretischer Konzepte durch Zuordnung von empirischen Indikatoren zu theoretischen Begriffen

    • Beispiel: Bildung -> Schulabschluss

    • Je mehr Indikatoren → desto geringer der Messfehler

  • Skala

    • Mehrere Indikatoren messen dasselbe eindimensionale Konzept

      • = Reflektive Indikatoren: Indikatoren sind Ausdruck des Konstrukts

      • Eindimensionalität prüfen (z. B. Faktorenanalyse)

    • Beispiel: Politisches Vertrauen → Fairness, Ehrlichkeit, Zuverlässigkeit

      • ➡️ Zusammenfassung = Skalenkonstruktion

      • Heißt: man kann Zuverlässigkeit messen, Fairness und Ehrlichkeit und alle reflektieren den Grad des politischen Vertrauens


Index im Prozess der Operationalisierung

Index =Zusammenfassung mehrerer Einzelindikatoren zu einer neuen mehrdimensionalen Variable nach festgelegten Vorschriften.

  • Index

    • Zusammenfassung mehrerer Indikatoren zu einer mehrdimensionalen Variable

      • = Formative Indikatoren: Indikatoren konstituieren das Konzept

        • Veränderung eines Indikators verändert das Konzept selbst

        • Mehrdimensionalität theoretisch begründen

    • Beispiel: Sozioökonomischer Status= Bildung + Einkommen + Prestige

      • Alle 3 Variablen stellen eigene Konzepte dar, wodurch soz.ök. Status multidimensional wird




Prinzipien wissenschaftlichen Arbeitens & Forschungslogik

Zentrale Prinzipien wissenschaftlichen Arbeitens (Popper)

Basissätze werden konventionell und vorläufig akzeptiert durch

  • Intersubjektive Nachvollziehbarkeit

  • Methodische Sorgfalt

  • Transparente Dokumentation aller Schritte

 

Zentrale Kriterien des kritischen Rationalismus (Popper)

Absolute Wahrheit ist nicht beweisbar. Prüfung erfolgt über Beobachtungssätze, nicht direkt über Realität. Beobachtungen können fehlerhaft sein, deshalb gelten folgende Zentrale Prinzipien:

  • Falsifizierbarkeit als Kriterium für Wissenschaftlichkeit

  • Aussagen gelten nur vorläufig

  • Empirischer Bezug

  • Kritik statt Verifikation

 

4 Kriterien sozialwissenschaftlichen Forschens (klassisch nach King, Keohane & Verba 1994)

  • 1. Inferenz = Schlussfolgerungen aus empirischen Daten über den Einzelfall hinaus

    • Deskriptive Inferenz: von beobachteten zu nicht beobachteten Fakten

    • Kausale Inferenz: Erklärung von Ursachen für Beobachtungen

  • 2. Wissenschaft ist öffentlich, dh sie erfordert:

    • Offenlegung von Daten

    • theoretische Argumentation

    • Methoden

    • Schlussfolgerungen

    • Heißt: Ergebnisse müssen prüfbar, kritisierbar und replizierbar sein

  • 3. Schlussfolgerungen sind grundsätzlich unsicher (falsifizierbar), Fehler können aber abgeschätzt werden.

  • 4. Sozialwissenschaftliche Forschung ist nicht über Inhalte definierbar, sondern über wissenschaftliche Methode:

    • Forschungslogik

    • Strategien

    • Techniken

    • Heißt: Unterschiedliche Themen, aber gleiches methodisches Vorgehen


Münchhausen-Trilemma

=philosophisches Problem in der Erkenntnistheorie, das die Schwierigkeit beschreibt, eine absolute Rechtfertigung von Wissen oder Wahrheit zu erlangen.

  • Es besagt, dass jede Begründung von Wissen auf eine von drei problematischen Arten enden muss:

    1. Zirkularität: Die Begründung stützt sich auf sich selbst (zirkulärer Beweis).

    2. Regress: Die Begründung verlangt eine weitere Begründung, die wiederum eine weitere benötigt – eine unendliche Kette von Begründungen ohne Anfang.

    3. Dogmatismus: Man akzeptiert eine unbegründete Grundannahme (axiomatische Basis), ohne Begründung.

  • Das Trilemma zeigt, dass eine absolute, endgültige Rechtfertigung von Wissen unmöglich ist


Lösung des Trilemmas nach Behnke & Behnke

  • Logischer Zirkel

  • Infiniter Regress

  • Dogmatischer Abbruch


Wahrheitstabelle

helfen, logische Zusammenhänge zu prüfen, z. B. ob eine Aussage immer wahr ist (Tautologie) oder widersprüchlich.


w = wahr

f = falsch

a / b = Variable


Forschungslogik

  • Induktion (qualitative Studien)

    • Schluss vom Einzelfall auf allgemeine Aussagen

    • Theorie entsteht aus den Daten

    • Hypothesen werden generiert und weiterentwickelt

  • Deduktion (quantitative Studien)

    • Schluss vom Allgemeinen auf den Einzelfall

    • Hypothesen werden vorab aus Theorie abgeleitet

    • Ziel: Überprüfung (Bestätigung oder Falsifizierung)


Deduktiv-nomologisches Modell (D-N-Modell)

= Grundmodell quantitativer Erklärung

  • Eine deduktiv-nomologische Erklärung besteht aus zwei Arten von Sätzen:

    • Allgemeingültige Gesetze und

    • Randbedingungen, die nur für konkrete Situationen gelten.

    • Logik: Gesetz + Randbedingungen → Explanandum (deduktiv)

  • Bestandteile:

    • Explanandum: zu erklärendes Phänomen

    • Explanans:

      • Allgemeingültige Gesetze (Allaussage)

      • Randbedingungen (konkrete Situation)


Induktiv-statistisches Modell (I-S-Modell)

Modifikation des D-N-Modells für Sozialwissenschaften

  • Statt Gesetzen: Wahrscheinlichkeitsaussagen

  • Erklärungen sind nicht sicher, sondern probabilistisch

  • Auch bei wahrem Explanans kann Explanandum ausbleiben

Die induktiv-statistische Erklärung ist ein Erklärungsmodell bestehend aus zwei Arten von Sätzen:

  • Probabilistische Gesetze und

  • Randbedingungen, die nur für konkrete Situationen gelten.

heißt:

  • Ein Phänomen kann nur mit einer gewissen Wahrscheinlichkeit erklärt werden.



Qualitative vs. quantitative Forschung: Zentralvergleich

Gemeinsamkeiten:

  • Arbeiten mit empirischen Informationen

  • Ziel: Aussagen über gesellschaftliche Strukturen und Handlungen

  • Intersubjektive Nachvollziehbarkeit

  • Kritische Reflexion von Fehlern und Verzerrungen

  • Ziel: Transparenz und Verlässlichkeit

Unterschiede:

Dimension

Qualitativ

Quantitativ

Forschungsziel

Verstehen

Erklären

Forschungsprozess

zirkulär

linear

Fallzahl

gering

hoch

Daten

Worte

Zahlen

Hypothesen

generierend

prüfend

Auswertung

offen

statistisch

Generalisierung

gering

hoch


Mixed Methods

  • Kombination qualitativer und quantitativer Ansätze

  • Sinnvoll, wenn Forschungsfragen beide Perspektiven erfordern

Strategien:

  • Sequenziell: Methoden nacheinander

  • Komplementär: Methoden parallel

📌 Aktueller Trend: Zunahme von Mixed-Methods-Studien (Baur et al. 2018), Mehrheit bleibt jedoch klar qualitativ oder quantitativ.






10 Phasen eines sozialwissenschaftlichen Forschungsprojektes

Ablauf:

  1. Festlegung des Forschungsthemas

    • Breites Thema, noch keine konkrete Forschungsfrage

    • Bsp.: „Politisches Vertrauen“

    Auseinandersetzung mit dem Stand der Forschung

    • Literaturrecherche, bestehende Studien

    Formulierung der Forschungsfrage

    • Konkret, überprüfbar, empirisch untersuchbar

  2. Konzeptspezifikation / Begriffsdefinition

    • Alltagsbegriffe → wissenschaftliche Konzepte

    • Nominal- oder Realdefinitionen

    • Bsp.: „Wutbürger“ als messbares Konzept sozialen Protestes

  3. Hypothesenbildung

    • Theoriegeleitete Vermutungen über Ursache-Wirkung

    • Müssen falsifizierbar sein (kritischer Rationalismus)

  4. Operationalisierung

    • Übersetzung theoretischer Begriffe in messbare Indikatoren

    • Bsp.: „Vertrauen“ → Fragebogen: „Wie sehr vertrauen Sie der Regierung?“

  5. Entscheidung Primär- oder Sekundäranalyse

    • Bei Primäranalyse Schritt 6 - 8:

  6. Forschungsdesign entwickeln

    • Untersuchungsebene: Mikro / Meso / Makro

    • Studienart: experimentell / nicht-experimentell

    • Zeitdimension: einmalig (Querschnitt) oder wiederholt (Trend / Panel)

    • Ziel: Design muss Frage & Ressourcen passen

  7. Auswahlverfahren / Stichprobe

    • Wer wird untersucht?

    • Vollerhebung: alle Elemente → teuer, oft unnötig

    • Teilerhebung / Stichprobe: zufällig (repräsentativ) oder bewusst / willkürlich

  8. Datenerhebung

    • Formen: Befragung, Beobachtung, Inhaltsanalyse

    • Arten: Vollerhebung vs. Stichprobe (zufällig oder nicht-zufällig)

  9. Datenaufbereitung & -analyse (ab hier auch Sekundäran.)

    • Bereinigung, Strukturierung und Auswertung: Fehlerkorrektur, fehlende Werte, Overcoverage

    • Analyseverfahren abhängig von Frage & Datentyp

    • Quantitativ: z. B. Regressionsanalyse

    • Qualitativ: z. B. Inhalts- oder Narrative Analyse

    Interpretation & Schlussfolgerung

    • Ergebnisse kritisch reflektieren

    • Generalisierbarkeit prüfen

    • Unsicherheiten benennen

  10. Publikation der Ergebnisse

    • Abschlussbericht (intern)

    • Wissenschaftliche Artikel / Bücher (öffentlich)



Phase 1: Forschungsthema definieren, Forschungsstand erkunden (Literaturrecherche) und Forschungsfrage entwickeln

Arten

  • Primäranalyse: eigene Daten erhoben, um die Forschungsfrage zu beantworten/bearbeiten.

  • Sekundäranalyse: zur Überprüfung der formulierten Hypothese/n werden vorhandene Daten genutzt.


Ausgangspunkt: Forschunngsthema

  • = grober Rahmen als Arbeitsgrundlage, z.B. Politisches Vertrauen

  • es grenzt den Inhalt eines Forschungsprojekts lediglich lose ab


Schritt 1: Relevanz prüfen

Wichtig: Appelle, persönliche Meinungen oder emotionale Kommentare nicht in wissenschaftliche Texte

  • Theoretisch: Beitrag zum wissenschaftlichen Diskurs, neue Hypothesen, Inkonsistenzen aufdecken, Theorien testen, Konzepte entwickeln

  • Gesellschaftlich: Verständnis / Vorhersage wichtiger Phänomene, Identifikation betroffener Gruppen, Bewertung von Konsequenzen, Handlungsempfehlungen


Schritt 2: Thema eingrenzen

  • Ebene: lokal, national, international

  • Zeit: historische / aktuelle Entwicklung

  • Dimension: Mikro- oder Makroebene

  • Kombination von Kernbegriffen für Präzisierung

    • Bsp.: „Lokale Unterschiede der Wahlbeteiligung in Deutschland“ statt „Wahlforschung“


Schritt 3: Literaturrecherche

  • Methoden:

    • Erste, überblickartige Recherchen:

      • Quellen z.B.: Online-Kataloge (OPAC) der Universitätsbibliotheken. Findet Monographien, Sammelbände, Titel der Fachzeitschriften.

    • Vertiefende Recherchen: Fachaufsätzen in den verschiedenen Fachzeitschriften.

      • Quelle z.B.: “Web of Science“: International aufgestellt

  • Vorgehen:

    • Narrative Review: unsystematisch, subjektiv

    • Systematic Review: transparent, objektiv, Grundlage für Metaanalysen

  • Kriterien zur Quellenbewertung:

    • Zitierfähigkeit (öffentlich zugänglich, Buch, offiz. Statistik)

    • Zitierwürdigkeit (erfüllt wiss. Qualitätsstandards, AutorInnen sind Fachwissenschaft., Veröffentlich. durch anerkannte Verlage/ Fachzeitschriften, Peer-Reeview)

      • Reviewverfahren: Begutachtung (Review) eines Fachaufsatzes vor der Veröffentlichung durch fachspezifische Gutachter

    • Relevanz (passend zur Forschungsfrage)

  • Relevante Quellen: Monografien, Schlüsselwerke, Fachzeitschriften, amtliche Statistiken, Forschungsdatenbanken (GESIS, Politbarometer, ALLBUS, Eurostat, OECD)

  • Kritische Quellen:

    • Eurobarometer:

      • Proeuropäischer Einfluss durch den Auftraggeber i.F. der Europäischen Kommission. zB. Durch suggestive Frageformulierengen.

      • Allerdings liegt ein Monopol bei der Verfügbarkeit von Datengrundlagen dar. Da keine anderen Daten verfügbar sind, müssen Forschende häufig auf den Eurobarometer zurückgreifen, um ihre Forschungsfragen empirisch zu untersuchen


Repräsentativität

= Abbild der Grundgesamtheit, aber! kein Fachbegriff der empirischen Sozialforschung, sondern eine Metapher in den Medien für ein verkleinertes Abbild der interessierenden Grundgesamtheit. Streng genommen, kann eine Stichprobe niemals sämtliche Merkmalsverteilungen der Grundgesamtheit repräsentieren.



Schritt 4: Forschungsfrage entwickeln

Leitet sich aus Forschungslücken oder ungelösten Problemen ab und bedienen die:

  • Dimensionen der Relevanz:

    • theoretisch

    • gesellschaftlich

  • Kriterien für gute Forschungsfragen:

    • Klarheit

    • Begründbarkeit

    • Machbarkeit

    • Prüfbarkeit

    • Bezug zur Theorie

  • Typen:

    • Deskriptiv: „Wie…?“ → Fakten erfassen

      • häufig reine Beschreibungen und erklären keinen Sachverhalt (es werden keine Zusammenhänge von Merkmalen bzw. kausale Mechanismen untersucht)

      • wiss. Forschung sollte allerdings nicht nur beschreiben sondern auch einen Sachverhalt erklären, daher ist sie ungeeignet

    • Erklärend / analytisch: „Warum…?“ → Ursachen / Zusammenhänge

      • Untersucht Ursachen, Zusammenhänge oder Kausalmechanismen zwischen Merkmalen

      • Ziel: Theorieprüfung oder Hypothesenprüfung → über reine Beschreibung hinaus

      • wichtig in Sozialwissenschaften


Phase 2: Konzeptspezifikation


Phase im Forschungsprojekt die dazu dient, einen abstrakten Begriff eindeutig festzulegen

  • zur eindeutigen Definition & Abgrenzung von ähnlichen Konzepten

  • Grundlage für empirische Forschung & Hypothesenbildung

  • um messbare Indikatoren abzuleiten (Operationalisierung)


Elemente eines Konzepts (Gerring 2001)

  1. Term: sprachliche Bezeichnung i.F. eines Namens/Labels des Konzepts (z. B. „Demokratie“)

  2. Intension: Gesamtheit der Attribute, die die inhaltliche Bedeutung eines Konzepts festlegen

    • Attribut = spezifische Eigenschaft eines Konzepts zur inhaltlichen Präzisierung. Für die inhaltliche Beschreibung eines Konzepts sind in der Regel mehrere Attribute erforderlich.

    • Beispiel „Demokratie“: freie Wahlen, Gewaltenteilung und politische Partizipation

  3. Extension: Gesamtheit der Objekte, auf die das Konzept zutrifft. Also der empirische Geltungsbereich eines Konzepts (Begriffsumfang).

    • Beispiel: alle Staaten, die diese Merkmale erfüllen, etwa Deutschland oder Frankreich, nicht jedoch autoritäre Regime.


Achtung:

  • Inverses Verhältnis: Je mehr Attribute zur inhaltichen Präzisierung eines Konzepts genutzt werden, desto geringer die Anzahl der Objekte, die unter diesem Begriff Fallen.

    • z.B. Vogel


Qualitätsmerkmale

  • Präzision: Konzept lässt sich klar zuordnen

  • Eindeutigkeit: Konsistente Nutzung durch Forschende

  • Adäquatheit: Passung von Intension & Extension zum Forschungskontext


Vier Schritte nach Wonka

  1. Identifikation: Welche Konzepte strukturieren die Forschung?

  2. Spezifikation in Literatur: Wie wurde Konzept bisher definiert?

  3. Eigene Intension: Attribute festlegen, Relevanz für Forschungsfrage prüfen

  4. Prüfung: Präzision, Eindeutigkeit, Adäquatheit

  5. → ggf. Re-Spezifizierung

    • Re-spezifikation: Häufig sind sozialwissenschaftliche Konzepte/Begriffe an spezifische räumliche und/oder zeitliche Kontexte gebunden (z.B. Parteiidentifikation USA (Zweiparteiensystem).

    • Falls ein Konzept in einem anderen als dem ursprünglichen vorgesehenen räumlichen oder zeitlichen Kontext angewendet wird (z.B. das Konzept Parteiidentifikation in einem Mehrparteiensystem), dann muss geprüft werden, ob die relevanten empirischen Untersuchungsobjekte von dem Konzept erfasst werden.


Negativbeispiel: Politikverdrossenheit

  • Begriff ist zu unscharf, mehrdeutig und wird mit unterschiedlichsten Objekten zb Regierung, Demokratie, sowie verschiedenen Einstellungen, zB. Enttäuschung, Desinteresse, in Verbindung gebracht, sodass es keine Grundlage für die Formulierung gehaltvoller Hypothesen gibt

    • heißt: „Politikverdrossenheit“ → zu heterogen, empirisch schwer fassbar

  • Re-Spezifikation: „Politische Unterstützung“ (Easton 1965) → klar abgegrenzt, spezifisch/diffus, empirisch nutzbar


Heißt: Ohne präzise Konzeptspezifikation: unklare Hypothesen, unbrauchbare Daten, nicht vergleichbare Forschung.


Definitionsarten

  • Nominaldefintion: Bedeutungsübertragung

    • = ein neuer Begriff wird dabei mit einem anderen (bereits bekannten) Begriff gleichgesetzt.

      • Beispiel: Weißes Pferd = Schimmel.

    • Achtung: Es gibt keine objektiven Kriterien, um zu prüfen, ob das Wesen eines Sachverhalts angemessen erfasst wurde.

  • Realdefintion: Begriff wird durch sein Wesen/ Beschaffenheit definiert

    • 👉 Problematisch, da soziale Phänomene:

      • historisch wandelbar

      • kontextabhängig

      • theoretisch umstritten sind

  • Operationale Definition: legt fest, wie ein theoretischer Begriff (z.B. Intelligenz) mit Indikatoren zu verknüpfen ist, die sich empirisch beobachten lassen. (z.B. hoher IQ)

    • = Übersetzt theoretische Konzepte in messbare Indikatoren

    • Grundlage empirischer Forschung

      • Bsp.: Vertrauen → Skalenfrage in einer Umfrage


Heißt: Sozialwissenschaften arbeiten primär mit nominalen und operationalen Definitionen, nicht mit Realdefinitionen, da soziale Phänomene historisch und kontextabhängig sind.


Phase 3: Hypothesenbildung

Hypothesen = theoriegeleitete, begründete Annahmen über erwartete Zusammenhänge zwischen mindestens zwei Merkmalen i.F. von (un-) abhängigen Variablen (uV → aV), mit dem Ziel, Zusammenhänge dieser Merkmale zu bestätigen oder zu widerlegen.

  • Unterschied zu Alltagsvermutungen: empirisch, überprüfbar, nicht meinungsbasiert


Kriterien guter Hypothesen (Bortz & Döring)

  • Bezug auf reale, empirisch untersuchbare Sachverhalte

  • Generalisierbar über Einzelfälle hinaus

  • Konditionalstruktur (Wenn–dann / Je–desto)

  • Falsifizierbar durch empirische Daten

  • (Theoretisch begründet (Zusammenhang uV–aV))


Arten von Hypothesen

  • Deterministisch: vermutete Zusammenhang tritt zwischen zwei Merkmalen mit Sicherheit ein. → selten in Sozialwissenschaften

  • Probabilistisch: vermutete Zusammenhang tritt zwischen zwei Merkmalen nur mit einer gewissen Wahrscheinlichkeit ein. -> Standard in Sozialwissenschaften

    • Wenn–dann-Hypothese → dichotome Merkmale „Wenn X, dann Y“

    • Je–desto-Hypothese → ordinale / metrische Merkmale „Je mehr X, desto mehr/weniger Y“


Hypothesentypen

Alternativhypothese und Nullhypothese bilden in der empirischen Sozialforschung ein Paar

  • Alternativ-/Forschungshypothese (H₁): beinhaltet die interessierende Aussage i.F. Positiver oder negativer Zusammenhang → Test erfolgt über Zurückweisung von H₀

    • Beispiel: Je höher die Bildung, desto höher das Einkommen.

  • Nullhypothese (H₀): Verneint die interessierende Aussage, indem kein Zusammenhang dargestellt wird

    • Beispiel: Zwischen Bildung und Einkommen besteht kein Zusammenhang.


Zusammenhangsarten

  1. Linear (häufigster Fall) (Uni-/ Bivariate Analysen)

  2. Nicht-linear (Regressionsmodelle)

    • U-förmig

    • Exponentiell

    • Logarithmisch → Form muss theoretisch begründet sein


Analytische Ebenen von Hypothesen

  • Individualhypothese (Mikro → Mikro) → Unterschiede zwischen Individuen (Bildung und Einkommen)

  • Kollektivhypothese (Makro → Makro) → Zusammenhänge zwischen Kontexten/Systemen

    • z.B. Arbeitslosenquote und Inflation

  • Kontexthypothese (Makro → Mikro) → Zusammenhang zwischen Merkmal auf Makroebene (d.h. immer uV) und Merkmal auf Mikroebene (d.h. immer aV) .


Fehlschlüsse zwischen Ebenen

  • Ökologischer Fehlschluss: Makro → Mikro

  • Individualistischer Fehlschluss: Mikro → Makro

  • Naturalistischer Fehlschluss: Sein → Sollen

  • Normativer Fehlschluss: Sollen → Sein


Hypothesenentwicklung

  • Qualitativ: generierend

    • zu erklärendes Phänomen wird aus Gesetz und Randbedingungen abgeleitet

  • Quantitativ: prüfend

    • Erklärungen sind nicht sicher, sondern probabilistisch

    • Es werden Wahrscheinlichkeiten überprüft, wie sicher eine Hypothese eintreffen könnte

Heißt:

  • Hypothesen sind theoriegeleitet, falsifizierbar und empirisch prüfbar

  • Sozialwissenschaftliche Hypothesen sind fast immer probabilistisch

  • Ohne saubere Hypothesen keine saubere empirische Forschung



Schritt 4: Operationalisierung

Operationalisierung = korrekte Zuordnung eines oder mehrerer beobachtbarer Indikatoren zu einem theoretischen Konzept, um Hypothesen empirisch überprüfbar zu machen.

  • = Messbarmachung eines Konzepts

  • Indikator stellt einen beobachtbaren Sachverhalt dar, der einen theoretischen Begriff in die Realität „übersetzt“


Korrespondenzregeln

= Vorgaben, wie ein theoretisches Konzept mit einem oder mehreren empirischen Indikatoren verknüpft werden, bestimmt durch:


Messung einer Variable

= Zuweisung von Ziffern zu Objekten entsprechend den Ausprägungen der an diesen Objekten betrachteten Merkmale

  • Beispiel:

    • Dummy-Codierung: 0 = Mann, 1 = Frau

    • Rangordnung (Bildung: niedrig → hoch)

  • Gütekriterien

    • Objektivität: Die Objektivität einer Messung ist dann gegeben, wenn verschiedene Personen mit dem gleichen Messinstrument zum gleichen Ergebnis kommen.

    • Reliabilität: Mit Reliabilität ist die Zuverlässigkeit einer Messung gemeint. Wieder holte Messungen eines unveränderten Konzepts mit dem gleichen Messinstrument sollen die gleichen Werte liefern.

    • Validität: Mit Validität ist die Gültigkeit eines Messinstruments gemeint. Ein Messinstrument ist valide (gültig), wenn es tatsächlich das misst, was es messen soll.


    Achtung: Ergebnis kann: Reliabel ≠ valide, aber valide ⇒ reliabel sein.


Kodierung

= Umwandlung von Rohdaten in numerische oder symbolische Werte zur Auswertung nach der Erhebung.

  • Art der Kodierung:

    • Isomorphismus: eindeutige 1:1-Zuordnung → exakte Analysen

      • weiblich = 1, männlich = 2, divers = 3

    • Homomorphismus: Zusammenfassung mehrerer Ausprägungen → Vereinfachung, weniger Information

      • Ursprüngliche Skala: 1 = „sehr links“, 2 = „links“, 3 = „leicht links“, 4 = „neutral“, 5 = „leicht rechts“, 6 = „rechts“, 7 = „sehr rechts“

      • wird zu:

        • 1–3 → „links“ (Code 1)

        • 4 → „neutral“ (Code 2)

        • 5–7 → „rechts“ (Code 3)

    • Invertierung (bei gegensinnigen Items)

      • z.B. 1 = stimme völlig zu, 5 = überhaupt nicht

        • Problem: kontraintuitiv

          • 5 ist numerisch hoch, bedeutet aber geringe Zustimmung

        • Invertierung = Umcodierung 1 = stimme überhaupt nicht zu, 5 = stimme voll zu

  • Gütekriterien:

    • Intercoder-Reliabilität: wird geprüft, ob der gleiche Text von verschiedenen Personen gleich/einheitlich vercodet wird.

    • Intracoder-Reliabilität: wird geprüft, ob der gleiche Text von einer Person zu verschiedenen Zeitpunkten gleich vercodet wurde.


Zentrale Herausforderungen:

  • Unterschiedliche Operationalisierungen → unterschiedliche Ergebnisse

  • Indikatoren oft umstritten

  • Literaturrecherche entscheidend, um Alternativen zu vergleichen


 Skala

= strukturtreue Abbildung eines empirischen Relativs in ein numerisches Relativ

heißt: Messinstrument zur quantitat. Erfassung von Objekten durch:

  • Reflektive Indikatoren

    • = die verwendeten Indikatoren erfassen/ reflektieren das gleiche theoretische Konzept

  • Bei der Skalenkonstruktion wird nur ein theoretisches Konzept erfasst

    • Konzept -> Indikatoren

  • Beispiel: ESS

    • enthält drei Items, die für die Erfassung des sozialen Vertrauens (Rosenberg-Skala)

      • Vertrauenswürdigkeit, Fairness und Hilfsbereitschaft

    • = Reflektion der Gesamtheit das Konzept „Soziales Ver trauen“


Skalenniveaus

  • Nominalskala = Geschlecht

    • Messung: 0 = Mann, 1 = Frau

    • Möglichkeiten: Häufigk, Modus

  • Ordinalskala = Schulnote, Likert-Skala

    • Merkmal: enthält Ordnung ohne gleiche Abstände

    • Messung: […] 2 = schlecht, 3 = gut, 4= sehr gut.

    • Möglichkeiten: Häufigk., Modus, Median, Rangstatistik

  • (Pseudometrische Skala =

    • Merkmal: fünf Ausprägungen mit Ordnung und subjektiv gleichen Abständen

  • Intervallskala = Temperatur in Grad Celsius

    • Ordnung mit gleichen Abständen ohne natürlichen Nullpunkt

    • Messung: -10°c bis +10°c

    • Möglichkeiten: Häufigk., Modus, Median, Mittelwert, Rangstatistik, Korrelation

  • Ratio-/Verhältnisskala = Einkommen, Gewicht, Alter

    • Ordnung mit gleichen Abständen und natürlichem Nullpunkt

    • Möglichkeiten: alle statistischen Verfahren

  • Absolutskala = Anzahl Personen in einem Raum

    • Ordnung mit gleichen Abständen mit natürlichem Nullpunkt und natürlichen Einheiten

    • Möglichkeiten: alle statistischen Verfahren


Index

= Zusammenfassung von mehreren Einzelindikatoren zu einem neuen Konzept, durch:

  • Formative Indikatoren: weil sie das Konzept nicht reflektieren, sondern bedingen (Latcheva und Davidov 2022).

    • Die Indikatoren erfassen dabei verschiedene Dimensionen, die getrennt voneinander erfasst und anschließend zu einer neuen Variable zusammengefasst werden

    • = Mehrdimensionalität

  • Beispiel: sozioökonomischen Status des HDI

    • Auf der Aggregatebene darstellte Items: Lebenserwartung bei der Geburt, Bildungsniveau sowie Pro-Kopf-Einkommen

    • Formen das neue Konzept des sozioökonomischen Status


Schritt 5: Entscheidung ob Primär- oder Sekundäranalyse


Woher kommen die Daten? → Primär- oder Sekundäranalyse


Analysearten

  • Primäranalyse: zur Überprüfung der formulierten Hypothese/n werden eigene Daten erhoben.

    • Methoden:

      • Befragung

      • Interview

      • Experiment

      • Beobachtung

    • Vorteile:

      • Daten passgenau zur Forschungsfrage

      • Volle Kontrolle über:

        • Operationalisierung

        • Messinstrumente

        • Stichprobe

    • Nachteile:

      • Sehr zeit- und kostenintensiv

      • Methodisch anspruchsvoll

      • Für Haus-/Abschlussarbeiten oft unrealistisch

    • Heißt: Primäranalyse = maximale Kontrolle, maximaler Aufwand

  • Sekundäranalyse: zur Überprüfung der formulierten Hypothese/n werden vorhandene Daten genutzt.

    • Typische Datensätze: ALLBUS, ESS, SOEP, ISSP, Eurobarometer usw.

    • Strategien der Datenrecherche nach Watteler

      • Institutionelle Suche: z.B. Arbeitsmarkt → IAB (Institut für Arbeitsmarkt- und Berufsforschung)

      • Suche über Forschende: über ZA/ DOI-Nummer von meist verwendeten Datenquellen

      • Inhaltliche Suche: Datenbanken z.B. GESIS


    • Vorteile:

      • Sehr ressourcenschonend

      • Hohe Datenqualität (professionelle Erhebung)

      • Replikation möglich → Qualitätssicherung

        • aber: Replikation ist wichtig, aber nicht immer möglich (z. B. bei historischen oder einmaligen Ereignissen).

      • Diekmann 1998:

        • heilende Wirkung → Aufdeckung von Fehlern

          • indem methodische Schwächen oder Analysefehler sichtbar werden

        • präventive Wirkung → bessere Dokumentation

          • durch Dokumentation und Kontrolle der Forschungsprozesse zur qualitativen Verbesserung zukünftiger Forschung beitragen

    • Nachteile

      • Variablen & Operationalisierung vorgegeben

      • Forschungsfrage muss zu den Daten passen

      • Gefahr der Pfadabhängigkeit

    • Heißt: Sekundäranalyse = weniger Aufwand, weniger Kontrolle




Schritt 6: Forschungsdesign wählen (nur bei Primäranalyse)

Experiment (ja, nein)

Dauer und Art der Datenerhebung

= methodische Gesamtplan eines empirischen Forschungsprojekts.Es legt fest, wie eine Forschungsfrage empirisch beantwortet wird und basiert auf:


Ursprung einer Forschung:

  1. Auftragsforschung: Thema durch Auftraggeber

  2. Selbst initiiert: Forschende wählen Thema

Zielrichtung:

  • Grundlagenforschung: Theorieentwicklung

  • Anwendungsorientiert: praktische Lösungen


Bestandteile eines Forschungsdesigns nach Diekmann:

Untersuchungsebene

  • Mikroebene (Individualebene)

    • Bsp.: Einkommen, Bildung, politische Einstellungen

    • Arbeitslosigkeit (uV) → Wahlbeteiligung (aV)

  • Mesoebene (Kontextebene)

    • Fokus: Organisationen, Verbände, Parteien

    • bsp.: Politisches Klima einer Region → individuelles Wahlverhalten

  • Makroebene (gesellschaftliche Ebene)

    • Fokus: Systeme / Aggregate

    • Analyse von Gesellschaften, Staaten, Regionen

    • Bsp.: Arbeitslosenquote (uV) → Wahlbeteiligung (aV)


Erhebungsart

  • Experimentell (prüft kausale Zusammenhänge)

    • gezielte Manipipulation der uV durch Forschende(Treatment/Stimulus)

    • Randomisierung: zufällige Verteilung von Personen auf die Experimental- und Kontrollgruppe

    • Beobachtung Ursache-Wirkung-Zsm

    • Merkmale:

      • Hohe interne Validität: Unterschiede zwischen den Experimental und Kontrollgruppen nur auf die Manipulation der uV zurückzuführen

      • = Kausalitätsnachweis möglich

    • Formen:

      • Labor-Experiment mit Randomisierung und kontrollierten Bedingungen;

      • Feld-Experiment: in natürlicher Umgebung, reale Bedinungen

      • Quasi-Experiment: experimentelle Untersuchung ohne Randomisierung mit Manipulation der uV

    • Arten:

      • Nachher-Untersuchung mit Kontrollgruppe

      • Vorher-Nachher-Untersuchung mit Kontrollgruppe

      • Solomon-Vier-Gruppen-Design: Kombination aus beiden, mit vier Gruppen, mit Kombination aus Pretest, Treatment und Posttest

    • Nachteile:

      • in SW häufig durch künstliche Bedingungen unethisch/ unpraktisch

      • geringe externe Validität: geringe Übertragbarkeit experimenteller Befunde auf die Realität

      • Pretest-Effekte: Allein die erste Befragung („Wie aggressiv bist du?“) kann das Verhalten verändern — z. B. denken die Teilnehmenden darüber nach und verhalten sich danach bewusster oder weniger aggressiv.

  • Nicht-Experimentell

    = Ex-post-facto-Designs: „nachträglich festgestellt“

    • = Forschungsansatz, bei dem die unabhängige Variable nicht vom Forschenden manipuliert, sondern im Nachhinein anhand bereits bestehender Bedingungen oder Ereignisse untersucht wird.

    • Es handelt sich um eine nicht-experimentelle Methode, bei der Ursachen-Wirkungs-Beziehungen rückwirkend analysiert werden.

    • uV und aVwerden zeitgleich erhoben und erst nach der Datenerhebung (ex post) theoretisch unterschieden, welche Variable als Ursache (uV) und welche als Wirkung (aV) interpretiert wird

    • Merkmale:

      • Hohe externe Validität = Übertragbarkeit experimenteller Befunde auf die Realität

      • realitätsnah und praktisch umsetzbar, da Manipulation bei sozialen Phänomen oft nicht möglich

      • z.B. Befragung zu politischen Einstellungen, man kann niemanden zwingen rechts zu sein

    • Probleme:

      • Problem der kausalen Reihenfolge: Nur theoretisch begründete Kausalannahmen möglich.

      • Problem der Kontrolle von Drittvariablen

      • Problem der Varianz der uV: Ohne Unterschiede in der Ursache kann man keine Unterschiede in der Wirkung erklären.

    • Heißt: deskriptive und korrelative, aber keine kausalen Schlüsse.


Achtung: interne / externe Validität

  • Trade-off-Verhältnis: i.d.R. führt Erhöhung der internen Validität zu Verzicht auf externe Validität (und umgekehrt).


Häufigkeit der Datenerhebung

  • Queerschnittstudie: einmalige Erfassung relevanter Merkmale

  • Längsschnittstudie: zu mehreren Zeitpunkten

    • Trendstudie: Mehrmalige Datenerhebung, aber jeweils unterschiedliche Untersuchungsobjekte

      • Vergleich der aggregierten Werte (z. B. Mittelwerte) durch mehrere Querschnittserhebungen → bilden einen Trend

      • Kohortendesign: Spezialfall des Trenddesigns -> Untersuchung von Bevölkerungsgruppen mit gemeinsamem Startereignis (z. B. Geburtsjahr, Heirat, Berufseintritt)

    • Panelstudie: Gleiche Untersuchungseinheiten, dieselben Merkmale zu verschiedenen Zeitpunkten erheben

      • Beispiel: Sozioökonomisches Panel (SOEP)

      • Panelmortalität: Anteil der Personen, die im Verlauf einer Panelstudie ausfallen

        • Lösung:

          • Alternierendes Panel: Zwei Gruppen abwechselnd befragt

          • Rotierendes Panel: Teilgruppe wird ersetzt

          • Geteiltes Panel: Kombination aus Panel und wiederholten Querschnitten

    • Informationshierarchie:

      Paneldesign > Trenddesign > Querschnittdesign Panel enthält die meiste, Querschnitt die wenigste Information.(Man kann aus Paneldaten Trends und Querschnitte berechnen, aber nicht umgekehrt.)



Schritt 7: Auswahlverfahren (Sampling)

Grundgesamtheit / Stichprobe

(Nur bei Primäranalyse)

Ziel: systematische und begründete Auswahl von Untersuchungseinheiten zu treffen, um Aussagen über eine Grundgesamtheit zu ermöglichen.


Grundbegriffe:

  • Grundgesamtheit: Gesamtheit aller Elemente, über die eine wissenschaftliche Aussage getroffen werden soll (räumlich, sachlich, zeitlich definiert)

    • Bsp.: Alle wahlberechtigten Bürger:innen einer Gemeinde

  • Auswahlgesamtheit: Alle Elemente einer Grundgesamtheit, die eine Chance haben, in die Stichprobe zu gelangen. Im Idealfall ist die Auswahlgesamtheit mit der Grundgesamtheit deckungsgleich

    • Bsp.: Einwohnermelderegister

  • Auswahleinheit: Einheit, auf die das Auswahlverfahren angewendet wird

    • z.B. Einzelperson im Register

  • Stichprobe: Elemente (z.B. Personen) einer Auswahlgesamtheit, die im Rahmen einer Teilerhebung ausgewählt wurden.

    • z.B. 500 zufällig ausgewählte Bürger:innen aus dem Register

  • Erhebungseinheit: Einheit, bei der die Daten tatsächlich erhoben werden

    • Person, die tatsächlich befragt wurde


Probleme:

  • Overcoverage: Elemente in der Auswahl, die nicht zur Grundgesamtheit gehören

    • z.B. Minderjährige Personen im Register

  • Undercoverage

    • Elemente der Grundgesamtheit die nicht in der Auswahl enthalten sind

      • z.B. Wahlberechtigte ohne Internet bei Online-Befragungen

  • Stichprobenfehler: Abweichung zwischen Stichprobenwert und wahrem Wert der Grundgesamtheit→ normal und erwartbar


Erhebungsumfang

  • Vollerhebung: Alle Elemente der Grundgesamtheit werden untersucht

    • Vorteile: exakte Werte, keine Stichprobenfehler

    • Nachteile: sehr teuer, zeitaufwendig, oft unrealistisch

  • Teilerhebung (Stichprobe): Nur ein Teil der Grundgesamtheit wird untersucht

    • Standardfall in den Sozialwissenschaften, weil    Vollerhebungen sind teuer, zeitintensiv und häufig auch nicht realisierbar (z.B. Qualitätskontrolle in der Industrie)

    • Ziel: Schätzung von Parametern der Grundgesamtheit


Erhebungsart

  • Zufällige Auswahl (probabilistische Stichprobe)

    • Jedes Element der Grundgesamtheit hat eine bekannte Auswahlwahrscheinlichkeit > 0

    • Konsequenz:

      • Repräsentativität* u.

      • Inferenzstatistik möglich (Rückschluss von Stichprobe auf Grundgesamtheit)

    • Typen

      • Einfache Zufallsstichprobe (SRS)

        • Jede mögliche Stichprobe hat die gleiche von verschiedene Chance in die Stichprobe zu gelangen

        • z.B: 1.000 Studierende zufällig aus einer vollständigen Liste

      • Geschichtete Stichprobe (Stratified Sampling)

        • Grundgesamtheit in Gruppen (Schichten), sodass jedes Element der Grundgesamtheit zu einer - und nur zu einer - Schicht gehört und anschließend Zufallsstichproben aus jeder Schicht gezogen werden

        • z.B: Fakultäten, Geschlecht, Altersgruppen→ proportional oder disproportional

        • Untertyp: Disproportional geschichtete Zufallsstichprobe

          • […] Dabei entspricht die Fallzahl pro Schicht nicht den jeweiligen Anteilen in der Grundgesamtheit

      • Klumpenstichprobe (Cluster Sampling)

        • Zufallsauswahl von zusammengefassten Elemente (d.h. Klumpen/Gruppen), dann Erhebung aller Elemente im Cluster

        • z.B. PISA (Schulen zufällig aber alle SchülerInnen befragt)


  • Nicht-zufällige Auswahl (nicht-probabilistisch)

    • Auswahlwahrscheinlichkeit unbekannt

    • Konsequenz:

      • ❌ Keine Generalisierung auf die Grundgesamtheit

      • ❌ Keine valide Inferenzstatistik

    • Typen:

      • Willkürliche Auswahl (Convenience Sample)

        • Entscheidung über die Aufnahme eines Elements der Grundgesamtheit durch Ermessen der Forschenden

          • z.B: Straßeninterviews, Online-Umfragen ohne Dokumentation

        • Oder: Self-Selection Sample

          • Studienteilnehmer melden sich freiwillig oder selbst um für die Untersuchung rekrutiert zu werden, statt zufällig ausgewählt zu werden.

        • Problem: Grundgesamtheit oft unklar → keine Rückschlüsse möglich

        • Beispiel: insb. bei Psychologische Experimente: Teilnehmende oft selektiv (z. B. Studierende), Randomisierung erfolgt nur innerhalb Experimental-/Kontrollgruppen

      • Bewusste/ theoretische Auswahl

        • Auswahl nach inhaltlichen Kriterien, nicht auf Zufallsprinnzip

        • Ziel: Theoriebildung oder Falsifikation

        • Nicht repräsentativ

        • Methode:

          • Quotenauswahl (Quoten nach festen Regeln, z.B. Geschlecht, Alter etc.) →

            • Problem: Verzerrungsrisiko

          • Most Similar Cases Design (MSCD)

          • Most Different Cases Design (MDCD)

          ⚠️ MSCD/MDCD sind Idealtypen, empirisch selten vollständig umsetzbar


Erhebungsverfahren

  • ADM vom Arbeitskreis Deutscher Markt- und Sozialforschungsinstitute

    • = Standardverfahren zur Stichprobenziehung

    • Ziel: repräsentative Stichproben aus der Bevölkerung zu ziehen, wenn keine vollständigen Adressverzeichnisse vorliegen.

    • Methode: mehrstufiges, geschichtetes Klumpenstichprobenverfahre, das verschiedene Auswahlverfahren kombiniert:

      • Schritt 1: Auswahl der Stichprobengebiete (Klumpen)

        • z. B. Gemeinden oder Stadtteile

      • Schritt 2: Auswahl von Haushalten innerhalb der Gebiete durch

        • Random Route

          • 1. Standard: Der Interviewer startet an einer zufällig ausgewählten Startadresse und folgt systematisch festgelegter Route

            • (z. B. jede dritte Tür oder jede zweite Wohnung).

          • 2. Mit Auswahlplan: Interviewer folgt nicht nur einer Route, sondern hat klare Quoten oder Auswahlregeln, um die Stichprobe zu strukturieren.

          • Vorteil: reduziert Verzerrungen durch Interviewerentscheidungen und sorgt für eine gleichmäßigere Verteilung der Befragten.

      • Schritt 3: Auswahl der befragten Zielpersonen

        • Methoden

          • Schwedenschlüssel: systematische Auflistung der einzelnen Haushaltsmitglieder, Auswahl erfolgt durch eine Zufallszahl (für jeden Zielhaushalt existiert eine eigene Zufallszahl).

          • Last-Birthday-Methode (Kish Grid): die Person wird im Haushalt befragt, die als nächstes Geburtstag hat

  • Telefonische Stichprobengenerierung:

    • Gabler-Häder-Design (Best Practice in DE)

      • Kombination aus registrierten + generierten Nummern

    • Dual-Frame: kombiniert „Festnetz“ und „Handy“.

      • Problem: Mobilfunknummern können nicht lokal oder regional verortet werden. Deshalb kann der Ansatz bei lokalen Befragungen nicht sinnvoll eingesetzt werden.

  • Registerstichproben (EWR)

    • Nutzung von Einwohnermelderegistern

    • Vorteile:

      • Geringer Interviewereinfluss

      • Demografische Informationen verfügbar

      • Hohe Kontrollierbarkeit

    • Nachteile:

      • Hoher Aufwand, Kosten, lange Lieferzeiten

      • Nur bei „öffentlichem Interesse“

      • Abhängigkeit von Behörden

    • Typische Verwendung bei: ALBUSS, ESS (DE)



Repräsentativität

= Stichprobe als „verkleinertes Abbild“ der Grundgesamtheit

Problem:

  • Kein eigenständiges Gütekriterium

  • Oft unscharf verwendet

  • Nur Zufallsstichproben erlauben echte Generalisierung

👉 Fazit (Schnell et al.): „Repräsentativität“ ist häufig eine inhaltlich leere Floskel, bestenfalls eine Metapher.





Schritt 8: Datenerhebung (Nur bei Primäranalyse)

In den Sozialwissenschaften lassen sich grob drei Formen der Datenerhebung unterscheiden:

  • Befragung

  • Beobachtung und

  • Inhaltsanalyse.


Ziel: Systematische Sammlung von Daten zur Beantwortung der Forschungsfrage


Pretests

= Erhebungsinstruments zur Vorbereitung auf die Datenerhebung, um die Qualität der erhobenen Daten sicherzustellen und Mängel zu identifizieren.

Arten:

  • Kognitive Interviews: Durchführung in der Entwicklungsphase eines Fragebogens. Verständlichkeit einzelner Fragen prüfen

  • Fragebewertungssystem: Defizite von Fragen und Antwortvorgaben werden systematisch ermittelt

  • Feldpretest: Test des Erhebungsinstruments unter realistischen Bedingungen von der geplanten Datenerhebung


Non-Response:

= Fehlen von Daten bei Befragungen durch

  • Item-Nonresponse: einzelne Fragen unvollständig

  • Unit-Nonresponse: Befragte nicht erreichbar oder verweigern, wegen:

    • Nicht-Erreichbarkeit (z. B. Abwesenheit, falsche Kontaktdaten)

    • Verweigerung (aktive Ablehnung der Teilnahme)

    • Unfähigkeit zur Teilnahme (z. B. Krankheit, Sprachprobleme)


Teilnehmermotivation zur Vermeidung von Non-Response:

  • Incentives: Beispiele: Gutscheine, kleine Geschenke, Teilnahme an Verlosungen, Geldbeträge.

  • Follow-ups: Erinnerung per E-Mail, Telefon, Postkarte

  • Personalisierung: persönliche Anschreiben mit Namen, Bezug auf vorherige Teilnahme, freundliche Sprache.

Achtung: Eine Befragung darf nicht mit anderen als der Zielperson durchgeführt werden, dies würde die Zufallsauswahl verletzen und zu systematischen Verzerrungen führen. Die verweigernde Person gilt als Non-Response und es wird mit der nächsten gezogenen Person weiter gemacht


Ausschöpfung / Response-Rate

Anteil der tatsächlich durchgeführten Interviews und gibt Auskunft über die Effektivität der Datenerhebung.

  • Formel:

    • Response Rate = Anzahl realisierter Interviews / Anzahl gezogener Stichprobenelemente * 100

      • Gezogene Stichprobenelemente sind alle Personen oder Haushalte, die in die Stichprobe aufgenommen wurden und theoretisch befragt werden sollten.

      • Realisierte Interviews sind die Befragungen, die tatsächlich erfolgreich durchgeführt wurden.

  • Interpretation:

    • Eine hohe Response-Rate bedeutet, dass viele der ausgewählten Personen tatsächlich befragt wurden, was die Repräsentativität der Stichprobe stärkt.

    • Eine niedrige Response-Rate kann auf Non-Response-Bias hinweisen, also dass sich die Befragten systematisch von den Nicht-Befragten unterscheiden und damit die Ergebnisse verzerren können.


Befragung

Sie kann

  • quantitativ (standardisiert) oder

  • qualitativ (offen, explorativ) durchgeführt werden.

  • Vorteile:

    • Direktes Erfassen von Wissen, Einstellungen, Verhalten

    • Schnelle Datenerhebung (je nach Form)

  • Nachteile:

    • Soziale Erwünschtheit → Verzerrung

    • Antwortausfälle (Non-Response)

    • Missverständnisse bei Fragen

    • Kosten und Zeitaufwand bei Face-to-Face

    • Reaktive Effekte möglich (Verhalten durch Befragung beeinflusst)


10 Gebote der Frageformulierung nach Porst

  1. Einfache, verständliche Begriffe

  2. Kurze, klare Fragen

  3. Keine hypothetischen Fragen

  4. Keine Verneinungen

  5. Keine Unterstellungen / Keine Suggestivfragen

  6. Keine Fragen zu unbekannten Informationen (Überfragung)

  7. Klarer zeitlicher Bezug

  8. Klare Antwortvorgaben (überschneidungsfrei)

  9. Kontext beachten (Assimilation / Kontrasteffekte)

  10. Unklare Begriffe definieren


Fragetypen

Fragetyp

Beschreibung

Beispiel

Offen

Freie, unstrukturierte Antworten

„Was denken Sie über die aktuelle Klimapolitik?“

Dichotom

Zwei Antwortmöglichkeiten

„Sind Sie Mitglied einer Partei? Ja / Nein“

Hybrid / Halboffen

Geschlossene + Ergänzungsmöglichkeit

„Welchen Schulabschluss haben Sie?

Skalenfrage

Antworten auf einer Messskala

„Wie zufrieden sind Sie mit Ihrem Arbeitsplatz? 1 = sehr unzufrieden – 5 = sehr zufrieden“

Rangordnung

Antworten nach Wichtigkeit ordnen

„Ordnen Sie diese politischen Ziele nach Priorität: 1. Sicherheit, 2. Bildung, 3. Umwelt, 4. Gesundheit“

Mehrfachantwort

Mehrere Optionen wählbar

„Welche Verkehrsmittel nutzen Sie regelmäßig? Auto, Fahrrad, Bus, Bahn, Zu Fuß“

Forced-Choice

Aus mehreren Optionen eine richtige Wahl

„Wer wählt den Bundeskanzler? a) Volk, b) Bundestag, c) Bundesrat → Richtig: b) Bundestag“


Probleme

  • nicht offene Fragen: Antwortoptionen sind erschöpfend und disjunktiv

  • Effekte von Skalen:

    • Verzerrung durch Intervallwahl, Mittelkategorie möglich

    • Lösung: Leitfragen zu Skalen nach Porst:

      • Anzahl Kategorien: Faustregel 5–7

      • Gerade vs. ungerade Anzahl: neutral möglich vs. zwingt zu Meinung


Arten der Befragung:

  • Persönlich (face-to-face): Interviewer stellt Fragen direkt;

    • CAPI (Computer Assisted) oder

    • PAPI (Papier)

      • z.B. Haushaltsbefragungen, detaillierte Interviews bis 60 min; hohe Teilnahmebereitschaft; teuer

      • Grundgesamtheit abbildbar: hoch

  • Telefonisch (CATI): Zentral gesteuerte Interviews per Telefon

    • z.B Wahlforschung, schnelle Datenerhebung; max. 30 min; moderate Kosten

    • Arten:

      • Gabler-Häder-Design (Best Practice in DE)

        • Kombination aus registrierten + generierten Nummern

      • Dual-Frame: kombiniert „Festnetz“ und „Handy“.

        • Problem: Mobilfunknummern können nicht lokal oder regional verortet werden. Deshalb kann der Ansatz bei lokalen Befragungen nicht sinnvoll eingesetzt werden.

        • Bei lokalen Befragungen scheidet der Dual-Frame-Ansatz praktisch aus.

    • Grundgesamtheit abbildbar: mittel

      • Problem Allgemein: schwindenden Repräsentativität von Festnetzstichproben bei einem mit der Zeit gestiegenen bzw. steigenden Anteil exklusiver Mobilfunknutzer in der Grundgesamtheit (Lösung: Dual Frame)

  • Schriftlich (Paper): Fragebogen per Post

    • Lokale Studien, kleinere Grundgesamtheit; niedrige Response-Rate

    • Grundgesamtheit abbildbar: mittel

      • Problem: Postadressen müssen bezogen werden

      • Hoher Anteil an funktionalen Analphabeten

      • Unklar, wer den Fragebogen ausfüllt (Coverage-Probleme)

  • Online (CAWI): Web-basierter Fragebogen

    • z.B Große Online-Studien, Studierende, niedrige Kosten, schnelle Auswertung; Ausschluss nicht-internetfähiger Personen

    • Grundgesamtheit abbildbar: gering

      • Problem: Befragte ohne Internetanschluss konnten sich nicht an der Befragung beteiligen.

      • Alternative: Telefonische Befragung (CATI)

        • Hohe Erreichbarkeit auch älterer Personen

        • Schneller Feldzugang und sofortige Datenerfassung

        • Ergebnisse können zeitnah ausgewertet werden



2.Beobachtung

Direktes, unmittelbares Registrieren relevanter Sachverhalte für den Forschungszusammenhang.

  • Abgrenzung zur Alltagswahrnehmung:

    • Systematisch, theoriebasiert, kontrolliert, intersubjektiv nachvollziehbar.

  • Kriterien:

    • Hypothesenfundierung

    • Kontrolle / Überprüfbarkeit

    • Wissenschaftliche Auswahl der Beobachtungseinheiten

    • Systematische Auswertung (replizierbar, nachvollziehbar)

  • Vorteile:

    • Erfassung realen und nonverbalen Verhaltens, auch unbewusste Handlungen

  • Nachteile:

    • Zeitaufwendig

    • kleine Fallzahlen

    • ethische Probleme (Privatsphäre, Zustimmung Datenschutz fehlt)

    • Subjektivität

    • Hawthorne-Effekt (Verhalten verändert sich, wenn Beobachtete wissen, dass sie beobachtet werden)

  • Nachteile im Vergleich zu Befragungen:

    • teurer und zeitaufwändiger

    • Zahl der Untersuchungsobjekte ist bei Beobachtungen geringer als bei Befragungen. Dadurch ist es schwieriger repräsentative Stichproben zu gewinnen (Verallgemeinerbarkeit der Befunde dadurch weniger gegeben).


Arten der Beobachtung

  • Teilnehmende vs. nichtteilnehmend

    • Beobachter integriert sich in Gruppe oder bleibt passiv

  • offen vs. verdeckt

    • Beobachtete wissen (nichts) von Beobachtung

  • Feldbeobachtung vs. Laborbeobachtung

    • natürliche vs. kontrollierte Umgebung

    • z.B. Wahlkreisarbeit vs. Experiment

  • strukturiert vs. unstrukturiert

    • quantitativ mit kategorialen Vorgaben vs.

    • qualitativ mit offener Exploration

  • Selbstbeobachtung vs. Fremdbeobachtung.

    • z.B. eigenes Tagebuch vs. andere Menschen


3.Inhaltsanalyse

= Empirische, systematische und intersubjektiv nachvollziehbare Erhebung und Auswertung bestehender Daten zur Rückschlusserhebung auf gesellschaftliche Sachverhalte.

  • Quellen

    • Texte: z.B. Wahlprogramme, Zeitungsartikel, Kinderaufsätze

    • Bilder / Filme: z.B. Werbespots, Spielfilme, Social-Media-Beiträge, Politische Reden

  • Codierung:

    • Häufigkeit von Begriffen

    • Bewertung von Aussagen (positiv/negativ)

    • Kontingenz (Begriff A erscheint zusammen mit Begriff B)

    • Codierungsarten:

      • Intercoder-Reliabilität: wenn der gleiche Text von verschiedenen Personen gleich/einheitlich vercodet wird.

      • Intracoder-Reliabilität: wenn der gleiche Text von einer Person zu verschiedenen Zeitpunkten gleich vercodet wurde.

  • Arten

    • Frequenzanalyse: Häufigkeit bestimmter Begriffe, Themen, Personen etc.

      • z.B. Wie oft wird „Klimaschutz“ im Wahlprogramm erwähnt?

    • Valenzanalyse: Bewertung positiv/neutral/negativ

      • z.B: Wie wird ein Kanzlerkandidat in Zeitungsartikeln dargestellt?

    • Intensitätsanalyse: Stärke der Bewertung

      • z.B „leicht positiv“ – „sehr positiv“ – „extrem negativ“

    • Kontingenzanalyse: gemeinsame Auftretensmuster, Untersucht Zusammenhänge zwischen Begriffen/Themen

      • z.B. Tritt der Begriff „Migration“ häufiger zusammen mit „Kriminalität“ oder mit „Arbeitsmarkt“ auf?

  • Vorteile

    • Vergangenheitsbezug: Es kann auch in der Vergangenheit produziertes Material ausgewertet werden

    • Untersuchungen über lange Zeiträume (z.B. sozialer Wandel)

    • Verfälschung durch soziale Erwünschtheit/ Erinnerungsfehler ist auszuschließen, da auf nichtreaktives Datenmaterial zurück gegriffen wird.


Schritt 9: Datenaufbereitung und Analyse*

= Organisation, Prüfung, Verdichtung und statistische Auswertung erhobener Daten zur Beantwortung der Forschungsfrage.


Prinzipien der Datensammlung

  • Vergleichbarkeit: Merkmale für alle Objekte gleich definiert

  • Klassifizierbarkeit: Für jedes Objekt und Merkmal genau ein Wert

  • Vollständigkeit: Keine leeren Zellen; fehlende Angaben = Missing Values (z. B. 9/99 = „weiß nicht“)


Datenaufarbeitung

= Fehlerkontrolle, Codebuch, Missing Values

  • Fehlerarten:

    • Wild codes: Werte außerhalb des zulässigen Bereichs

    • Unplausible Werte: Realistisch unmögliche Angaben (z. B. 300 Std./Monat ehrenamtlich)

    • Inkonsistente Werte: Widersprüche innerhalb der Daten (z. B. Ehedauer > Alter)

  • Lösung: Korrektur durch Original, Kennzeichnung als Missing Value

    • R/Studio: NA steht für „Not Available“

    • na.rm = TRUE, um fehlende Werte bei Berechnungen zu ignorieren.


Testphase

  • Probecodierung: Schema testen, Kategorien anpassen

  • Codierschulung: Einheitliche Anwendung sicherstellen

  • Reliabilitätsprüfung:

    • Intercoder-Reliabilität: Verschiedene Codierer codieren gleich

    • Intracoder-Reliabilität: Ein Codierer codiert gleich zu verschiedenen Zeiten

    • Maße: Holsti CR, Scott Pi, Krippendorff’s Kappa

  • Validitätsprüfung: Codierung misst, was sie messen soll


Hypothesentestung/ Datenanalyse:

  • Explorativ: Muster, Trends, erste Zusammenhänge → Deskriptiv, Grafiken

  • inferenzstatistisch: Übertrag auf Grundgesamtheit → Signifikanztests, Regression


Deskriptive Datenanalyse (Univariat)

Zur Verdichtung großer Datenmengen ohne Hypothesenprüfung

  • Lagemaße: Zentrum der Verteilung

    • Modus (häufigster Wert, nominal)

    • Median (mittlerer Wert, ordinal)

    • Mittelwert (Durchschnitt, intervallskaliert)

  • Streuungsmaße: Variation der Daten

    • Varianz: durchschnittliche quadrierte Abweichung vom arithmetischen Mittel.

    • Standardabweichung

  • Beispiel: Gleicher Mittelwert → unterschiedliche Streuungen sichtbar


Hypothesenprüfung bei bivariaten Zusammenhängen

um Beziehung zwischen Variablen zu prüfen

  • Nominal x Nominal: Cramer’s V (0–1)

  • Ordinal x Ordinal: Spearman’s rho (-1 bis 1)

  • Metrisch x Metrisch: Pearson’s r (-1 bis 1)

  • Beispiele:

    • Geschlecht x Wahlentscheidung → Cramer’s V

    • Politikinteresse x Wahlbeteiligung → Spearman’s rho

    • Bildung x Einkommen → Pearson’s r


Multivariate Analysen

Misst den Einfluss mehrerer unabhängiger Variablen auf eine abhängige Variable

  • Verfahren: Regressionsanalyse

    • Lineare Regression → metrische AV

    • Logistische Regression → dichotome AV

    • Multinomiale logistische Regression → nominale AV mit >2 Ausprägungen

    • Ordinale Logitmodelle → ordinale AV


Inferenzstatistik & Signifikanztest

Rückschluss von Stichprobe auf Grundgesamtheit

  • Schritte:

    1. Nullhypothese H₀: kein Zusammenhang

    2. Alternativhypothese H₁: Zusammenhang

    3. Statistisches Maß: Cramer’s V, Spearman, Pearson

    4. p-Wert bestimmen (p < 0,05 = signifikant)

    5. t-test durchführen

  • Interpretation: Signifikant → Zusammenhang sehr wahrscheinlich auch in Grundgesamtheit, nicht automatisch Effektgröße oder Wichtigkeit


Author

Cathérine C.

Information

Last changed