Buffl

Meilensteine qualitativer SW

CC
by Cathérine C.

Qualitative Sozialforschung + Gütekriterien

Warum betreiben wir qualitative Sozialforschung?

  • → Klärung von Zielen und wissenschaftlicher Perspektive


Max Weber: Soziologie = Wissenschaft, die soziales Handeln deutend versteht und ursächlich erklärt

  • Zentrale Begriffe:

    • Handeln: → Verhalten + subjektiver Sinn

    • Soziales Handeln: → auf andere bezogen und daran orientiert

👉 Fokus: → subjektiv gemeinter Sinn der Akteur:innen


Aglaja Przyborski: Handeln basiert immer auf

  • implizitem Wissen

  • Orientierungsmustern

  • situativen Deutungen

heißt: Wissen ist nicht vollständig explizierbar, sondern größtenteils implizit

  • Forschung muss dieses verborgene (implizite) Wissen rekonstruieren


Common-Sense-Konstruktion (Alltagswissen)

Alltagsakteure erzeugen selbst Bedeutung, Typisierung und Interpretation. Zentrale Unterscheidung:

  • Konstruktionen 1. Grades → Deutungen der Handelnden im Alltag

  • Konstruktionen 2. Grades → wissenschaftliche Rekonstruktionen dieser Deutungen

heißt: Wissenschaft baut immer auf Alltagswissen auf


Ziele: Verstehen!

  • Qualitative Forschung will soziales Handeln verstehen

  • Voraussetzung: → Rekonstruktion des subjektiven Sinns


Wilhelm Dilthey: Verstehen = aus äußeren Zeichen auf inneres schließen

  • Entwicklung von Theorien “mittlerer Reichweite” (nach Robert K. Merton)

    • empirisch fundiert

    • begrenzter Geltungsbereich

    • Grundlage für größere Theorien


Voraussetzungen:

  1. gleiche Sprache oder Verwendung gleicher sprachlicher Symbole

    (= subjektiver Sinn)

  2. Interviewende Person und interviewte Person messen einem sprachlichen Ausdruck den gleichen Sinn bei

    (= geteilter Sinn)


Grundprinzipien (Forschungslogik)

  • Rekonstruktion:

    • Um subjektiven Sinn hinter Handlung zu erschließen, durch:

      • Interviews

      • Beobachtungen

      • Dokumente etc

  • Interpretation:

    • wissenschaftlich nur gültig, wenn:

      • kontextbezogen

        • Aussagen (Daten) sind: indexikal (kontextabhängig)

          • Beispiel: „Ich habe Fußball gespielt“ → Bedeutung nur verstehbar durch:

            • kulturelles Wissen

            • soziale Strukturen

            • implizites Hintergrundwissen

      • methodisch kontrolliertes Verstehen (nach Przyborski et al)

        • Interpretation muss Unterschiede zwischen Forscher:innen & Beforschten berücksichtigen

        • Relevanzsysteme der Beforschten rekonstruieren

          • a) Subjektiver Sinn

            • individuelle Perspektiven

            • subjektive Bedeutungen

            • persönliche Interpretationen

          • b) Soziale Praxis

            • Regeln des sozialen Handelns

            • gesellschaftliche Strukturen

            • Muster kollektiven Handelns

          • = Spannungsverhältnis zwischen Individuum u. Struktur

        • Ziel: Vermeidung von Willkür durch methodisch kontrollierten Fremdverstehen (Zugang zu Daten)


Emil Durkheim: soziale Tatsachen statt Handeln

  • Verstehen von gesellschaftliche Strukturen, die:

    • aus Interaktionen entstehen

    • auf Handeln zurückwirken


Zentrale Methoden:

  • Beobachtung (z.B. Ethnografie)

  • Vergleichende Methode (z.B. Grounded Theory)


Georg Simmel: Erweiterte Perspektive

= Nicht nur Handeln verstehen, sondern soziale Prozesse rekonstruieren.

  • → „Wechselwirkungen“ = Prozesscharakter sozialer Realität


Zusammengefasst:

  • Ziel: → deutendes Verstehen sozialen Handelns

  • Mittel: → Rekonstruktion + Interpretation

  • Voraussetzung: → geteilter Sinn & Kontextwissen

  • Anspruch: → methodisch kontrolliertes Verstehen

    • Methoden sind kein Selbstzweck, sondern Mittel zur Beantwortung von Forschungsfragen

    • Methodenwahl beeinflusst das Ergebniss (Gegenstandsangemessenheit)

    • ! Qualitative Sozialforschung ist kein einheitliches Verfahren→ sondern ein Sammelbegriff für Methoden

  • Ergebnis: → Theorien mittlerer Reichweite


Methoden-Softwares:

  • Quantitativ:

    • SPSS

    • R

  • Qualitativ:

    • MAXQDA

    • ATLAS.ti

    • f4analyse

  • Transkription:

    • f4transkript

👉 Wichtig:

  • Software unterstützt, ersetzt aber nicht: → Interpretation & Rekonstruktion


Fünf Phasen des Forschungsprozesses

  1. Erkenntnisinteresse & Fragestellung

  2. Päzise Forschungsfrage

  3. Methodologische Entscheidung

  4. Bestimmung des Forschungsfeldes

  5. Wahl der Methoden

    • Erhebungsmethoden (Datensammlung)

      • Experteninterviews

      • Narrative Interviews

      • Problemzentriertes Interview

      • Teilnehmende Beobachtung, uvm

    • Auswertungsethoden (Datenanalyse)

      • Qualitative Inhaltsanalyse

      • Narrationsanalyse

      • Grounded Theory Methodologie

      • Objektive Hermeneutik


Gütekriterien

= Heuristische Funktion: Keine Checkliste, sondern Orientierungshilfe.


Auch qualitative Forschung orientiert sich an:

  • Validität (Kerndimension)→ misst man das Richtige?

    • Entspricht die wissenschaftliche Deutung dem tatsächlichen sozialen Phänomen?

    • = wie soziale Wirklichkeit kommunikativ hergestellt wird

  • Reliabilität (Zuverlässigkeit) → ist das Ergebnis nachvollziehbar/reproduzierbar?

    • = Strukturen müssen sich wiederholen

      • innerhalb eines Falls

      • über mehrere Fälle hinweg

  • Objektivität (Kerndimension) → unabhängig vom Forscher?

    • aber: Forscher = Teil des sozialen Feldes → keine vollständige Neutralität möglich

      • Explikation statt Eliminierung: Einfluss des Forschenden wird nicht ausgeschlossen sondern sondern reflektiert und offengelegt

      • Rekonstruktion von Kommunikationsregeln: basierend auf expliziten Regeln der Verständigung

      • Formalisierte Auswertungsschritte durch methodisch kontrollierte Prozesse und systematische INterpretation


werden aber basierend darauf an qualitative Logik angepasst :

8 qualitative Gütekriterien

  • Gegenstandsangemessenheit

    • Forschungsdesign muss Forschungsfrage beantworten und Untersuchungsfälle erfassen.

    • Methoden flexibel an das Feld/ Gegenstand anpassen

    • Beeinflusst das Design das Ergebnis?

    • Beispiel: Narratives Interview für subjektives Erleben, Beobachtung für routiniertes Handeln.

    • 6 Typen nach Steinke

      • (1) Angemessenheit der qualitativen Vorgehens angesichts der Fragestellung

        (2) Angemessenheit der Methodenwahl

        (3) Angemessenheit der Transkriptionsregeln

        (4) Angemessenheit der Samplingstrategie

        (5) Angemessenheit der methodischen Einzelentscheidungen im Kontext der gesamt Untersuchung und

        (6) Angemessenheit der Bewertungskriterien

  • Reflektierte Subjektivität

    • Einfluss der Forschenden auf Daten bewusst reflektieren (z. B. persönliche Beziehung zu Interviewpartnern).

      • Selbstbeobachtung

      • Persönliche Voraussetzungen

      • Vertrauensbeziehung

  • Offenheit

    • Forschung darf nicht durch Vorwissen eingeschränkt werden.

    • Ziel: Überraschende, unerwartete Erkenntnisse ermöglichen.

  • Intersubjektive Nachvollziehbarkeit

    • Ergebnisse und Forschungsprozess müssen für Dritte nachvollziehbar sein.

    • Transparente Dokumentation: Transkripte, Beobachtungsprotokolle, Kategoriensysteme.

  • Empirische Verankerung

    • Interpretationen und theoretische Modelle müssen in den erhobenen Daten begründet sein.

    • Datenbelege regelmäßig im Forschungsbericht zitieren.

  • Kohärenz

    • Innere Konsistenz von Daten und Interpretation prüfen.

    • Argumentationen dürfen sich nicht widersprechen.

    • 2 Formen nach Steinke

      • Theoretische Kohärenz: Theorie in sicch logisch stimmig

      • Empirische Kohärenz: Umgang mit widersprüchlichen Daten durch reflektive und theoretische Integration

        • z.B Grounded Theory: constant comparison und theoretisches sampling

    • = 👉 Kohärenz heißt nicht „keine Widersprüche“, sondern „Widersprüche erklärbar machen“.

    • = Widerspruch wird Produktionsmotor von Theorie

  • Limitation

    • Generalisierbarkeit prüfen: Sind Ergebnisse über die untersuchten Fälle hinaus generalisierbar?

    • Methoden: Analytische Induktion, ggf. quantitative Überprüfung.

  • Relevanz

    • Beitrag der Studie zum wissenschaftlichen Diskurs prüfen.

    • Bezug zu bestehenden Theorien und Forschungsstand herstellen.

Funktion:

  • Passive Methodenkompetenz (Literacy): Studien beurteilen und kritisch reflektieren.

  • Aktive Methodenkompetenz: Eigene Studien methodisch fundiert planen



Unterschiede Qualitative vs. Quantitative Forschungslogik

Qualitativ und quantitativ sind gleichwertig

  • Entscheidung hängt ab von: → ForschungsfrageForschungsstand

👉 nach Paul F. Lazarsfeld:

  • kein „Methodenstreit“, sondern Kombination sinnvoll

Alternative Begriffe, die in der Wissenschaft verwendet werden:

Klassisch

Alternativ

Bedeutung

qualitativ

fallbasiert / rekonstruierend / interpretativ

Verstehen & Rekonstruktion

quantitativ

aggregatbasiert / hypothesenprüfend

Messen & Testen


Zentrale Unterschiede:

  1. Theorientestend vs. Theoriengenerierend

  • Quantitativ: testet bestehende Theorien

    • arbeitet mit:

      • Hypothesen

      • Variablen

      • Operationalisierung

    • Ziel: Bestätigung oder Falsifikation (nach Karl Popper)

  • Qualitativ: generiert neue Theorien

    • arbeitet mit:

      • offenen Beobachtungen

      • Explorationen

    • Ziel: Verstehen & Theorienbildung

  1. Vorwissen

  • Quantitativ: braucht viel Vorwissen

  • Qualitativ: kann mit wenig Vorwissen starten

    • Nutzen: sensibilisierende Konzepte (nach Herbert Blumer) auch: sensitizing concepts

      • Basiert auf: 4 Dimensionen theoretischen Vorwissens

        1. Grad der Explikation

          • Niedrig: Vorwissen ist eher heuristisch, strukturiert Denken und Beobachtung, ohne sofort überprüfbare Hypothesen.

          • Hoch: Vorwissen ist explizit, ableitbar in überprüfbare Hypothesen.

        2. Herkunft

          • Forschende vs. Akteure im Untersuchungsfeld

          • Wichtig: Deutungen der Akteure dürfen nicht automatisch als Forschungswissen übernommen werden.

        3. Grad der Theoretisierung

          • Unterschied zwischen Alltagswissen (geringer Abstraktionsgrad) und wissenschaftlichem Wissen (hoher Abstraktionsgrad).

        4. Grad an empirischem Gehalt

          • Je abstrakter eine Theorie, desto weniger direkt überprüfbare Hypothesen möglich → höhere Operationalisierungsleistung nötig.

      • Daraus abgeleitet: Typen von Vorwissen

        1. Empirisch nicht gehaltvolles Theoriewissen der Forschenden

          • Heuristisch nutzbar, theoriegeleitete Beschreibung empirischer Sachverhalte.

        2. Empirisch gehaltvolles Alltagswissen der Forschenden

          • Ermöglicht Kommunikation mit Akteuren im Feld.

        3. Empirisch gehaltvolles Alltagswissen der Akteure

          • Liefert Kontext und Sichtweisen, aber muss kritisch interpretiert werden.

      • heißt: Vorwissen ermöglicht theoretische Sensibilität → erkennt Relevanzen in den Daten

        • Sensibilisierende Konzepte (nach Herbert Blumer):

          • Nicht präzise definiert, dienen als Interpretationsheuristiken („sensitizing concepts“).

          • Richtungsweisend: „was zu beachten ist“, statt exakte Definitionen.

        • Präzisierung erfolgt im Laufe der Forschung anhand empirischer Daten.

          • = Integration von empirischen und theoretischen Arbeitsschritten, Konzepte müssen heuristisch brauchbar sein.

  1. Logik des Schließens

    • Quantitativ: Deduktion (Allgemein -> Einzelfall)

    • Qualitativ: mehrere Modi

      • Deduktion: Regel + Beobachtung → Fall

      • Induktion: Beobachtung → Regel

      • Abduktion: Beobachtung → neue Regel + neue Erklärung

      👉 nach Charles S. Peirce:

      • Abduktion = kreativer Erkenntnissprung und zentral für Theoriegenese

  2. Fallzahl und Erkenntnisziel

    • Quantitativ: viele Fälle mit Generalisierung durch Aggregation

      • Datenlogik: Korrelation

    • Qualitativ: wenige Fälle mit tiefem Verstehen durch Fallorientierung

      • detaillierter Analyse und neuen Erkenntnissen führt zu Kausalzusammenhängen

  3. Sampling

    • Quantitativ: Statistisches Sampling durch zufällige Stichproben

    • Qualitativ: Theoretisches Sampling

      • minimaler Vergleich → ähnliche Fälle

      • maximaler Vergleich → unterschiedliche Fälle

      • Ablauf:

        • Fallauswahl

          • Datenauswertung

        • 2. Fallauswahl

          • Erneute Datenauswertung

        • …Wiederholung bis: “theoretische Sättigung” eintritt

          • → keine neuen Erkenntnisse mehr

        • = Typenbildung & Theorienentwicklung

  4. Forschungslogik

    • Quantitativ: linear

    • Qualitativ: zirkulär

      • Datenerhebung

      • Auswertung

      • neue Fallauswahl → wieder von vorn

      👉 Schleifenprozess!



Zusammenfassung:

Quantitativ

Qualitativ

Theorietest

Theoriegenese

Deduktion

Deduktion + Induktion + Abduktion

viele Fälle

wenige Fälle

Statistik

Interpretation

Repräsentativität

Fallverständnis

linear

zirkulär

viel Vorwissen

offener Zugang


Etablierung & Ausdifferenzierung qualitativer Sozialforschung


Theoretische Grundlagen (Wurzeln):

  • Konstruktivismus = Soziale Wirklichkeit wird im Rahmen kommunikativer Interaktionen hergestellt

  • Symbolischer Interaktionismus = Soziales Handeln basiert auf Bedeutung von Symbolen und Interaktionen beruhen auf der Verwendung gemeinsamer (sprachlicher) Symbole)

    • Gesellschaft = Ergebnis von Interaktionen über Symbole

    • Wichtigstes Symbolsystem: → Sprache

    • Methodologische Konsequenz:

      • Analyse sozialer Wirklichkeit = Analyse von Symbolsystemen

    • Zentrale Einsichten:

      • Bedeutung ≠ objektiv gegeben

      • Unterschied zwischen:

        • Binnenperspektive (Akteur:innen)

        • Außenperspektive (Forschende)

      • Beispiel: Inuit- IQ Test

  • Phänomenologie = Lebenswelt ist eine Alltagswelt, die als selbstverständlich erlebt wird und von qual. Sozialf. unvoreingenommen erfasst wird

    • Wissenschaft basiert auf Lebenswelt

    • Soziale Realität wird durch Handeln konstruiert

    • Ziel: → Rekonstruktion lebensweltlicher Strukturen durch subjektiven Sinn + Alltagswissen

    • Methodologische Konsequenzen:

      • Werturteilsfreiheit

      • Unvoreingenommene Analyse

      • „Einklammern“ von Vorwissen

      👉 Einfluss:

      • z. B. frühe Grounded Theory


Historischer Verlauf:

  • Gottfried Achenwall (18. Jhd.) - Qualitative Empirie in Göttingen mit rein quantitativen Verfahren

  • Max Weber, Wilhem Dilthey, Karl Mannheim (19. Jhd)

    • Hermeneutik (Verstehen)

    • verstehende Soziologie

    • Dokumentarische Methode

  • Albion Small (ab 1920) Chicago School - erste systematische qualitative Forschung

    • Verbindung von:

      • Theorie

      • empirischer Praxis

        • Briefe

        • Autobiografien

        • Dokumentenanalyse

  • In Deutschland:

    • Bis Mitte 20. Jh.:

      • geringe Institutionalisierung

      • NS-Zeit: → Emigration vieler Forschender → Schließung von Instituten

    • Ab 1970er:

      • Rezeption der Chicago School

      • Begriff: → „qualitative Sozialforschung“ etabliert sich

      👉 Wichtige Entwicklung:

      • Philipp Mayring → „qualitative Wende“ (1983)

    • 2002: Empfehlung der Deutsche Gesellschaft für Soziologie→ Gleichberechtigung qualitativer & quantitativer Methoden


Die arbeitslosen des Marienthal

  • Gegenstandsangemessenheit

  • Reflektierte Subjektivität


Autoren & Kontext

  • Leitung: Paul F. Lazarsfeld

  • Hauptautorin: Marie Jahoda

  • Mitarbeit: Hans Zeisel

  • Durchführung: 1931–1932, 17-köpfiges Team

  • Finanzierung: Arbeiterkammer Wien + Rockefeller Foundation

  • Kontext:

    • Wirtschaftskrise, Massenarbeitslosigkeit

    • NS-Zeit → Veröffentlichung zunächst anonymisiert & verboten

Besonderheiten:

  • Gruppenforschung

  • hoher Frauenanteil → frühe Gendersensibilität

  • interdisziplinär (Soziologie, Psychologie, Statistik)


Zielsetzung

  • Inhaltlich:

    • Feine Charakterisierung von Arbeitslosigkeit

      • Analyse der Auswirkungen von Langzeitarbeitslosigkeit

    • Analyse von Veränderungen (Zeitverlauf / Vergleich)

      • Fokus auf: Gemeinde (Kollektiv) statt Individuum

    • Test: Wie weit ist Soziographie möglich?

      • → sozialpsychologische Perspektive

  • Methodisch:

    • umfassende, objektive Darstellung

    • Entwicklung und Kombination neuer Methoden

    • Ziel: Ganzheitliches Bild eines sozialen Phänomens


Forschungsdesign

  • Mixed Methods (qualitativ + quantitativ)

  • Triangulation

  • explorativ & deskriptiv

  • teilw. ethnografisch / soziografisch


EXKURS: TRIANGULATION (nach Norman Denzin)

= Untersuchung eines Gegenstands aus mehreren Perspektiven, um ein tieferes und breiteres Verständnis zu gewinnen.

Form

Definition

Beispiel Marienthal-Studie

Daten-Triangulation

Verschiedene Datensorten und -quellen werden kombiniert.

Quantitative Zeitverwendungsbögen + qualitative Interviews + ethnografische Beobachtungen

Methoden-Triangulation

Mehrere Erhebungs- oder Auswertungsmethoden innerhalb einer Studie.

Beobachtungen + Interviews innerhalb eines ethnografischen Designs

Theorien-Triangulation

Interpretation derselben Daten aus unterschiedlichen theoretischen Perspektiven.

Analyse von Arbeitslosigkeit unter sozioökonomischen und psychologischen Gesichtspunkten

Forscher/innen-Triangulation

Zusammenarbeit mehrerer Forschender zur Minimierung subjektiver Verzerrungen.

Forschungsgruppe diskutiert Ergebnisse regelmäßig in Wien, um individuelle Präferenzen zu reflektieren

Abgrenzung zu Mixed Methods:

  • Mixed Methods = meist Kombination qualitativer und quantitativer Logiken.

  • Triangulation = allgemeiner, zielt auf Perspektivvielfalt ab, nicht nur auf Methodenmix.


Zentrale Konzepte

  • Soziographie → Beschreibung sozialer Strukturen & Interaktionen (heute eher Ethnografie zugeordnet)

  • Laborsituation → gesamte Gemeinde betroffen

  • Triangulation → Kombination von Methoden & Daten und Perspektiven

bestehend aus:


1) Zentrale Dimensionen der Untersuchung (Perspektiven)

  1. . Objektive Lebensbedingungen

    • Familienstruktur

    • Wohnverhältnisse

  1. Ökonomische Dimension

    • Einkommen / Ressourcen

    • Konsumverhalten

  2. Zeitdimension

    • Tagesabläufe

    • Umgang mit Zeit (z. B. Passivität).

  3. Psychologische Dimension

    • Einstellungen zur Arbeitslosigkeit

    • Emotionen (Resignation, Hoffnung etc.)

    • Zukunftspläne

  4. Soziale Dimension

    • Beziehungen & Konflikte

    • Geschlechterverhältnisse

    • politische Veränderungen


2) Datentypen

  1. Physikalisch-statistisch

    • Geld, Nahrung

  2. Psychologisch-statistisch

    • Verhalten, Aktivitäten

  3. Umweltmarken

    • typische Aussagen & Verhaltensweisen


3) Methoden

  • teilnehmende Beobachtung

  • Haushalts- & Zeitstudien

  • Interviews / Gespräche

  • Dokumentenanalyse

  • indirekte Messungen

Achtung: Methoden wurden neu entwickelt (Pionierarbeit!)

  • Mixed Methods: Kombination von

    • quantitativen Daten (Statistiken etc.)

    • qualitativen Daten (Beobachtungen, Interviews)

    • = Lücke schließen zwischen:

      • „nackten Zahlen“ (Statistik)

      • „subjektiven Eindrücken“ (Reportagen)


= Triangulation: Kombination verschiedener Methoden, Daten und Perspektiven.


= Vier methodologische Dimensionen (nach Lazarsfeld)

  1. Triangulation

    • qualitative + quantitative Methoden kombinieren

  2. Objektiv vs. subjektiv

    • Lebensbedingungen + Wahrnehmungen

      • Aufsätze von Jugendlichen → Zukunftsperspektiven

  3. Historisch vs. aktuell

    • Vergleich über Zeit

  4. Reaktiv vs. nicht-reaktiv

    • z. B. Interviews vs. verdeckte Beobachtung

      • Gehgeschwindigkeit messen → nicht-reaktiv

      • Bibliotheksnutzung → indirekter Indikator

    • dadurch starke Eingriffe ins Feld

      • keine strikte Trennung zwischen:

        • Forschung

        • sozialem Engagement

👉 = frühe Gütekriterien empirischer Sozialforschung


Ergebnisse der Studie:

1. Charakterisierung der Gemeinschaft

  • Marienthal = „müde Gemeinschaft“ , geprägt von Apathie, geringerem gesellschaftlichem Engagement und wachsendem Misstrauen.

  • Menschen gewöhnen sich daran, weniger zu besitzen, weniger zu tun und weniger zu erwarten.

2. Veränderung von Verhalten und Engagement

  • Rückgang der Nutzung öffentlicher Einrichtungen: z.B. Bibliotheksbesuche halbiert.

  • Politisches Engagement sinkt: Mitgliedschaften in Parteien und Vereinen deutlich reduziert.

  • Geringere Mobilität bei Arbeitssuche im Vergleich zu noch Beschäftigten.

3. Typologie der Haltungstypen

  • Resignierte (48 %): Gleichmütig, erwartungslos, ruhige Stimmung, Verzicht auf Zukunftsperspektiven.

  • Ungebrochene (16 %): Organisierte Haushaltsführung, höhere Energie und größere Bedürfnisse.

  • Verzweifelte (11 %): Grundstimmung der Hoffnungslosigkeit, aber weiterhin Haushalt und Kinder betreuend.

  • Apathische (25 %): Energielos, tatenlos, Wohnung und Kinder ungepflegt, Stimmung nicht verzweifelt, sondern indolent.

4. Zusammenhang mit ökonomischer Situation

  • Haltungstypen korrelieren mit Einkommen: Ungebrochene (34 Schilling), Resignierte (30 Schilling), Verzweifelte (25 Schilling), Apathische (19 Schilling).

  • = Sinkendes Einkommen wirkt sich direkt auf Stimmung und Gesundheit aus – ein „psychisches Abgleiten“ .

5. Zeiterleben und Tagesstruktur

  • Männer: Tagesstruktur verliert an Bedeutung, Zeiterleben „doppelt“

    • stehen häufig auf der Straße herum, gehen langsamer und unterbrechen Tätigkeiten öfter.

  • Frauen: Arbeit im Haushalt und Kinderbetreuung füllen weiterhin den Tag; weniger Muße, doppelt schwierige Bedingungen durch eingeschränkte Mittel.

  • Zeit verläuft anders für Männer und Frauen.

6. Methodenvielfalt der Studie

  • Kombination aus

    • quantitativen Daten (z. B. Bibliotheksbesuche, Parteimitgliedschaften, Einkommen) und

    • qualitativen Daten (Interviews, Expertenaussagen, ethnografische Beobachtungen).

  • Innovative Erhebungsinstrumente

    • Zeitverwendungsbögen

    • Kleidersammlungen als Zugang zu Haltungen

    • Messung der Gehgeschwindigkeit.

  • Fallportraits führten zu Typologie der Haltungen.

7. Methodische Reflexion

  • Die Studie bleibt größtenteils deskriptiv-ethnografisch.

  • Forscher/innen beeinflussten die Teilnehmer/innen durch aktive Teilnahme an Veranstaltungen und Interventionen (z. B. Kleidersammlung).

  • Ethnografischer Ansatz erlaubt eine detaillierte Lebensbeschreibung, stößt aber methodisch an Grenzen.


Bewertung der Studie

= Pionierarbeit der qualitativen Sozialforschung mit innovativem Methodenmix und ganzheitlicher Analyse

❗ stark deskriptiv ❗ geringe theoretische Tiefe

  • Ausgangspunkt: quantitative Daten

    → Muster erkennen → in Begriffe/Interpretationen überführen

👉 keine strenge Kausalität, sondern: plausible, theoriegeleitete Deutung

  • Stärken:

    • Umfangreiche Textbelege und Zitate verankern theoretische Aussagen direkt in den Daten.

    • Analytische Induktion: Theoretische Modelle werden aus Fallstudien entwickelt und auf weitere Fälle übertragen.

  • Schwächen:

    • Fehlende kodifizierte Methoden: Die Forscher/innen mussten kreativ neue Methoden entwickeln, da etablierte Verfahren noch nicht existierten.

    • Keine kommunikative Validierung: Die Untersuchten wurden nicht in die Bewertung der Gültigkeit der Ergebnisse einbezogen.


= Marienthal-Studie zeigt exemplarisch, dass qualitative Forschung sowohl eine starke empirische Verankerung als auch reflektierte Subjektivität erfordert.


👉 Marienthal = erste große Mixed-Methods-Studie zur Arbeitslosigkeit, die eine ganze Gemeinde sozialpsychologisch und multidimensional analysiert.

-> Sie kombiniert ethnografische Feldforschung mit quantitativen Daten im Sinne einer triangulativen, gegenstandsorientierten Methodik zur ganzheitlichen Analyse von Arbeitslosigkeit.

Ethnografie & Teilnehmende Beobachtung

Ethnografie

= analytische Beschreibung einer sozialen Gruppe (z. B. Subkultur, Gemeinschaft) mit Fokus auf:

  • Wissensformen

  • soziale Praktiken

  • materielle Kultur

  • Abgrenzung:

    • Nicht Ethnologie (Völkerkunde fremder Kulturen)

    • Sondern: Untersuchung eigener Gesellschaften und Subkulturen


Leitfrage: → Wie wird soziale Wirklichkeit praktisch hergestellt?

Perspektive: → teilnehmend und feldnah (direkter Zugang statt nur indirekter Rekonstruktion)


Ethnografie hat keine eigene Methode, sondern kombiniert:

  • Interviews

  • Dokumenten- und Statistikanalyse, z.B.

    • Fotos

    • Videos

    • Objekten

  • Teilnehmende Beobachtung (zentral!)

👉 Ziel: möglichst unmittelbarer Zugang zur Lebenswelt



Teilnehmende Beobachtung

Der/die Forschende nimmt aktiv am Alltag teil und beobachtet gleichzeitig systematisch

  • Grundannahme: Soziale Realität kann man nicht erforschen, ohne Teil von ihr zu sein.

  • Problem von Interviews: Routinehandeln

    • Menschen können viele Routinen nicht bewusst erklären

    • Interviews liefern dann: nachträgliche Rationalisierungen, nicht echtes Handeln

    👉 Lösung: → Beobachtung ist geeigneter für implizites Wissen


Phasen der teilnehmenden Beobachtung (nach Spradley)

  1. Deskriptive Phase

    • breiter Überblick über das Feld

  2. Fokussierte Phase

    • Konzentration auf relevante Aspekte

  3. Selektive Phase

    • gezielte Analyse bestimmter Phänomene


Feldnotizen & Beobachtungsprotokolle

= zeitnah, möglichst detailliert und regelmäßig, aber keine objektive Realität!

  • sondern: interpretative, sprachlich rekonstruierte Texte

    • Beispiel:

      • Detailliert: „Der Mann hebt den rechten, leicht gebeugten Arm mit zügiger Bewegung, bis die Hand auf Schulterhöhe ist…“

      • Kurzfassung/Interpretation: „Der Mann winkt…

    • = Bewusstsein für Interpretationsgrad: Genauigkeit vs. forschungsökonomische Knappheit.

  1. Ort/ Zeit: jeder Beobachtung dokumentieren

  2. Beobachtungen: möglichst detaillierte, chronologische Beschreibung, um Interpretation zu minimieren.

    • Dokumentiert was passiert, wer mit wem interagiert, wann und wie.

    • Fokus auf: Abläufe, Routinen, Interaktionen, Gruppenbildungen, Sonderrollen.

    • Beispiele: Wer begrüßt wen zuerst? Wer wird wie behandelt? Welche Tätigkeiten werden ausgeführt?

  3. Kontextinformationen: Informationen, die nicht aus der aktuellen Beobachtung stammen.

    • Wichtig: Quelle angeben, da sie die Interpretation beeinflussen kann.

      • Quellen: frühere Beobachtungen, Medien, andere Personen.

    • Relevanz: helfen, Beobachtungen einzuordnen und zu interpretieren.

    • Beispiel: Kenntnis, dass bestimmte Gruppen normalerweise bestimmte Rollen einnehmen oder vorherige Konflikte zwischen Personen.

  4. Methodische u. Rollenreflexion: eigene Rolle im Feld und deren Einfluss auf die Beobachtungen sowie Rahmenbedingungen (institutionelle Einflüsse, äußere Faktoren, mögliche „Fallen“)

    • Überlegungen zu methodischen Konsequenzen: Wen besonders beobachten, welche Untergruppen relevant?

    • Rollenwechseln: Wann wäre ein aktiveres Eingreifen sinnvoll, was wären die Konsequenzen?

    • Ziel: die Forschungsrolle bewusst steuern und methodische Entscheidungen dokumentieren.

  5. Theoretische Reflexion: Erste Interpretationen des Beobachteten in einer Theoriesprache (z. B. Soziologie, Psychologie).

    • Trennung von Beobachtungen wichtig → Beobachtung nicht vorschnell theoretisieren.

    • Ziel: erste Hypothesen und theoretische Zusammenhänge entwickeln, die später überprüft werden können.

    • Beispiele: Machtstrukturen, Rollenverteilungen, Konformität vs. Abweichung, ethnische/genderbezogene Segregation.

Achtung:

  • Rubriken können mit Buchstaben gekennzeichnet werden (B, K, M, T) oder durch Schriftformatierung unterschieden werden.

  • Beobachten kann den Ablauf im Feld beeinflussen (z. B. Aufmerksamkeit der Teilnehmer).

    • Forscherrolle sichtbar → kann „natürliche Abläufe“ stören.

    • Entscheidung: Protokollieren direkt im Feld vs. zurückgezogen bzw. nachträglich.


Empfehlung nach Przyborski:

  • Feldforschungsnotizen sollten unmittelbar nach der Beobachtung gemacht werden.

  • Um die Interaktion im Forschungsfeld nicht zu beeinträchtigen, wird es in den meisten Kontexten angebracht sein, die Beobachtungen nicht in Anwesenheit der Untersuchungspersonen nie derzuschreiben.


Beobachterrollen (4 Typen)

  • Vollständige/r Teilnehmer/in

    • Gefahr: „going native“ (Verlust der Distanz)

  • Teilnehmer/in als Beobachter/in

    • Teilnahme im Vordergrund, aber reflektiert

  • Beobachter/in als Teilnehmer/in

    • Beobachtung im Vordergrund

  • Vollständige/r Beobachter/in

    • keine Teilnahme → Gefahr von Missverständnissen


Dilemma: Nähe - Distanz

Forschende müssen gleichzeitig:

  • teilnehmen (Vertrauen, Verständnis)

    • Inklusion: Zugang zum Feld, Vertrauensaufbau, Empathie für die Perspektive der Beforschten.

  • distanziert bleiben (wissenschaftliche Analyse)

    • Exklusion: Schutz der eigenen analytischen Distanz, klare Grenzen, damit wissenschaftliche Objektivität gewahrt bleibt.

👉 Klassisches Spannungsfeld:

Involvement vs. Detachment = going native

  • going native = Gefahr, zu stark in die Welt der Beforschten einzutauchen und die notwendige Distanz zu verlieren.

  • Die Balance ist situationsabhängig, kann sich im Verlauf der Forschung verändern und muss immer wieder neu ausgelotet werden.


Professionelle Handhabung der Forscherrolle (nach Przyborski)

  • Reflexion: Sowohl eigenes Verhalten als auch Veränderungen der eigenen Rolle beobachten.

  • Phasenwechsel: Intensive Feldforschung vs. distanzierte Analysephasen.

  • Externe Unterstützung: Austausch mit Betreuern oder anderen Forschenden kann helfen, die Balance zu halten.

  • Empathie vs. Rolle: Forscher können Aufmerksamkeit, Sympathie oder Mitgefühl zeigen, bleiben aber Wissenschaftler und keine Freunde/Therapeuten.


Zentrale Erkenntnis:

Beobachtung allein reicht nicht – entscheidend ist das Sinnverstehen.


Beispiel: rein technische Beschreibung (z. B. Fußballbewegungen) ≠ Verständnis des sozialen Sinns


Psychologie der Krisenbewältigung - Längsschnittuntersuchung mit arbeitslosen LehrerInnen


mit Experteninterviews (Offenheit + intersubjektive Nachvollziehbarkeit)

Forschenden:

  • Projektleitung: Dieter Ulich und Karl Haußer

  • Mitarbeiter: u.a. Philipp Mayring, der die methodischen Fragen der qualitativen Inhaltsanalyse vorantrieb.

    • Mayring: Pädagogik, Psychologie, Soziologie; heute führend in Methodenlehre und qualitativer Inhaltsanalyse.

Zusammen entwickelten und etablierten sie die qualitative Inhaltsanalyse als zentrale Methode der empirischen Sozialforschung, insbesondere durch Philipp Mayring.


Zielsetzung der Studie:

  • Gesellschaftsbezogen: Aufklärung über subjektive Situation von arbeitslosen Lehrern, Differenzierung gesellschaftlicher Ansichten.

  • Forschungsstrategisch: Darstellung interindividueller Unterschiede in Lebenslagen, Handlungsmöglichkeiten und Krisenbewältigung.

  • Theoriebezogen: Prüfung eines integrativen Theorieansatzes aus mehreren Einflüssen und Einzelfaktoren.

  • Inhaltlich: Längsschnittanalyse individueller Verläufe, Vergleich zwischen Gruppen, Hypothesengenerierung und -prüfung.

  • Methodisch: Halbstrukturierte Interviews, kodiert mittels qualitativer Inhaltsanalyse, statistische Auswertung, Rekonstruktion der Krisenerfahrung aus Sicht der Betroffenen


Forschungsfragen: Wie erleben und bewältigen arbeitslose Lehrer/innen ihre Arbeitslosigkeit?

  • Wie erleben Menschen Krisen im Alltag?

  • Wie entstehen diese Krisen (Ursachen)?

  • Wie gehen Menschen damit um (Handeln)?

  • Welche Folgen ergeben sich für die Persönlichkeitsentwicklung?


Grundannahme

Bewältigung = Zusammenspiel von

  • Handeln (z. B. Bewerbungen)

  • Kognition (z. B. Hoffnung, Selbstdeutung)


Hypothesen

  1. A: Arbeitslosigkeit erzeugt krisenhafte seelische Bedingungen, höher als bei Berufstätigen.

  2. B: Indikatoren: reduzierte Lebensziele, sinkende Hoffnung, steigende Passivität, Abnahme von Selbstvertrauen und sozialer Unterstützung, Zunahme psychosomatischer Belastungen.

  3. C: Entlastende Faktoren: Lebensziele, realistische Verantwortlichkeitszuschreibung, soziale Unterstützung, Selbstvertrauen, Berufliches Interesse, begrenzte Ausbreitung der Belastung.


Forschungsdesign: Längsschnittdaten

  • Sample: 104 Lehrer/innen über 1 Jahr hinweg bis zu 7 Interviews pro Person.

  • Gruppenaufteilung:

    1. Untersuchungsgruppe 1: 52 frisch arbeitslose Lehrer/innen, alle 2 Monate interviewt.

    2. Untersuchungsgruppe 2: 27 Lehrer/innen mit befristeten Verträgen, 3 Interviews.

    3. Kontrollgruppe: 25 Lehrer/innen mit unbefristeten Planstellen.

  • Ergebnis: ca. 600 Interviews → ca. 20.000 Seiten transkribiertes Material.

  • Demografie: 2/3 weiblich, Durchschnittsalter 29 Jahre; repräsentativ für die Grundgesamtheit arbeitsloser Lehrer/innen


Vorteile von Interviews als Methode:

  • Interviews erleichtern den Zugang zum Untersuchungsfeld im Vergleich zu teilnehmender Beobachtung.

  • Einfluss der Forschenden geringer; Interviewäußerungen können unmittelbar transkribiert werden.

  • Soziale Realität wird prozesshaft rekonstruiert, analog zur alltäglichen Konstruktion von Wirklichkeit.


Leitprinzipien qualitativer Interviews

  1. Zurückhaltung der Forschenden: Interviewten weitgehend Steuerung überlassen.

  2. Relevanzsysteme der Interviewten: Eigene Perspektiven und Prioritäten werden berücksichtigt.

  3. Kommunikativität: Anpassung an Sprache, Regeln und Niveau der Interviewten.

  4. Offenheit: Bereitschaft für unerwartete Informationen trotz Leitfaden.

  5. Flexibilität: Reaktion auf individuelle Bedürfnisse der Interviewten während des Interviews.


= Ziel: Interviewten möglichst umfassend und ausführlich zu Wort kommen lassen; individuelle Erfahrung gilt als glaubwürdigster Zeuge des eigenen Erlebens.


heißt: Entscheidend ist nicht, ob Interviewäußerungen objektiv wahr sind.

  • Ziel: Rekonstruktion sozialer Handlungen und Prozesse, Verständnis der Wahrheitsansprüche der Akteure.

  • Auch vermeintlich „unwahre“ Aussagen können wertvolle Erkenntnisse liefern, z. B. über Selbstpräsentation, Motivation oder soziale Interaktionen.


Praktische Hinweise

  • Gut zuhören, Verständnis signalisieren

  • Pausen zulassen, um Denken und Erinnern zu ermöglichen

  • Flexibel reagieren, Details erfragen

  • Umgang mit speziellen Fällen:

    • Misstrauische: Forschungskontext betonen

    • Kritiker: Begrenzte Erklärung anbieten

    • Schweigende: offene Fragen, strategische Pausen

    • Plaudernde: Rückkopplung schrittweise reduzieren

    • Neugierige: Fragen zurückstellen

    • Beichtkinder: Mitgefühl zeigen, Rolle wahren


In der Lehrer/innen-Studie: offene Interviews, heute bekannt als:


Experteninterviews

Experte/in = jemand mit spezifischem Wissen über einen bestimmten Gegenstand, das Forschenden nicht unmittelbar zugänglich ist.

  • Weit: Jeder kann in bestimmten Kontexten Experte sein, z.B.

    • Voluntaristisch: Jeder ist Experte für das eigene Leben und spezifische Sachverhalte.

  • Eng: Nur Personen mit spezifischen Rollenwissen oder institutionalisiertem Wissen (z. B. Berufsrolle, Elitenwissen).

    • Konstruktivistisch: Expertenstatus wird von Laien zugeschrieben (z. B. Berufsbezeichnung, Zertifikate).

    • Wissenssoziologisch: Expertenwissen ist komplex integriert und berufsbezogen.


Drei Typen von Expertenwissen nach Przyborski

Experteninterviews können drei Arten von Wissen erschließen (Meuser & Nagel 2005):

  1. Betriebswissen: Wissen über institutionalisierte Abläufe, Regeln und Mechanismen in Organisationen oder Netzwerken.

    • Experten fungieren als Repräsentanten der Institution.

    • Oft nicht kodifiziert, sondern in Praxisabläufen „eingelagert“.

  2. Deutungswissen: Wissen, das die Deutungsmacht der Experten sichtbar macht.

    • Experten beeinflussen die Wahrnehmung, Bewertung und Relevanz bestimmter Sachverhalte.

    • Manifestiert sich sowohl in öffentlichen Diskursen als auch in institutionellen Praktiken.

  3. Kontextwissen: Experten liefern Hintergrundinformationen für Untersuchungen, deren primäre Zielgruppe andere ist (z. B. Gefängnispsychologen für Studien über Häftlinge).

    • Dient oft der Felderschließung und Konkretisierung des Forschungsgegenstands.


Achtung: Perspektiven (Betriebswissen, Deutungswissen, Kontextwissen) können sich überschneiden, sollten aber analytisch unterschieden werden.

  • Wichtig: Interviewführung muss die Art des Expertenwissens berücksichtigen, da unterschiedliche Zugänge unterschiedliche Strategien erfordern.


Leitgedanke der Studie: Weit gefasster Expertenbegriff – jede Person verfügt über spezifisches Wissen, das rekonstruiert werden kann.

  • Fokus: Weniger auf die Person, mehr auf das Wissen, das sie über einen sozialen Prozess hat.

  • Ziel: Rekonstruktion von Expertenwissen über soziale Prozesse.

heißt: Experten = Medium, um an das relevante Wissen zu gelangen; die Person selbst ist nicht primäres Untersuchungsobjekt.


Auswahl der InterviewpartnerInnen (nach Przyborski)

  • richtet sich nach dem gesuchten Expertenwissen (Betriebswissen oder Deutungswissen).

  • Kontinuierliche Sondierung: Die Recherche nach geeigneten Expert:innen ist ein iterativer Prozess während der Untersuchung.

  • Zentrale Schwierigkeit: Nicht jede Person in einer Organisation ist tatsächlich Experte für die relevanten Abläufe oder Entscheidungsprozesse.

    • z.B. Gefahr der „zu hohen Position“: Führungskräfte geben oft nur abstrakte Unternehmensphilosophie wieder, nicht die praktischen Abläufe. Lösung: Nach denjenigen fragen, die direkt involviert sind.


Ablauf eines Experteninterviews (nach Przyborski)

  1. Vorgespräch: Forschungsvorhaben und eigenes Interesse erläutern.

    • Expert:innenstatus anerkennen, eigene fachliche Kompetenz präsentieren.

    • Ziel: Motivation zur Teilnahme und zur Offenlegung des spezifischen Wissens.

    • Nicht: Theorien oder Vermutungen des Interviewers preisgeben, um keine Fachsimpelei auszulösen.

  2. Selbstrepräsentaton des Experten

  3. Stimulierung einer selbstläufigen Sachverhaltsdarstellung

    • Offene Fragen, die Expert:innen anregen, Abläufe oder Erfahrungen selbst strukturiert zu schildern.

    • Beispiel: „Schildern Sie aus Ihrer Praxis, wie die Personalauswahl genau abläuft.“

  4. Aufforderung zur beispielhaften u. ergänzenden Detaillierung (immanente Nachfragen)

  5. Aufforderung zu spezifischen Sachverhaltsdarstellungen (exmanente Nachfragen)

    • gezielt Fragen zu Forschungsinteressen, die noch nicht von selbst beantwortet wurden.

  6. Aufforderung zu Theoretisierung/ Generierung von Deutungswissen

    • Expert:innen sollen Erfahrungen abstrahieren, Einschätzungen, Prognosen oder Verallgemeinerungen entwickeln.

    • Beispiel: Welche allgemeinen Probleme….


Zentrale Ergebnisse der Studie

  • Lebenssitaution als Ausgangspunkt

    • Beruf, Finanzen, Gesundheit, soziales Netzwerk, Zeitstruktur

    • → gleiche Situation wird individuell unterschiedlich erlebt

  • Belastung & Krise entsteht bei:

    • langer Arbeitslosigkeit

    • fehlender Zukunftsperspektive

    • geringem Selbstvertrauen

    • wenig sozialer Unterstützung

  • Typische Belastungen:

    • finanzielle Abhängigkeit

    • soziale Isolation

    • fehlende Tagesstruktur

  • Belastung sinkt, wenn vorhanden:

    • soziale Unterstützung

    • alternative Qualifikationen

    • persönliche Bewältigungskompetenzen

  • Selbstvertrauen = wichtiger Schutzfaktor (wirkt v. a. langfristig)

  • Krise verstärkt sich bei:

    • geringer Kontrollerwartung (Gefühl von Ohnmacht)

    • negativer Selbstzuschreibung („eigene Schuld“)

    • → subjektive Deutung entscheidend

  • Wandel der Bewältigung dieser Gefühle: Anfangs mehr akties Handeln -> mit der Zeit weniger Handlung, mehr kognitive Strategien: Verdrängung, Hoffnung, Zielanpassung


Zentrales Ergebnis:

  • Mit zunehmender Dauer der Arbeitslosigkeit:

    • ↓ Handlung

    • ↑ kognitive Bewältigung

  • → Annäherung an Muster wie Resignation/Apathie (vgl. Marienthal)


heißt: 👉 Arbeitslosigkeit wird nicht nur durch äußere Bedingungen bestimmt, sondern vor allem durch subjektive Deutung, Ressourcen und den Wandel von aktivem zu kognitivem Bewältigen.


👉 Gute qualitative Forschung ist offen für Neues und zugleich so dokumentiert, dass andere sie nachvollziehen können.

Qualitative Inhaltsanalyse + Transkription

Qualitative Inhaltsanalyse (nach Mayring)

= Systematische, regel- und theoriegeleitete Methode zur Auswertung von Texten, INterviews, Beobachtungsprotokollen etc.

  • Ziel: Reduktion großer Datenmengen und sinnverstehende Analyse

  • Ursprung: quantitativ (z. B. Häufigkeiten von Themen), Kritik: ignoriert Bedeutungen von Texten, dann Weiterentwicklung in Verbindung von:

    • Systematik

    • Theoriebezug

    • Verstehen (Hermeneutik)


Besonderheiten qualitativer Inhaltsanalysen

  1. Reduktion von Komplexität

  2. Extraktion (Selektion relevanter INhalte, orientiert an Forschungsfrage)

  3. Kategorisierung (Kategorien bilden systematisches Ordnungssystem)


👉 Qualitative Inhaltsanalyse = systematisches Reduzieren, Ordnen und Interpretieren von Texten mithilfe von Kategorien


Grundprinzipien

  • 1. Kontextbezug (Kommunikationsmodell)

    • Daten werden im Kommunikationszusammenhang interpretiert

    • Fokus: Was wird gesagt? (nicht primär: wie)

    • Einordnung des Textes in:

      • Produzent

      • sozio-kultureller Hintergrund

      • Entstehungssituation

      • Zielgruppe

    2. Regel- & Theoriegeleitetheit

    • Analyse folgt klaren Regeln und Ablaufmodellen

    • Orientierung an bestehenden Theorien

    • Ziel: intersubjektive Nachprüfbarkeit

    3. Gegenstandsangemessenheit (Kategoriengeleitetheit)

    • Kategorien = zentrale Analyseinstrumente

      • und können hierarchisch organisiert sein (Haupt- und Unterkategorien)

    • Methode wird an Forschungsfrage und Material angepasst

      • induktiv (aus Material entwickelt) oder

      • deduktiv (theoriegeleitet vorgegeben) sein

    • Kein starres Standardverfahren

  1. Kombinaton:

    • Schritt 1: Qualitativ-interpretative Zuordnung von Kategorien zu Textstellen

    • Schritt 2: Häufigkeiten von Kategorien analysieren


Formen der Inhaltsanalyse

1. Zusammenfassende Inhaltsanalyse

  • Reduktion auf wesentliche Inhalte

    → induktiv

  • Vorgehen:

    • Paraphrasieren

    • Generalisieren

    • Reduzieren

  • Ziel: Komprimierter Text, der den Kerninhalt widerspiegelt

  • Das Ergebnis der zusammenfassenden Inhaltsanalyse des Transkriptsauszugs = drei Kategorien, die auf Basis der empirischen Daten induktiv gebildet wurden:

    • Praxisschock kann Selbstvertrauen stark mindern und belasten, wenn keine Übung da ist, destruktive Kritik und Anpassungszwang an Seminarlehrer nicht weggesteckt wird, man nicht völlig von sich überzeugt ist.

    • In jedem Fall ist eine gute Beziehung zu Schülern erreichbar.

    • Es ist eine Zwickmühle, pädagogisches Verhalten ausprobieren zu wollen und trotzdem in der Klasse konsequent zu sein

2. Explizierende Inhaltsanalyse

  • Unklare Textstellen durch Zusatzinfos erklärt, zB. durch zusätzlichem Material oder Kontextinformationen

  • → induktiv + deduktiv

  • Stark hermeneutisch geprägt (Verstehen & Interpretation)

3. Strukturierende Inhaltsanalyse (bedeutendste Form)

  • Analyse anhand vorab festgelegter Kategorien

  • → deduktiv

  • Vorgehen: Anwendung eines vorab entwickelten Kategoriensystems mit Strukturierung nach festgelegten Kriterien

(oder nach Bauer:)

Analyseeinheiten

  • Kodiereinheit → kleinste auszuwertende Einheit (Wort, Satz etc.)

  • Kontexteinheit → Kontext, der zur Interpretation herangezogen wird

  • Auswertungseinheit → Umfang des Materials (z. B. ganzes Interview)


Ablaufmodell Detailliert nach Nina Bauer

Systematisches, schrittweises Vorgehen vereint:

  • induktive Kategorienbildung (aus Material)

    • Selektionskriterium festlegen (Was ist relevant?)

    • Abstraktionsniveau bestimmen

    • Kategorien aus dem Material entwickeln

  • deduktive Kategorienanwendung (theoriegeleitet)

    • Kategorien theoretisch festlegen

    • Kodierleitfaden erstellen (Definition, Beispiele, Regeln)

    • Kategorien auf Material anwenden

Technik wird je nach Fragestellung ausgewählt oder kombiniert

  • Zirkulär + linear

    • Anfang: flexibel (Anpassung möglich)

    • Ende: strikt (keine Änderungen mehr)

    • Kategorien als Kerninstrument

    • Mixed-Methods-Ansatz

      • Kombination aus:

        • Interpretation (qualitativ)

        • Zählung (quantitativ)


Schritte:

  1. Fragestellung präzisieren & theoretisch begründen

  2. Material auswählen & charakterisieren

  3. Einordnung ins Kommunikationsmodell

  4. Analyseeinheit festelegen

  5. Kategorienbildung (induktiv/ deduktiv)

  6. Kategoriensystem überarbeiten (Revision)

  7. Gütekriterien prüfen (intracoder- u. intercoderübereinstim.)

  8. Auswertung (Qualitativ - Interpretation, Quanti- Häufigkeiten)


Transkription

= Verschriftlichung von Interviewaufzeichnungen, entscheidet darüber, ob Forschung empirisch & überprüfbar ist

  • Transkript = Datenbasis der Inhaltsanalyse


Unterschiede gesprochene vs. geschriebene Sprache

  • Unvollständige Sätze, Überlappungen

  • Nonverbale Aspekte:

    • Prosodie (Pausen, Betonung, Tempo)

    • Parasprachliches (Lachen etc.)

    • Mimik, Gestik, Dialekt

👉 →Problem:

  • Transkription führen zu unvermeidbaren Informationsverlusten und

  • Beobachtungen sind immer schon interpretiert

    → sogenannte Protokollsätze:

    • schriftliche Fixierungen von Beobachtungen

    • enthalten bereits Vorinterpretationen


Grundprinzip: “so genau wie möglich, so ungenau wie nötig”

  • Transkriptionsgrad abhängig von Forschungsfrage und Auswertungsmethode

  • zu detailliert = schlechtere Lesbarkeit & ineffizient

  • = wissenschaftliche Lupe


Anforderungen

  1. Zugriff auf Daten sichern

  2. Transformation nachvollziehbar machen (wie aus Beobachtung Text wurde)


Transkriptionsniveaus (nach Kowal & O’Connell)

  1. Standardorthographie

    • Glattes Schriftdeutsch

    • Fokus: Inhalte

    • gut lesbar, aber wenig Detail

  2. Literarische Umschrift

    • Berücksichtigung von Aussprache („gehn“, „haste“)

    • inkl. Dialekt

  3. Quasi-literarisch

    • möglichst genaue Wiedergabe gesprochener Sprache

    • schwer lesbar

  4. Vollständige Transkription

    • inkl. aller non-/parasprachlichen Elemente

    • höchste Detailtiefe


Transkriptionsregeln

  • Anonymisierung (Entfernung identifizierbarer Daten)

    • ggf. Nutzung von Pseudonymen

  • Absatznummerierung statt Zeilennummern

  • Sonstiges:

    • Sprecherwechsel

    • Pausen

    • Betonungen

    • unverständlichen Stellen

  • Transkription darf NICHT:

    • „glätten“

    • korrigieren

    • vervollständigen

Beispielsystem: Kallmeyer & Schütz


Zeitaufwand

  • Faustregel: 1:6 bis 1:10 (Audio : Transkriptionszeit)

    • z.B: Interview 1h -> a. 10h Arbeitszeit


Gütekriterien

  • Praktikabilität

  • Flexibilitöt/ Ausbaufähigkeit

  • Erlernbarkeit

  • Lesbarkeit


Softwareeinsatz (z.B. f4transkript oder TiQ)

  • Wiedergabesteuerung

  • Zeitmarken

  • Sprecherkennzeichnung

⚠️ Automatische Transkription:

  • oft fehleranfällig

  • erfordert viel Nachbearbeitung


heißt: 👉 Transkription ist ein selektiver, theoriegeleiteter Prozess zwischen Genauigkeit, Lesbarkeit und Forschungsziel.



Narrative Interview + Narrationsanalyse

und Studie der kommunalen Machtstrukturen nach der Gebietsreform 1967-1978 in Deutschland

Narratives Interview = Methode zur Analyse von Erfahrungsprozessen durch Erzählungen


= Imitation von Alltagserzählungen und somit Rekonstruktion sozialer Realität

  • Entwickelt von Fritz Schütze

    • Einflüsse von Soziolinguistik & Studie von Schatzmann u. Strauss 1955

  • Zentrale Annahme: ➝ Erzählungen spiegeln die Struktur von Erfahrungen wider (Homologiethese)


Ziel: Rekonstruktion von Erfahrungs- und Handlungsstrukturen

um authentische, dichte und biographisch zusammenhängende Daten zu erzeugen.

  • Besonderheit: Nicht nur was passiert ist, sondern wie es erlebt und interpretiert wurde

  • 👉 Analyse von Identitätsentwicklung

  • 👉 Verständnis von Sinnzuschreibungen


Theoretischer Hintergrund:

  • Grundlage: Symbolischer Interaktionismus (Mead, Garfinkel, Goffman)

  • Gesellschaft entsteht durch Interaktion & Kommunikation

  • Forschung muss sich an alltägliche Kommunikationsregeln anpassen


Im Gegensatz zum Experteninterview interessiert nun also auch die subjektive Perspektive des bzw. der Interviewten – und nicht nur ein sozusagen ‚objektives‘ Geschehen

Narratives Interview

Experteninterview

subjektive Perspektive zentral

objektives Wissen im Fokus

offene Erzählung

strukturierte Befragung

kaum Steuerung

starke Steuerung

biographische Prozesse

Sachinformationen


Basisregeln der Kommunikation nach Schütz

  • Reziprozitätskonstitution → gegenseitiges Verstehen

  • Einheitskonstitution → Identitäten & soziale Einheiten entstehen

  • Handlungsfigurkonstitution → Handlungen sind geordnet (zeitlich, kausal, zielgerichtet)


Vier Ebenen des Erzählens

  1. Formale Darstellung: Struktur der Erzählung

  2. Inhaltliche Darstellung: subjektives Bild der Realität

    • Ziel: Differenz zwischen Darstellung & tatsächlichem Geschehen analysieren

  3. Faktisches Handeln: tatsächliche Handlung im Ereignis ≠ erzählte Version

    • Ziel: Rekonstruktion realer Handlungsabläufe

  4. Kommunikativer Austausch

    • Ziel: Forschende müssen:

      • Erzählbereitschaft fördern (z. B. Nicken, „hm hm“)

      • Alltagskommunikation imitieren


Theoretischer Ausgangspunkt: linguistische Erzählforschung (nach Werner Kallmeyer)

zentrale Konzepte, um ein Narrativinterview zu führen:

  • 4 kognitive Figuren (Homologieannahme)

    Strukturieren Erinnerung & steuern Erzählung

    • 1. ErzählträgerInnen: relevante Akteure im erzählten Geschehen

    • 2. Ereigniskette: zeitliche Abfolge meist chronologisch erzählt der Ereignisse

    • 3. Situatonen: “Höhepunkte” als zentral verdichtete Momente, oft detailreich mit direkter Rede wiedergegeben

    • 4. Thematische Gesamtgestalt: übergeordnetes Thema/ Problem, häufig normativ bewertet

    Homologieannahme = Erzählungen sind besonders nah am tatsächlichen Handeln & Erleben (Struktur des erlebten Geschehens)

  • Stehgreiferzählung

    = spontane, unvorbereitete Erzählung in Face-to-Face-Situationen

    • nicht standardisiert

    • entsteht aus konkretem Anlass

    • reaktiviert die kognitiven Figuren

    📌 Wichtig:

    • nur im direkten Kontakt möglich

    • verliert bei Wiederholung an „Echtheit“ (→ Standardisierung) z.B. 5 Personen fragen nach einander nach Deinem Urlaub, bei der 5. erzählt man nicht mehr so detailliert

  • Zugzwänge des Erzählens

    = unbewusste Regeln, die auf jede Erzählung einwirken und sie strukturieren

    • 1. Detaillierungszwang: Wunsch Verständlichkeit herzustellen ggf. inkl. Hintergrundinformationen

    • 2. Kondensierungs- & Relevanzzwang: Auswahl nach Wichtigkeit, weil man niemals wirklich ALLES erzählen kann

    • 3. Gestaltschließungszwang: Erzählung wird abgegrenzt und kohärent geschlossen - Jede Erzählung muss zu einem Ende finden.

  • Forme der Sachverhaltsdarstellung (Texttypen)

    • Logik des Handeln

      • 1. Erzählung: (Z)

        • Anfang (Handelnde Personen werden mit Grundeigenschaften eingeführt) → Ereignis (Ort, Zeit, Umstände) → Veränderung (Vor- und Nachgeschichte) → Ergebnis

        • zeitliche Abfolge (Prozess)

        • konkrete Ereignisse

        • nah am Erlebe

    • Logik der Darstellung

      • 2. Beschreibung: (B) Zustände / Routinen

        • statisch, wiederkehrend

        • keine Entwicklung

      • 3. Argumentation (A) / Evaluation (E): Begründungen, Generalisierungen

        • Bewertung oder Erklärung

        • keine zeitliche Struktur


heißt, das Ziel ist es Erzählungen zu erzeugen (nicht Argumentationen!)


👉 Narrative Verfahren nutzen spontane Erzählungen, weil diese durch kognitive Figuren und Zugzwänge strukturiert sind und dem tatsächlichen Erleben besonders nahekommen.


11 Schritte Ablaufplan

  1. Vorbereitungsphase

    • Auswahl der Interviewten (keine Bekannten, weil Beeinflussung des Interviews oder der Beziehung danach)

    • Vorbereitung des Interviewenden:

      • Technik (z.B. Aufnahmegerät)

      • Erzählstimulus auswendig lernen

      • mögliche exmanente Fragen vorbereiten

  2. Initiierung des Interviews

    • Vorgespräch

      • Aufbau von Vertrauen

      • kurze Infos zum Projekt (ohne Forschungsfrage, die beeinflusst)

      • Einverständnis zur Aufnahme

    • Erzählstimulus

      • Einzige, offene Frage die Erzählung auslösen soll

      • Beispiel:

        • 1-I: Ich hatte schon gesagt: Ich schreibe eine Arbeit über die Renaissance des Pilgertums und speziell über den Jakobsweg und die Jakobspilger. Meine erste Frage wäre: Ich würde dich bitten, mir deine Lebensgeschichte zu erzählen bis zu dem Tag, an dem du dich entschieden hast, den Jakobsweg zu gehen. Ich würde dich dabei nicht unterbrechen, sondern einfach zuhören und vielleicht im Anschluss noch einige Nachfragen stellen.

        • 2-P08: Also quasi mein g a n z e r Lebenslauf? (..) Wo ich geboren wurde? (.) Und wo ich zur Schule gegangen bin?

        • 3-I: Alles, was dir wichtig ist, ist auch für mich interessant.

        • 4-P08: Bis zu dem Tag (,) als ich mich entschlossen hab zu gehen (-)?

        • 5-I: Mhm.

        • 6-P08: (3) Das ist aber viel (..) Ja (.) Und auch alle Einzelheiten so? (..) Ja (.) Ja, okay (`) […]

  3. Stehgreiferzählung

    • Haupterzählung

      • Interviewte Person: erzählt frei

      • InterviewerIn:

        • nicht unterbrechen!

        • „erzählgenerierendes Schweigen“

        • nonverbale Unterstützung (nicken, „hm“)

        • Sprechpausen aushalten

      • Erzählstümpfe notieren (unvollständige Passagen)

    • Koda: Abschluss der Erzählung, oft Zusammenfassung oder Bewertung

  4. Nachfragephase: Erzählpotenzial ausschöpfen

    • Immanente Nachfragen:

      • beziehen sich auf Erzählstümpfe

      • erzählgenerierend („Kannst du das nochmal erzählen, weiter ausführen, etc?“)

      • Beispiel:

        • 114-I: Jetzt hattest du gesagt: Nachdem du die Ausbildung beendet hattest, bist du nach Leverkusen gezogen.

        • 115-P03: Mhm.

        • 116-I: Und hast dort in einer Praxis mit angefangen.

        • 117-P03: Nee.

        • 118-I: Dann hab ich das nicht ganz richtig verstanden. Kannst du das nochmal erzählen?

    • Exmanente Nachfragen:

      • vorbereitete Fragen

      • ergänzen fehlende Themen

      • auch beschreibend/argumentativ möglich

    • Soziodemografische Daten: Alter, Gebortsort, etc

      • erst am Ende!

      • verhindert „Frage-Antwort-Schema“

    • Wichtig: Keine „Warum“-Fragen in der Nachfragephase

      • Ziel bleibt immer: Narrationen erzeugen

      • Nachbereitungsphase

    • Nachgespräch: lockere Situation, nachdem Aufnahmegerät ausgeschaltet wurde, evtl zusätzliche Infos

    • Interviewprotokoll: Eindrücke, Atmosphäre, Gedanken

      • möglihst direkt nach dem Interview ggf. auch als Audio festhalten


Wichtig: Narratives Interview ist nicht reproduzierbar → sorgfältige Vorbereitung entscheidend


Geeigneter Untersuchungsgegenstand

Narrative Interviews erfassen Prozesse, nicht Zustände

  • Erzählbar (geeignet): Prozesse mit Verlauf

    • Lebensgeschichten

    • berufliche Entwicklungen

    • Krisen, Veränderungen

  • Ungeeignet:

    • Zustände (z. B. Einstellungen)

    • abstrakte Meinungen

    • Routinen ohne bewusste Wahrnehmung


Wichtige Einschränkungen bei der Auswahl

  • Lebensalter

    • Erwachsene: gute Erzählkompetenz

    • Jugendliche: eher episodisch, weniger strukturierte Lebensgeschichten

  • Kultur

    • grundsätzlich anwendbar, aber:

      • unterschiedliche Kommunikationsregeln

      • z. B. „Gesicht wahren“ (Asien)

    • → Anpassung nötig (z. B. über Mittlerpersonen)

  • Professionelle Erzähler

    • z.B. aus Therapie oderSelbsthilfegruppen

    • Problem:

      • keine spontanen Erzählungen

      • bereits „geformte“ Geschichten

  • Vertrautheit

    • bekannte Personen ungeeignet:

      • verkürzte Darstellung („das weißt du ja“)

      • weniger Details


Narrationsanalyse

  • nach Fritz Schütze im Rahmen einer Studie der kommunalen Machtstrukturen nach der Gebietsreform 1967-1978 in Deutschland

  • Fokus auf: Krisen in Kommunen durch Zusammenlegung

    Leitfrage:

    • Wie wirken sich diese Krisen auf:

      • Erleben

      • Handeln

      • Machtstrukturen der Akteure aus?

  • Verbindung von:

    • Makroebene (gesellschaftliche Strukturen)

    • Mikroebene (Handeln von Akteuren)

  • → über Mesoebene (Ortsgesellschaft, als Intermediäre Einheit (zwischen Makro & Mikro)

    • als ORt, an dem Strukturen + Interaktionen aufeinandertreffen

    • aufgrund von Heteronomen Systembedingungen: Äußere, nicht kontrollierbare Einflussfaktoren

    • Zwei Ebenen:

      • Makro: Politik, Wirtschaft („von oben“)

      • Mikro: konkrete Handlungssituationen

    • Folge: eingeschränkte Handlungskapazität

  • Problem: Verflechtung von Macht, Position und strategischen Interessen werden oft verschleiert (Selbstdarstellung)

  • Methodisches Vorgehen: 60 narrative Interviews mit Kommunalpolitikern durch indirektes Fragen nach epiphänomelanes Thema der Namensgebung der Kommune. Dadurch:

    • Umgehung von:

      • Scham

      • strategischer Verschleierung

    • Nutzung von:

      • Erzählzwängen → mehr Authentizität


Grundidee: Analyse auf zwei Ebenen

  • Erlebter Prozess (Logik des Handeln) vs.

    • Was ist passiert? vs.

  • Darstellung im Interview (Logik der Darstellung)

    • Wie wird es erzählt?

Ziel: Diskrepanzen zwischen Inhalt und Darstellung erkennen

oder: wie Darstellung und Erfahrung zusammenhängen

  • = Rekonstruktion von Sinnstrukturen & Handlungslogiken


Erzählungen zeigen soziale Prozesse mit:

  • 👤 subjektiver Perspektive

  • Langfristigkeit (biografische Entwicklungen)

  • 🔁 Doppelter Aspekt:

    • äußere Ereignisse

    • innere Veränderungen (Identität)

👉 Ziel: Rekonstruktion dieser Prozesse im Text


Darstellungsformen unterscheiden:

  • Erzähung

    • temporale Abfolge von Ereignissen

    • zentrale Merkmale:

      • Ereignisverkettung

      • nicht vertauschbare Reihenfolge

    • Typischer Aufbau (Labov)

    1. Abstrakt – worum geht’s?

    2. Orientierung – wer, wann, wo?

    3. Handlungskomplikation – was passiert?

    4. Evaluation – Bedeutung / Bewertung

    5. Resultat – Ausgang

    6. Koda – Bezug zur Gegenwart

  • Argumentation / Bewertung

    • erklären, rechtfertigen, bewerten ohne Ereignisabfolge

    • Merkmale:

      • Gegenwartsbezug

      • allgemeine Aussagen („man“, „natürlich“)

      • oft explizit eingeleitet

  • Beschreibung

    • Darstellung von:

      • Zuständen

      • Routinen

      • typischen Abläufen

    • Merkmale:

      • keine zeitliche Entwicklung

      • „eingefrorene“ Situationen

Analyse basiert also…

  • Nicht nur:

    • was gesagt wird (Inhalt)

  • Sondern auch:

    • wie etwas gesagt wird (Form, Stil)

👉 Text wird:

  • „symptomatischer Ausdruck“

    • der Erfahrung & Involviertheit


Ablaufplan: Sechs Auswertungsschritte

  • Schritt 1: Formale Textanalyse

    • Entfernen von nicht narrativen Passagen und

    • Transkript in Segemnte unterteilen

      • Hilfe: Rahmenschaltelemente (z.B. “dann”, “zum Schluss”, Koda-Formulierungen, Pausen, Wechsel des Themas oder der Darstellungsform)

        • Haupterzählung

        • Hintergrunderzählung

        • Belegerzählung

      • Fokus zunächst nur auf Erzählungen (→ repräsentieren Prozess direkt)

  • Schritt 2: Struktuelle inhaltliche Beschreibung

    • Bestimmung von Darstellungsformen:

      • Erzählung (Z)

      • Argumentation (A)

      • Evaluation (E)

      • Beschreibung (B)

    • Erzählketten & Themen erkennen

    • Entwicklungspfad rekonstruieren:

      • Wendepunkte, Krisen, Veränderungen

    • Zusammenhang erkennen von:

      • Inhalt (was passiert?)

      • Form (wie wird es erzählt?)

    • analytische Kategorien bilden = warum handelt ein Mensch wie er handelt.

      • Gibt es Institutionen oder andere Mechanismen die einwirken?

  • Schritt 3: Analytische Abstraktion

    • Gesamtbiografie verstehen: Verknüpfung der Prozessstrukturen durch Loslösung von Einzeldetails

    • Ergebnis = “Biografische Gesamtformung” (Gesamtstruktur des Lebensverlaufs)

    • Auf Basis der Vier Verlaufslogiken:

      • Biografisches Handlungsmuster → selbstbestimmt (intentional) geplantes Handeln

      • Institutionelles Ablaufmuster → durch Institutionen geprägt

      • Verlaufskurve → Fremdbestimmung, Kontrollverlust, „Erleiden“

      • Biografischer Wandlungsprozess → Übergang + Wiedergewinn von Kontrolle, innere Transformation

    • Beispiel: Person spricht über seine Kindheit, dass er gerne Menschen hilft und wird im Verlauf ein Studium der sozialen Arbeit beginnen -> dominante Lebenslogik

  • Schritt 4: Wissensanalyse

    • Logik des Handels vs. Logik der Darstellung

    • Passt die Selbstbeschreibung zur tatsächlichen Biografie?

      • Fragen:

        • Wie erklärt die Person ihr Leben?

        • Welche Selbstbilder entstehen?

        • Welche Rechtfertigungen / Ausblendungen?

      👉 Vergleich:

      • Erzählung vs. Selbstdeutung

  • Schritt 5: Kontrastive Fallvergleiche

    • Minimaler Vergleich: ähnliche Fälle vergleichen → Struktur herausarbeiten

    • Maximaler Vergleich: gegensätzliche Fälle vergleichen → Unterschiede & Alternativen erkennen

    👉 Ergebnis:

    • abstrakte Kategorien & Muster

  • Schritt 6: Entwicklung eines theoretischen Modells

    • Abstraktion der Ergebnisse ergeben Typologien biografisher Verläufe

      • spezifisch: z.B. Karriereverläufe

      • grundlegend: z.B. Lebensphasen

    • Ergebnis: Erklärung sozialer Prozesse


Beispiel:

  • Ich war am Wochenende im Zoo. Das war mal wieder richtig schön. Als die Kinder noch klein waren, war ich da ja öfter. Und dann bin ich noch in die Eisdiele gegangen. Das war lecker. Deshalb ist es da ja auch immer so voll.



Exkurs: Typenbildung

Typologie = theoretisches Modell aus mehreren Typen, um Fälle anhand gemeinsamer Merkmale zu gruppieren und Komplexität zu reduzieren

  • Grundlage: kontrastiver Fallvergleich

  • Typus = Gruppe von Fällen mit

    • interner Homogenität (möglich ähnlich innerhalb des Typs)

    • externer Heterogenität (möglich unterschiedlich zwischen den Typen

  • Beschreibung über spezifische Merkmalskombinationen


Funktionen:

  • Deskriptiv

    • Reduktion von Komplexität, Soziale Realität wird:

      • überschaubar

      • vergleichbar

    • „Typisches“ wird hervorgehoben

  • Theoretisch

    • Grundlage für:

      • Hypothesenbildung

      • Erklärung sozialer Zusammenhänge

    • Identifikation von:

      • kausalen Mechanismen

      • Sinnzusammenhängen


Stufenmodell der Typenbildung (nach Kelle und Kluge)

1. Vergleichsdimensionen entwickeln

  • Relevante Merkmale/Kategorien bestimmen

  • Basis für Vergleich von Fälle

2. Gruppierung der Fälle

  • Kombinationen von Merkmalen (→ Merkmalsraum)

  • Prüfung:

    • interne Homogenität

    • externe Heterogenität

  • ggf.:

    • Typologie anpassen / differenzieren

3. Analyse von Sinnzusammenhängen

  • Ziel:

    • Verstehen & Erklären, nicht nur beschreiben

  • Ergebnis:

    • Reduktion auf wenige zentrale Typen

4. Charakterisierung der Typen

  • Detaillierte Beschreibung der Typen

  • Unterscheidung:

    • Idealtypen (nach Weber)

    • Prototypen

    • Extremtypen


Beispiele:

  • Marienthal: → Ungebrochene, Resignierte, Verzweifelte, Apathische

  • Pilgerstudie: → Krise, Übergang, Neustart etc.


👉 Typenbildung = systematische Reduktion + theoretische Verdichtung von Fällen durch Vergleich


Ergebnisse der Studie:

  • Handlungsspielraum ist begrenzt durch äußere Strukturen und situative Dynamiken

  • Reaktion: Ad-hoc-Anpassungen statt Planung

  • Typische Diskrepanzen (Narrationsanalyse)

    • Intention vs. Ergebnis

      • Handlungen verlaufen anders als geplant

    • Frühere vs. spätere Ziele

      • Ziele verändern sich unbewusst

    • Selbstbild vs. Fremdbild

      • Akteure überschätzen eigene Kontrolle

    👉 Hinweis auf:

    • verdeckte strukturelle Zwänge

      • Interviewte zeigen: „offizielle Fassade“

      • echte Interessen: indirekt, fragmentarisch, verschlüsselt


The Grounded Theory Methodologie und Awareness of Dying (Krankenhausstudie)

Unterschied

  • Methode: Studie der kommunalen Machtstrukturen nach der Gebietsreform 1967-1978 in Deutschland

  • Methodologie: theoretischer Rahmen, der begründet, warum Methoden wissenschaftlich sind


Grounded Theory ist keine einzelne Methode sondern ein Forschungsstil / Haltung = Methodologie


Merkmale

  • offene, flexible Analyse

  • enge Orientierung an Daten

  • Ziel: Entwicklung von Konzepten und Theorien

👉 Wichtig: Theorie wird induktiv entdeckt, nicht deduktiv geprüft


Entstehungskontext: intellektuelle Hybridbildung (nach Bauer)

GT entstand aus einer spezifischen Kosntellation

  1. Symbolischer Interaktionismus

  • Mead → Blumer → Strauss

  • Fokus: Interaktion, Situationsdefinition, Bedeutung im Handeln

  1. Chicago School / Ethnographie

  • Hughes, Park, Becker (→ „Boys in White“)

  • Fokus: Organisationen als soziale Prozesse

  1. Pragmatismus (Dewey, Mead, Peirce)

  • Handlung = Problemlösung

  • Erkenntnis = Ergebnis von Problembewältigung

  • Wahrheit = funktionale Bewährung

➡️ Schlüsselidee: Wissenschaft als iterativer Problemlösungsprozess


Abduktion statt Induktion/ Deduktion (nach Nina Bauer)

  • Deduktion → zu starr (Regelanwendung)

  • Induktion → zu passiv (Datenerwartung)

  • Abduktion → zentral

Abduktion (Peirce):

  • überraschende Beobachtung → hypothetische Erklärung

  • kreative Hypothesenbildung

  • anschließende Prüfung im Material

➡️ GT = abduktiv gesteuerter Iterationsprozess


= Datenverständnis: Radikale Umstellung

  • klassisches Verständnis: Daten = gegeben und werden gesammelt

  • GT (pragmatisch-interaktionistisch):

    • Daten = konstruiertes Ergebnis eines Herstellungsprozesses

    • Daten entstehen durch Interaktion Forscher <-> Feld

    • Konsequenz: keine Datensammlung, sondern Datenproduktion durch Forschungshandeln


Pragmatischer Realismus

  • Realität ist widerständig

  • Bedeutung entsteht im Handeln

  • Wissen ist funktional, nicht absolut wahr


Die Krankenhausstudie als Beispiel (Awareness of Dying)

= Glaser und Strauss zeigen, dass Sterben im Krankenhaus ein sozial und organisatorisch strukturierter Prozess ist, der sich über Zeit entfaltet und durch das Zusammenspiel von Akteuren und institutionellen Bedingungen geprägt wird.


heißt: Sterben passiert nicht „einfach“, sondern wird sozial mitgestaltet durch:

  • Ärzte

  • Pflegepersonal

  • Angehörige

  • institutionelle Regeln


Der Text kombiniert zwei Ebenen:

Innerhalb eines Krankenhaus als Institution:

  • Handeln von Akteuren

    • Ärzte entscheiden

    • Pflegepersonal interagiert

    • Angehörige reagieren

  • organisationale Strukturen

    • Krankenhausregeln

    • Arbeitsorganisation

    • Zeitmanagement

      • Temporale Dimension: der Text betont mehrfach: Sterben passiert über Zeit hinweg

        • = Sterben hat Phasen und diese sind organisiert

        • Diese Phasen sind nicht nur medizinisch,sondern auch sozial strukturiert

          • frühe Phase: Diagnose / Unsicherheit

          • mittlere Phase: Umgang mit Prognose

          • letzte Phase: unmittelbares Sterben

👉 Aussage: Sterben entsteht aus dem Zusammenspiel beider Ebenen


Veröffentlichung in 5 Werken:

  • Awareness of Dying: “Wissen Sterbende, dass sie sterben?” Fokus: Bewusstsein und Interaktion

  • The Discovery of Grounded Theory: Methodologisches Werk, das zeigt, wie man Theorien qualitativ aus Daten entwickelt

  • Time of Dying: Sterben als zeitlich organisierter Prozess durch Einfluss von Personal und Organisation

  • The Nurse and the Dying Patient: Rolle des Pflegepersonals


Gesamtbedeutung

  • Grounded Theory verbindet: empirishe Forschung + Theorienentwicklung

  • etabliert: qualitative Forschung als wissenschaftlich fundiert anhand eines reflexiven Umgangs mit Daten


Zielsetzung

Beantwortung und Rekonstruktion von drei miteinander verbundenen Fragekomplexen:

  1. Strategisches Handeln der Akteure: Wie handeln Ärzt:innen und Pflegepersonal im Umgang mit Sterbenden? Welche Interaktionsformen entstehen dabei, und welche Strategien verfolgen die Beteiligten im Prozess des Sterbens?

  2. Kontextbedingungen: Wie handeln Ärzt:innen und Pflegepersonal im Umgang mit Sterbenden? Welche Interaktionsformen entstehen dabei, und welche Strategien verfolgen die Beteiligten im Prozess des Sterbens?

  3. Konsequenzen: Unter welchen organisatorischen und strukturellen Bedingungen treten bestimmte Interaktionsformen auf, und in welchem Maße prägt die Institution Krankenhaus den Sterbeprozess?


Zentrale Verfahrenslogik: Komperative Methode

  • Minimalvergleich ähnlicher Fälle für den stabilen Kern einer Kategorie vs.

  • Maximalvergleich unterschiedlicher Fälle um Grenzen/ Variationen und Kontextabhängigkeiten zur Entstehung stabilisierter Differenzmuster der Kategorien


Forschungsdesign

  • mehrjährige ethnografische Feldstudie in 6 Krankenhäusern in San Francisco

  • Medthodenmix:

    • Teilnehmende Beobachtung (Stationen: Intensiv, Krebs, Frühgeborene)

    • Interviews mit PatientInnen, Angehörige, ÄrztInnen, Pflegepersonal

  • Datenauswahl theoretisch gesteuert und nicht zufällig

    • Zentrales Prinzip: Theoretisches Sampling

    • = Fallauswahl erfolgt nicht vorab festgelegt (ex ante), sondern im Verlauf der Analyse, basierend auf

      • ersten Ergebnissen

      • sich entwickelnden Konzepten/ Hypothesen

    • heißt: Fälle werden theoriegeleitet nachträglich konstruiert. Das erzeugt:

      • rekursive Schleife von

        • Datenerhebung

        • Kodierung

        • Theorieentwicklung

      • = Theorien entstehen iterativ im Forschungsprozess

  • Kodieren & Vergleichen: Daten werden schrittweise in

    • Konzepte -> Kategorien -> theoretische Zusammenhänge kodiert

    • Offenes Kodieren

      • mikroanalytisch

      • Zerlegung von Text

      • erste Konzeptbildung

      Axiales Kodieren

      • Rekonstruktion von Zusammenhängen:

        • Bedingungen

        • Interaktionen

        • Strategien

        • Konsequenzen

      • Fokus: Erklärung von Phänomenen

      Selektives Kodieren

      • Integration

      • Kernkategorie

      • Theoriezentrierung

      ➡️ Ergebnis:

      • konsistente Gesamtstruktur (keine reine Taxonomie)

    • Forschungslogik: zirkulär und parallel

  • Memos und Diagramme

    • Memos = schriftliche Reflexion während der Analyse

    • Diagramme ? Visualisierung von Kategorienrelationen als zentrales Werkzeug zur Theorienintegration

  • Selektives Ergebnis: Theorie als integrierte Perspektive

    • Theorie ist nicht „gefunden“, sondern aktiv konstruiert durch Perspektiventscheidung

    ➡️ Konsequenz:

    • eine zentrale Kategorie strukturiert das gesamte Material

    • alle anderen Kategorien werden rekodiert


The Grounded Theory

Ziel: Theorieentwicklung aus Daten (induktiv, datenbasiert)


Zentrale Voraussetzung: wachsende theoretische Sensibilität der Forschenden

  • = Vorwissen besteht und es gilt die Fähigkeit, in Daten Bedeutungen, Muster und Relevanzen zu erkennen

  • Entwickelt sich im Forschungsprozess und Hilft dabei:

    • neue Konzepte zu identifizieren

    • relevante Daten gezielt auszuwählen

    • Vorannahmen kritisch zu hinterfragen


Theoretisches Sampling

= Qualitäts- und Steuerungsinstrument i.F. Dynamischer Fallauswahl während der Forschung (basierend auf theoretischer Sensibilität)

  • Auswahl wird getroffen durch: bisherige Analyseergebnisse und daraus entstehenden Kategorien und Hypothesen

  • Betrifft Datenerhebung UND Auswertung

  • Vorgehen:

    • Vergleichslogik (constitent comparison)

      • Minimaler Vergleich (ähnliche Fälle)

      • Maximaler Vergleich (kontrastierende Fälle)

        • Beispiel Krankenhausstudie: Stationen mit unterschiedlicher Bewusstheit des Sterbens

    • Prozesslogik: Iteration aus

      • Datenerhebung

      • Kodierung / Analyse

      • Neuer Fallauswahl

      • Daten können auch auf Vorrat erhoben werden und später gezielt ausgewertet werden

    • Endpunkt: Theoretische Sättigung, wenn keine neuen Eigenschaften einer Kategorie mehr auftauchen

      • = zusätzliche Daten nur Wiederholungen liefern

      • heißt: Kategorie gilt als ausdifferenziert und stabil


Kodieren

= Transformation von Rohdaten in Konzepte -> Kategorien -> theoretische Integration. Durch

  • Permanente Vergleichslogik (constant comparison)

  • Theorie entsteht aus Daten (induktiv, aber iterativ-zirkulär)

  • Offenes Kodieren:


Dreistufiger Kodierungsprozess

  1. Offenes Kodieren

    • Zerlegung der Daten (Satz für Satz / Detailanalyse)

    • Vergabe erster Konzepte

    • Identifikation von:

      • Eigenschaften (Merkmale)

      • Dimensionen (Kontinua dieser Merkmale)

    • Vergleich von Ähnlichkeiten & Unterschieden

    • Ergebnis: viele unverbundene Konzepte und erste Kategorien

  2. Axiales Kodieren: Systematisches in Beziehung sezen und rekonstruieren von Beziehungen = Was haben diese Konzepte gemeinsam? Welche Struktur steckt dahinter?

    • Verknüpfung der Kategorien

    • Rekonstruktion von Beziehungen zwischen Bedingungen, Handlungen und Konsequenzen

    • Wichtig: nicht alle Daten werden axial kodiert

      • Fokus liegt nur auf theoretisch relevanten Kategorien

    • Auswahl erfolgt entlang der entstehenden Analyse („theoretische Relevanz“)

    • Strukturierung in ein Kodierparadigma

      • 5 Analyseebenen:

        • 1. Phänomen (Zentrum)

          • Das zu erklärende soziale Ereignis

          • Beispiel: „Umgang mit Sterbenden im Krankenhaus“

        • 2. Ursächliche Bedingungen

          • Was löst das Phänomen aus?

        • 3. Kontextbedingungen

          • In welche strukturellen Bedingungen ist es eingebettet?

          • z. B. Organisation Krankenhaus, Zeitdruck, Stationstyp

        • 4. Handlungs- und Interaktionsstrategien

          • Wie reagieren Akteure darauf?

          • z. B. Pflegepraktiken, Kommunikationsformen, Vermeidung/Offenlegung

        • 5. Konsequenzen

          • Welche Folgen ergeben sich aus dem Handeln?

          • z. B. emotionale Belastung, Versorgungsqualität, institutionelle Effekte

  • Ergebnis: systematische Ordnung der Kategorien


  1. Selektives Kodieren

    = abschließender Auswertungsschritt, bei dem eine Kernkategorie ausgewählt wird, um die herum alle anderen Kategorien zu einem theoretischen Gesamtmodell integriert werden.

    • Identifikation einer Kernkategorie

    • Integration aller Kategorien zu einem erklärenden Gesamtmodell

    • Ergebnis: kohärente „analytische Geschichte“ des Phänomens

    • Beispiel Krankenhausstudie:

      • Kernkategorie: Bewusstheit sterbender Patient*innen über ihren nahenden Tod

      • Alle weiteren Kategorien (z. B. professionelles Handeln, sozialer Verlust, Interaktionsstrategien) werden darauf bezogen


Basierend auf Vergleichsprinzip:

  • Daten werden kontinuierlich miteinander verglichen:

    • Fall vs. Fall

    • Konzept vs. Konzept

    • Kategorie vs. Kategorie

  • Ziel: maximale analytische Dichte und Variation


Beispiel: „Dame in Rot“ = klassisches didaktisches Gedankenexperiment von Strauss & Corbin, um zu zeigen, wie aus rohen Beobachtungen analytische Konzepte und schließlich Kategorien entstehen.


Ausgangssituation (Rohdatenebene)

Du sitzt in einem Restaurant und beobachtest eine Frau in roter Kleidung, die sich auffällig im Küchen- und Servicebereich bewegt.

Auf dieser Ebene hast du noch keine Theorie, sondern nur beobachtbare Ereignisse, z. B.:

  • Sie steht in der Küche und schaut sich um

  • Sie spricht mit Mitarbeitenden

  • Sie bewegt sich zwischen Küche und Gastraum

  • Sie greift bei Abläufen ein

  • Sie schaut auf einen Plan / Zeitablauf

  • Sie wirkt „nicht wie ein normaler Gast“

= deskriptive Beobachtungen.


1) Offenes Kodieren (Konzeptbildung)

Du gibst den Beobachtungen abstrakte Bezeichnungen (Codes).

Aus den einzelnen Handlungen werden z. B.:

  • „Sie steht in der Küche und schaut sich um“ → sie scannt systematisch Abläufe in der Küche = “Beobachten”

  • „Sie spricht mit Mitarbeitenden“ → sie gibt Hinweise oder spricht mit Personal = “Informationsweitergabe”

  • „Aufmerksamkeit“ → sie registriert viele Details gleichzeitig

  • „Unaufdringlichkeit“ → sie greift ein, ohne den Ablauf zu stören

  • „Überwachen“ → sie kontrolliert Prozessqualität (Tempo, Service, Koordination)

  • „Koordination“ → sie greift steuernd in Abläufe ein

Wichtig: Diese Codes sind bereits theoretische Verdichtungen, keine bloßen Beschreibungen mehr.


2) Axiales Kodieren (Zusammenhangsbildung)

Viele Codes beziehen sich auf Steuerung von Arbeitsabläufen

  • Sie dienen nicht bloß Beobachtung, sondern Organisation und Kontrolle

  • Sie stabilisieren den „Flow“ im Restaurantbetrieb

Bildung von Kategorien:

  • Kategorie: „Arbeit zur Aufrechterhaltung des Arbeitsflusses“

mit Subkategorien wie:

  • Überwachen

  • Koordinieren

  • Informieren

  • Unterstützen

Und eine zweite Dimension:

  • Kategorie: „Eigenschaften der Akteurin“

Mit Subkategorien:

  • Aufmerksamkeit

  • Erfahrung

  • Unaufdringlichkeit


3) Theoretische Verdichtung (selektives Ergebnis)

Am Ende entsteht eine übergeordnete Interpretation:

👉 Die „Dame in Rot“ ist vermutlich keine zufällige Besucherin, sondern eine Art unsichtbare Prozessmanagerin im Restaurant.

Strauss & Corbin nennen sie ironisch:

„Speisen-Dirigentin“

Das bedeutet:

  • Sie steuert Abläufe indirekt

  • Sie sorgt für reibungslose Koordination

  • Sie ist Teil des Organisationssystems, ohne formale Macht sichtbar auszuüben


Das Beispiel zeigt drei zentrale Dinge der Grounded Theory:

1. Wahrnehmung ist bereits theorieabhängig

Du „siehst“ nicht einfach nur Verhalten, sondern beginnst sofort zu interpretieren.

2. Analyse entsteht schrittweise

  • Beobachtung → Code → Kategorie → Theorie

3. Soziale Rollen sind oft nicht offensichtlich

Die eigentliche Funktion der Person ist nicht sichtbar, sondern muss rekonstruiert werden.


Zusammenfassung als Kodierungsschema:


Wichtige Kategorien in der Krankenhaus-Studie

  • Sozialer Verlust

    • Bewertung des Todes hinsichtlich sozialer Bedeutung (z. B. Familie, Beruf)

  • Professionelle Haltung

    • Umgang des Pflegepersonals mit emotional belastenden Situationen

-> Höherer Sozialer Verlust führt zu mehr Pflegeaufmerksamkeit



Konstruktivistische Erweiterung der Grounded Theory (nach Kathy Charmaz)

  • Kritik an Glaser:

    • zu empiristisch / positivistisch (Daten als „gegeben“ verstanden)

  • Kritik an Strauss/Corbin:

    • zu technik- und regelzentriert

  • zentrale Position:

    • Daten und Theorie sind nicht entdeckt, sondern konstruiert

    • Forschende sind Teil des Erkenntnisprozesses

👉 Erkenntnis ist interaktiv, situiert und interpretativ konstruiert, heißt 👉 Theorie wird nicht gefunden, sondern im Forschungsprozess mit erzeugt

  • Forschende sind nicht neutral

  • ihre Perspektiven, Vorwissen und Interaktionen beeinflussen:

    • Datenerhebung

    • Interpretation

    • Kategorienbildung


heißt: Charmaz versteht Kodieren als interpretativen Prozess, in dem Forschende gemeinsam mit den Daten eine theoretische Geschichte konstruieren.


4 Stufiges Kodierverfahren nach Charmaz

  1. Initial Coding

  • sehr nah am Text

  • Zerlegung in kleine Sinn-Einheiten

  • ähnlich zu offenem Kodieren

  • Ziel: erste analytische Konzepte

  1. Focused Coding

  • Auswahl der wichtigsten / häufigsten Codes

  • Verdichtung zu stabileren Kategorien

  • stärkere analytische Abstraktion

  • Ziel: Relevanzstruktur herausarbeiten

  1. Axial Coding

  • Untersuchung von Beziehungen zwischen Kategorien

  • Herstellung von Zusammenhängen

  • ohne striktes Kodierparadigma (freier als Strauss/Corbin)

  1. Theoretical Coding

  • Integration aller Kategorien

  • Entwicklung einer „analytic story“

  • abstrakte theoretische Modellbildung

  • Orientierung an Glaser, aber konstruktivistisch interpretiert


Zentrale Unterschiede zur klassisches Grounded Theory

  • weniger Regel- und Technikfixierung

  • stärker interpretativ und reflexiv

  • Daten werden als mitkonstruiert verstanden

  • keine strikte Trennung von Subjekt (Forscher) und Objekt (Daten)


Memos

sind deine Denkprotokolle während der Forschung - Das Bindeglied zwischen Daten und Theorie.Nicht „Notizen im Alltagssinn“, sondern:

  • strukturierte, analytische Reflexionen darüber, was deine Daten bedeuten

    • sie machen Denken explizit

    • sie zeigen Widersprüche

    • sie fördern Theoriebildung Schritt für Schritt

  • Memos sind nicht optional

Typen:

  • Kode-Memos (nah an den Daten)

    • strukturierte, analytische Reflexionen darüber, was deine Daten bedeuten

    • Beispiel:

      • Code: “er war so jung” (Krankenhausstudie)

      • Memo:

        • verweist auf Bewertung von Lebenspotenzial

        • möglicherweise Zusammenhang mit stärkerer emotionaler Reaktion

        • Hypothese: Alter beeinflusst Pflegeintensität

    • ➡️ Funktion: erste Bedeutungen klären

  • Theoretische Memos (abstrakt)

    • “Wie hängen Kategorien zusammen?”

      • Kategorie: sozialer Verlust

      • Kategorie: professionelle Haltung

    • Memo:

      • hoher sozialer Verlust → stärkere emotionale Belastung

      • Pflegepersonal entwickelt Strategien zur Distanzierung

      • mögliche Beziehung: „emotionale Regulation durch Professionalisierung“

      ➡️ Funktion: Theorie bauen

  • Planungs-Memos (steuernd)

    • Was mache ich als Nächstes im Forschungsprozess?

    • Beispiel:

      • „Ich brauche mehr Fälle mit alten Patienten“

      • „Vergleich: Intensivstation vs. Normalstation“

      • „Interviewfrage ergänzen: Wie reagieren Pflegende emotional?“

    • Funktion: Theoretisches Sampling steuern


Ohne Memos passiert oft das:👉 Daten werden gesammelt, aber nicht wirklich theoretisch verarbeitet


Diagramme

= visualisierte Memos. Also keine neuen Inhalte, sondern:

  • Also keine neuen Inhalte, sondern:


Typen

  • Logische Diagramme (strukturierend)

    • orientieren sich am Kodierparadigma

    • Beispiel:

      • Phänomen: Umgang mit Tod

      • Ursache: sozialer Verlust

      • Kontext: Krankenhausstruktur

      • Handlung: professionelle Distanzierung

      • Konsequenz: differenzierte Pflegeintensität

    • Funktion: Ordnung schaffen

  • Integrative Diagramme (kreativ)

    • freier, explorativer

    • Beispiel

      • Phänomen: Umgang mit Tod

      • Ursache: sozialer Verlust

      • Kontext: Krankenhausstruktur

      • Handlung: professionelle Distanzierung

      • Konsequenz: differenzierte Pflegeintensität

    • Funktion: Zusammenhänge entdecken


Ablauf

  1. Du codierst ein Interview

  2. Du schreibst ein Kode-Memo:

    • „Pflegekraft bewertet Patienten unterschiedlich“

  3. Du schreibst ein theoretisches Memo:

    • „Bewertung hängt mit sozialem Status zusammen“

  4. Du zeichnest ein Diagramm:

    • Status → Wahrnehmung → Pflegeverhalten

  5. Du entscheidest im Planungs-Memo:

    • „Ich brauche mehr Daten zu Statusunterschieden“


Zusammenfassend:

  • Kodieren = Daten strukturieren

  • Memos = darüber nachdenken

  • Diagramme = sichtbar machen

  • Theorie = Ergebnis dieses Prozesse


Situationsanalyse (nach Adele Clarke)

= Erweiterung der Grounded Theory um eine situationszentrierte Perspektive

  • Fokus nicht mehr nur auf Handlungen, sondern auf die gesamte Situation

  • Ziel: Komplexität sozialer Wirklichkeit erfassen, nicht vereinfachen

  • Zentrale Annahmen:

    • Soziale Wirklichkeit ist:

      • komplex

      • widersprüchlich

      • fragmentiert

      • situiert

    • Einbezug von nichtmenschlichen Akteuren

      • z. B.:

        • Technologien

        • Medikamente

        • Dokumente

        • Diskurse

      • Diese haben Handlungsmacht und beeinflussen soziale Prozesse

    • Partielle Perspektiven sind ausreichend (keine „große“ Theorie nötig)

    • Forschende konstruieren Theorie (nicht entdecken sie)

  • Zentrales Werkzeug: Maps

    • Situations-Map


    • Erfasst alle Elemente einer Situation. inkl.:

      • Menschen

      • Dinge

      • Diskurse

    • Ziel: komplette Situationsstruktur sichtbar machen

  • Map sozialer Welten/ Arenen


    • verschiedene soziale Welten, die in einer Arena aufeinandertreffen

    • Beispiel Krankenhaus:

      • Pflegepersonal

      • Ärzte

      • Versicherungen

      • Pharmafirmen

      • Technologien

    • 👉 Kernaussage: → Viele unterschiedliche Akteure beeinflussen das Geschehen gleichzeitig → Handeln (z. B. Pflege) ist eingebettet in komplexe Macht- und Strukturverhältnisse

  • Positions-Map


    • Positions in Diskursen

    • Positionen ≠ Personen!

  • Beispiel:

    • „Effizienz ist am wichtigsten“

    • „Emotionsarbeit ist am wichtigsten“


Erkenntnisziel

  1. Rekonstruktion einer konkreten Situation

    nicht: universelle Theorie

    sondern:

    • tiefes Verständnis von:

      • Beziehungen

      • Machtstrukturen

      • Diskursen

      • Bedingungen


👉 Situationsanalyse heißt: Nicht nur fragen „Was tun Menschen?“, sondern „Was gehört alles zur Situation – und wie hängt alles zusammen?“


Ergebnis der Krankenhausstudie

Zentrale Kategorie: Bewusstheit über den nahen Tod

  • bestimmt maßgeblich:

    • Verhalten der Patient:innen

    • Verhalten von Personal & Angehörigen

    • Verlauf der Sterbesituation

  • → deshalb: „awareness contexts“ (Bewusstheitskontexte)


Dimensionen des Bewusstseins

  • Information (Was wird Patient:innen gesagt?)

  • Bewusstheit (Was wissen/ahnen sie?)

  • Kommunikation (Wird das Wissen geteilt?)

→ daraus entstehen 4 Typen von Bewusstheitskontexten

  1. Geschlossener Kontext 🔒

    • Patient: weiß nichts

    • Personal/Angehörige: wissen Bescheid

    • Strategie: „Verschwiegenheitsspiel“

    • Konsequenzen:

      • keine Vorbereitung auf Tod

      • hohe Belastung für Personal

      • mögliche Verschärfung familiärer Konflikte

  2. Argwöhnischer Kontext 🕵️

    • Patient: ahnt etwas, ist unsicher

    • Verhalten:

      • sucht Hinweise („Detektivarbeit“)

    • Personal:

      • bleibt ausweichend, vorsichtig

    • Konsequenzen:

      • Misstrauen

      • zusätzliche Spannung

  3. Wechselseitige Täuschung 🎭

    • Alle wissen es, aber: niemand spricht es aus

    • Strategie: gegenseitiges „So-tun-als-ob“

      • Normalität wird inszeniert

    • Konsequenzen:

      • keine echte Beziehung

      • emotionale Isolation („Wattemauern“)

      • keine psychologische Begleitung

  4. Offener Kontext 🗣️

    • Patient: weiß und spricht darüber

    • Voraussetzung: Übergang aus anderen Kontexten

    • Konsequenzen:

      • Vorbereitung auf Tod möglich

      • Abschied, Reflexion

      • Entlastung des Personals

      • aber: neue Unsicherheiten („Doppeldeutigkeit des Wissens“


Achtung: Die Typen sind nicht nur Kategorien, sondern bilden oft einen Prozessverlauf des Sterbens(z. B. von geschlossen → argwöhnisch → offen)


👉 Nicht der Tod selbst strukturiert die Situation – sondern das Wissen darüber.


Limitation

  • Studie in den USA, 1960er Jahre

  • Heute: veränderte Arzt-Patient-Beziehungen Palliativmedizin, Hospize

    • → eingeschränkte Übertragbarkeit

aber: GT-Theorien sind:

  • gegenstandsgebunden

  • kontextabhängig

  • nicht universell generalisierbar im starken Sinn

Ziel ist Nicht „Wahrheit“, sondern Bestimmung des Geltungsbereichs


👉 Eine gute Grounded Theory ist intern konsistent (Kohärenz) und kennt ihre Grenzen (Limitation).


Gesamtzusammenfassung:

Grounded Theory = pragmatistisch fundierter, abduktiv gesteuerter Forschungsstil, der Theorie nicht aus Daten ableitet, sondern durch systematische Vergleichs-, Kodier- und Samplingprozesse im iterativen Wechsel von Empirie und Konzeptbildung hervorbringt.

Die vorgestellten Methoden im Vergleich

Gemeinsamkeiten aller Methoden:

  • Ziel: soziale Prozesse verstehen (Weber: Verstehen)

  • Daten entstehen durch:

    • Beobachtung

    • Interviews

    • Dokumente

  • Daten werden:

    • verschriftlicht / transkribiert

    • systematisch analysiert

  • Ergebnis: → theoretisches Modell (oft Typologien) zur Beantwortung der Forschungsfrage


Unterschiede aller Methoden:

  • Erhebungslogik

    • Beobachtung → Fokus aufs Feld

    • Interviews → Fokus auf Sprache / Subjektivität

    • Dokumente → Fokus auf Text

  • Auswertungslogik

    • Inhaltsanalyse → Ziel: Reduktion & Systematisierung

    • Narrationsanalyse → Ziel: Prozessrekonstruktion

    • GT → Ziel: Theoriegenerierung durch Vergleich & Kodierung

  • Zielerreichung eines theoretische Modells mittlerer Reichweite:

    • Inhaltsanalyse: eher beschreibend/strukturierend

    • Narrationsanalyse: biografisch erklärend

    • GT: theoriegenerierend (offen + rekursiv)

      • Besonderheit: universell einsetzbar

      • keine festen Datentypen

      • alle Methoden sind sowohl Induktiv als auch Deduktiv, aber Grounded Theory ist:

        • induktiv geprägt, aber mit theoretischer Vorstrukturierung (Sensibilität)

      • Theorie entsteht durch:

        • Vergleich

        • Kodierung

        • theoretisches Sampling

      • wichtig: → Theorie entsteht im Prozess, nicht vorher


Typische Probleme

  • Beobachtung: Distanzverlust („going native“)

  • Experteninterview: Leitfaden kann Offenheit einschränken

  • Narratives Interview: Erzählung kann Forschungsziel entgleiten

  • Inhaltsanalyse: Gefahr zu starker Quantifizierungslogik


Ablauf und Anwendung der Erhebungsmethoden


Die vorgestellten Erhebungsmethoden im Vergleich

Kategorie

Teilnehmende Beobachtung

Experteninterview

Narratives Interview

Anwendungsbereich

Gut geeignet für Subkulturen und Sozialräume, die den Forschenden unbekannt sind, sowie für die Untersuchung routinisierten Alltagshandelns

Zugriff auf spezifisches und ansonsten unzugängliches Binnenwissen von Expert/innen im engeren oder weiteren Sinn

Rekonstruktion des subjektiven Erlebens sozialer Prozesse, insbesondere im Rahmen der Biografieforschung

Zentrale Elemente

Feldnotizen, Beobachtungsprotokolle, Ad-hoc-Interviews

Interviewleitfaden als thematische Gedächtnisstütze für Forschende

Erzählstimulus zur Initiierung einer Stegreiferzählung, die nicht unterbrochen wird

Grenzen

Häufig schwieriger Feldzugang, insbesondere in öffentlich nicht zugänglichen Sozialräumen

Subjektive Deutungen werden nicht zwingend erfasst

Personen mit unzureichender Erzählkompetenz oder fehlender Bereitschaft, sich auf die Zugzwänge des Erzählens einzulassen

Mögliche Probleme

Gefahr mangelnder analytischer Distanz (going native)

Leitfadenbürokratie kann Offenheit für unerwartete Erkenntnisse einschränken

Selbstbestimmte Erzählungen können sich vom Erkenntnisinteresse der Forschenden entfernen


Kurz:

Methode

Fokus

Stärken

Grenzen

Teilnehmende Beobachtung

Alltag & unbekannte soziale Felder

Zugang zu Routinen, Subkulturen

Feldzugang schwierig, „going native“-Risiko

Experteninterview

Fachwissen von Expert:innen

Zugang zu spezialisiertem Wissen

Subjektive Deutungen oft begrenzt

Narratives Interview

Biografien & subjektives Erleben

Tiefe Einblicke in Lebensgeschichten

Erzählkompetenz notwendig, Interview entzieht sich Kontrolle


Zentrale Auswertungsmethoden im Vergleich

Kategorie

Qualitative Inhaltsanalyse

Narrationsanalyse

Grounded Theory Methodologie

Datensorten

Transkripte von Experteninterviews, Dokumente

Transkripte von narrativen Interviews

Universell; kann verschiedenste Datensorten auswerten

Anwendungsbereich

Große Datenmengen aus verschiedensten Gegenstandsbereichen

Interaktionsfeldstudien und Biografieforschung

Theoriebildung in verschiedensten Gegenstandsbereichen

Grenzen

Stark an quantitativer Sozialforschung orientiert

Homologieannahme zwischen Erzählung und sozialer Wirklichkeit

Flexibilität des methodischen Vorgehens ist erfahrungsabhängig

Offenheit

Explizierende Inhaltsanalyse

Sequenzielle Fallanalyse

Offenes Kodieren

Strukturierung

Zusammenfassende und strukturierende Inhaltsanalyse

Strukturierung anhand formaler Textmerkmale und Prozessstrukturen

Kodierparadigma, Kernkategorie, Memos, Diagramme und Maps

Interpretation

Systematisches, regelgeleitetes Verfahren zur Datenreduktion

Interpretation von Erzählungen durch Kontrastierung von Erfahrungsaufschichtung und Eigentheorien

Zirkulärer Wechsel von Offenheit und Strukturierung; Organisation interpretativer Memos

Theoriebildung

Nicht methodisch gesteuert

Stark fall- und vergleichsorientiert

Integration verschiedener Modelle; neuere Ansätze relativieren Anspruch formaler Theorie

Transparenz

Hoch durch explizite Kodierregeln

Muss im Methodenteil explizit hergestellt werden

Muss im Methodenteil explizit hergestellt werden

Reflexion

Interkoderreliabilität in Auswertungsgruppen

Subjektivität der Forschenden wird kaum adressiert

Wachsende Bedeutung von Reflexivität

Schließmodi

Induktion und Deduktion

Induktion und Deduktion

Induktion und Deduktion


Kurz:

Methode

Fokus

Charakter

Qualitative Inhaltsanalyse

Inhalte großer Datenmengen

Regelgeleitet, strukturierend, reduziert Komplexität

Narrationsanalyse

Erzählungen & Lebensverläufe

Sequenziell, prozess- und fallorientiert

Grounded Theory

Theoriebildung aus Daten

Offenes, zirkuläres, vergleichendes Kodieren



👉 Qualitative Methoden unterscheiden sich weniger im Ziel als in der Art, wie sie:

  • Daten erzeugen

  • Daten strukturieren

  • Theorie entwickeln

➡️ Forschung = balancierter Prozess zwischen Offenheit und Ordnung

Author

Cathérine C.

Information

Last changed