Empirische Sozialforschung
= Erkenntnis basiert auf Beobachtung der Wirklichkeit (Alexander von Humboldt)
Übertragung auf Soziologie: Nicht nur persönliche Erkenntnis, sondern: → Erweiterung des wissenschaftlichen Wissensbestands
SoziologInnen sind Teil der Gesellschaft, die sie untersuchen→ nutzen Alltagsbeobachtungen (Gespräche, Medien etc.) als implizites Wissen
Integration von Erkenntnissen in den Wissenskorpus der Scientific Community
Methodisches Vorgehen ist Voraussetzung für wissenschaftliche Anerkennung
…nicht theoretisch konstruiert, sondern aus Forschungspraxis entstanden. Fokus im Kurs: 7 zentrale Methoden, an klassischen Studien erklärt
Ethnografie
teilnehmende Beobachtung
Experteninterview
Qualitative Inhaltsanalyse
Narrativ Interview
Narrationsanalyse
The Grounded Theory
Qualitative Sozialforschung + Gütekriterien
Warum betreiben wir qualitative Sozialforschung?
→ Klärung von Zielen und wissenschaftlicher Perspektive
Max Weber: Soziologie = Wissenschaft, die soziales Handeln deutend versteht und ursächlich erklärt
Zentrale Begriffe:
Handeln: → Verhalten + subjektiver Sinn
Soziales Handeln: → auf andere bezogen und daran orientiert
👉 Fokus: → subjektiv gemeinter Sinn der Akteur:innen
Aglaja Przyborski: Handeln basiert immer auf
implizitem Wissen
Orientierungsmustern
situativen Deutungen
heißt: Wissen ist nicht vollständig explizierbar, sondern größtenteils implizit
Forschung muss dieses verborgene (implizite) Wissen rekonstruieren
Common-Sense-Konstruktion (Alltagswissen)
Alltagsakteure erzeugen selbst Bedeutung, Typisierung und Interpretation. Zentrale Unterscheidung:
Konstruktionen 1. Grades → Deutungen der Handelnden im Alltag
Konstruktionen 2. Grades → wissenschaftliche Rekonstruktionen dieser Deutungen
heißt: Wissenschaft baut immer auf Alltagswissen auf
Ziele: Verstehen!
Qualitative Forschung will soziales Handeln verstehen
Voraussetzung: → Rekonstruktion des subjektiven Sinns
Wilhelm Dilthey: Verstehen = aus äußeren Zeichen auf inneres schließen
Entwicklung von Theorien “mittlerer Reichweite” (nach Robert K. Merton)
empirisch fundiert
begrenzter Geltungsbereich
Grundlage für größere Theorien
Voraussetzungen:
gleiche Sprache oder Verwendung gleicher sprachlicher Symbole
(= subjektiver Sinn)
Interviewende Person und interviewte Person messen einem sprachlichen Ausdruck den gleichen Sinn bei
(= geteilter Sinn)
Grundprinzipien (Forschungslogik)
Rekonstruktion:
Um subjektiven Sinn hinter Handlung zu erschließen, durch:
Interviews
Beobachtungen
Dokumente etc
Interpretation:
wissenschaftlich nur gültig, wenn:
kontextbezogen
Aussagen (Daten) sind: indexikal (kontextabhängig)
Beispiel: „Ich habe Fußball gespielt“ → Bedeutung nur verstehbar durch:
kulturelles Wissen
soziale Strukturen
implizites Hintergrundwissen
methodisch kontrolliertes Verstehen (nach Przyborski et al)
Interpretation muss Unterschiede zwischen Forscher:innen & Beforschten berücksichtigen
Relevanzsysteme der Beforschten rekonstruieren
a) Subjektiver Sinn
individuelle Perspektiven
subjektive Bedeutungen
persönliche Interpretationen
b) Soziale Praxis
Regeln des sozialen Handelns
gesellschaftliche Strukturen
Muster kollektiven Handelns
= Spannungsverhältnis zwischen Individuum u. Struktur
Ziel: Vermeidung von Willkür durch methodisch kontrollierten Fremdverstehen (Zugang zu Daten)
Emil Durkheim: soziale Tatsachen statt Handeln
Verstehen von gesellschaftliche Strukturen, die:
aus Interaktionen entstehen
auf Handeln zurückwirken
Zentrale Methoden:
Beobachtung (z.B. Ethnografie)
Vergleichende Methode (z.B. Grounded Theory)
Georg Simmel: Erweiterte Perspektive
= Nicht nur Handeln verstehen, sondern soziale Prozesse rekonstruieren.
→ „Wechselwirkungen“ = Prozesscharakter sozialer Realität
Zusammengefasst:
Ziel: → deutendes Verstehen sozialen Handelns
Mittel: → Rekonstruktion + Interpretation
Voraussetzung: → geteilter Sinn & Kontextwissen
Anspruch: → methodisch kontrolliertes Verstehen
Methoden sind kein Selbstzweck, sondern Mittel zur Beantwortung von Forschungsfragen
Methodenwahl beeinflusst das Ergebniss (Gegenstandsangemessenheit)
! Qualitative Sozialforschung ist kein einheitliches Verfahren→ sondern ein Sammelbegriff für Methoden
Ergebnis: → Theorien mittlerer Reichweite
Methoden-Softwares:
Quantitativ:
SPSS
R
Qualitativ:
MAXQDA
ATLAS.ti
f4analyse
Transkription:
f4transkript
👉 Wichtig:
Software unterstützt, ersetzt aber nicht: → Interpretation & Rekonstruktion
Fünf Phasen des Forschungsprozesses
Erkenntnisinteresse & Fragestellung
Päzise Forschungsfrage
Methodologische Entscheidung
Bestimmung des Forschungsfeldes
Wahl der Methoden
Erhebungsmethoden (Datensammlung)
Experteninterviews
Narrative Interviews
Problemzentriertes Interview
Teilnehmende Beobachtung, uvm
Auswertungsethoden (Datenanalyse)
Grounded Theory Methodologie
Objektive Hermeneutik
Gütekriterien
= Heuristische Funktion: Keine Checkliste, sondern Orientierungshilfe.
Auch qualitative Forschung orientiert sich an:
Validität (Kerndimension)→ misst man das Richtige?
Entspricht die wissenschaftliche Deutung dem tatsächlichen sozialen Phänomen?
= wie soziale Wirklichkeit kommunikativ hergestellt wird
Reliabilität (Zuverlässigkeit) → ist das Ergebnis nachvollziehbar/reproduzierbar?
= Strukturen müssen sich wiederholen
innerhalb eines Falls
über mehrere Fälle hinweg
Objektivität (Kerndimension) → unabhängig vom Forscher?
aber: Forscher = Teil des sozialen Feldes → keine vollständige Neutralität möglich
Explikation statt Eliminierung: Einfluss des Forschenden wird nicht ausgeschlossen sondern sondern reflektiert und offengelegt
Rekonstruktion von Kommunikationsregeln: basierend auf expliziten Regeln der Verständigung
Formalisierte Auswertungsschritte durch methodisch kontrollierte Prozesse und systematische INterpretation
werden aber basierend darauf an qualitative Logik angepasst :
8 qualitative Gütekriterien
Gegenstandsangemessenheit
Forschungsdesign muss Forschungsfrage beantworten und Untersuchungsfälle erfassen.
Methoden flexibel an das Feld/ Gegenstand anpassen
Beeinflusst das Design das Ergebnis?
Beispiel: Narratives Interview für subjektives Erleben, Beobachtung für routiniertes Handeln.
6 Typen nach Steinke
(1) Angemessenheit der qualitativen Vorgehens angesichts der Fragestellung
(2) Angemessenheit der Methodenwahl
(3) Angemessenheit der Transkriptionsregeln
(4) Angemessenheit der Samplingstrategie
(5) Angemessenheit der methodischen Einzelentscheidungen im Kontext der gesamt Untersuchung und
(6) Angemessenheit der Bewertungskriterien
Reflektierte Subjektivität
Einfluss der Forschenden auf Daten bewusst reflektieren (z. B. persönliche Beziehung zu Interviewpartnern).
Selbstbeobachtung
Persönliche Voraussetzungen
Vertrauensbeziehung
Offenheit
Forschung darf nicht durch Vorwissen eingeschränkt werden.
Ziel: Überraschende, unerwartete Erkenntnisse ermöglichen.
Intersubjektive Nachvollziehbarkeit
Ergebnisse und Forschungsprozess müssen für Dritte nachvollziehbar sein.
Transparente Dokumentation: Transkripte, Beobachtungsprotokolle, Kategoriensysteme.
Empirische Verankerung
Interpretationen und theoretische Modelle müssen in den erhobenen Daten begründet sein.
Datenbelege regelmäßig im Forschungsbericht zitieren.
Kohärenz
Innere Konsistenz von Daten und Interpretation prüfen.
Argumentationen dürfen sich nicht widersprechen.
2 Formen nach Steinke
Theoretische Kohärenz: Theorie in sicch logisch stimmig
Empirische Kohärenz: Umgang mit widersprüchlichen Daten durch reflektive und theoretische Integration
z.B Grounded Theory: constant comparison und theoretisches sampling
= 👉 Kohärenz heißt nicht „keine Widersprüche“, sondern „Widersprüche erklärbar machen“.
= Widerspruch wird Produktionsmotor von Theorie
Limitation
Generalisierbarkeit prüfen: Sind Ergebnisse über die untersuchten Fälle hinaus generalisierbar?
Methoden: Analytische Induktion, ggf. quantitative Überprüfung.
Relevanz
Beitrag der Studie zum wissenschaftlichen Diskurs prüfen.
Bezug zu bestehenden Theorien und Forschungsstand herstellen.
Funktion:
Passive Methodenkompetenz (Literacy): Studien beurteilen und kritisch reflektieren.
Aktive Methodenkompetenz: Eigene Studien methodisch fundiert planen
Unterschiede Qualitative vs. Quantitative Forschungslogik
Qualitativ und quantitativ sind gleichwertig
Entscheidung hängt ab von: → Forschungsfrage → Forschungsstand
👉 nach Paul F. Lazarsfeld:
kein „Methodenstreit“, sondern Kombination sinnvoll
Alternative Begriffe, die in der Wissenschaft verwendet werden:
Klassisch
Alternativ
Bedeutung
qualitativ
fallbasiert / rekonstruierend / interpretativ
Verstehen & Rekonstruktion
quantitativ
aggregatbasiert / hypothesenprüfend
Messen & Testen
Zentrale Unterschiede:
Theorientestend vs. Theoriengenerierend
Quantitativ: testet bestehende Theorien
arbeitet mit:
Hypothesen
Variablen
Operationalisierung
Ziel: Bestätigung oder Falsifikation (nach Karl Popper)
Qualitativ: generiert neue Theorien
offenen Beobachtungen
Explorationen
Ziel: Verstehen & Theorienbildung
Vorwissen
Quantitativ: braucht viel Vorwissen
Qualitativ: kann mit wenig Vorwissen starten
Nutzen: sensibilisierende Konzepte (nach Herbert Blumer) auch: sensitizing concepts
Basiert auf: 4 Dimensionen theoretischen Vorwissens
Grad der Explikation
Niedrig: Vorwissen ist eher heuristisch, strukturiert Denken und Beobachtung, ohne sofort überprüfbare Hypothesen.
Hoch: Vorwissen ist explizit, ableitbar in überprüfbare Hypothesen.
Herkunft
Forschende vs. Akteure im Untersuchungsfeld
Wichtig: Deutungen der Akteure dürfen nicht automatisch als Forschungswissen übernommen werden.
Grad der Theoretisierung
Unterschied zwischen Alltagswissen (geringer Abstraktionsgrad) und wissenschaftlichem Wissen (hoher Abstraktionsgrad).
Grad an empirischem Gehalt
Je abstrakter eine Theorie, desto weniger direkt überprüfbare Hypothesen möglich → höhere Operationalisierungsleistung nötig.
Daraus abgeleitet: Typen von Vorwissen
Empirisch nicht gehaltvolles Theoriewissen der Forschenden
Heuristisch nutzbar, theoriegeleitete Beschreibung empirischer Sachverhalte.
Empirisch gehaltvolles Alltagswissen der Forschenden
Ermöglicht Kommunikation mit Akteuren im Feld.
Empirisch gehaltvolles Alltagswissen der Akteure
Liefert Kontext und Sichtweisen, aber muss kritisch interpretiert werden.
heißt: Vorwissen ermöglicht theoretische Sensibilität → erkennt Relevanzen in den Daten
Sensibilisierende Konzepte (nach Herbert Blumer):
Nicht präzise definiert, dienen als Interpretationsheuristiken („sensitizing concepts“).
Richtungsweisend: „was zu beachten ist“, statt exakte Definitionen.
Präzisierung erfolgt im Laufe der Forschung anhand empirischer Daten.
= Integration von empirischen und theoretischen Arbeitsschritten, Konzepte müssen heuristisch brauchbar sein.
Logik des Schließens
Quantitativ: Deduktion (Allgemein -> Einzelfall)
Qualitativ: mehrere Modi
Deduktion: Regel + Beobachtung → Fall
Induktion: Beobachtung → Regel
Abduktion: Beobachtung → neue Regel + neue Erklärung
👉 nach Charles S. Peirce:
Abduktion = kreativer Erkenntnissprung und zentral für Theoriegenese
Fallzahl und Erkenntnisziel
Quantitativ: viele Fälle mit Generalisierung durch Aggregation
Datenlogik: Korrelation
Qualitativ: wenige Fälle mit tiefem Verstehen durch Fallorientierung
detaillierter Analyse und neuen Erkenntnissen führt zu Kausalzusammenhängen
Sampling
Quantitativ: Statistisches Sampling durch zufällige Stichproben
Qualitativ: Theoretisches Sampling
minimaler Vergleich → ähnliche Fälle
maximaler Vergleich → unterschiedliche Fälle
Ablauf:
Fallauswahl
Datenauswertung
2. Fallauswahl
Erneute Datenauswertung
…Wiederholung bis: “theoretische Sättigung” eintritt
→ keine neuen Erkenntnisse mehr
= Typenbildung & Theorienentwicklung
Forschungslogik
Quantitativ: linear
Qualitativ: zirkulär
Datenerhebung
Auswertung
neue Fallauswahl → wieder von vorn
👉 Schleifenprozess!
Zusammenfassung:
Quantitativ
Qualitativ
Theorietest
Theoriegenese
Deduktion
Deduktion + Induktion + Abduktion
viele Fälle
wenige Fälle
Statistik
Interpretation
Repräsentativität
Fallverständnis
linear
zirkulär
viel Vorwissen
offener Zugang
Etablierung & Ausdifferenzierung qualitativer Sozialforschung
Theoretische Grundlagen (Wurzeln):
Konstruktivismus = Soziale Wirklichkeit wird im Rahmen kommunikativer Interaktionen hergestellt
Symbolischer Interaktionismus = Soziales Handeln basiert auf Bedeutung von Symbolen und Interaktionen beruhen auf der Verwendung gemeinsamer (sprachlicher) Symbole)
Gesellschaft = Ergebnis von Interaktionen über Symbole
Wichtigstes Symbolsystem: → Sprache
Methodologische Konsequenz:
Analyse sozialer Wirklichkeit = Analyse von Symbolsystemen
Zentrale Einsichten:
Bedeutung ≠ objektiv gegeben
Unterschied zwischen:
Binnenperspektive (Akteur:innen)
Außenperspektive (Forschende)
Beispiel: Inuit- IQ Test
Phänomenologie = Lebenswelt ist eine Alltagswelt, die als selbstverständlich erlebt wird und von qual. Sozialf. unvoreingenommen erfasst wird
Wissenschaft basiert auf Lebenswelt
Soziale Realität wird durch Handeln konstruiert
Ziel: → Rekonstruktion lebensweltlicher Strukturen durch subjektiven Sinn + Alltagswissen
Methodologische Konsequenzen:
Werturteilsfreiheit
Unvoreingenommene Analyse
„Einklammern“ von Vorwissen
👉 Einfluss:
z. B. frühe Grounded Theory
Historischer Verlauf:
Gottfried Achenwall (18. Jhd.) - Qualitative Empirie in Göttingen mit rein quantitativen Verfahren
Max Weber, Wilhem Dilthey, Karl Mannheim (19. Jhd)
Hermeneutik (Verstehen)
verstehende Soziologie
Dokumentarische Methode
Albion Small (ab 1920) Chicago School - erste systematische qualitative Forschung
Verbindung von:
Theorie
empirischer Praxis
Briefe
Autobiografien
Dokumentenanalyse
In Deutschland:
Bis Mitte 20. Jh.:
geringe Institutionalisierung
NS-Zeit: → Emigration vieler Forschender → Schließung von Instituten
Ab 1970er:
Rezeption der Chicago School
Begriff: → „qualitative Sozialforschung“ etabliert sich
👉 Wichtige Entwicklung:
Philipp Mayring → „qualitative Wende“ (1983)
2002: Empfehlung der Deutsche Gesellschaft für Soziologie→ Gleichberechtigung qualitativer & quantitativer Methoden
Die arbeitslosen des Marienthal
Autoren & Kontext
Leitung: Paul F. Lazarsfeld
Hauptautorin: Marie Jahoda
Mitarbeit: Hans Zeisel
Durchführung: 1931–1932, 17-köpfiges Team
Finanzierung: Arbeiterkammer Wien + Rockefeller Foundation
Kontext:
Wirtschaftskrise, Massenarbeitslosigkeit
NS-Zeit → Veröffentlichung zunächst anonymisiert & verboten
Besonderheiten:
Gruppenforschung
hoher Frauenanteil → frühe Gendersensibilität
interdisziplinär (Soziologie, Psychologie, Statistik)
Zielsetzung
Inhaltlich:
Feine Charakterisierung von Arbeitslosigkeit
Analyse der Auswirkungen von Langzeitarbeitslosigkeit
Analyse von Veränderungen (Zeitverlauf / Vergleich)
Fokus auf: Gemeinde (Kollektiv) statt Individuum
Test: Wie weit ist Soziographie möglich?
→ sozialpsychologische Perspektive
Methodisch:
umfassende, objektive Darstellung
Entwicklung und Kombination neuer Methoden
Ziel: Ganzheitliches Bild eines sozialen Phänomens
Forschungsdesign
Mixed Methods (qualitativ + quantitativ)
Triangulation
explorativ & deskriptiv
teilw. ethnografisch / soziografisch
EXKURS: TRIANGULATION (nach Norman Denzin)
= Untersuchung eines Gegenstands aus mehreren Perspektiven, um ein tieferes und breiteres Verständnis zu gewinnen.
Form
Definition
Beispiel Marienthal-Studie
Daten-Triangulation
Verschiedene Datensorten und -quellen werden kombiniert.
Quantitative Zeitverwendungsbögen + qualitative Interviews + ethnografische Beobachtungen
Methoden-Triangulation
Mehrere Erhebungs- oder Auswertungsmethoden innerhalb einer Studie.
Beobachtungen + Interviews innerhalb eines ethnografischen Designs
Theorien-Triangulation
Interpretation derselben Daten aus unterschiedlichen theoretischen Perspektiven.
Analyse von Arbeitslosigkeit unter sozioökonomischen und psychologischen Gesichtspunkten
Forscher/innen-Triangulation
Zusammenarbeit mehrerer Forschender zur Minimierung subjektiver Verzerrungen.
Forschungsgruppe diskutiert Ergebnisse regelmäßig in Wien, um individuelle Präferenzen zu reflektieren
Abgrenzung zu Mixed Methods:
Mixed Methods = meist Kombination qualitativer und quantitativer Logiken.
Triangulation = allgemeiner, zielt auf Perspektivvielfalt ab, nicht nur auf Methodenmix.
Zentrale Konzepte
Soziographie → Beschreibung sozialer Strukturen & Interaktionen (heute eher Ethnografie zugeordnet)
Laborsituation → gesamte Gemeinde betroffen
Triangulation → Kombination von Methoden & Daten und Perspektiven
bestehend aus:
1) Zentrale Dimensionen der Untersuchung (Perspektiven)
. Objektive Lebensbedingungen
Familienstruktur
Wohnverhältnisse
Ökonomische Dimension
Einkommen / Ressourcen
Konsumverhalten
Zeitdimension
Tagesabläufe
Umgang mit Zeit (z. B. Passivität).
Psychologische Dimension
Einstellungen zur Arbeitslosigkeit
Emotionen (Resignation, Hoffnung etc.)
Zukunftspläne
Soziale Dimension
Beziehungen & Konflikte
Geschlechterverhältnisse
politische Veränderungen
2) Datentypen
Physikalisch-statistisch
Geld, Nahrung
Psychologisch-statistisch
Verhalten, Aktivitäten
Umweltmarken
typische Aussagen & Verhaltensweisen
3) Methoden
Haushalts- & Zeitstudien
Interviews / Gespräche
indirekte Messungen
Achtung: Methoden wurden neu entwickelt (Pionierarbeit!)
Mixed Methods: Kombination von
quantitativen Daten (Statistiken etc.)
qualitativen Daten (Beobachtungen, Interviews)
= Lücke schließen zwischen:
„nackten Zahlen“ (Statistik)
„subjektiven Eindrücken“ (Reportagen)
= Triangulation: Kombination verschiedener Methoden, Daten und Perspektiven.
= Vier methodologische Dimensionen (nach Lazarsfeld)
qualitative + quantitative Methoden kombinieren
Objektiv vs. subjektiv
Lebensbedingungen + Wahrnehmungen
Aufsätze von Jugendlichen → Zukunftsperspektiven
Historisch vs. aktuell
Vergleich über Zeit
Reaktiv vs. nicht-reaktiv
z. B. Interviews vs. verdeckte Beobachtung
Gehgeschwindigkeit messen → nicht-reaktiv
Bibliotheksnutzung → indirekter Indikator
dadurch starke Eingriffe ins Feld
keine strikte Trennung zwischen:
Forschung
sozialem Engagement
👉 = frühe Gütekriterien empirischer Sozialforschung
Ergebnisse der Studie:
1. Charakterisierung der Gemeinschaft
Marienthal = „müde Gemeinschaft“ , geprägt von Apathie, geringerem gesellschaftlichem Engagement und wachsendem Misstrauen.
Menschen gewöhnen sich daran, weniger zu besitzen, weniger zu tun und weniger zu erwarten.
2. Veränderung von Verhalten und Engagement
Rückgang der Nutzung öffentlicher Einrichtungen: z.B. Bibliotheksbesuche halbiert.
Politisches Engagement sinkt: Mitgliedschaften in Parteien und Vereinen deutlich reduziert.
Geringere Mobilität bei Arbeitssuche im Vergleich zu noch Beschäftigten.
3. Typologie der Haltungstypen
Resignierte (48 %): Gleichmütig, erwartungslos, ruhige Stimmung, Verzicht auf Zukunftsperspektiven.
Ungebrochene (16 %): Organisierte Haushaltsführung, höhere Energie und größere Bedürfnisse.
Verzweifelte (11 %): Grundstimmung der Hoffnungslosigkeit, aber weiterhin Haushalt und Kinder betreuend.
Apathische (25 %): Energielos, tatenlos, Wohnung und Kinder ungepflegt, Stimmung nicht verzweifelt, sondern indolent.
4. Zusammenhang mit ökonomischer Situation
Haltungstypen korrelieren mit Einkommen: Ungebrochene (34 Schilling), Resignierte (30 Schilling), Verzweifelte (25 Schilling), Apathische (19 Schilling).
= Sinkendes Einkommen wirkt sich direkt auf Stimmung und Gesundheit aus – ein „psychisches Abgleiten“ .
5. Zeiterleben und Tagesstruktur
Männer: Tagesstruktur verliert an Bedeutung, Zeiterleben „doppelt“
stehen häufig auf der Straße herum, gehen langsamer und unterbrechen Tätigkeiten öfter.
Frauen: Arbeit im Haushalt und Kinderbetreuung füllen weiterhin den Tag; weniger Muße, doppelt schwierige Bedingungen durch eingeschränkte Mittel.
Zeit verläuft anders für Männer und Frauen.
6. Methodenvielfalt der Studie
Kombination aus
quantitativen Daten (z. B. Bibliotheksbesuche, Parteimitgliedschaften, Einkommen) und
qualitativen Daten (Interviews, Expertenaussagen, ethnografische Beobachtungen).
Innovative Erhebungsinstrumente
Zeitverwendungsbögen
Kleidersammlungen als Zugang zu Haltungen
Messung der Gehgeschwindigkeit.
Fallportraits führten zu Typologie der Haltungen.
7. Methodische Reflexion
Die Studie bleibt größtenteils deskriptiv-ethnografisch.
Forscher/innen beeinflussten die Teilnehmer/innen durch aktive Teilnahme an Veranstaltungen und Interventionen (z. B. Kleidersammlung).
Ethnografischer Ansatz erlaubt eine detaillierte Lebensbeschreibung, stößt aber methodisch an Grenzen.
Bewertung der Studie
= Pionierarbeit der qualitativen Sozialforschung mit innovativem Methodenmix und ganzheitlicher Analyse
❗ stark deskriptiv ❗ geringe theoretische Tiefe
Ausgangspunkt: quantitative Daten
→ Muster erkennen → in Begriffe/Interpretationen überführen
👉 keine strenge Kausalität, sondern: plausible, theoriegeleitete Deutung
Stärken:
Umfangreiche Textbelege und Zitate verankern theoretische Aussagen direkt in den Daten.
Analytische Induktion: Theoretische Modelle werden aus Fallstudien entwickelt und auf weitere Fälle übertragen.
Schwächen:
Fehlende kodifizierte Methoden: Die Forscher/innen mussten kreativ neue Methoden entwickeln, da etablierte Verfahren noch nicht existierten.
Keine kommunikative Validierung: Die Untersuchten wurden nicht in die Bewertung der Gültigkeit der Ergebnisse einbezogen.
= Marienthal-Studie zeigt exemplarisch, dass qualitative Forschung sowohl eine starke empirische Verankerung als auch reflektierte Subjektivität erfordert.
👉 Marienthal = erste große Mixed-Methods-Studie zur Arbeitslosigkeit, die eine ganze Gemeinde sozialpsychologisch und multidimensional analysiert.
-> Sie kombiniert ethnografische Feldforschung mit quantitativen Daten im Sinne einer triangulativen, gegenstandsorientierten Methodik zur ganzheitlichen Analyse von Arbeitslosigkeit.
Ethnografie & Teilnehmende Beobachtung
= analytische Beschreibung einer sozialen Gruppe (z. B. Subkultur, Gemeinschaft) mit Fokus auf:
Wissensformen
soziale Praktiken
materielle Kultur
Abgrenzung:
Nicht Ethnologie (Völkerkunde fremder Kulturen)
Sondern: Untersuchung eigener Gesellschaften und Subkulturen
Leitfrage: → Wie wird soziale Wirklichkeit praktisch hergestellt?
Perspektive: → teilnehmend und feldnah (direkter Zugang statt nur indirekter Rekonstruktion)
Ethnografie hat keine eigene Methode, sondern kombiniert:
Dokumenten- und Statistikanalyse, z.B.
Fotos
Videos
Objekten
Teilnehmende Beobachtung (zentral!)
👉 Ziel: möglichst unmittelbarer Zugang zur Lebenswelt
Teilnehmende Beobachtung
Der/die Forschende nimmt aktiv am Alltag teil und beobachtet gleichzeitig systematisch
Grundannahme: Soziale Realität kann man nicht erforschen, ohne Teil von ihr zu sein.
Problem von Interviews: Routinehandeln
Menschen können viele Routinen nicht bewusst erklären
Interviews liefern dann: nachträgliche Rationalisierungen, nicht echtes Handeln
👉 Lösung: → Beobachtung ist geeigneter für implizites Wissen
Phasen der teilnehmenden Beobachtung (nach Spradley)
Deskriptive Phase
breiter Überblick über das Feld
Fokussierte Phase
Konzentration auf relevante Aspekte
Selektive Phase
gezielte Analyse bestimmter Phänomene
Feldnotizen & Beobachtungsprotokolle
= zeitnah, möglichst detailliert und regelmäßig, aber keine objektive Realität!
sondern: interpretative, sprachlich rekonstruierte Texte
Beispiel:
Detailliert: „Der Mann hebt den rechten, leicht gebeugten Arm mit zügiger Bewegung, bis die Hand auf Schulterhöhe ist…“
Kurzfassung/Interpretation: „Der Mann winkt…
= Bewusstsein für Interpretationsgrad: Genauigkeit vs. forschungsökonomische Knappheit.
Ort/ Zeit: jeder Beobachtung dokumentieren
Beobachtungen: möglichst detaillierte, chronologische Beschreibung, um Interpretation zu minimieren.
Dokumentiert was passiert, wer mit wem interagiert, wann und wie.
Fokus auf: Abläufe, Routinen, Interaktionen, Gruppenbildungen, Sonderrollen.
Beispiele: Wer begrüßt wen zuerst? Wer wird wie behandelt? Welche Tätigkeiten werden ausgeführt?
Kontextinformationen: Informationen, die nicht aus der aktuellen Beobachtung stammen.
Wichtig: Quelle angeben, da sie die Interpretation beeinflussen kann.
Quellen: frühere Beobachtungen, Medien, andere Personen.
Relevanz: helfen, Beobachtungen einzuordnen und zu interpretieren.
Beispiel: Kenntnis, dass bestimmte Gruppen normalerweise bestimmte Rollen einnehmen oder vorherige Konflikte zwischen Personen.
Methodische u. Rollenreflexion: eigene Rolle im Feld und deren Einfluss auf die Beobachtungen sowie Rahmenbedingungen (institutionelle Einflüsse, äußere Faktoren, mögliche „Fallen“)
Überlegungen zu methodischen Konsequenzen: Wen besonders beobachten, welche Untergruppen relevant?
Rollenwechseln: Wann wäre ein aktiveres Eingreifen sinnvoll, was wären die Konsequenzen?
Ziel: die Forschungsrolle bewusst steuern und methodische Entscheidungen dokumentieren.
Theoretische Reflexion: Erste Interpretationen des Beobachteten in einer Theoriesprache (z. B. Soziologie, Psychologie).
Trennung von Beobachtungen wichtig → Beobachtung nicht vorschnell theoretisieren.
Ziel: erste Hypothesen und theoretische Zusammenhänge entwickeln, die später überprüft werden können.
Beispiele: Machtstrukturen, Rollenverteilungen, Konformität vs. Abweichung, ethnische/genderbezogene Segregation.
Achtung:
Rubriken können mit Buchstaben gekennzeichnet werden (B, K, M, T) oder durch Schriftformatierung unterschieden werden.
Beobachten kann den Ablauf im Feld beeinflussen (z. B. Aufmerksamkeit der Teilnehmer).
Forscherrolle sichtbar → kann „natürliche Abläufe“ stören.
Entscheidung: Protokollieren direkt im Feld vs. zurückgezogen bzw. nachträglich.
Empfehlung nach Przyborski:
Feldforschungsnotizen sollten unmittelbar nach der Beobachtung gemacht werden.
Um die Interaktion im Forschungsfeld nicht zu beeinträchtigen, wird es in den meisten Kontexten angebracht sein, die Beobachtungen nicht in Anwesenheit der Untersuchungspersonen nie derzuschreiben.
Beobachterrollen (4 Typen)
Vollständige/r Teilnehmer/in
Gefahr: „going native“ (Verlust der Distanz)
Teilnehmer/in als Beobachter/in
Teilnahme im Vordergrund, aber reflektiert
Beobachter/in als Teilnehmer/in
Beobachtung im Vordergrund
Vollständige/r Beobachter/in
keine Teilnahme → Gefahr von Missverständnissen
Dilemma: Nähe - Distanz
Forschende müssen gleichzeitig:
teilnehmen (Vertrauen, Verständnis)
Inklusion: Zugang zum Feld, Vertrauensaufbau, Empathie für die Perspektive der Beforschten.
distanziert bleiben (wissenschaftliche Analyse)
Exklusion: Schutz der eigenen analytischen Distanz, klare Grenzen, damit wissenschaftliche Objektivität gewahrt bleibt.
👉 Klassisches Spannungsfeld:
Involvement vs. Detachment = going native
going native = Gefahr, zu stark in die Welt der Beforschten einzutauchen und die notwendige Distanz zu verlieren.
Die Balance ist situationsabhängig, kann sich im Verlauf der Forschung verändern und muss immer wieder neu ausgelotet werden.
Professionelle Handhabung der Forscherrolle (nach Przyborski)
Reflexion: Sowohl eigenes Verhalten als auch Veränderungen der eigenen Rolle beobachten.
Phasenwechsel: Intensive Feldforschung vs. distanzierte Analysephasen.
Externe Unterstützung: Austausch mit Betreuern oder anderen Forschenden kann helfen, die Balance zu halten.
Empathie vs. Rolle: Forscher können Aufmerksamkeit, Sympathie oder Mitgefühl zeigen, bleiben aber Wissenschaftler und keine Freunde/Therapeuten.
Zentrale Erkenntnis:
Beobachtung allein reicht nicht – entscheidend ist das Sinnverstehen.
Beispiel: rein technische Beschreibung (z. B. Fußballbewegungen) ≠ Verständnis des sozialen Sinns
Psychologie der Krisenbewältigung - Längsschnittuntersuchung mit arbeitslosen LehrerInnen
mit Experteninterviews (Offenheit + intersubjektive Nachvollziehbarkeit)
Forschenden:
Projektleitung: Dieter Ulich und Karl Haußer
Mitarbeiter: u.a. Philipp Mayring, der die methodischen Fragen der qualitativen Inhaltsanalyse vorantrieb.
Mayring: Pädagogik, Psychologie, Soziologie; heute führend in Methodenlehre und qualitativer Inhaltsanalyse.
Zusammen entwickelten und etablierten sie die qualitative Inhaltsanalyse als zentrale Methode der empirischen Sozialforschung, insbesondere durch Philipp Mayring.
Zielsetzung der Studie:
Gesellschaftsbezogen: Aufklärung über subjektive Situation von arbeitslosen Lehrern, Differenzierung gesellschaftlicher Ansichten.
Forschungsstrategisch: Darstellung interindividueller Unterschiede in Lebenslagen, Handlungsmöglichkeiten und Krisenbewältigung.
Theoriebezogen: Prüfung eines integrativen Theorieansatzes aus mehreren Einflüssen und Einzelfaktoren.
Inhaltlich: Längsschnittanalyse individueller Verläufe, Vergleich zwischen Gruppen, Hypothesengenerierung und -prüfung.
Methodisch: Halbstrukturierte Interviews, kodiert mittels qualitativer Inhaltsanalyse, statistische Auswertung, Rekonstruktion der Krisenerfahrung aus Sicht der Betroffenen
Forschungsfragen: Wie erleben und bewältigen arbeitslose Lehrer/innen ihre Arbeitslosigkeit?
Wie erleben Menschen Krisen im Alltag?
Wie entstehen diese Krisen (Ursachen)?
Wie gehen Menschen damit um (Handeln)?
Welche Folgen ergeben sich für die Persönlichkeitsentwicklung?
Grundannahme
Bewältigung = Zusammenspiel von
Handeln (z. B. Bewerbungen)
Kognition (z. B. Hoffnung, Selbstdeutung)
A: Arbeitslosigkeit erzeugt krisenhafte seelische Bedingungen, höher als bei Berufstätigen.
B: Indikatoren: reduzierte Lebensziele, sinkende Hoffnung, steigende Passivität, Abnahme von Selbstvertrauen und sozialer Unterstützung, Zunahme psychosomatischer Belastungen.
C: Entlastende Faktoren: Lebensziele, realistische Verantwortlichkeitszuschreibung, soziale Unterstützung, Selbstvertrauen, Berufliches Interesse, begrenzte Ausbreitung der Belastung.
Forschungsdesign: Längsschnittdaten
Sample: 104 Lehrer/innen über 1 Jahr hinweg bis zu 7 Interviews pro Person.
Gruppenaufteilung:
Untersuchungsgruppe 1: 52 frisch arbeitslose Lehrer/innen, alle 2 Monate interviewt.
Untersuchungsgruppe 2: 27 Lehrer/innen mit befristeten Verträgen, 3 Interviews.
Kontrollgruppe: 25 Lehrer/innen mit unbefristeten Planstellen.
Ergebnis: ca. 600 Interviews → ca. 20.000 Seiten transkribiertes Material.
Demografie: 2/3 weiblich, Durchschnittsalter 29 Jahre; repräsentativ für die Grundgesamtheit arbeitsloser Lehrer/innen
Vorteile von Interviews als Methode:
Interviews erleichtern den Zugang zum Untersuchungsfeld im Vergleich zu teilnehmender Beobachtung.
Einfluss der Forschenden geringer; Interviewäußerungen können unmittelbar transkribiert werden.
Soziale Realität wird prozesshaft rekonstruiert, analog zur alltäglichen Konstruktion von Wirklichkeit.
Leitprinzipien qualitativer Interviews
Zurückhaltung der Forschenden: Interviewten weitgehend Steuerung überlassen.
Relevanzsysteme der Interviewten: Eigene Perspektiven und Prioritäten werden berücksichtigt.
Kommunikativität: Anpassung an Sprache, Regeln und Niveau der Interviewten.
Offenheit: Bereitschaft für unerwartete Informationen trotz Leitfaden.
Flexibilität: Reaktion auf individuelle Bedürfnisse der Interviewten während des Interviews.
= Ziel: Interviewten möglichst umfassend und ausführlich zu Wort kommen lassen; individuelle Erfahrung gilt als glaubwürdigster Zeuge des eigenen Erlebens.
heißt: Entscheidend ist nicht, ob Interviewäußerungen objektiv wahr sind.
Ziel: Rekonstruktion sozialer Handlungen und Prozesse, Verständnis der Wahrheitsansprüche der Akteure.
Auch vermeintlich „unwahre“ Aussagen können wertvolle Erkenntnisse liefern, z. B. über Selbstpräsentation, Motivation oder soziale Interaktionen.
Praktische Hinweise
Gut zuhören, Verständnis signalisieren
Pausen zulassen, um Denken und Erinnern zu ermöglichen
Flexibel reagieren, Details erfragen
Umgang mit speziellen Fällen:
Misstrauische: Forschungskontext betonen
Kritiker: Begrenzte Erklärung anbieten
Schweigende: offene Fragen, strategische Pausen
Plaudernde: Rückkopplung schrittweise reduzieren
Neugierige: Fragen zurückstellen
Beichtkinder: Mitgefühl zeigen, Rolle wahren
In der Lehrer/innen-Studie: offene Interviews, heute bekannt als:
Experte/in = jemand mit spezifischem Wissen über einen bestimmten Gegenstand, das Forschenden nicht unmittelbar zugänglich ist.
Weit: Jeder kann in bestimmten Kontexten Experte sein, z.B.
Voluntaristisch: Jeder ist Experte für das eigene Leben und spezifische Sachverhalte.
Eng: Nur Personen mit spezifischen Rollenwissen oder institutionalisiertem Wissen (z. B. Berufsrolle, Elitenwissen).
Konstruktivistisch: Expertenstatus wird von Laien zugeschrieben (z. B. Berufsbezeichnung, Zertifikate).
Wissenssoziologisch: Expertenwissen ist komplex integriert und berufsbezogen.
Drei Typen von Expertenwissen nach Przyborski
Experteninterviews können drei Arten von Wissen erschließen (Meuser & Nagel 2005):
Betriebswissen: Wissen über institutionalisierte Abläufe, Regeln und Mechanismen in Organisationen oder Netzwerken.
Experten fungieren als Repräsentanten der Institution.
Oft nicht kodifiziert, sondern in Praxisabläufen „eingelagert“.
Deutungswissen: Wissen, das die Deutungsmacht der Experten sichtbar macht.
Experten beeinflussen die Wahrnehmung, Bewertung und Relevanz bestimmter Sachverhalte.
Manifestiert sich sowohl in öffentlichen Diskursen als auch in institutionellen Praktiken.
Kontextwissen: Experten liefern Hintergrundinformationen für Untersuchungen, deren primäre Zielgruppe andere ist (z. B. Gefängnispsychologen für Studien über Häftlinge).
Dient oft der Felderschließung und Konkretisierung des Forschungsgegenstands.
Achtung: Perspektiven (Betriebswissen, Deutungswissen, Kontextwissen) können sich überschneiden, sollten aber analytisch unterschieden werden.
Wichtig: Interviewführung muss die Art des Expertenwissens berücksichtigen, da unterschiedliche Zugänge unterschiedliche Strategien erfordern.
Leitgedanke der Studie: Weit gefasster Expertenbegriff – jede Person verfügt über spezifisches Wissen, das rekonstruiert werden kann.
Fokus: Weniger auf die Person, mehr auf das Wissen, das sie über einen sozialen Prozess hat.
Ziel: Rekonstruktion von Expertenwissen über soziale Prozesse.
heißt: Experten = Medium, um an das relevante Wissen zu gelangen; die Person selbst ist nicht primäres Untersuchungsobjekt.
Auswahl der InterviewpartnerInnen (nach Przyborski)
richtet sich nach dem gesuchten Expertenwissen (Betriebswissen oder Deutungswissen).
Kontinuierliche Sondierung: Die Recherche nach geeigneten Expert:innen ist ein iterativer Prozess während der Untersuchung.
Zentrale Schwierigkeit: Nicht jede Person in einer Organisation ist tatsächlich Experte für die relevanten Abläufe oder Entscheidungsprozesse.
z.B. Gefahr der „zu hohen Position“: Führungskräfte geben oft nur abstrakte Unternehmensphilosophie wieder, nicht die praktischen Abläufe. Lösung: Nach denjenigen fragen, die direkt involviert sind.
Ablauf eines Experteninterviews (nach Przyborski)
Vorgespräch: Forschungsvorhaben und eigenes Interesse erläutern.
Expert:innenstatus anerkennen, eigene fachliche Kompetenz präsentieren.
Ziel: Motivation zur Teilnahme und zur Offenlegung des spezifischen Wissens.
Nicht: Theorien oder Vermutungen des Interviewers preisgeben, um keine Fachsimpelei auszulösen.
Selbstrepräsentaton des Experten
Stimulierung einer selbstläufigen Sachverhaltsdarstellung
Offene Fragen, die Expert:innen anregen, Abläufe oder Erfahrungen selbst strukturiert zu schildern.
Beispiel: „Schildern Sie aus Ihrer Praxis, wie die Personalauswahl genau abläuft.“
Aufforderung zur beispielhaften u. ergänzenden Detaillierung (immanente Nachfragen)
Aufforderung zu spezifischen Sachverhaltsdarstellungen (exmanente Nachfragen)
gezielt Fragen zu Forschungsinteressen, die noch nicht von selbst beantwortet wurden.
Aufforderung zu Theoretisierung/ Generierung von Deutungswissen
Expert:innen sollen Erfahrungen abstrahieren, Einschätzungen, Prognosen oder Verallgemeinerungen entwickeln.
Beispiel: Welche allgemeinen Probleme….
Zentrale Ergebnisse der Studie
Lebenssitaution als Ausgangspunkt
Beruf, Finanzen, Gesundheit, soziales Netzwerk, Zeitstruktur
→ gleiche Situation wird individuell unterschiedlich erlebt
Belastung & Krise entsteht bei:
langer Arbeitslosigkeit
fehlender Zukunftsperspektive
geringem Selbstvertrauen
wenig sozialer Unterstützung
Typische Belastungen:
finanzielle Abhängigkeit
soziale Isolation
fehlende Tagesstruktur
Belastung sinkt, wenn vorhanden:
soziale Unterstützung
alternative Qualifikationen
persönliche Bewältigungskompetenzen
Selbstvertrauen = wichtiger Schutzfaktor (wirkt v. a. langfristig)
Krise verstärkt sich bei:
geringer Kontrollerwartung (Gefühl von Ohnmacht)
negativer Selbstzuschreibung („eigene Schuld“)
→ subjektive Deutung entscheidend
Wandel der Bewältigung dieser Gefühle: Anfangs mehr akties Handeln -> mit der Zeit weniger Handlung, mehr kognitive Strategien: Verdrängung, Hoffnung, Zielanpassung
Zentrales Ergebnis:
Mit zunehmender Dauer der Arbeitslosigkeit:
↓ Handlung
↑ kognitive Bewältigung
→ Annäherung an Muster wie Resignation/Apathie (vgl. Marienthal)
heißt: 👉 Arbeitslosigkeit wird nicht nur durch äußere Bedingungen bestimmt, sondern vor allem durch subjektive Deutung, Ressourcen und den Wandel von aktivem zu kognitivem Bewältigen.
👉 Gute qualitative Forschung ist offen für Neues und zugleich so dokumentiert, dass andere sie nachvollziehen können.
Qualitative Inhaltsanalyse + Transkription
Qualitative Inhaltsanalyse (nach Mayring)
= Systematische, regel- und theoriegeleitete Methode zur Auswertung von Texten, INterviews, Beobachtungsprotokollen etc.
Ziel: Reduktion großer Datenmengen und sinnverstehende Analyse
Ursprung: quantitativ (z. B. Häufigkeiten von Themen), Kritik: ignoriert Bedeutungen von Texten, dann Weiterentwicklung in Verbindung von:
Systematik
Theoriebezug
Verstehen (Hermeneutik)
Besonderheiten qualitativer Inhaltsanalysen
Reduktion von Komplexität
Extraktion (Selektion relevanter INhalte, orientiert an Forschungsfrage)
Kategorisierung (Kategorien bilden systematisches Ordnungssystem)
👉 Qualitative Inhaltsanalyse = systematisches Reduzieren, Ordnen und Interpretieren von Texten mithilfe von Kategorien
Grundprinzipien
1. Kontextbezug (Kommunikationsmodell)
Daten werden im Kommunikationszusammenhang interpretiert
Fokus: Was wird gesagt? (nicht primär: wie)
Einordnung des Textes in:
Produzent
sozio-kultureller Hintergrund
Entstehungssituation
Zielgruppe
2. Regel- & Theoriegeleitetheit
Analyse folgt klaren Regeln und Ablaufmodellen
Orientierung an bestehenden Theorien
Ziel: intersubjektive Nachprüfbarkeit
3. Gegenstandsangemessenheit (Kategoriengeleitetheit)
Kategorien = zentrale Analyseinstrumente
und können hierarchisch organisiert sein (Haupt- und Unterkategorien)
Methode wird an Forschungsfrage und Material angepasst
induktiv (aus Material entwickelt) oder
deduktiv (theoriegeleitet vorgegeben) sein
Kein starres Standardverfahren
Kombinaton:
Schritt 1: Qualitativ-interpretative Zuordnung von Kategorien zu Textstellen
Schritt 2: Häufigkeiten von Kategorien analysieren
Formen der Inhaltsanalyse
1. Zusammenfassende Inhaltsanalyse
Reduktion auf wesentliche Inhalte
→ induktiv
Vorgehen:
Paraphrasieren
Generalisieren
Reduzieren
Ziel: Komprimierter Text, der den Kerninhalt widerspiegelt
Das Ergebnis der zusammenfassenden Inhaltsanalyse des Transkriptsauszugs = drei Kategorien, die auf Basis der empirischen Daten induktiv gebildet wurden:
Praxisschock kann Selbstvertrauen stark mindern und belasten, wenn keine Übung da ist, destruktive Kritik und Anpassungszwang an Seminarlehrer nicht weggesteckt wird, man nicht völlig von sich überzeugt ist.
In jedem Fall ist eine gute Beziehung zu Schülern erreichbar.
Es ist eine Zwickmühle, pädagogisches Verhalten ausprobieren zu wollen und trotzdem in der Klasse konsequent zu sein
2. Explizierende Inhaltsanalyse
Unklare Textstellen durch Zusatzinfos erklärt, zB. durch zusätzlichem Material oder Kontextinformationen
→ induktiv + deduktiv
Stark hermeneutisch geprägt (Verstehen & Interpretation)
3. Strukturierende Inhaltsanalyse (bedeutendste Form)
Analyse anhand vorab festgelegter Kategorien
→ deduktiv
Vorgehen: Anwendung eines vorab entwickelten Kategoriensystems mit Strukturierung nach festgelegten Kriterien
(oder nach Bauer:)
Analyseeinheiten
Kodiereinheit → kleinste auszuwertende Einheit (Wort, Satz etc.)
Kontexteinheit → Kontext, der zur Interpretation herangezogen wird
Auswertungseinheit → Umfang des Materials (z. B. ganzes Interview)
Ablaufmodell Detailliert nach Nina Bauer
Systematisches, schrittweises Vorgehen vereint:
induktive Kategorienbildung (aus Material)
Selektionskriterium festlegen (Was ist relevant?)
Abstraktionsniveau bestimmen
Kategorien aus dem Material entwickeln
deduktive Kategorienanwendung (theoriegeleitet)
Kategorien theoretisch festlegen
Kodierleitfaden erstellen (Definition, Beispiele, Regeln)
Kategorien auf Material anwenden
Technik wird je nach Fragestellung ausgewählt oder kombiniert
Zirkulär + linear
Anfang: flexibel (Anpassung möglich)
Ende: strikt (keine Änderungen mehr)
Kategorien als Kerninstrument
Mixed-Methods-Ansatz
Kombination aus:
Interpretation (qualitativ)
Zählung (quantitativ)
Schritte:
Fragestellung präzisieren & theoretisch begründen
Material auswählen & charakterisieren
Einordnung ins Kommunikationsmodell
Analyseeinheit festelegen
Kategorienbildung (induktiv/ deduktiv)
Kategoriensystem überarbeiten (Revision)
Gütekriterien prüfen (intracoder- u. intercoderübereinstim.)
Auswertung (Qualitativ - Interpretation, Quanti- Häufigkeiten)
Transkription
= Verschriftlichung von Interviewaufzeichnungen, entscheidet darüber, ob Forschung empirisch & überprüfbar ist
Transkript = Datenbasis der Inhaltsanalyse
Unterschiede gesprochene vs. geschriebene Sprache
Unvollständige Sätze, Überlappungen
Nonverbale Aspekte:
Prosodie (Pausen, Betonung, Tempo)
Parasprachliches (Lachen etc.)
Mimik, Gestik, Dialekt
👉 →Problem:
Transkription führen zu unvermeidbaren Informationsverlusten und
Beobachtungen sind immer schon interpretiert
→ sogenannte Protokollsätze:
schriftliche Fixierungen von Beobachtungen
enthalten bereits Vorinterpretationen
Grundprinzip: “so genau wie möglich, so ungenau wie nötig”
Transkriptionsgrad abhängig von Forschungsfrage und Auswertungsmethode
zu detailliert = schlechtere Lesbarkeit & ineffizient
= wissenschaftliche Lupe
Anforderungen
Zugriff auf Daten sichern
Transformation nachvollziehbar machen (wie aus Beobachtung Text wurde)
Transkriptionsniveaus (nach Kowal & O’Connell)
Standardorthographie
Glattes Schriftdeutsch
Fokus: Inhalte
gut lesbar, aber wenig Detail
Literarische Umschrift
Berücksichtigung von Aussprache („gehn“, „haste“)
inkl. Dialekt
Quasi-literarisch
möglichst genaue Wiedergabe gesprochener Sprache
schwer lesbar
Vollständige Transkription
inkl. aller non-/parasprachlichen Elemente
höchste Detailtiefe
Transkriptionsregeln
Anonymisierung (Entfernung identifizierbarer Daten)
ggf. Nutzung von Pseudonymen
Absatznummerierung statt Zeilennummern
Sonstiges:
Sprecherwechsel
Pausen
Betonungen
unverständlichen Stellen
Transkription darf NICHT:
„glätten“
korrigieren
vervollständigen
Beispielsystem: Kallmeyer & Schütz
Zeitaufwand
Faustregel: 1:6 bis 1:10 (Audio : Transkriptionszeit)
z.B: Interview 1h -> a. 10h Arbeitszeit
Praktikabilität
Flexibilitöt/ Ausbaufähigkeit
Erlernbarkeit
Lesbarkeit
Softwareeinsatz (z.B. f4transkript oder TiQ)
Wiedergabesteuerung
Zeitmarken
Sprecherkennzeichnung
⚠️ Automatische Transkription:
oft fehleranfällig
erfordert viel Nachbearbeitung
heißt: 👉 Transkription ist ein selektiver, theoriegeleiteter Prozess zwischen Genauigkeit, Lesbarkeit und Forschungsziel.
Narrative Interview + Narrationsanalyse
und Studie der kommunalen Machtstrukturen nach der Gebietsreform 1967-1978 in Deutschland
Narratives Interview = Methode zur Analyse von Erfahrungsprozessen durch Erzählungen
= Imitation von Alltagserzählungen und somit Rekonstruktion sozialer Realität
Entwickelt von Fritz Schütze
Einflüsse von Soziolinguistik & Studie von Schatzmann u. Strauss 1955
Zentrale Annahme: ➝ Erzählungen spiegeln die Struktur von Erfahrungen wider (Homologiethese)
Ziel: Rekonstruktion von Erfahrungs- und Handlungsstrukturen
um authentische, dichte und biographisch zusammenhängende Daten zu erzeugen.
Besonderheit: Nicht nur was passiert ist, sondern wie es erlebt und interpretiert wurde
👉 Analyse von Identitätsentwicklung
👉 Verständnis von Sinnzuschreibungen
Theoretischer Hintergrund:
Grundlage: Symbolischer Interaktionismus (Mead, Garfinkel, Goffman)
Gesellschaft entsteht durch Interaktion & Kommunikation
Forschung muss sich an alltägliche Kommunikationsregeln anpassen
Im Gegensatz zum Experteninterview interessiert nun also auch die subjektive Perspektive des bzw. der Interviewten – und nicht nur ein sozusagen ‚objektives‘ Geschehen
Narratives Interview
subjektive Perspektive zentral
objektives Wissen im Fokus
offene Erzählung
strukturierte Befragung
kaum Steuerung
starke Steuerung
biographische Prozesse
Sachinformationen
Basisregeln der Kommunikation nach Schütz
Reziprozitätskonstitution → gegenseitiges Verstehen
Einheitskonstitution → Identitäten & soziale Einheiten entstehen
Handlungsfigurkonstitution → Handlungen sind geordnet (zeitlich, kausal, zielgerichtet)
Vier Ebenen des Erzählens
Formale Darstellung: Struktur der Erzählung
Inhaltliche Darstellung: subjektives Bild der Realität
Ziel: Differenz zwischen Darstellung & tatsächlichem Geschehen analysieren
Faktisches Handeln: tatsächliche Handlung im Ereignis ≠ erzählte Version
Ziel: Rekonstruktion realer Handlungsabläufe
Kommunikativer Austausch
Ziel: Forschende müssen:
Erzählbereitschaft fördern (z. B. Nicken, „hm hm“)
Alltagskommunikation imitieren
Theoretischer Ausgangspunkt: linguistische Erzählforschung (nach Werner Kallmeyer)
zentrale Konzepte, um ein Narrativinterview zu führen:
4 kognitive Figuren (Homologieannahme)
Strukturieren Erinnerung & steuern Erzählung
1. ErzählträgerInnen: relevante Akteure im erzählten Geschehen
2. Ereigniskette: zeitliche Abfolge meist chronologisch erzählt der Ereignisse
3. Situatonen: “Höhepunkte” als zentral verdichtete Momente, oft detailreich mit direkter Rede wiedergegeben
4. Thematische Gesamtgestalt: übergeordnetes Thema/ Problem, häufig normativ bewertet
Homologieannahme = Erzählungen sind besonders nah am tatsächlichen Handeln & Erleben (Struktur des erlebten Geschehens)
Stehgreiferzählung
= spontane, unvorbereitete Erzählung in Face-to-Face-Situationen
nicht standardisiert
entsteht aus konkretem Anlass
reaktiviert die kognitiven Figuren
📌 Wichtig:
nur im direkten Kontakt möglich
verliert bei Wiederholung an „Echtheit“ (→ Standardisierung) z.B. 5 Personen fragen nach einander nach Deinem Urlaub, bei der 5. erzählt man nicht mehr so detailliert
Zugzwänge des Erzählens
= unbewusste Regeln, die auf jede Erzählung einwirken und sie strukturieren
1. Detaillierungszwang: Wunsch Verständlichkeit herzustellen ggf. inkl. Hintergrundinformationen
2. Kondensierungs- & Relevanzzwang: Auswahl nach Wichtigkeit, weil man niemals wirklich ALLES erzählen kann
3. Gestaltschließungszwang: Erzählung wird abgegrenzt und kohärent geschlossen - Jede Erzählung muss zu einem Ende finden.
Forme der Sachverhaltsdarstellung (Texttypen)
Logik des Handeln
1. Erzählung: (Z)
Anfang (Handelnde Personen werden mit Grundeigenschaften eingeführt) → Ereignis (Ort, Zeit, Umstände) → Veränderung (Vor- und Nachgeschichte) → Ergebnis
zeitliche Abfolge (Prozess)
konkrete Ereignisse
nah am Erlebe
Logik der Darstellung
2. Beschreibung: (B) Zustände / Routinen
statisch, wiederkehrend
keine Entwicklung
3. Argumentation (A) / Evaluation (E): Begründungen, Generalisierungen
Bewertung oder Erklärung
keine zeitliche Struktur
heißt, das Ziel ist es Erzählungen zu erzeugen (nicht Argumentationen!)
👉 Narrative Verfahren nutzen spontane Erzählungen, weil diese durch kognitive Figuren und Zugzwänge strukturiert sind und dem tatsächlichen Erleben besonders nahekommen.
11 Schritte Ablaufplan
Vorbereitungsphase
Auswahl der Interviewten (keine Bekannten, weil Beeinflussung des Interviews oder der Beziehung danach)
Vorbereitung des Interviewenden:
Technik (z.B. Aufnahmegerät)
Erzählstimulus auswendig lernen
mögliche exmanente Fragen vorbereiten
Initiierung des Interviews
Vorgespräch
Aufbau von Vertrauen
kurze Infos zum Projekt (ohne Forschungsfrage, die beeinflusst)
Einverständnis zur Aufnahme
Erzählstimulus
Einzige, offene Frage die Erzählung auslösen soll
1-I: Ich hatte schon gesagt: Ich schreibe eine Arbeit über die Renaissance des Pilgertums und speziell über den Jakobsweg und die Jakobspilger. Meine erste Frage wäre: Ich würde dich bitten, mir deine Lebensgeschichte zu erzählen bis zu dem Tag, an dem du dich entschieden hast, den Jakobsweg zu gehen. Ich würde dich dabei nicht unterbrechen, sondern einfach zuhören und vielleicht im Anschluss noch einige Nachfragen stellen.
2-P08: Also quasi mein g a n z e r Lebenslauf? (..) Wo ich geboren wurde? (.) Und wo ich zur Schule gegangen bin?
3-I: Alles, was dir wichtig ist, ist auch für mich interessant.
4-P08: Bis zu dem Tag (,) als ich mich entschlossen hab zu gehen (-)?
5-I: Mhm.
6-P08: (3) Das ist aber viel (..) Ja (.) Und auch alle Einzelheiten so? (..) Ja (.) Ja, okay (`) […]
Haupterzählung
Interviewte Person: erzählt frei
InterviewerIn:
nicht unterbrechen!
„erzählgenerierendes Schweigen“
nonverbale Unterstützung (nicken, „hm“)
Sprechpausen aushalten
Erzählstümpfe notieren (unvollständige Passagen)
Koda: Abschluss der Erzählung, oft Zusammenfassung oder Bewertung
Nachfragephase: Erzählpotenzial ausschöpfen
Immanente Nachfragen:
beziehen sich auf Erzählstümpfe
erzählgenerierend („Kannst du das nochmal erzählen, weiter ausführen, etc?“)
114-I: Jetzt hattest du gesagt: Nachdem du die Ausbildung beendet hattest, bist du nach Leverkusen gezogen.
115-P03: Mhm.
116-I: Und hast dort in einer Praxis mit angefangen.
117-P03: Nee.
118-I: Dann hab ich das nicht ganz richtig verstanden. Kannst du das nochmal erzählen?
Exmanente Nachfragen:
vorbereitete Fragen
ergänzen fehlende Themen
auch beschreibend/argumentativ möglich
Soziodemografische Daten: Alter, Gebortsort, etc
erst am Ende!
verhindert „Frage-Antwort-Schema“
Wichtig: Keine „Warum“-Fragen in der Nachfragephase
Ziel bleibt immer: Narrationen erzeugen
Nachbereitungsphase
Nachgespräch: lockere Situation, nachdem Aufnahmegerät ausgeschaltet wurde, evtl zusätzliche Infos
Interviewprotokoll: Eindrücke, Atmosphäre, Gedanken
möglihst direkt nach dem Interview ggf. auch als Audio festhalten
Wichtig: Narratives Interview ist nicht reproduzierbar → sorgfältige Vorbereitung entscheidend
Geeigneter Untersuchungsgegenstand
Narrative Interviews erfassen Prozesse, nicht Zustände
Erzählbar (geeignet): Prozesse mit Verlauf
Lebensgeschichten
berufliche Entwicklungen
Krisen, Veränderungen
Ungeeignet:
Zustände (z. B. Einstellungen)
abstrakte Meinungen
Routinen ohne bewusste Wahrnehmung
Wichtige Einschränkungen bei der Auswahl
Lebensalter
Erwachsene: gute Erzählkompetenz
Jugendliche: eher episodisch, weniger strukturierte Lebensgeschichten
Kultur
grundsätzlich anwendbar, aber:
unterschiedliche Kommunikationsregeln
z. B. „Gesicht wahren“ (Asien)
→ Anpassung nötig (z. B. über Mittlerpersonen)
Professionelle Erzähler
z.B. aus Therapie oderSelbsthilfegruppen
Problem:
keine spontanen Erzählungen
bereits „geformte“ Geschichten
Vertrautheit
bekannte Personen ungeeignet:
verkürzte Darstellung („das weißt du ja“)
weniger Details
nach Fritz Schütze im Rahmen einer Studie der kommunalen Machtstrukturen nach der Gebietsreform 1967-1978 in Deutschland
Fokus auf: Krisen in Kommunen durch Zusammenlegung
Leitfrage:
Wie wirken sich diese Krisen auf:
Erleben
Handeln
Machtstrukturen der Akteure aus?
Makroebene (gesellschaftliche Strukturen)
Mikroebene (Handeln von Akteuren)
→ über Mesoebene (Ortsgesellschaft, als Intermediäre Einheit (zwischen Makro & Mikro)
als ORt, an dem Strukturen + Interaktionen aufeinandertreffen
aufgrund von Heteronomen Systembedingungen: Äußere, nicht kontrollierbare Einflussfaktoren
Zwei Ebenen:
Makro: Politik, Wirtschaft („von oben“)
Mikro: konkrete Handlungssituationen
Folge: eingeschränkte Handlungskapazität
Problem: Verflechtung von Macht, Position und strategischen Interessen werden oft verschleiert (Selbstdarstellung)
Methodisches Vorgehen: 60 narrative Interviews mit Kommunalpolitikern durch indirektes Fragen nach epiphänomelanes Thema der Namensgebung der Kommune. Dadurch:
Umgehung von:
Scham
strategischer Verschleierung
Nutzung von:
Erzählzwängen → mehr Authentizität
Grundidee: Analyse auf zwei Ebenen
Erlebter Prozess (Logik des Handeln) vs.
Was ist passiert? vs.
Darstellung im Interview (Logik der Darstellung)
Wie wird es erzählt?
Ziel: Diskrepanzen zwischen Inhalt und Darstellung erkennen
oder: wie Darstellung und Erfahrung zusammenhängen
= Rekonstruktion von Sinnstrukturen & Handlungslogiken
Erzählungen zeigen soziale Prozesse mit:
👤 subjektiver Perspektive
⏳ Langfristigkeit (biografische Entwicklungen)
🔁 Doppelter Aspekt:
äußere Ereignisse
innere Veränderungen (Identität)
👉 Ziel: Rekonstruktion dieser Prozesse im Text
Darstellungsformen unterscheiden:
Erzähung
temporale Abfolge von Ereignissen
zentrale Merkmale:
Ereignisverkettung
nicht vertauschbare Reihenfolge
Typischer Aufbau (Labov)
Abstrakt – worum geht’s?
Orientierung – wer, wann, wo?
Handlungskomplikation – was passiert?
Evaluation – Bedeutung / Bewertung
Resultat – Ausgang
Koda – Bezug zur Gegenwart
Argumentation / Bewertung
erklären, rechtfertigen, bewerten ohne Ereignisabfolge
Merkmale:
Gegenwartsbezug
allgemeine Aussagen („man“, „natürlich“)
oft explizit eingeleitet
Beschreibung
Darstellung von:
Zuständen
Routinen
typischen Abläufen
keine zeitliche Entwicklung
„eingefrorene“ Situationen
Analyse basiert also…
Nicht nur:
was gesagt wird (Inhalt)
Sondern auch:
wie etwas gesagt wird (Form, Stil)
👉 Text wird:
„symptomatischer Ausdruck“
der Erfahrung & Involviertheit
Ablaufplan: Sechs Auswertungsschritte
Schritt 1: Formale Textanalyse
Entfernen von nicht narrativen Passagen und
Transkript in Segemnte unterteilen
Hilfe: Rahmenschaltelemente (z.B. “dann”, “zum Schluss”, Koda-Formulierungen, Pausen, Wechsel des Themas oder der Darstellungsform)
Hintergrunderzählung
Belegerzählung
Fokus zunächst nur auf Erzählungen (→ repräsentieren Prozess direkt)
Schritt 2: Struktuelle inhaltliche Beschreibung
Bestimmung von Darstellungsformen:
Erzählung (Z)
Argumentation (A)
Evaluation (E)
Beschreibung (B)
Erzählketten & Themen erkennen
Entwicklungspfad rekonstruieren:
Wendepunkte, Krisen, Veränderungen
Zusammenhang erkennen von:
Inhalt (was passiert?)
Form (wie wird es erzählt?)
analytische Kategorien bilden = warum handelt ein Mensch wie er handelt.
Gibt es Institutionen oder andere Mechanismen die einwirken?
Schritt 3: Analytische Abstraktion
Gesamtbiografie verstehen: Verknüpfung der Prozessstrukturen durch Loslösung von Einzeldetails
Ergebnis = “Biografische Gesamtformung” (Gesamtstruktur des Lebensverlaufs)
Auf Basis der Vier Verlaufslogiken:
Biografisches Handlungsmuster → selbstbestimmt (intentional) geplantes Handeln
Institutionelles Ablaufmuster → durch Institutionen geprägt
Verlaufskurve → Fremdbestimmung, Kontrollverlust, „Erleiden“
Biografischer Wandlungsprozess → Übergang + Wiedergewinn von Kontrolle, innere Transformation
Beispiel: Person spricht über seine Kindheit, dass er gerne Menschen hilft und wird im Verlauf ein Studium der sozialen Arbeit beginnen -> dominante Lebenslogik
Schritt 4: Wissensanalyse
Logik des Handels vs. Logik der Darstellung
→ Passt die Selbstbeschreibung zur tatsächlichen Biografie?
Fragen:
Wie erklärt die Person ihr Leben?
Welche Selbstbilder entstehen?
Welche Rechtfertigungen / Ausblendungen?
👉 Vergleich:
Erzählung vs. Selbstdeutung
Schritt 5: Kontrastive Fallvergleiche
Minimaler Vergleich: ähnliche Fälle vergleichen → Struktur herausarbeiten
Maximaler Vergleich: gegensätzliche Fälle vergleichen → Unterschiede & Alternativen erkennen
👉 Ergebnis:
abstrakte Kategorien & Muster
Schritt 6: Entwicklung eines theoretischen Modells
Abstraktion der Ergebnisse ergeben Typologien biografisher Verläufe
spezifisch: z.B. Karriereverläufe
grundlegend: z.B. Lebensphasen
Ergebnis: Erklärung sozialer Prozesse
Ich war am Wochenende im Zoo. Das war mal wieder richtig schön. Als die Kinder noch klein waren, war ich da ja öfter. Und dann bin ich noch in die Eisdiele gegangen. Das war lecker. Deshalb ist es da ja auch immer so voll.
Exkurs: Typenbildung
Typologie = theoretisches Modell aus mehreren Typen, um Fälle anhand gemeinsamer Merkmale zu gruppieren und Komplexität zu reduzieren
Grundlage: kontrastiver Fallvergleich
Typus = Gruppe von Fällen mit
interner Homogenität (möglich ähnlich innerhalb des Typs)
externer Heterogenität (möglich unterschiedlich zwischen den Typen
Beschreibung über spezifische Merkmalskombinationen
Funktionen:
Deskriptiv
Reduktion von Komplexität, Soziale Realität wird:
überschaubar
vergleichbar
„Typisches“ wird hervorgehoben
Theoretisch
Grundlage für:
Hypothesenbildung
Erklärung sozialer Zusammenhänge
Identifikation von:
kausalen Mechanismen
Sinnzusammenhängen
Stufenmodell der Typenbildung (nach Kelle und Kluge)
1. Vergleichsdimensionen entwickeln
Relevante Merkmale/Kategorien bestimmen
Basis für Vergleich von Fälle
2. Gruppierung der Fälle
Kombinationen von Merkmalen (→ Merkmalsraum)
Prüfung:
interne Homogenität
externe Heterogenität
ggf.:
Typologie anpassen / differenzieren
3. Analyse von Sinnzusammenhängen
Ziel:
Verstehen & Erklären, nicht nur beschreiben
Ergebnis:
Reduktion auf wenige zentrale Typen
4. Charakterisierung der Typen
Detaillierte Beschreibung der Typen
Unterscheidung:
Idealtypen (nach Weber)
Prototypen
Extremtypen
Beispiele:
Marienthal: → Ungebrochene, Resignierte, Verzweifelte, Apathische
Pilgerstudie: → Krise, Übergang, Neustart etc.
👉 Typenbildung = systematische Reduktion + theoretische Verdichtung von Fällen durch Vergleich
Handlungsspielraum ist begrenzt durch äußere Strukturen und situative Dynamiken
Reaktion: Ad-hoc-Anpassungen statt Planung
Typische Diskrepanzen (Narrationsanalyse)
Intention vs. Ergebnis
Handlungen verlaufen anders als geplant
Frühere vs. spätere Ziele
Ziele verändern sich unbewusst
Selbstbild vs. Fremdbild
Akteure überschätzen eigene Kontrolle
👉 Hinweis auf:
verdeckte strukturelle Zwänge
Interviewte zeigen: „offizielle Fassade“
echte Interessen: indirekt, fragmentarisch, verschlüsselt
The Grounded Theory Methodologie und Awareness of Dying (Krankenhausstudie)
Unterschied
Methode: Studie der kommunalen Machtstrukturen nach der Gebietsreform 1967-1978 in Deutschland
Methodologie: theoretischer Rahmen, der begründet, warum Methoden wissenschaftlich sind
Grounded Theory ist keine einzelne Methode sondern ein Forschungsstil / Haltung = Methodologie
Merkmale
offene, flexible Analyse
enge Orientierung an Daten
Ziel: Entwicklung von Konzepten und Theorien
👉 Wichtig: Theorie wird induktiv entdeckt, nicht deduktiv geprüft
Entstehungskontext: intellektuelle Hybridbildung (nach Bauer)
GT entstand aus einer spezifischen Kosntellation
Symbolischer Interaktionismus
Mead → Blumer → Strauss
Fokus: Interaktion, Situationsdefinition, Bedeutung im Handeln
Chicago School / Ethnographie
Hughes, Park, Becker (→ „Boys in White“)
Fokus: Organisationen als soziale Prozesse
Pragmatismus (Dewey, Mead, Peirce)
Handlung = Problemlösung
Erkenntnis = Ergebnis von Problembewältigung
Wahrheit = funktionale Bewährung
➡️ Schlüsselidee: Wissenschaft als iterativer Problemlösungsprozess
Abduktion statt Induktion/ Deduktion (nach Nina Bauer)
Deduktion → zu starr (Regelanwendung)
Induktion → zu passiv (Datenerwartung)
Abduktion → zentral
Abduktion (Peirce):
überraschende Beobachtung → hypothetische Erklärung
kreative Hypothesenbildung
anschließende Prüfung im Material
➡️ GT = abduktiv gesteuerter Iterationsprozess
= Datenverständnis: Radikale Umstellung
klassisches Verständnis: Daten = gegeben und werden gesammelt
GT (pragmatisch-interaktionistisch):
Daten = konstruiertes Ergebnis eines Herstellungsprozesses
Daten entstehen durch Interaktion Forscher <-> Feld
Konsequenz: keine Datensammlung, sondern Datenproduktion durch Forschungshandeln
Pragmatischer Realismus
Realität ist widerständig
Bedeutung entsteht im Handeln
Wissen ist funktional, nicht absolut wahr
Die Krankenhausstudie als Beispiel (Awareness of Dying)
= Glaser und Strauss zeigen, dass Sterben im Krankenhaus ein sozial und organisatorisch strukturierter Prozess ist, der sich über Zeit entfaltet und durch das Zusammenspiel von Akteuren und institutionellen Bedingungen geprägt wird.
heißt: Sterben passiert nicht „einfach“, sondern wird sozial mitgestaltet durch:
Ärzte
Pflegepersonal
Angehörige
institutionelle Regeln
Der Text kombiniert zwei Ebenen:
Innerhalb eines Krankenhaus als Institution:
Handeln von Akteuren
Ärzte entscheiden
Pflegepersonal interagiert
Angehörige reagieren
organisationale Strukturen
Krankenhausregeln
Arbeitsorganisation
Zeitmanagement
Temporale Dimension: der Text betont mehrfach: Sterben passiert über Zeit hinweg
= Sterben hat Phasen und diese sind organisiert
Diese Phasen sind nicht nur medizinisch,sondern auch sozial strukturiert
frühe Phase: Diagnose / Unsicherheit
mittlere Phase: Umgang mit Prognose
letzte Phase: unmittelbares Sterben
👉 Aussage: Sterben entsteht aus dem Zusammenspiel beider Ebenen
Veröffentlichung in 5 Werken:
Awareness of Dying: “Wissen Sterbende, dass sie sterben?” Fokus: Bewusstsein und Interaktion
The Discovery of Grounded Theory: Methodologisches Werk, das zeigt, wie man Theorien qualitativ aus Daten entwickelt
Time of Dying: Sterben als zeitlich organisierter Prozess durch Einfluss von Personal und Organisation
The Nurse and the Dying Patient: Rolle des Pflegepersonals
Gesamtbedeutung
Grounded Theory verbindet: empirishe Forschung + Theorienentwicklung
etabliert: qualitative Forschung als wissenschaftlich fundiert anhand eines reflexiven Umgangs mit Daten
Beantwortung und Rekonstruktion von drei miteinander verbundenen Fragekomplexen:
Strategisches Handeln der Akteure: Wie handeln Ärzt:innen und Pflegepersonal im Umgang mit Sterbenden? Welche Interaktionsformen entstehen dabei, und welche Strategien verfolgen die Beteiligten im Prozess des Sterbens?
Kontextbedingungen: Wie handeln Ärzt:innen und Pflegepersonal im Umgang mit Sterbenden? Welche Interaktionsformen entstehen dabei, und welche Strategien verfolgen die Beteiligten im Prozess des Sterbens?
Konsequenzen: Unter welchen organisatorischen und strukturellen Bedingungen treten bestimmte Interaktionsformen auf, und in welchem Maße prägt die Institution Krankenhaus den Sterbeprozess?
Zentrale Verfahrenslogik: Komperative Methode
Minimalvergleich ähnlicher Fälle für den stabilen Kern einer Kategorie vs.
Maximalvergleich unterschiedlicher Fälle um Grenzen/ Variationen und Kontextabhängigkeiten zur Entstehung stabilisierter Differenzmuster der Kategorien
mehrjährige ethnografische Feldstudie in 6 Krankenhäusern in San Francisco
Medthodenmix:
Teilnehmende Beobachtung (Stationen: Intensiv, Krebs, Frühgeborene)
Interviews mit PatientInnen, Angehörige, ÄrztInnen, Pflegepersonal
Datenauswahl theoretisch gesteuert und nicht zufällig
Zentrales Prinzip: Theoretisches Sampling
= Fallauswahl erfolgt nicht vorab festgelegt (ex ante), sondern im Verlauf der Analyse, basierend auf
ersten Ergebnissen
sich entwickelnden Konzepten/ Hypothesen
heißt: Fälle werden theoriegeleitet nachträglich konstruiert. Das erzeugt:
rekursive Schleife von
Kodierung
Theorieentwicklung
= Theorien entstehen iterativ im Forschungsprozess
Kodieren & Vergleichen: Daten werden schrittweise in
Konzepte -> Kategorien -> theoretische Zusammenhänge kodiert
Offenes Kodieren
mikroanalytisch
Zerlegung von Text
erste Konzeptbildung
Rekonstruktion von Zusammenhängen:
Bedingungen
Interaktionen
Strategien
Konsequenzen
Fokus: Erklärung von Phänomenen
Integration
Kernkategorie
Theoriezentrierung
➡️ Ergebnis:
konsistente Gesamtstruktur (keine reine Taxonomie)
Forschungslogik: zirkulär und parallel
Memos und Diagramme
Memos = schriftliche Reflexion während der Analyse
Diagramme ? Visualisierung von Kategorienrelationen als zentrales Werkzeug zur Theorienintegration
Selektives Ergebnis: Theorie als integrierte Perspektive
Theorie ist nicht „gefunden“, sondern aktiv konstruiert durch Perspektiventscheidung
➡️ Konsequenz:
eine zentrale Kategorie strukturiert das gesamte Material
alle anderen Kategorien werden rekodiert
Ziel: Theorieentwicklung aus Daten (induktiv, datenbasiert)
Zentrale Voraussetzung: wachsende theoretische Sensibilität der Forschenden
= Vorwissen besteht und es gilt die Fähigkeit, in Daten Bedeutungen, Muster und Relevanzen zu erkennen
Entwickelt sich im Forschungsprozess und Hilft dabei:
neue Konzepte zu identifizieren
relevante Daten gezielt auszuwählen
Vorannahmen kritisch zu hinterfragen
Theoretisches Sampling
= Qualitäts- und Steuerungsinstrument i.F. Dynamischer Fallauswahl während der Forschung (basierend auf theoretischer Sensibilität)
Auswahl wird getroffen durch: bisherige Analyseergebnisse und daraus entstehenden Kategorien und Hypothesen
Betrifft Datenerhebung UND Auswertung
Vergleichslogik (constitent comparison)
Minimaler Vergleich (ähnliche Fälle)
Maximaler Vergleich (kontrastierende Fälle)
Beispiel Krankenhausstudie: Stationen mit unterschiedlicher Bewusstheit des Sterbens
Prozesslogik: Iteration aus
Kodierung / Analyse
Neuer Fallauswahl
Daten können auch auf Vorrat erhoben werden und später gezielt ausgewertet werden
Endpunkt: Theoretische Sättigung, wenn keine neuen Eigenschaften einer Kategorie mehr auftauchen
= zusätzliche Daten nur Wiederholungen liefern
heißt: Kategorie gilt als ausdifferenziert und stabil
Kodieren
= Transformation von Rohdaten in Konzepte -> Kategorien -> theoretische Integration. Durch
Permanente Vergleichslogik (constant comparison)
Theorie entsteht aus Daten (induktiv, aber iterativ-zirkulär)
Offenes Kodieren:
Dreistufiger Kodierungsprozess
Zerlegung der Daten (Satz für Satz / Detailanalyse)
Vergabe erster Konzepte
Eigenschaften (Merkmale)
Dimensionen (Kontinua dieser Merkmale)
Vergleich von Ähnlichkeiten & Unterschieden
Ergebnis: viele unverbundene Konzepte und erste Kategorien
Axiales Kodieren: Systematisches in Beziehung sezen und rekonstruieren von Beziehungen = Was haben diese Konzepte gemeinsam? Welche Struktur steckt dahinter?
Verknüpfung der Kategorien
Rekonstruktion von Beziehungen zwischen Bedingungen, Handlungen und Konsequenzen
Wichtig: nicht alle Daten werden axial kodiert
Fokus liegt nur auf theoretisch relevanten Kategorien
Auswahl erfolgt entlang der entstehenden Analyse („theoretische Relevanz“)
Strukturierung in ein Kodierparadigma
5 Analyseebenen:
1. Phänomen (Zentrum)
Das zu erklärende soziale Ereignis
Beispiel: „Umgang mit Sterbenden im Krankenhaus“
2. Ursächliche Bedingungen
Was löst das Phänomen aus?
3. Kontextbedingungen
In welche strukturellen Bedingungen ist es eingebettet?
z. B. Organisation Krankenhaus, Zeitdruck, Stationstyp
4. Handlungs- und Interaktionsstrategien
Wie reagieren Akteure darauf?
z. B. Pflegepraktiken, Kommunikationsformen, Vermeidung/Offenlegung
5. Konsequenzen
Welche Folgen ergeben sich aus dem Handeln?
z. B. emotionale Belastung, Versorgungsqualität, institutionelle Effekte
Ergebnis: systematische Ordnung der Kategorien
Selektives Kodieren
= abschließender Auswertungsschritt, bei dem eine Kernkategorie ausgewählt wird, um die herum alle anderen Kategorien zu einem theoretischen Gesamtmodell integriert werden.
Identifikation einer Kernkategorie
Integration aller Kategorien zu einem erklärenden Gesamtmodell
Ergebnis: kohärente „analytische Geschichte“ des Phänomens
Beispiel Krankenhausstudie:
Kernkategorie: Bewusstheit sterbender Patient*innen über ihren nahenden Tod
Alle weiteren Kategorien (z. B. professionelles Handeln, sozialer Verlust, Interaktionsstrategien) werden darauf bezogen
Basierend auf Vergleichsprinzip:
Daten werden kontinuierlich miteinander verglichen:
Fall vs. Fall
Konzept vs. Konzept
Kategorie vs. Kategorie
Ziel: maximale analytische Dichte und Variation
Beispiel: „Dame in Rot“ = klassisches didaktisches Gedankenexperiment von Strauss & Corbin, um zu zeigen, wie aus rohen Beobachtungen analytische Konzepte und schließlich Kategorien entstehen.
Ausgangssituation (Rohdatenebene)
Du sitzt in einem Restaurant und beobachtest eine Frau in roter Kleidung, die sich auffällig im Küchen- und Servicebereich bewegt.
Auf dieser Ebene hast du noch keine Theorie, sondern nur beobachtbare Ereignisse, z. B.:
Sie steht in der Küche und schaut sich um
Sie spricht mit Mitarbeitenden
Sie bewegt sich zwischen Küche und Gastraum
Sie greift bei Abläufen ein
Sie schaut auf einen Plan / Zeitablauf
Sie wirkt „nicht wie ein normaler Gast“
= deskriptive Beobachtungen.
1) Offenes Kodieren (Konzeptbildung)
Du gibst den Beobachtungen abstrakte Bezeichnungen (Codes).
Aus den einzelnen Handlungen werden z. B.:
„Sie steht in der Küche und schaut sich um“ → sie scannt systematisch Abläufe in der Küche = “Beobachten”
„Sie spricht mit Mitarbeitenden“ → sie gibt Hinweise oder spricht mit Personal = “Informationsweitergabe”
„Aufmerksamkeit“ → sie registriert viele Details gleichzeitig
„Unaufdringlichkeit“ → sie greift ein, ohne den Ablauf zu stören
„Überwachen“ → sie kontrolliert Prozessqualität (Tempo, Service, Koordination)
„Koordination“ → sie greift steuernd in Abläufe ein
Wichtig: Diese Codes sind bereits theoretische Verdichtungen, keine bloßen Beschreibungen mehr.
2) Axiales Kodieren (Zusammenhangsbildung)
Viele Codes beziehen sich auf Steuerung von Arbeitsabläufen
Sie dienen nicht bloß Beobachtung, sondern Organisation und Kontrolle
Sie stabilisieren den „Flow“ im Restaurantbetrieb
Bildung von Kategorien:
Kategorie: „Arbeit zur Aufrechterhaltung des Arbeitsflusses“
mit Subkategorien wie:
Überwachen
Koordinieren
Informieren
Unterstützen
Und eine zweite Dimension:
Kategorie: „Eigenschaften der Akteurin“
Mit Subkategorien:
Aufmerksamkeit
Erfahrung
Unaufdringlichkeit
3) Theoretische Verdichtung (selektives Ergebnis)
Am Ende entsteht eine übergeordnete Interpretation:
👉 Die „Dame in Rot“ ist vermutlich keine zufällige Besucherin, sondern eine Art unsichtbare Prozessmanagerin im Restaurant.
Strauss & Corbin nennen sie ironisch:
„Speisen-Dirigentin“
Das bedeutet:
Sie steuert Abläufe indirekt
Sie sorgt für reibungslose Koordination
Sie ist Teil des Organisationssystems, ohne formale Macht sichtbar auszuüben
Das Beispiel zeigt drei zentrale Dinge der Grounded Theory:
1. Wahrnehmung ist bereits theorieabhängig
Du „siehst“ nicht einfach nur Verhalten, sondern beginnst sofort zu interpretieren.
2. Analyse entsteht schrittweise
Beobachtung → Code → Kategorie → Theorie
3. Soziale Rollen sind oft nicht offensichtlich
Die eigentliche Funktion der Person ist nicht sichtbar, sondern muss rekonstruiert werden.
Zusammenfassung als Kodierungsschema:
Wichtige Kategorien in der Krankenhaus-Studie
Sozialer Verlust
Bewertung des Todes hinsichtlich sozialer Bedeutung (z. B. Familie, Beruf)
Professionelle Haltung
Umgang des Pflegepersonals mit emotional belastenden Situationen
-> Höherer Sozialer Verlust führt zu mehr Pflegeaufmerksamkeit
Konstruktivistische Erweiterung der Grounded Theory (nach Kathy Charmaz)
Kritik an Glaser:
zu empiristisch / positivistisch (Daten als „gegeben“ verstanden)
Kritik an Strauss/Corbin:
zu technik- und regelzentriert
zentrale Position:
Daten und Theorie sind nicht entdeckt, sondern konstruiert
Forschende sind Teil des Erkenntnisprozesses
👉 Erkenntnis ist interaktiv, situiert und interpretativ konstruiert, heißt 👉 Theorie wird nicht gefunden, sondern im Forschungsprozess mit erzeugt
Forschende sind nicht neutral
ihre Perspektiven, Vorwissen und Interaktionen beeinflussen:
Kategorienbildung
heißt: Charmaz versteht Kodieren als interpretativen Prozess, in dem Forschende gemeinsam mit den Daten eine theoretische Geschichte konstruieren.
4 Stufiges Kodierverfahren nach Charmaz
Initial Coding
sehr nah am Text
Zerlegung in kleine Sinn-Einheiten
ähnlich zu offenem Kodieren
Ziel: erste analytische Konzepte
Focused Coding
Auswahl der wichtigsten / häufigsten Codes
Verdichtung zu stabileren Kategorien
stärkere analytische Abstraktion
Ziel: Relevanzstruktur herausarbeiten
Axial Coding
Untersuchung von Beziehungen zwischen Kategorien
Herstellung von Zusammenhängen
ohne striktes Kodierparadigma (freier als Strauss/Corbin)
Theoretical Coding
Integration aller Kategorien
Entwicklung einer „analytic story“
abstrakte theoretische Modellbildung
Orientierung an Glaser, aber konstruktivistisch interpretiert
Zentrale Unterschiede zur klassisches Grounded Theory
weniger Regel- und Technikfixierung
stärker interpretativ und reflexiv
Daten werden als mitkonstruiert verstanden
keine strikte Trennung von Subjekt (Forscher) und Objekt (Daten)
Memos
sind deine Denkprotokolle während der Forschung - Das Bindeglied zwischen Daten und Theorie.Nicht „Notizen im Alltagssinn“, sondern:
strukturierte, analytische Reflexionen darüber, was deine Daten bedeuten
sie machen Denken explizit
sie zeigen Widersprüche
sie fördern Theoriebildung Schritt für Schritt
Memos sind nicht optional
Typen:
Kode-Memos (nah an den Daten)
Code: “er war so jung” (Krankenhausstudie)
Memo:
verweist auf Bewertung von Lebenspotenzial
möglicherweise Zusammenhang mit stärkerer emotionaler Reaktion
Hypothese: Alter beeinflusst Pflegeintensität
➡️ Funktion: erste Bedeutungen klären
Theoretische Memos (abstrakt)
“Wie hängen Kategorien zusammen?”
Kategorie: sozialer Verlust
Kategorie: professionelle Haltung
hoher sozialer Verlust → stärkere emotionale Belastung
Pflegepersonal entwickelt Strategien zur Distanzierung
mögliche Beziehung: „emotionale Regulation durch Professionalisierung“
➡️ Funktion: Theorie bauen
Planungs-Memos (steuernd)
Was mache ich als Nächstes im Forschungsprozess?
„Ich brauche mehr Fälle mit alten Patienten“
„Vergleich: Intensivstation vs. Normalstation“
„Interviewfrage ergänzen: Wie reagieren Pflegende emotional?“
Funktion: Theoretisches Sampling steuern
Ohne Memos passiert oft das:👉 Daten werden gesammelt, aber nicht wirklich theoretisch verarbeitet
Diagramme
= visualisierte Memos. Also keine neuen Inhalte, sondern:
Also keine neuen Inhalte, sondern:
Typen
Logische Diagramme (strukturierend)
orientieren sich am Kodierparadigma
Phänomen: Umgang mit Tod
Ursache: sozialer Verlust
Kontext: Krankenhausstruktur
Handlung: professionelle Distanzierung
Konsequenz: differenzierte Pflegeintensität
Funktion: Ordnung schaffen
Integrative Diagramme (kreativ)
freier, explorativer
Beispiel
Funktion: Zusammenhänge entdecken
Ablauf
Du codierst ein Interview
Du schreibst ein Kode-Memo:
„Pflegekraft bewertet Patienten unterschiedlich“
Du schreibst ein theoretisches Memo:
„Bewertung hängt mit sozialem Status zusammen“
Du zeichnest ein Diagramm:
Status → Wahrnehmung → Pflegeverhalten
Du entscheidest im Planungs-Memo:
„Ich brauche mehr Daten zu Statusunterschieden“
Zusammenfassend:
Kodieren = Daten strukturieren
Memos = darüber nachdenken
Diagramme = sichtbar machen
Theorie = Ergebnis dieses Prozesse
Situationsanalyse (nach Adele Clarke)
= Erweiterung der Grounded Theory um eine situationszentrierte Perspektive
Fokus nicht mehr nur auf Handlungen, sondern auf die gesamte Situation
Ziel: Komplexität sozialer Wirklichkeit erfassen, nicht vereinfachen
Zentrale Annahmen:
Soziale Wirklichkeit ist:
komplex
widersprüchlich
fragmentiert
situiert
Einbezug von nichtmenschlichen Akteuren
z. B.:
Technologien
Medikamente
Dokumente
Diskurse
Diese haben Handlungsmacht und beeinflussen soziale Prozesse
Partielle Perspektiven sind ausreichend (keine „große“ Theorie nötig)
Forschende konstruieren Theorie (nicht entdecken sie)
Zentrales Werkzeug: Maps
Situations-Map
Erfasst alle Elemente einer Situation. inkl.:
Menschen
Dinge
Ziel: komplette Situationsstruktur sichtbar machen
Map sozialer Welten/ Arenen
verschiedene soziale Welten, die in einer Arena aufeinandertreffen
Beispiel Krankenhaus:
Versicherungen
Pharmafirmen
👉 Kernaussage: → Viele unterschiedliche Akteure beeinflussen das Geschehen gleichzeitig → Handeln (z. B. Pflege) ist eingebettet in komplexe Macht- und Strukturverhältnisse
Positions-Map
Positions in Diskursen
Positionen ≠ Personen!
„Effizienz ist am wichtigsten“
„Emotionsarbeit ist am wichtigsten“
Erkenntnisziel
Rekonstruktion einer konkreten Situation
nicht: universelle Theorie
sondern:
tiefes Verständnis von:
Beziehungen
Machtstrukturen
Diskursen
👉 Situationsanalyse heißt: Nicht nur fragen „Was tun Menschen?“, sondern „Was gehört alles zur Situation – und wie hängt alles zusammen?“
Ergebnis der Krankenhausstudie
Zentrale Kategorie: Bewusstheit über den nahen Tod
bestimmt maßgeblich:
Verhalten der Patient:innen
Verhalten von Personal & Angehörigen
Verlauf der Sterbesituation
→ deshalb: „awareness contexts“ (Bewusstheitskontexte)
Dimensionen des Bewusstseins
Information (Was wird Patient:innen gesagt?)
Bewusstheit (Was wissen/ahnen sie?)
Kommunikation (Wird das Wissen geteilt?)
→ daraus entstehen 4 Typen von Bewusstheitskontexten
Geschlossener Kontext 🔒
Patient: weiß nichts
Personal/Angehörige: wissen Bescheid
Strategie: „Verschwiegenheitsspiel“
Konsequenzen:
keine Vorbereitung auf Tod
hohe Belastung für Personal
mögliche Verschärfung familiärer Konflikte
Argwöhnischer Kontext 🕵️
Patient: ahnt etwas, ist unsicher
Verhalten:
sucht Hinweise („Detektivarbeit“)
Personal:
bleibt ausweichend, vorsichtig
Misstrauen
zusätzliche Spannung
Wechselseitige Täuschung 🎭
Alle wissen es, aber: niemand spricht es aus
Strategie: gegenseitiges „So-tun-als-ob“
Normalität wird inszeniert
keine echte Beziehung
emotionale Isolation („Wattemauern“)
keine psychologische Begleitung
Offener Kontext 🗣️
Patient: weiß und spricht darüber
Voraussetzung: Übergang aus anderen Kontexten
Vorbereitung auf Tod möglich
Abschied, Reflexion
Entlastung des Personals
aber: neue Unsicherheiten („Doppeldeutigkeit des Wissens“
Achtung: Die Typen sind nicht nur Kategorien, sondern bilden oft einen Prozessverlauf des Sterbens(z. B. von geschlossen → argwöhnisch → offen)
👉 Nicht der Tod selbst strukturiert die Situation – sondern das Wissen darüber.
Studie in den USA, 1960er Jahre
Heute: veränderte Arzt-Patient-Beziehungen Palliativmedizin, Hospize
→ eingeschränkte Übertragbarkeit
aber: GT-Theorien sind:
gegenstandsgebunden
kontextabhängig
nicht universell generalisierbar im starken Sinn
Ziel ist Nicht „Wahrheit“, sondern Bestimmung des Geltungsbereichs
👉 Eine gute Grounded Theory ist intern konsistent (Kohärenz) und kennt ihre Grenzen (Limitation).
Gesamtzusammenfassung:
Grounded Theory = pragmatistisch fundierter, abduktiv gesteuerter Forschungsstil, der Theorie nicht aus Daten ableitet, sondern durch systematische Vergleichs-, Kodier- und Samplingprozesse im iterativen Wechsel von Empirie und Konzeptbildung hervorbringt.
Die vorgestellten Methoden im Vergleich
Gemeinsamkeiten aller Methoden:
Ziel: soziale Prozesse verstehen (Weber: Verstehen)
Daten entstehen durch:
Beobachtung
Daten werden:
verschriftlicht / transkribiert
systematisch analysiert
Ergebnis: → theoretisches Modell (oft Typologien) zur Beantwortung der Forschungsfrage
Unterschiede aller Methoden:
Erhebungslogik
Beobachtung → Fokus aufs Feld
Interviews → Fokus auf Sprache / Subjektivität
Dokumente → Fokus auf Text
Auswertungslogik
Inhaltsanalyse → Ziel: Reduktion & Systematisierung
Narrationsanalyse → Ziel: Prozessrekonstruktion
GT → Ziel: Theoriegenerierung durch Vergleich & Kodierung
Zielerreichung eines theoretische Modells mittlerer Reichweite:
Inhaltsanalyse: eher beschreibend/strukturierend
Narrationsanalyse: biografisch erklärend
GT: theoriegenerierend (offen + rekursiv)
Besonderheit: universell einsetzbar
keine festen Datentypen
alle Methoden sind sowohl Induktiv als auch Deduktiv, aber Grounded Theory ist:
induktiv geprägt, aber mit theoretischer Vorstrukturierung (Sensibilität)
Theorie entsteht durch:
Vergleich
theoretisches Sampling
wichtig: → Theorie entsteht im Prozess, nicht vorher
Typische Probleme
Beobachtung: Distanzverlust („going native“)
Experteninterview: Leitfaden kann Offenheit einschränken
Narratives Interview: Erzählung kann Forschungsziel entgleiten
Inhaltsanalyse: Gefahr zu starker Quantifizierungslogik
Ablauf und Anwendung der Erhebungsmethoden
Die vorgestellten Erhebungsmethoden im Vergleich
Kategorie
Anwendungsbereich
Gut geeignet für Subkulturen und Sozialräume, die den Forschenden unbekannt sind, sowie für die Untersuchung routinisierten Alltagshandelns
Zugriff auf spezifisches und ansonsten unzugängliches Binnenwissen von Expert/innen im engeren oder weiteren Sinn
Rekonstruktion des subjektiven Erlebens sozialer Prozesse, insbesondere im Rahmen der Biografieforschung
Zentrale Elemente
Feldnotizen, Beobachtungsprotokolle, Ad-hoc-Interviews
Interviewleitfaden als thematische Gedächtnisstütze für Forschende
Erzählstimulus zur Initiierung einer Stegreiferzählung, die nicht unterbrochen wird
Grenzen
Häufig schwieriger Feldzugang, insbesondere in öffentlich nicht zugänglichen Sozialräumen
Subjektive Deutungen werden nicht zwingend erfasst
Personen mit unzureichender Erzählkompetenz oder fehlender Bereitschaft, sich auf die Zugzwänge des Erzählens einzulassen
Mögliche Probleme
Gefahr mangelnder analytischer Distanz (going native)
Leitfadenbürokratie kann Offenheit für unerwartete Erkenntnisse einschränken
Selbstbestimmte Erzählungen können sich vom Erkenntnisinteresse der Forschenden entfernen
Kurz:
Methode
Fokus
Stärken
Alltag & unbekannte soziale Felder
Zugang zu Routinen, Subkulturen
Feldzugang schwierig, „going native“-Risiko
Fachwissen von Expert:innen
Zugang zu spezialisiertem Wissen
Subjektive Deutungen oft begrenzt
Biografien & subjektives Erleben
Tiefe Einblicke in Lebensgeschichten
Erzählkompetenz notwendig, Interview entzieht sich Kontrolle
Zentrale Auswertungsmethoden im Vergleich
Datensorten
Transkripte von Experteninterviews, Dokumente
Transkripte von narrativen Interviews
Universell; kann verschiedenste Datensorten auswerten
Große Datenmengen aus verschiedensten Gegenstandsbereichen
Interaktionsfeldstudien und Biografieforschung
Theoriebildung in verschiedensten Gegenstandsbereichen
Stark an quantitativer Sozialforschung orientiert
Homologieannahme zwischen Erzählung und sozialer Wirklichkeit
Flexibilität des methodischen Vorgehens ist erfahrungsabhängig
Explizierende Inhaltsanalyse
Sequenzielle Fallanalyse
Strukturierung
Zusammenfassende und strukturierende Inhaltsanalyse
Strukturierung anhand formaler Textmerkmale und Prozessstrukturen
Kodierparadigma, Kernkategorie, Memos, Diagramme und Maps
Systematisches, regelgeleitetes Verfahren zur Datenreduktion
Interpretation von Erzählungen durch Kontrastierung von Erfahrungsaufschichtung und Eigentheorien
Zirkulärer Wechsel von Offenheit und Strukturierung; Organisation interpretativer Memos
Theoriebildung
Nicht methodisch gesteuert
Stark fall- und vergleichsorientiert
Integration verschiedener Modelle; neuere Ansätze relativieren Anspruch formaler Theorie
Transparenz
Hoch durch explizite Kodierregeln
Muss im Methodenteil explizit hergestellt werden
Reflexion
Interkoderreliabilität in Auswertungsgruppen
Subjektivität der Forschenden wird kaum adressiert
Wachsende Bedeutung von Reflexivität
Schließmodi
Induktion und Deduktion
Charakter
Inhalte großer Datenmengen
Regelgeleitet, strukturierend, reduziert Komplexität
Erzählungen & Lebensverläufe
Sequenziell, prozess- und fallorientiert
Grounded Theory
Theoriebildung aus Daten
Offenes, zirkuläres, vergleichendes Kodieren
👉 Qualitative Methoden unterscheiden sich weniger im Ziel als in der Art, wie sie:
Daten erzeugen
Daten strukturieren
Theorie entwickeln
➡️ Forschung = balancierter Prozess zwischen Offenheit und Ordnung
Zuletzt geändertvor 5 Tagen