Buffl

Content Analysis & Linkage Studies 2: Riffe, D., & Freitag, A. (1997). A content analysis of content analyses

FP
by Federico P.

Riffe, D., & Freitag, A. (1997). A content analysis of content analyses

OVERVIEW



Diese Studie ist methodisch SEHR clever.

Sie machen:

eine Content Analysis von Content Analyses.

Das bedeutet:

➡ Sie analysieren nicht Medieninhalte,

sondern:

frühere Forschungsstudien.

Das ist eine sogenannte:

META-METHODENANALYSE.

🔑 Zentrale Forschungsfrage

Die Autoren fragen:

Wie hat sich quantitative Content Analysis über 25 Jahre entwickelt?

Sie analysieren:

  • alle Content-Analysis-Studien im Journal Journalism & Mass Communication Quarterly (1971–1995).

🧠 Warum ist diese Studie im Quant-Teil so wichtig?

Weil sie zeigt:

➡ Wie gut (oder schlecht) Wissenschaftler Content Analysis tatsächlich anwenden.

Das heißt:

nicht Theorie über Medien —

sondern:

⭐ Qualität von Forschung selbst.

🎯 Was genau wird untersucht?

Die Autoren codieren jede Studie nach:

  • Autorenstruktur (Solo / Coauthorship)

  • Medium (Zeitung, TV etc.)

  • Content-Typ (News, Werbung …)

  • Sampling

  • Theory Linkage

  • Reliability Reporting

  • Statistik-Niveau.

Das ist im Prinzip:

➡ eine Methodenkritik der Disziplin.

⭐ Zentrale Ergebnisse (SEHR prüfungsrelevant)

Die wichtigsten Befunde:

1️⃣ Massive Zunahme von Content Analyses

  • Anzahl steigt stark über 25 Jahre.

2️⃣ Co-Authorship steigt

  • Forschung wird kollaborativer.

3️⃣ Reliability Reporting verbessert sich

  • mehr Studien berichten Intercoder Reliability.

4️⃣ Statistik wird komplexer

  • weniger reine Deskriptivstatistik.

ABER (ganz wichtig):

❗ Kein Anstieg theoretischer Fundierung

  • viele Studien ohne Theorie,

  • oft ohne Hypothesen oder Forschungsfragen. Riffe, D., & Freitag, A. (1997)…

Das ist DER zentrale Kritikpunkt.

🧩 Größte methodische Schwäche (Prüfer lieben das)

Viele Studien:

  • nutzen Convenience Samples,

  • haben schwache Theorieintegration,

  • testen keine Beziehungen.

Das bedeutet:

➡ Methodische Entwicklung ≠ theoretische Entwicklung.

⭐ Die große Paradoxie der Studie

Die Disziplin wird:

  • statistisch besser,

  • reliabler,

aber:

❌ nicht theoretisch stärker.

Das ist ein sehr starkes Prüfungsargument.

⚙️ Reliability (Brücke zu Krippendorff!)

Etwa die Hälfte berichtet Intercoder Reliability.

Trend:

  • klar steigend über Zeit.

Das zeigt:

➡ Methodische Standards verbessern sich.

🧠 Sampling-Probleme

Sehr viele Studien verwenden:

  • purposive oder convenience sampling.

Problem:

➡ eingeschränkte Generalisierbarkeit.

📊 Statistik-Level

Früher:

  • hauptsächlich Descriptive Statistics.

Später:

  • komplexere Analysen.

Aber:

➡ nicht immer sinnvoll wegen Stichprobenproblemen.

🔥 Hauptkritik der Autoren

Sie sagen im Grunde:

Quantitativ besser werden reicht nicht, wenn Theorie fehlt.

Sehr prüfungsrelevant.

⭐ Warum das für dein Quant-Thema zentral ist

Studie 1 (Krippendorff):

➡ erklärt, WIE Content Analysis sein sollte.

Studie 2 (Riffe & Freitag):

➡ zeigt, WIE sie tatsächlich gemacht wird.

Das ist eine perfekte Kombination.

🎯 Typische Prüfungsfragen

Prüfer fragen oft:

  • Warum ist diese Studie eine Meta-Analyse?

  • Welche Trends wurden gefunden?

  • Warum ist theoretische Fundierung wichtig?

  • Was bedeutet methodischer Fortschritt ohne Theorie?

  • Welche Schwächen zeigen sich in Content Analyses?

⭐ Ein Satz, den du können solltest

Die Studie zeigt eine quantitative Professionalisierung der Content Analysis, jedoch ohne parallelen Anstieg theoretischer Integration.

🧠 Mentales Bild (Hilft extrem!)

Stell dir vor:

Du analysierst nicht Medien —

sondern alle Forschenden, die Medien analysieren.

Das ist diese Studie.

🔥 Professor-Insight (extrem wichtig für Quant)

Diese Studie ist:

⭐ ein Methoden-Spiegel der Disziplin.

Prüfer nutzen sie gern, weil sie zeigt, ob du:

  • Methodenkritik,

  • Forschungsevaluation,

  • wissenschaftliche Qualität

verstehen kannst.

Author

Federico P.

Information

Last changed