Lenzner, T. (2012). Effects of survey question comprehensibility on response quality.
Diese Studie ist ein Kerntext der Survey Methodology.
Sie beantwortet eine sehr grundlegende quantitative Frage:
Was passiert mit Datenqualität, wenn Survey-Fragen schwer verständlich sind?
Das ist hoch prüfungsrelevant, weil:
⭐ Self-Reports stehen und fallen mit Frageverständnis.
Frühere Forschung zeigte:
Vagheit oder Ambiguität → unterschiedliche Interpretationen.
Lenzner erweitert das:
➡ Nicht nur Ambiguität ist problematisch.
➡ Auch kognitive Verständnisschwierigkeit verschlechtert Datenqualität. Lenzner, T. (2012). Effects of …
Die Studie basiert auf:
Grundidee:
Wenn Fragen schwierig sind, können Respondenten:
nicht optimieren,
sondern „satisficen“.
Das bedeutet:
✔ weniger Denkaufwand ✔ schnellere, einfachere Antworten ❌ geringere Datenqualität.
Ob Satisficing passiert hängt ab von:
1️⃣ Question Difficulty 2️⃣ Respondent Ability 3️⃣ Respondent Motivation.
EXTREM prüfungsrelevant — diese Triade kommt oft.
Die zentrale Innovation:
Lenzner operationalisiert konkret,
⭐ welche sprachlichen Merkmale Fragen schwer verständlich machen.
Diese musst du wirklich kennen:
1️⃣ Low-frequency words → seltene Wörter.
2️⃣ Vague relative terms → oft, selten, substantially.
3️⃣ Vague/ambiguous noun phrases → unklare Begriffe.
4️⃣ Complex syntax → verschachtelte Sätze.
5️⃣ Complex logical structures → viele Bedingungen.
6️⃣ Low syntactic redundancy → schwer vorhersehbare Struktur.
7️⃣ Bridging inferences → Respondent muss implizit schließen.
Das ist das methodische Herzstück.
Websurvey
zwei Bedingungen:
✔ Text-Feature Condition (schwer verständliche Fragen) ✔ Control Condition (leichte Fragen).
Randomisierte Zuweisung.
Nach 2 Wochen:
gleiche Fragen erneut.
Warum?
➡ Messung von Over-time consistency (= Reliabilität).
Datenqualität wurde gemessen über:
1️⃣ Breakoff rates 2️⃣ Nonsubstantive responses (Don’t know) 3️⃣ Neutral responses (Midpoint) 4️⃣ Over-time consistency.
Das ist extrem prüfungsrelevant.
Wenn Fragen schwer verständlich sind:
➡ mehr Abbrüche ➡ mehr „Don’t know“ ➡ mehr neutrale Antworten ➡ geringere Konsistenz.
Zusätzlich:
Effekte stärker bei:
niedriger verbal ability,
niedriger motivation.
Schwer verständliche Fragen führen zu:
mehr nonsubstantive responses
mehr neutral responses
geringerer Over-time consistency.
➡ geringere Datenqualität insgesamt.
Sehr wichtiger Befund:
Niedrige verbale Fähigkeit →
mehr nonsubstantive Antworten.
Niedrige Motivation →
mehr neutral responses.
Nicht Ability × Motivation × Difficulty zusammen.
Das ist theoretisch interessant.
Respondenten satisfice unterschiedlich:
niedrige verbal skills → „weiß nicht“
niedrige Motivation → neutral antworten.
Also:
➡ unterschiedliche Shortcut-Strategien.
nonprobability online panel
niedrige response rate
eher hochgebildete Stichprobe.
Prüfer fragen oft danach.
Survey Designer sollten:
➡ kognitiven Aufwand minimieren.
Praktisch:
einfache Sprache
klare Begriffe
weniger komplexe Strukturen.
Schwierige Frage → Gehirn müde → shortcut:
„weiß nicht“
Mitte auswählen
inkonsistente Antworten.
Das ist diese Studie.
Sehr realistisch:
Was ist Satisficing?
Welche 7 Textfeatures?
Warum sinkt Datenqualität?
Rolle von Motivation vs Ability?
Warum Over-time consistency?
Höhere kognitive Verständnisschwierigkeit von Survey-Fragen führt zu Satisficing-Verhalten und reduziert dadurch systematisch die Datenqualität.
Diese Studie ist im Quant-Thema:
⭐ die Survey-Mechanism Study.
Sie erklärt:
Warum schlechte Frageformulierungen zu schlechten Daten führen.
Das ist eine typische Master-Prüfungsstudie.
a) Was ist die Grundidee der Studie?
b) Was ist der Hauptbeitrag?
c) Was ist die zentrale Kernaussage?
d) Was ist die zentrale Prüfungsbotschaft dieser Studie?
a) Untersuchung, wie Verständlichkeit von Survey-Fragen die Qualität von Antworten beeinflusst.
b) Experimenteller Nachweis, dass kognitive Verständnisschwierigkeit systematisch zu schlechterer Datenqualität führt.
c) Je schwieriger Fragen sprachlich sind, desto stärker tritt Satisficing auf und desto schlechter wird die Response Quality.
d) Schwer verständliche Survey-Fragen erhöhen kognitive Belastung, fördern Satisficing-Verhalten und verschlechtern dadurch systematisch die Qualität von Selbstberichtsdaten.
a) Was bedeutet Satisficing?
b) Wann tritt es auf?
c) Welche Konsequenz hat es?
a) Respondenten geben zufriedenstellende statt optimal durchdachte Antworten.
b) Bei hoher Frage-Schwierigkeit, geringer Fähigkeit oder niedriger Motivation.
c) Antwortqualität sinkt.
a) Welche drei Faktoren bestimmen Satisficing?
b) Bedeutung von Ability?
c) Bedeutung von Motivation?
a) Question Difficulty, Respondent Ability, Respondent Motivation.
b) Niedrige kognitive/verbal Fähigkeiten erhöhen Schwierigkeiten.
c) Niedrige Motivation reduziert Verarbeitungsaufwand.
a) Was ist neu an Lenzner (2012)?
b) Wodurch wird Frage-Schwierigkeit operationalisiert?
c) Warum ist das wichtig?
a) Konkrete Messung psycholinguistischer Verständnisschwierigkeit.
b) Durch spezifische sprachliche Text-Features.
c) Macht Fragequalität empirisch testbar.
a) Welche Features machen Fragen schwer verständlich?
b) Beispiele?
c) Warum relevant?
a) Low-frequency words, vague relative terms, ambiguous noun phrases, complex syntax, complex logic, low syntactic redundancy, bridging inferences.
b) seltene Wörter, mehrdeutige Begriffe, verschachtelte Sätze.
c) Erhöhen kognitive Belastung und fördern Satisficing.
a) Wie wurde die Studie durchgeführt?
b) Bedingungen?
c) Warum experimentell wichtig?
a) Websurvey-Experiment mit Randomisierung.
b) schwer verständliche vs verständliche Fragen.
c) erlaubt kausale Aussagen über Frageverständlichkeit.
a) Warum gab es eine zweite Befragung?
b) Was wurde gemessen?
c) Bedeutung methodisch?
a) Wiederholung der Fragen nach zwei Wochen.
b) Over-time consistency.
c) Messung von Antwort-Reliabilität.
a) Welche vier Indikatoren messen Response Quality?
b) Warum mehrere Indikatoren?
c) Ziel?
a) Breakoffs, nonsubstantive responses, neutral responses, over-time consistency.
b) Datenqualität ist multidimensional.
c) umfassende Qualitätsbewertung.
a) Was passiert bei schwierigen Fragen?
b) Welche Qualitätsprobleme steigen?
c) Gesamtinterpretation?
a) Satisficing nimmt zu.
b) mehr „Don’t know“, mehr neutrale Antworten, geringere Konsistenz.
c) Frageverständlichkeit beeinflusst Datenqualität direkt.
a) Wie wirkt verbale Fähigkeit?
b) Typischer Shortcut?
c) Interpretation?
a) Niedrige verbale Fähigkeit erhöht Schwierigkeiten.
b) mehr nonsubstantive responses („weiß nicht“).
c) kognitive Überforderung führt zu Antwortvermeidung.
a) Wie wirkt Motivation?
b) Typisches Antwortverhalten?
a) Niedrige Motivation reduziert Denkaufwand.
b) mehr neutrale Midpoint-Antworten.
c) neutrale Antwort dient als kognitiver Shortcut.
a) Was wurde nicht gefunden?
b) Warum interessant?
c) Schlussfolgerung?
a) Kein gemeinsamer Ability × Motivation × Difficulty Effekt.
b) Faktoren wirken unabhängig.
c) unterschiedliche Satisficing-Strategien existieren.
a) Was misst Over-time consistency?
b) Warum Qualitätsindikator?
c) Ergebnis?
a) Stabilität von Antworten über Zeit.
b) inkonsistente Antworten zeigen geringe Reliabilität.
c) schwierige Fragen reduzierten Konsistenz.
a) Was sollten Survey-Designer tun?
b) Sprachliche Empfehlungen?
a) kognitive Belastung reduzieren.
b) einfache Sprache, klare Begriffe, weniger komplexe Logik.
c) höhere Datenqualität.
a) wichtigste methodische Einschränkungen?
b) Stichprobenproblem?
c) Konsequenz?
a) Online-Panel, niedrige Response Rate.
b) eher hochgebildete Teilnehmende.
c) begrenzte Generalisierbarkeit.
Wenn du diese Punkte kannst → sehr sicher:
1️⃣ Satisficing-Mechanismus 2️⃣ 7 Textfeatures 3️⃣ Response-Quality-Indikatoren 4️⃣ Ability vs Motivation 5️⃣ praktische Konsequenzen für Survey Design
⭐ die Survey-Mechanik-Studie.
Prüfer fragen hier oft:
„Warum entstehen schlechte Survey-Daten eigentlich?“
Wenn du mit Satisficing + Verständlichkeit antwortest → sehr stark.
Zuletzt geändertvor 13 Stunden