Tourangeau, R., & Yan, T. (2007). Sensitive questions in surveys.
Diese Studie ist eine der zentralsten Arbeiten der Survey-Methodologie.
Wenn Lenzner (2012) erklärt:
➡ warum schwierige Fragen schlechte Daten erzeugen,
dann erklärt Tourangeau & Yan:
⭐ warum sensitive Fragen systematisch falsche Antworten erzeugen.
Die Autoren fragen:
Warum berichten Menschen in Surveys bei sensiblen Themen nicht ehrlich?
Beispiele:
Drogennutzung
Sexualverhalten
Einkommen
Wahlbeteiligung
Kriminalität.
Misreporting ist:
❗ kein Zufall.
Es ist:
➡ ein motivierter, situativer Prozess.
Menschen editieren ihre Antworten strategisch.
Die Studie unterscheidet drei Arten von Sensitivität:
Fragen wirken unangemessen oder tabu.
Beispiel: Einkommen, Religion.
Angst vor Konsequenzen, falls Antworten bekannt werden.
Beispiel:
illegale Handlungen,
Eltern könnten zuhören.
Antwort widerspricht sozialen Normen.
nicht wählen gehen,
rassistische Einstellungen.
➡ DAS ist die zentrale Survey-Definition.
Psychologie sieht Social Desirability oft als:
➡ Persönlichkeitseigenschaft.
Survey-Forschung sieht sie als:
⭐ situationsabhängige Antwortstrategie.
Extrem prüfungsrelevant.
Sensitive Questions beeinflussen drei Dinge:
1️⃣ Unit Nonresponse → Teilnahme verweigern.
2️⃣ Item Nonresponse → einzelne Fragen überspringen.
3️⃣ Misreporting → falsche Antworten.
Und:
⭐ Misreporting ist das größte Problem.
Beispiele aus der Studie:
30–70 % positive Drogentests → leugnen Konsum.
Nur ca. 52 % Abtreibungen werden berichtet.
Non-voters behaupten oft, gewählt zu haben.
➡ Bias ist viel größer als Sampling Error.
Respondenten versuchen:
peinliche Situationen zu vermeiden,
sozialen Eindruck zu schützen,
Konsequenzen zu vermeiden.
Misreporting ist also:
⭐ Impression Management.
Was reduziert Misreporting?
Antwort:
➡ Mode of Administration.
Self-Administration > Interviewer Administration.
ACASI
IVR
Web Surveys
Paper Self-Admin.
Warum?
➡ Interviewer sieht Antwort nicht.
Es geht NICHT um physische Präsenz.
Sondern um:
⭐ Wahrgenommene soziale Präsenz.
Wenn Interviewer die Antwort kennt → mehr Bias.
Wer zuhört, ist entscheidend:
Eltern → starke Reduktion sensibler Angaben
Partner → kaum Effekt
Kinder → wenig Effekt.
→ Konsequenz hängt von sozialem Risiko ab.
Neue Medien können selbst soziale Präsenz erzeugen.
Computer kann:
wie sozialer Akteur wirken,
dadurch Social Desirability reaktivieren.
Sehr moderner methodischer Punkt.
Viele Studien nehmen an:
Mehr Reports sensibler Verhaltensweisen = ehrlichere Antworten.
ABER:
➡ bleibt methodisch nur eine Annahme.
Prüfer mögen diese Kritik.
Survey Design beeinflusst:
Ehrlichkeit,
nicht nur Teilnahme.
Design = Messinstrument.
Das ist zentral für Quant-Prüfungen.
Sehr realistisch:
Was macht eine Frage „sensitiv“?
Unterschied Social Desirability vs Disclosure?
Warum hilft Self-Administration?
Rolle von Interviewern?
Warum misreporten Menschen?
Misreporting bei sensiblen Survey-Fragen ist ein situativer, motivationsbasierter Prozess, der stark durch Survey-Design und soziale Präsenz beeinflusst wird.
Stell dir eine Person vor, die gefragt wird:
„Haben Sie illegale Drogen konsumiert?“
Antwort hängt ab von:
wer zuhört,
wie gefragt wird,
ob Konsequenzen möglich erscheinen.
Das ist die ganze Studie.
Diese Studie ist im Thema „Surveys & Self-Reports“:
⭐ die Social Bias Mechanism Study.
Wenn Lenzner zeigt:
➡ kognitive Probleme
zeigt Tourangeau & Yan:
➡ soziale/motivationale Probleme.
Diese Kombination lieben Prüfer.
a) Was ist die Grundidee der Studie?
b) Hauptbeitrag der Studie?
c) Kernaussage?
d) Was ist die wichtigste Prüfungsbotschaft dieser Studie?
a) Analyse, warum sensitive Survey-Fragen zu systematischen Antwortverzerrungen führen.
b) Integration vieler Studien zu Mechanismen von Misreporting und Einfluss von Survey-Design.
c) Sensitivität erzeugt soziale und motivational bedingte Antwortverzerrung, die stark vom Erhebungsmodus abhängt.
d) Antwortverzerrungen bei sensiblen Survey-Fragen entstehen durch sozialen Bewertungsdruck und können durch geeignete Survey-Designs reduziert, aber nie vollständig eliminiert werden.
a) Welche drei Dimensionen von Sensitivität unterscheiden die Autoren?
b) Intrusiveness?
c) Social Desirability?
a) Intrusiveness, Threat of Disclosure, Social Desirability.
b) Frage wird als privat oder unangemessen erlebt.
c) Antwort widerspricht sozialen Normen und erzeugt Druck zur Anpassung.
a) Wie sieht Psychologie Social Desirability?
b) Wie sieht Survey-Forschung Social Desirability?
c) Warum wichtig?
a) Als relativ stabile Persönlichkeitseigenschaft.
b) Als situationsabhängige Antwortstrategie.
c) Design und Kontext können Bias verändern.
a) Welche drei Arten von Response-Problemen entstehen?
b) Was ist Item Nonresponse?
c) Größtes Problem laut Autoren?
a) Unit nonresponse, item nonresponse, misreporting.
b) Einzelne Fragen werden ausgelassen.
c) Misreporting (bewusste Falschangaben).
a) Warum misreporten Menschen?
b) Psychologischer Mechanismus?
c) Ziel der Befragten?
a) Um Peinlichkeit, negative Bewertung oder Konsequenzen zu vermeiden.
b) Impression Management.
c) positives soziales Selbstbild aufrechterhalten.
a) Welche Bereiche zeigen starkes Misreporting?
b) Beispiel Wahlbeteiligung?
c) Bedeutung für Datenqualität?
a) Drogenkonsum, Abtreibung, Sexualverhalten, Wahlverhalten.
b) Viele Nichtwähler geben an gewählt zu haben.
c) Bias kann größer sein als Sampling Error.
a) Welche Rolle spielt der Erhebungsmodus?
b) Warum funktionieren Self-Admin Surveys besser?
c) Beispiele?
a) Survey-Modus beeinflusst Ehrlichkeit stark.
b) geringere soziale Präsenz → weniger Druck.
c) ACASI, Web Surveys, IVR, Papier-Selbstbefragung.
a) Warum erhöhen Interviewer Bias?
b) Wichtiger Mechanismus?
c) Konsequenz?
a) Befragte fühlen sich sozial bewertet.
b) Wahrgenommene soziale Präsenz.
c) mehr sozial erwünschte Antworten.
a) Warum sind Zuhörer relevant?
b) Wer beeinflusst Antworten am stärksten?
c) Interpretation?
a) Zusätzliche soziale Kontrolle erhöht Antwortdruck.
b) Eltern am stärksten.
c) wahrgenommene Konsequenzen bestimmen Antwortverhalten.
a) Was ist Media Presence?
b) Warum überraschend?
c) Bedeutung?
a) Auch Computer können soziale Präsenz erzeugen.
b) selbst ohne echten Interviewer entsteht sozialer Druck.
c) Technologie allein garantiert keine ehrlichen Antworten.
a) Was bedeutet diese Annahme?
b) Warum problematisch?
c) Schlussfolgerung?
a) Mehr Berichte sensibler Verhaltensweisen gelten als ehrlicher.
b) Mehr Berichte sind nicht automatisch wahr.
c) Validität bleibt zentrale Herausforderung.
a) Was zeigen die Autoren über Survey Design?
b) Warum methodisch wichtig?
c) Konsequenz für Forschung?
a) Design beeinflusst nicht nur Teilnahme, sondern Ehrlichkeit der Antworten.
b) Erhebungsmethode wird Teil der Messung.
c) Designentscheidungen müssen theoretisch begründet sein.
a) Was ist der Hauptunterschied?
b) Art des Problems bei Lenzner?
c) Art des Problems hier?
a) Unterschiedliche Mechanismen schlechter Antworten.
b) kognitive Überforderung (Comprehension).
c) soziale/motivationale Verzerrung (Sensitivity).
a) Wie kann man Misreporting reduzieren?
b) Rolle von Anonymität?
c) Ziel?
a) Self-administered Surveys, Privatsphäre erhöhen, sensible Formulierungen verbessern.
b) reduziert soziale Bewertung.
c) ehrlichere Antworten und bessere Datenqualität.
a) Zentrale methodische Einschränkung?
b) Validitätsproblem?
a) Ehrlichkeit kann selten direkt überprüft werden.
b) „mehr Reports = wahr?“ bleibt unklar.
c) Forschung braucht bessere Validierungsstrategien.
Wenn du diese Punkte kannst → prüfungssicher:
1️⃣ Drei Sensitivitätsdimensionen 2️⃣ Misreporting & Impression Management 3️⃣ Interviewer vs Self-Administration 4️⃣ Rolle sozialer Präsenz 5️⃣ Verbindung zu Survey Design
Diese Studie ist im Quant-Thema:
⭐ die Social Bias Survey Study.
Prüfer fragen häufig:
„Warum sind Self-Reports bei sensiblen Themen problematisch?“
Wenn du antwortest mit:
Social Desirability
Survey Mode
Misreporting
→ sehr starke Quant-Antwort.
Zuletzt geändertvor 13 Stunden