Messung von Konstrukten (Abbildung)
Single- vs. Multi-Item-Skalen
Beispiel nennen und jeweils die Vorteile
Beispiel:
„Wie innovativ sind Sie?“
„Wie stark stimmen Sie den folgenden Aussagen zu:
- Ich probiere gerne neue Produkte aus.
- Ich lerne gerne neue Dinge.
- Ich interessiere mich für technologische Entwicklungen.“
Empfehlung Rossiter:
Single-Item-Skalen, wenn Objekt und Attribut konkret sind („a horse is a horse“)
Orientierung an Inhaltsvalidität
Vorteile von Single-Item-Skalen
Vorteile von Multi-Item-Skalen
Schneller & günstiger zu erfragen
Weniger belastend & irritierend für Probanden → geringere Abbruchrate
Komplexe Konstrukte können umfassend erfasst werden
Güte der Konstrukte kann getestet werden
Formative vs. reflektive Skalen
Definition
Beispiel Trunkenheit und Zufriedenheit und Validierung
Exploratorische Faktorenanalyse
/
Faktorenanalyse – Problemstellung
➢ Die Faktorenanalyse reduziert eine Vielzahl von Variablen auf wenige voneinander unabhängige Einflussfaktoren
➢ Motivation:
Validierung von reflektiven (!) Multi-Item-Konstrukten
Die Datenflut wird bei vielen Variablen leicht unübersichtlich.
Sind die Variablen nicht voneinander unabhängig, kommt es bei der Untersuchung von Wirkungszusammenhängen zu Fehlern (Beispiel: Regression).
Beispiel: Marken- und Preisbewusstsein
Formen der Faktorenanalyse
Exploratorische Faktorenanalyse:
Faktorstruktur nicht bekannt / nicht vorgegeben
Exploratorische Faktorenanalyse deckt Faktorstruktur auf
Konfirmatorische Faktorenanalyse:
Faktorstruktur ist bekannt / wird vorgegeben
Konfirmatorische Faktoranalyse prüft die Güte dieser Faktorstruktur
Ansatz basiert auf Strukturgleichungsmodell
➢ Häufig beide Verfahren nacheinander angewandt:
Exploratorische Faktorenanalyse identifiziert Faktoren
Konfirmatorische Faktorenanalyse liefert Gütemaße
Exploratorische Faktorenanalyse – Grundidee
Exploratorische Faktorenanalyse –Vorgehensweise
➢ Überprüfung der Eignung des Datenmaterials für die Faktorenanalyse
➢ Faktorextraktion
➢ Faktorrotation
➢ Interpretation der Faktoren
➢ Beurteilung der Güte von Faktorenanalyse-Lösungen
Eignung des Datenmaterials
Anforderungen
Anforderungen:
Mindestens intervallskalierte Daten
Zahl der Beobachtungen >= 3 * Variablenzahl
Ausgangsdaten sollten eine ausreichende Anzahl von hohen Korrelationen aufweisen
Bartlett‘s Test of Sphericity: Test der Null-Hypothese, dass die Korrelationsmatrix von Variablen stammt, die voneinander unabhängig sind
Kaiser-Meyer-Olkin Measure of Sampling Adequacy (MSA):
Test, inwieweit die Varianz einer Variablen durch die anderen Variablen erklärt wird
Wird für einzelne Variablen berechnet (Diagonalwerte der Anti-Image-Korrelations- matrix) sowie für den gesamten Datensatz
Beispiel: Korrelationsmatrix
Verfahren der Faktorextraktion
Verfahren unterscheiden sich in ihren Annahmen über die Kommunalitäten
Kommunalität: Teil der Varianz einer Variablen, der durch die gemeinsamen Faktoren erklärt wird
Hauptachsenanalyse: Die erwarteten Kommunalitäten werden geschätzt.
Vorgabe von Startwerten (< 1)
Zusätzliche Manipulationsmöglichkeit des Forschers
Hauptkomponentenanalyse: Für die Kommunalitäten wird ein Startwert von 1 angenommen. (1 bedeutet, dass alle Infos vorhanden sind)
Bestimmung der Faktorenanzahl
Mögliche Regeln:
Kaiser-Kriterium: Extrahiere nur Faktoren mit Eigenwerten größer 1
Eigenwert: Erklärungsbeitrag eines Faktors in Hinblick auf die Varianz aller Variablen
Scree-Test: Plotte die Eigenwerte gegen die Zahl der Faktoren – Der erste Punkt links vom Knick in der Funktion (Ellenbogen) gibt die Zahl der zu extrahierenden Faktoren an.
→ Problem: meist kein Knick erkennbar
Wähle die Zahl der Faktoren so, dass die Faktoren besonders gut zu interpretieren sind.
Extrahiere eine bestimmte (gewünschte) Anzahl von Faktoren.
Extrahiere so viele Faktoren, dass mindestens x % der Varianz erklärt sind.
Die Zahl der Faktoren sollte kleiner als die Hälfte der Zahl der Variablen sein.
Faktorrotation
Güte der Lösung
Varianzerklärung: Anteil der Gesamtvarianz der Variablen, der durch die Faktoren erklärt wird Beispiel Zugaben: 71,7 %
Interpretierbarkeit der Faktoren
Cronbach‘s Alpha:
Misst die Reliabilität eines Konstruktes: Erfassen die Variablen (Items), die zu einem Konstrukt zusammengefasst worden sind, den gleichen Sachverhalt?
Akzeptable Werte: >= 0,7 (>=0,6 bei explorativer Forschung)
Cronbach‘s Alpha wird größer mit steigender Anzahl von Items in einem Konstrukt.
Faktorwerte versus Summed Scores
Faktorwerte bzw. Summed Scores geben wieder, welche Ausprägung ein Faktor für eine Beobachtung hat (Beispiel: Wie preisbewusst ist ein Konsument?)
Faktorwert: berechnet auf Basis der Faktorladungen (gewichteter Durchschnitt der Variablenausprägungen)
Vorteil: Faktorwerte sind unkorreliert
Summed Score: ungewichteter Durchschnitt der Variablenausprägungen
Vorteil: Summed Scores vergleichbar über Studien hinweg
-> heutzutage Standard in der wissenschaftlichen Literatur
Beispiel Summed Scores:
Marke = (Marke1 + Marke2 + Marke3)/3
Preis = (Preis1 + Preis2 + Preis3)/3
Korrelation der Konstrukte Preis und Marke = -0,24
Konfirmatorische Faktorenanalyse
Konfirmatorische Faktorenanalyse – Grundidee
Messung komplexer Konstrukte durch Indikatoren
Gleichzeitig Gütebeurteilung der Messung
Sonderfall der Kausalanalyse (Strukturgleichungsanalyse mit latenten Variablen)
Unterschiede zur exploratorischen Faktorenanalyse:
Strukturprüfendes Verfahren
Messfehler explizit berücksichtigt
Erlaubt Test von Modellparametern auf Signifikanz
Aussagekräftigere Gütemaße
Konfirmatorische Faktorenanalyse – Messmodell
Vorgehensweise
Modellspezifikation:
Definition der Variablen und der Konstrukte
Zuordnung der Variablen zu den Konstrukten
Festlegung der Korrelationen zwischen den Konstrukten
Korrelation der Messfehler (sofern inhaltlich sinnvoll)
Prüfung der Modellidentifikationen
Parameterschätzungen
Modellbeurteilungen
Globale Anpassungsparameter
Lokale Anpassungsparameter
Ergebnisinterpretation
Anpassungsmaße
Komplexe Zusammenhänge: Moderation und Mediation
Moderation und Mediation
Moderation: Stärke und/oder Richtung des Effekts einer unabhängigen Variablen X auf eine abhängige Variable Y werden durch eine dritte Variable Z (Moderator) beeinflusst
→ „Wovon hängt die Wirkung von X auf Y ab?“
→ Modellierung über Interaktionseffekt
Mediation: Eine unabhängige Variable X wirkt auf eine abhängige Variable Y über eine dritte Variable M (Mediator)
→„Warum wirkt X auf Y?“
→ Modellierung über Strukturgleichungsmodell
Moderation und Mediation – Beispiele
Modellierung von Moderatoreffekten
Interpretation von Moderatoreffekten
Einfachere Interpretation von Haupteffekten bei Mean-Centering:
Von allen Werten von X wird der Mittelwert von X abgezogen;
von allen Werten von Z wird der Mittelwert von Z abgezogen
Haupteffekt von X = Wirkung von X bei mittlerer Ausprägung des Moderators Z; Haupteffekt von Z = Wirkung von Z bei mittlerer Ausprägung von X
Beispiel Zugaben: Moderator Preisbewusstsein
Beispiel Zugaben: Moderator Produktkategorie
Strukturgleichungsanalyse – Problemstellung
Die Strukturgleichungsanalyse (SGA) umfasst statistische Verfahren zur Untersuchung komplexer Beziehungsstrukturen zwischen Variablen
Nur manifeste Variablen→Pfadanalyse
Auch latente Variablen→Kausalanalyse
Strukturgleichungsanalysen kombinieren faktoranalytische Ansätze (Messmodell) und regressionsanalytische Ansätze (Strukturmodell)
Strukturgleichungsanalysen können gleichzeitig...
Messmodelle für latente Variablen prüfen (z. B. Multi-Item-Konstrukte)
Beziehungen zwischen Variablen untersuchen
Mehrstufige Abhängigkeiten untersuchen (Mediation)
Interaktionseffekte untersuchen (Moderation)
Strukturgleichungsanalyse – Vorgehensweise
Hypothesenbildung
Modellspezifikation
→ ggf. mit Mediation und Moderation
Identifikation der Modellstruktur
→ bei kovarianzanalytischem Ansatz wie bei konfirmatorischer Faktorenanalyse
Parameterschätzung
Kovarianzanalytisch • Varianzanalytisch
Beurteilung der Modellgüte
Interpretation der Ergebnisse
Annahmen für Kausalität:
Veränderung von X resultiert in Veränderung von Y (Kovarianz, Korrelation)
Veränderung von Y geschieht zeitlich nach der Veränderung von X
Kovarianz bzw. Korrelation zwischen X und Y ist nicht auf eine dritte Variable zurückzuführen (Scheinkorrelation)
Erfüllt nur in Experimenten und Längsschnittstudien
SGA sollten die Defizite bei den Annahmen durch ein starkes theoretisches Fundament bestmöglich kompensieren
Interpretation von Mediationseffekten
Beispiel Zugaben: Mediation
Präferenzmessung
Methoden der Präferenzmessung
Conjointanalyse: Problemstellung
Die Conjointanalyse ermittelt, welche Präferenzen Probanden bezüglich der Eigenschaften von Objekten und ihren Ausprägungen haben.
Frage: Welchen Beitrag leisten verschiedene Komponenten zum Gesamtnutzen eines Objektes?
Beispiele:
➢ Produktgestaltung: Welche Präferenzen bestehen in Bezug auf verschiedene Produkteigenschaften, und wie wichtig sind die Eigenschaften für die Konsumenten?
➢ Markenwertmessung: Wie wichtig ist die Marke bei der Kaufentscheidung von Konsumenten?
➢ Zahlungsbereitschaften: Wie wichtig ist der Preis bei der Kaufentscheidung?
➢ Welchen Einfluss nehmen Zugaben auf die Kaufentscheidung?
Conjointanalyse – Grundidee
Typisches Nutzenmodell: additiv
→ Gesamtnutzen = Summe der Teilnutzen für einzelne Eigenschaften
Problem bei direkter Frage nach der Wichtigkeit von Produkteigenschaften:
Meist werden alle Eigenschaften als wichtig bezeichnet.
Grundidee der Conjointanalyse: Probanden werden zu Trade-Offs gezwungen. Beispiel: Was ist wichtiger – ein geringerer Preis oder eine Zugabe?
Prinzipien:
Ganzheitliche Nutzenmessung – Dekomposition in Teilnutzen
Präferenzmessung auf disaggregiertem Niveau (individuell oder segmentweise)
Choice-Based Conjointanalyse – Vorgehensweise
Auswahl von Eigenschaften und Eigenschaftsausprägungen
Erhebungsdesign
Bewertung der Stimuli
Schätzung der Nutzenfunktion (Choice-Modell)
Interpretation der Teilnutzenwerte
Marktanteilssimulation
Beurteilung der Güte der Ergebnisse
Auswahl von Eigenschaften und Eigenschaftsausprägungen – Regeln
Die Eigenschaften müssen relevant sein.
Die Eigenschaften sollten durch den Hersteller beeinflussbar sein.
Die Eigenschaftsausprägungen müssen realisierbar sein.
Die Eigenschaften sollten voneinander unabhängig sein.
Die Eigenschaften müssen in einer kompensatorischen Beziehung zueinander stehen, d. h., sie dürfen keine K.O.-Kriterien darstellen.
Die Anzahl der Eigenschaften und ihrer Ausprägungen muss begrenzt werden.
Erhebungsdesign & Bewertung der Stimuli
Konstruktion von Stimuli, die anhand ihrer Eigenschaftsausprägungen beschrieben werden (Profilmethode)
Beispiel: Flug mit Germanwings zum Preis von 129 Euro mit einer Spendenaktion zur Kompensation des durch den Flug verursachten CO2-Ausstoßes
Choice Sets mit verschiedenen Stimuli Probanden wählen aus jedem Choice Set einen Stimulus aus
Möglich: No Coice-Option
→ validere Antworten, da Probanden nicht zu Auswahl gezwungen
→notwendig zur Ermittlung von Zahlungsbereitschaften
AUFGABENBEGINN WORD DATEI
Choice-Modell (MNL = Multinomial Logit)
Marktanteilssimulation (Choice Simulator)
Grund für die CJA
Ende der Word datei
Beurteilung der Güte der Schätzergebnisse
Traditionelle Conjointanalyse
Beispiel CRM: Ranking der Stimuli
Adaptive Conjointanalyse (ACA)
Mehrstufige Vorgehensweise:
kompositionelle Analyse (Self-Explicated Approach) zur Bestimmung der wichtigsten Eigenschaften
dekompositionelle Analyse (Paarvergleiche) mit diesen wichtigsten Eigenschaften
Gewichtung der ermittelten Nutzenwerte aus den beiden Analysestufen(‚Kalibrierung‘)
Vorteile:
Berücksichtigung vieler Eigenschaften ist möglich
Computergestützte Befragung erlaubt persönliches Design (‚Adaption‘)
Conjointanalyse: Anwendungsempfehlungen
Traditionelle Conjointanalyse kaum noch eingesetzt
sehr mühsam für die Probanden
Unrealistische Erhebungssituation
Standard: Choice-Based Conjoint
→ Berücksichtigung von Heterogenität über Mixture-Modell
Wenn viele Eigenschaften: ACA
Anreizkompatible Verfahren zur Präferenzmessung
Hypothetical Bias
Verzerrung, die auftritt, wenn Daten nicht auf realem Verhalten, sondern auf hypothetischen Äußerungen beruhen
Beispiel: hypothetische Zahlungsbereitschaften sind substantiell größer als reale Zahlungsbereitschaften
Ursachen:
Risikofreie Entscheidungen ohne Verpflichtung (z. B. eigene Budget-Restriktionen
ignoriert)
Soziale Erwünschtheit
Lösungsmöglichkeiten:
Befragte auffordern, realistisch zu antworten („Cheap Talk“)
Anreizkompatible Messverfahren
Anreizkompatible Verfahren zur Messung von Präferenzen
Grundidee: Teilnehmer müssen (evtl.) das Produkt kaufen (mit realem Geld!)
Häufig eingesetzt zur Messung von Zahlungsbereitschaften
Methoden:
Vickrey-Auktion
Methode von Becker/DeGroot/Marschak (BDM)
Anreizkompatible Conjointanalyse
Vickrey-Auktion & BDM
Anreizkompatible Conjoint-Analyse
Methode:
Verfahren den Befragten erläutern
Präferenzmessung mit CBC
Berechnen der Zahlungsbereitschaft für ein reales Produkt aus Teilnutzen
Mit Lotterie ermitteln, ob Befragter kaufen muss und wenn ja, zu welchem Preis
Eigenschaften
Anreizkompatibel wie Vickrey-Auktion und BDM
Indirekte Messung der Zahlungsbereitschaft
Probleme von Methoden der Präferenzmessung
Berücksichtigung von Heterogenität
Berücksichtigung von Heterogenität –Problemstellung
Basis: disaggregierte Daten (z. B. Single-Source-Panel, Conjoint)
Konsumenten unterscheiden sich in...
ihren Präferenzen
ihrer Reaktion auf Marketing-Mix-Variablen
Modellierung dieser Heterogenität wichtig, um...
Heterogenität zu erfassen (z. B. Interesse an Segmenten)
Verzerrungen in Parametern zu vermeiden
Traditionelle Modelle: individuelle oder zweistufige Analysen
Neuere Modelle: simultane Analyse
Traditionelle Vorgehensweise am Beispiel der Conjointanalyse
Auswertung auf individuellem Niveau:
Typisch für trad. Conjointanalyse
Ggf. hinterher Clusterung der Probanden
Auswertung auf aggregiertem Niveau:
Z. T. bei Choice-Based Conjointanalyse
Ggf. vorher Segmentbildung und Analyse auf Segment-Niveau
Probleme:
Individuelle Ergebnisse wenig reliabel
Aggregierte Ergebnisse verwischen Präferenzunterschiede, haben Bias
Zweistufige Ansätze finden nicht die beste Segmentlösung
Lösung: Mixture-Modelle
Neuere Ansätze zur Modellierung von Heterogenität
Mixture-Modelle
Continuous Mixture-Modell
Grundidee:
man schätzt einen Parameter und nimmt eine Verteilung an
Modellparameter unterliegen einer Verteilung
Annahme einer Verteilungsform
Schätzung der Parameter der Verteilung
Typische Verteilungsform: Normalverteilung
Typische Schätzverfahren:
Simulated Maximum Likelihood
Hierarchical Bayes
Finite Mixture-Modell – Grundidee
Probanden werden in Segmente eingeteilt
Simultane Schätzung von
Wahrscheinlichkeiten der Segmentzugehörigkeit
Modellparameter pro Segment
Schätzung von Modellen mit unterschiedliche vielen Segmenten und Auswahl des besten Modells (z. B. niedrigster BIC)
Modell
CRM: Segmentanzahl
CRM: Parameter
Berücksichtigung von Endogenität
Kausale Marktforschung
Ziel: Analyse von kausalen Wirkungszusammenhängen
Annahme: Unabhängige Variable ist exogen
Erfüllt bei Experimenten (Faktoren durch Marktforscher systematisch manipuliert)
Evtl. problematisch bei nicht-experimentellen Daten
Frage: Wie wirkt der Preis auf den Absatz?
Daten: Marktdaten
Endogenitäts-Problem: Wenn die Nachfrage steigt, erhöhen Unternehmen den Preis (Simultanität)
Konsequenz: ohne Kontrolle für Endogenität wird der Preis-Effekt unterschätzt
→ Meta-Analyse von Bijmolt/van Heerde/Pieters (2005): Mittlere Preiselastizität
Ohne Kontrolle für Endogenität: - 2,47
Mit Kontrolle für Endogenität: -3,74
Endogenität im Regressionsmodell
Ursachen von Endogenität
Simultanität (Endogenität im engeren Sinne)
→ Beispiel: Preis wirkt auf Absatz und umgekehrt
Selbstselektion
→ Beispiel: Wirkung von Bonusprogrammen auf den Umsatz – Kunden, die am Programm teilnehmen, kaufen mehr – aber es nehmen auch eher die Kunden teil, die mehr kaufen
Fehlende Variablen
→ Beispiel: Einfluss der Ausbildung auf das Einkommen – beides beeinflusst von Fähigkeit (schwer zu beobachten)
➢ Sonstige
Umgang mit Endogenität
Diagnose:
Statistische Tests begrenzt aussagekräftig (erst a posteriori möglich, erfordern unverzerrten Schätzer)
Sachlogik
Ansätze zur Berücksichtigung von Endogenität im Modell:
Korrektur der Modellspezifiktion, z. B.
fehlende Variablen aufnehmen
Mehrgleichungssystem bei Simultanität
Schätzung mit Instrument-Variablen
Matching (bei Selbstselektion)
Sonstige
Instrument-Variablen
Instrument-Variablen – Beispiele
Beispiel Hotel
Wie wirkt der Preis auf die Nachfrage?
Problem: Preis und Nachfrage abhängig von Qualität (nicht beobachtbar) , Simultanität
Instrument „Kosten“: valide, aber nicht stark
Instrument „Preise der Konkurrenz“: stark aber nicht valide
Instrument-Variablen – Güte
Instrument-Variablen lösen das Endogenitäts-Problem, wenn geeignete Instrumente gefunden werden können
→ Falls nicht, ist die Kur evtl. schlimmer als das ursprüngliche Problem!
Probleme bei der Wahl von Instrumenten:
Hohe Korrelation mit Fehlerterm e→Endogenitätsproblem nicht gelöst, Schätzer
verzerrt
Geringe Korrelation mit unabh. Var. x → ineffizient
Propensity Score Matching
Geeignet zur Lösung von Selbst-Selektions-Problemen
Quasi-Experiment
Künstlich vergleichbare Treatment- und Kontrollgruppen herstellen
Identifikation von „Zwillingspaaren“
→ Unterschiede möglichst nur im Treatment ➢
Vorgehensweise:
Berechnung eines Propensity Scores für jeden Probanden: Wahrscheinlichkeit, dass ein Proband das Treatment erhält in Abhängigkeit von Kovariaten (Logistische Regression)
Matchen von Probanden mit ähnlichen Propensity Scores
Güte: hängt ab von der Eignung der Kovariate (müssen die Treatment-Wahrscheinlichkeit gut vorhersagen)
Propensity Score Matching – Beispiel
Zuletzt geändertvor einem Jahr