1 - Grundlagen der Marktforschung
Definition Begriff Marktforschung.
Marktforschung befasst sich mit der Sammlung, Verarbeitung und Analyse von Informationen über Märkte. Sie soll einen aktuellen bzw. künftigen Informationsbedarf befriedigen, der sich aus Entscheidungsproblemen eines Unternehmens ergibt.
Warum betreiben Unternehmen Marktforschung?
Verbesserung von Entscheidungen
Tradition
Herbeiführung von Übereinstimmung
Absicherung für den Fall von Misserfolgen
Erzeugung von Aufmerksamkeit
Verzögerung von Entscheidungen
Rechtliche Überlegungen
PR/Werbung
Beschreibe den Marktforschungsprozess
7 Schritte
2 - Grundlagen der Gewinnung von Daten
Nenne die drei Arten der Marktforschung und deren jeweiligen Ausgangspunkt und Ziele.
Explorative Marktforschung
Ausgangspunkt: geringe Problemkenntnis
Ziele:
Einsicht in die Art des Problems
Erfassung möglicher Alternativen / relevanter Variablen Generierung von Hypothesen
Deskriptive Marktforschung
Ausgangspunkt: Problemstruktur bekannt, aber keine Daten über die Marketing-Umwelt. (Bsp: Wie häufig ist etwas? Wie stark ist es ausgeprägt? Wie ist die Meinung des Konsumenten?)
Ziel: Beschreibung der Marketing-Umwelt
Kausale Marktforschung
Ausgangspunkt: Hypothesen über Wirkungszusammenhänge
Test dieser Hypothesen
Bestimmung der Stärke von Zusammenhängen
Bestimmung der Richtung von Zusammenhängen
Wie unterscheiden sich Primär- und Sekundärdaten? Welche Grundregel ist zu beachten?
Sekundärdaten: existieren bereits - neuer Verwendungszweck
Unternehmensintern (z. B. Marketing-Aktivitäten, Transaktionsdaten,
Kundendatenbanken, Online-Verhalten)
Extern (z. B. amtliche Statistiken, Veröffentlichungen von Verbänden, wissenschaftliche Publikationen, Kundenäußerungen online)
Primärdaten: werden speziell für den Untersuchungszweck erhoben
Regel: immer erst prüfen, ob Sekundärdaten vorhanden sind
Welche zwei Formen der Datenerhebung gibt es?
Qualitative Datenerhebung
→ besonders geeignet für explorative Marktforschung
→ Vorbereitung und Ergänzung quantitativer Forschung
Quantitative Datenerhebung
→ besonders geeignet für deskriptive und kausale Marktforschung
Definiere den Begriff “Experiment”.
Empirische Untersuchung zur Überprüfung von Kausalhypothesen
Systematische Variation der Test-Variablen unter Kontrolle aller anderen Variablen / Bedingungen
Nur Experimente lassen Kausalaussagen zu.
Was ist Kausalität und wie kann man diese überprüfen?
Kausalität: Wenn ich eine Variable ändere (z. B. Preis), ändert sich eine andere Variable (z. B. Absatz) als Konsequenz davon.
Hypothesen über Kausalität ergeben sich aus Theorien – Empirische Überprüfung der Hypothesen führt zur Anpassung von Theorien
Prüfen von Kausalität bei nicht-experimentellen Daten:
Häufiges gemeinsames Auftreten von zwei Ereignissen
Zeitliche Reihenfolge der Ereignisse
Ausschließen alternativer Erklärungen
-> Besser mit Experiment
Welche Probleme ergeben sich bei verschiedenen Arten der Variation der Experimantalvariablen (Between-Subjects; Within-Subjects; Querschnitt; Längsschnitt)?
Definiere Feld- und Laborexperimente und vergleiche Zeitaufwand, Kosten, Geheimhaltung, Interne- und Externe-Validität.
Frage hierzu: + bedeutet “höher” und nicht “besser”, richtig? Ein Laborexperiment müsste theoretisch deutlich mehr Zeitaufwand benötigen aufgrunf der Vorbereitungen und die dazugehörigen Kosten müssten auch deutlich höher sein.
Nenne einige Probleme von Experimenten.
Probleme der internen Validität (Kontrolle von Störeinflüssen):
Nichtvergleichbarkeit von Test- und Kontrollgruppe
Sterblichkeit von Testpersonen
Äußere Einflüsse
Veränderungen über die Zeit
Änderung des Erhebungsinstrumentes
Test-Effekte
Raten von Hypothesen
Problem der externen Validität (Realitätsnähe):
• Wenig realistische Aufgabenstellung
Welche zwei Formen von Beobachtungen gibt es?
Teilnehmende Beobachtung
Marktforscher als Außendienstmitarbeiter oder Verkäufer (z. B. um Kundenargumente und Verwendungsprobleme zu ermitteln)
Marktforscher begleitet Außendienstmitarbeiter
Marktforscher als Kunde (z. B. Mystery Shopping)
Nichtteilnehmende Beobachtung
Unternehmensdaten (z. B. Absatzzahlen, Werbebudgets)
Scanning
Online-Verhalten (z. B. über Cookies)
Content aus sozialen Medien (z. B. Produktbewertungen)
Kameras, Video (z. B. Aufzeichnung von Einkaufsverhalten am Regal)
Apparative Beobachtung
Blickaufzeichnungsgerät (z. B. bei Anzeigen)
Pupillometrische Kamera (z. B. für Aktivierungsprozesse)
Galvanometer: Schweißabsonderung (z. B. für Aktivierungsprozesse)
Brainscans
Audimeter (z. B. für Fernsehbeteiligung)
Was ist Neuroscience im Zusammenhang der Marktforschung?
-> Ziel: Messung kognitiver und affektiver Prozesse
-> Neurophysiologische Techniken:
Elektrische Aktivität, z. B. Elektroencephalographie (EEG)
Stoffwechsel-Aktivität, z. B. Magnetresonanztomographie (MRT)
-> Voraussetzung für die Interpretation: Kartographie des Gehirns
-> Beispielhafte Erkenntnisse:
Testimonials von Experten führen zur Aktivierung von Gedächtnisstrukturen und steigern die Kaufabsicht
Für die Entstehung von Kundenloyalität sind Hirnstrukturen des Belohnungs- systems von Bedeutung
Markenpersönlichkeiten und menschliche Persönlichkeiten werden im Gehirn unterschiedlich verarbeitet
-> Z. T. von Unternehmen genutzt für Werbe-Pretests
Vergleiche Beobachtung versus Befragung und nenne für beide Vorteile.
Vorteile der Beobachtung:
Unabhängig von Auskunftsbereitschaft und Verbalisierungsfähigkeit der
Probanden
Erfassung von unbewusstem, unreflektiertem Verhalten
Körperreaktion nicht abfragbar
Interviewereinfluss entfällt
Vorteile der Befragung:
Präferenzen, Einstellungen und Erinnerung nicht beobachtbar
Geringere Erhebungsdauer und Kosten
Fazit:
Beobachtung sinnvoll zur Erfassung von Verhalten
Befragung sinnvoll zur Erfassung von Präferenzen, Einstellungen, Erinnerung
Was ist ein Konstrukt (im Zusammenhang mit Marktforschung) ?
Konstrukt: Etwas, das man messen will z. B. Absatz, Persönlichkeitseigenschaften
Was ist ein Item (im Zusammenhang mit Marktforschung) ?
Einzelnes Objektmerkmal, das gemessen wird Komplexe Konstrukte werden häufig über mehrere Items erfasst („Multi-
Item-Skalen“)
z. B. Markentreue: „Bei den meisten Produkten bevorzuge ich eine bestimmte Marke.“
„Um meine bevorzugte Marke zu kaufen, nehme ich einigen Aufwand in Kauf.“
„Normalerweise ist es mir wichtig, welche Marke ich kaufe.“
Was ist Messen (im Zusammenhang mit Marktforschung)?
Empirischer Vorgang, bei dem die Ausprägungen von Objektmerkmalen festgestellt werden
z. B. Scanning, Befragung
Was ist Skalieren (im Zusammenhang mit Marktforschung)?
Abstrakter Vorgang, bei dem diesen Ausprägungen Zahlenwerte zugewiesen werden
z. B. 50 Stück, Einstellungswert 5 („stimme voll zu“)
Welche Skalenniveaus gibt es?
Was ist eine Rating-Skala?
Ratingskala:
Nicht-vergleichend – Objekte / Eigenschaften / Statements werden einzeln beurteilt
Urteile z. B. zu Zustimmung, Wichtigkeit, Attraktivität, ...
Strenggenommen Ordinal-Skala, aber meist als Intervall-Skala behandelt
Was ist zu der optimalen Anzahl an Skalenpunkten zu sagen?
Wie viele? Trade-Off:
Je größer die Anzahl der Skalenpunkte, desto höher der Informationsgehalt
Je kleiner die Anzahl der Skalenpunkte, desto höher die Antwortbereitschaft und die Reliabilität
Kompromiss: 5 - 7 Skalenpunkte
Gerade oder ungerade Anzahl? Trade-Off:
Bei gerader Anzahl von Skalenpunkten (ohne neutralen Punkt) müssen die
Befragten sich entscheiden.
Bei ungerader Anzahl von Skalenpunkten (mit neutralem Punkt) höhere Antwortbereitschaft und Reliabilität
Häufiger verwendet: Ungerade Anzahl von Skalenpunkten
Nenne zwei veschiedene spezielle Rating Skalen.
Likert-Skala:
Zustimmung zu Statements (mehrere zu einem Konstrukt)
Analyse von einzelnen Items oder Multi-Item-Skalen
Semantisches Differential:
Endpunkte mit bi-polaren Labels
Was sind Typische Skalen für die Einstellungsmessung?
Vergleichende Skalen
Auswahlplan
Nenne zwei Verfahren der nichtzufälligen Auswahl.
Quotenauswahl
Auswahl so, dass die Verteilung bestimmter Merkmale (Quotenmerkmale) in der Teilauswahl mit der Verteilung dieser Merkmale in der Grundgesamtheit übereinstimmt; Vorgabe von Quotenanweisungen an die Interviewer
Typische Quotenmerkmale: Alter, Geschlecht, Beruf
Schwierigkeiten: - Auswahl geeigneter Quotenmerkmale - gewisse Willkür
- detaillierte Quoten schwer zu erfüllen
Am häufigsten angewendetes Verfahren (einfach, recht gute Ergebnisse)
Konzentrationsverfahren
Bewusste Konzentration auf einen Teil der Grundgesamtheit
Beispiel: typische Städte, Heavy User
Achtung: Auswahl aufs Geratewohl (Convenience Sampling) ist keine bewusste Auswahl, sondern Willkür
Nenne zwei Verfahren der Zufallsauswahl und ihre Vor- und Nachteile.
Einfache Zufallsauswahl
Jedes Element der Grundgesamtheit besitzt die gleiche Wahrscheinlichkeit, in die Auswahl zu gelangen.
Einfacher und am häufigsten angewandter Typ der Zufallsauswahl
Klumpenauswahl (Cluster Sampling)
Untersuchungseinheiten werden in Gruppen ausgewählt (z. B. Haushalte,
Unternehmen)
Vorteile: - z. T. Auswahlbasis einfacher zu beschaffen - Befragung einfacher durchzuführen
Vorteile der Zufallsauswahl:
Berechenbarkeit des Zufallsfehlers
Vermeidung grober Verzerrungen durch Auswahl
Nachteile der Zufallsauswahl:
Höhere Kosten für Planung und Durchführung
Keine Substituierbarkeit der ausgewählten Einheiten (Bias durch Antwortverweigerung)
Nenne Probleme einer geringen Antwortquote.
Nenne Determinanten der Antwortquote.
Interesse am Untersuchungsgegenstand
Länge der Befragung
Aufmachung des Fragebogens
Begleitschreiben mit persönlicher Anrede, Zusicherung der Anonymität, Beschreibung des Befragungszweckes, „Dank im voraus“
Interessante Eröffnung
Animation durch Format, Farbe, Grafiken, etc.
Anreize
Bei Konsumenten z. B. Werbegeschenk, Vergütung, Teilnahme an Verlosung
Bei Unternehmen z. B. Bereitstellung einer Zusammenfassung der Ergebnisse
Vorankündigung der Befragung
Nachhaken (schriftlich oder telefonisch)
Was ist Reliabilität und wie überprüft man diese?
Reliabilität = Freiheit von Zufallsfehlern → Erreicht man das gleiche Ergebnis bei Wiederholung der Messung?
->Überprüfung:
Test-Retest-Reliabiliät: Vergleich der Ergebnisse von zeitlich aufeinanderfolgenden Messungen eines Messobjektes mit demselben Messinstrument
Split-Half-Reliabilität: Aufteilung des Samples in zwei Hälften und Vergleich der Messergebnisse
Was ist Validität und wie überprüft man diese?
Validität = Freiheit von systematischen Fehlern → Misst man das, was man messen will?
Inhaltsvalidität (Content Validity, Face Validity): Plausibilität der Messergebnisse
Konstruktvalidität: Übereinstimmung der Messung eines Konstrukts mit dem wahren Wert des Konstrukts (nicht erfassbar, daher Ersatzkonzepte):
Konvergierende Validität: Unterschiedliche Messmethoden führen für den gleichen Sachverhalt zu gleichen Ergebnissen
Diskriminierende Validität: Eine Messmethode führt bei Anwendung auf unterschiedliche Sachverhalte zu unterschiedlichen Ergebnissen
Kriteriumsvalidität: Übereinstimmung der Messergebnisse mit einem „Kriterium“
Concurrent Validity: Kriterium gleichzeitig gemessen
Prognosevalidität (Predictive Validity): Kriterium später gemessen
Wie verhalten sich Systematische- und Zufallsfehler zum wahren Wert?
Was ist die Generalisierbarkeit und in welchen Hinsichten lässt sie sich betrachten?
Generalisierbarkeit = Übertragbarkeit → Kann man die Ergebnisse auf andere Objekte, Regionen, Zeiten übertragen?
Generalisierbarkeit in
Sachlicher Hinsicht
Beispiel: Sind Preiselastizitäten für Schokolade ähnlich wie die für Joghurt?
Räumlicher Hinsicht Beispiel: Verhalten sich Konsumenten in Deutschland so wie die in den Niederlanden?
Zeitlicher Hinsicht Beispiel: Werden heute die gleichen Anforderungen an ein Smartphone gestellt wie vor 3 Jahren?
Was ist die Common Method Variance (CMV)? Nenne Beispiele.
Synonym: Common Method Bias
-> Systematischer Messfehler, insbes. bei Befragungen
-> Zusammenhang zwischen Variablen ist verzerrt, weil abhängige und unabhängige Variablen aus der gleichen Quelle stammen
→Zusammenhang kann stärker oder schwächer erscheinen, als er ist
Beispiel:
Forschungsfrage: Wie wirkt die Organisation auf den Unternehmenserfolg?
Befragung von einem Manager pro Unternehmen
Befragte neigen dazu, für sie konsistente Antworten zu geben
Was sind ursachen von CMV?
-> Single Source Bias
Konsistenz-Motiv
Implizite Theorien
Soziale
Erwünschtheit
etc.
-> Item- Charakteristika
Versteckte Lösungshinweise
Gleiches Format
Identische Skalen-Anker
Formulierung (positiv/negativ)
-> Item-Kontext
Item-Positionierung
Item-Umgebung
Kontextinduzierte Stimmung
-> Erhebungs- Kontext
Identische Erhebungszeit
Identischer Erhebungsort
Identisches Erhebungs- medium
Wie kann man mit CMV umgehen?
-> Ex ante (Vermeidung von CMV durch das Forschungs-Design):
Möglichst objektive Daten
Verschiedene Quellen für abhängige und unabhängige Variablen
Nutzung verschiedener Skalen-Typen, Veränderung der Reihenfolge der Items
-> Ex post:
Komplexes Modell → reduziert die Wahrscheinlichkeit von CMV
Statistische Methoden zur Entdeckung von CMV, z. B.
Harman‘s Ein-Faktor-Test (häufig eingesetzt, aber wenig effektiv)
Marker-Variable
3 - Grundlagen der Datenanalyse
Wie ist bei der Kodierung von Daten vorzugehen?
Wichtig: Code-Buch, in dem steht wie was codiert wird.
Was ist beim Überprüfen von Daten zu beachten?
Data-Cleaning: unplausible Daten entfernen (zB Alter 190 Jahre) -> Ermessensfrage
Korrekte Dateneingabe
Vollständigkeit
Aufmerksamkeitscheck
Bearbeitungszeit
Plausibilität
Konsistenz
Was sind mögliche Ursachen von Missing Values und wie geht man mit diesen um?
Mögliche Ursachen:
Fehlerhaftes Untersuchungsdesign
Antwortverweigerung
Mangelndes Wissen
Übersehen von Fragen, Motivationsprobleme
Unvollständigkeit von Sekundärdaten
Fehler bei der Kodierung
Möglichkeiten der Behandlung:
Daten nacherheben
Eliminierung
von Variablen
von Beobachtungen
Imputation (Ersetzen durch Schätzwerte)
Lageparameter (zB Median einsetzen wenn Daten fehlen)
Regression auf andere Variablen (prognostizieren - bei hohem R^2 gute Methode)
Expertenschätzungen
Was ist der Modus (Lagemaß)?
Modus: Am häufigsten besetzter Wert
Welches multivariate Verfahren eignet sich zur Datenverdichtung?
-> Faktorenanalyse
Zusammenfassung von Variablen
Beispiel: Messung des Konstrukts ‚Innovativität‘ über 5 Items
Wann nutzt man welches Verfahren zur Analyse von Zusammenhängen?
Wann kann man welchen Korrelationskoeffizienten nutzen um bivariate Zusammenhänge zu analysieren?
Wie lautet der Pearson’sche Korrelationskoeffizient und wie interpretiert man diesen?
Pearson’s Korrelationskoeffizient testet für lineare Zusammenhänge.
Wofür verwendet man die Kontingenzanalyse?
Die Kontingenzanalyse untersucht den Zusammenhang zwischen mehreren nominalskalierten Variablen.
Darstellung des Zusammenhangs in Kreuztabellen
Prüfung der Signifikanz des Zusammenhangs durch Kontingenzanalyse
→Chi2-Test
Stärke des Zusammenhangs:
Phi-Koeffizient
Kontingenzkoeffizient
Auch mit mehr als 2 Variablen möglich (klassisch aber mit 2)
Welche Nutzen hat der Chi^2-Test?
Der Chi^2-Test gibt die Signifikanz des Zusammenhangs an.
Testet, ob die beiden Variablen voneinander abhängig sind (Ho: X und Y sind voneinander unabhängig)
Grundidee: Bei Unabhängigkeit muss gelten:
Erwarteter Wert = Zeilensumme * Spaltensumme / Gesamtsumme
t-Test auf Mittelwertunterschiede
Was ist die Grundidee von nichtparametrischen Tests?
Grundidee:
Viele statistische Tests verlangen die Annahme bestimmter Verteilungen der
Variablen (z. B. Normalverteilung bei t-Test).
Nichtparametrische Tests sind demgegenüber verteilungsfrei (z. B. Chi2-Test).
→ Wichtig bei kleinen Stichproben, konservativ
Wozu dient eine Regressionsanalyse?
Die Regressionsanalyse untersucht den Zusammenhang zwischen einer metrisch skalierten abhängigen und einer oder mehreren unabhängigen Variablen.
Anwendungsgebiete: Ursachenanalyse oder Prognose
Beispiele:
Kann das Kaufverhalten durch Eigenschaften von Personen erklärt werden? (z. B.: Kann die Markentreue durch Eigenschaften von Konsumenten erklärt werden?)
Wie beeinflussen Preis, Werbung und Vertrieb den Absatz?
Wie hängt die Gesundheit von Ernährung, Sport und sozialen Faktoren ab?
Einfache Regression: eine unabhängige Variable
Multiple Regression: mehrere unabhängige Variablen
Wie funktioniert die Schätzung der Regressionsfunktion mit der Methode der Kleinsten Quadrate?
Wie lautet das Bestimmtheitsmaß und wann ist eher signifikant?
-> Eher signifikant umso mehr Freiheitsgrade.
Wie ist die Vorgehensweise bei einer Regressionsanalyse?
Modellformulierung
Schätzung des Modells
Prüfung der Annahmen der Regressionsanalyse
Prüfung auf Ausreißer
Prüfung der Modellgüte
Prüfung & Interpretation der Regressionskoeffizienten
Wozu kann eine Dummyvariablen-Kodierung verwendet werden?
Nominalskalierte unabhängige Variablen müssen in Binärvariablen (Dummies) transformiert werden.
Anzahl Dummies = Anzahl Variablenausprägungen – 1 [ansonsten perfekte Multikollinearität]
Welche Annahmen liegen der Regressionsanalyse zu Grunde?
Linearität
→ Diagnose von Nicht-Linearität durch Plot jeder unabhängigen Variablen mit der ab- hängigen Variablen
→ Ggf. Transformation von Variablen
Normalverteilung der Residuen
→ Bei großen Stichproben (K> 30) aufgrund des Zentralen Grenzwertsatzes unkritisch
Keine Multikollinearität (d. h. unabhängige Variablen sind unkorreliert)
Keine Autokorrelation (d. h. Residuen sind unkorreliert)
→ Problematisch vor allem bei Zeitreihen
→ Diagnose durch Durbin/Watson-Test (Soll-Wert: 2)
Keine Heteroskedastizität = Homoskedastizität (d. h. konstante Streuung der Residuen)
→ Diagnose durch Plot der standardisierten Residuen gegen die standardisierten Schätzwerte der abhängigen Variablen
Wie testet man auf Multikollinearität?
Bivariate Korrelationskoeffizienten
→ Hohe Korrelationen sind ein Zeichen für Multikollinearität.
Toleranzen:
Regression einer unabhängigen Variablen auf alle anderen unabhängigen Variablen
Toleranz der Variablen: 1-R2 dieser Regression (Variance Inflation Factor (VIF = 1 / Toleranz) [-> R2 klein, dann Toleranz groß. Korrelation der Variablen soll möglichst gering sein]
Verändern sich die Regressionskoeffizienten und/oder ihre Standardfehler, wenn man unabhängige Variablen aus dem Modell herausnimmt?
→aussagekräftigster Test; durchführen, wenn Alarmsignale (Korrelation, VIF)
Wie kann anhand des f-tests die Güte des Gesamtmodells bestimmt werden?
Wie kann man die Regressionskoeffizienten interpretieren?
Weshalb wird eine logistische Regression benötigt?
Bei binärskalierten abhängigen Variablen ist die Regressionsanalyse nicht anwendbar, da die Annahme normalverteilter Residuen verletzt ist.
→ Inferenzstatistische Aussagen wären unmöglich
Erkläre die Grundidee einer logistischen Regression.
Wie geht man bei einer logistischen Regression vor?
Formulierung des Modells
Schätzung des Modells
Überprüfung der Annahmen der logistischen Regression
Keine Multikollinearität
Keine Autokorrelation
Identifikation von Ausreißern
-> Cook‘s Distance
Überprüfung der Modellgüte
InterpretationderKoeffizienten
Wie ist die Vorgehensweise bei der Schätzung eines logistischen Modells?
Wie wird die Modellgüte überprüft?
Wie sind die Koeffizienten einer logistischen Regression zu interpretieren?
Richtung des Einflusses:
positiver (negativer) Koeffizient → je höher (geringer) der Wert der unabhängigen Variablen, desto größer die Wahrscheinlichkeit, dass die abhängige Variable den Wert 1 annimmt
Stärke des Einflusses:
Deutung der Koeffizienten im Hinblick auf die Stärke von Effekten nicht unmittelbar möglich
3 - Grundlagen der Datenanalyse - Beispiel
Abhängige Variable: „Stellen Sie sich vor, Sie wollen Zahnpasta kaufen und haben die Wahl zwischen den folgenden 2er-Packungen. Welche würden Sie eher kaufen?“
Unabhängige Variablen (wie bei der linearen Regression):
Fit Zugabe - Produkt
Zugabe hedonisch / utilitaristisch
Qualität der Zugabe
Alter
Berufstätigkeit
Was ist die Varianzanalyse und wann wird sie angewendet?
Die Varianzanalyse untersucht den Zusammenhang zwischen einer metrisch skalierten abhängigen und einer oder mehreren nominal skalierten unabhängigen Variablen.
Häufig angewandt zur Auswertung von Experimenten
Einfaktoriell: Wie erfolgreich sind unterschiedliche Diäten?
Mehrfaktoriell: Wie wirken Eigenschaften von Produktzugaben auf die Attraktivität der Zugaben?
Wie werden die Varianzen bei einer Varianzanalyse bestimmt?
Wie wird die Signifikanz des Einflusses eines Faktors interpretiert?
Anhand des f-tests:
Wie ist die Vorgehensweise bei der Mehrfaktoriellen Varianzanalyse?
Vorgehensweise wie bei der einfaktoriellen Varianzanalyse
Zusätzliches Phänomen: Interaktionen zwischen Faktoren
Sonderangebote wirken stärker, wenn sie von Handzetteln begleitet werden und
umgekehrt
Anders ausgedrückt: Die Wirkung der Kombination von Sonderangebot + Handzettel ist größer als die Summe der Einzelwirkungen
Interaktionen sind einfach in Graphiken zu erkennen.
Graphische Analyse von Interaktionen
4 - Spezielle Probleme der Marktforschung
Messung von Konstrukten
Nenne die Vorteile von Single- und Multi-Item-Skalen. Wie lautet die Empfehlung von Rossiter?
Vorteile von Single-Item-Skalen:
Schneller & günstiger zu erfragen
Weniger belastend & irritierend für Probanden → geringere Abbruchrate
Vorteile von Multi-Item-Skalen:
Komplexe Konstrukte können umfassend erfasst werden
Güte der Konstrukte kann getestet werden
Empfehlung Rossiter:
Single-Item-Skalen, wenn Objekt und Attribut konkret sind („a horse is a horse“)
Orientierung an Inhaltsvalidität
„Wie innovativ sind Sie?“ —> Single-Item
„Wie stark stimmen Sie den folgenden Aussagen zu:
Ich probiere gerne neue Produkte aus.
Ich lerne gerne neue Dinge.
Ich interessiere mich für technologische Entwicklungen.“
—> Multi-Item
Wie unterscheiden sich reflektive und formative Skalen?
Was bewirkt eine Faktoreanalyse und was ist die zugrundeliegende Motivation?
Die Faktorenanalyse reduziert eine Vielzahl von Variablen auf wenige voneinander unabhängige Einflussfaktoren
Motivation:
Validierung von reflektiven (!) Multi-Item-Konstrukten
Die Datenflut wird bei vielen Variablen leicht unübersichtlich.
Sind die Variablen nicht voneinander unabhängig, kommt es bei der Untersuchung von Wirkungszusammenhängen zu Fehlern (Beispiel: Regression).
Welche zwei Formen der Faktorenanalyse gibt es und wie unterscheiden sich diese?
Exploratorische Faktorenanalyse:
Faktorstruktur nicht bekannt / nicht vorgegeben
Exploratorische Faktorenanalyse deckt Faktorstruktur auf
Konfirmatorische Faktorenanalyse:
Faktorstruktur ist bekannt / wird vorgegeben
Konfirmatorische Faktoranalyse prüft die Güte dieser Faktorstruktur
Ansatz basiert auf Strukturgleichungsmodell
Häufig beide Verfahren nacheinander angewandt:
Exploratorische Faktorenanalyse identifiziert Faktoren
Konfirmatorische Faktorenanalyse liefert Gütemaße
Wie ist die Vorgehensweise bei der Exploratorischen Faktoranalyse?
Überprüfung der Eignung des Datenmaterials für die Faktorenanalyse
Faktorextraktion
Faktorrotation
Interpretation der Faktoren
Beurteilung der Güte von Faktorenanalyse-Lösungen
Welche Anforderungen muss ein Datenmaterial erüllen um für eine explorative Datenanalyse geeigner zu sein?
Anforderungen:
Mindestens intervallskalierte Daten
Zahl der Beobachtungen >= 3 * Variablenzahl
Ausgangsdaten sollten eine ausreichende Anzahl von hohen Korrelationen aufweisen.
-> Bartlett‘s Test of Sphericity: Test der Null-Hypothese, dass die Korrelationsmatrix von Variablen stammt, die voneinander unabhängig sind
-> Kaiser-Meyer-Olkin Measure of Sampling Adequacy (MSA)
Test, inwieweit die Varianz einer Variablen durch die anderen Variablen erklärt wird
Wird für einzelne Variablen berechnet (Diagonalwerte der Anti-Image-Korrelationsmatrix) sowie für den gesamten Datensatz
• Werte:
>= 0,8 meritorious (verdienstvoll)
>=0,7 middling (ziemlich gut)
>=0,6 mediocre (mittelmäßig)
>=0,5 miserable (kläglich)
< 0,5 unacceptable (nicht tragbar)
Wie unterscheiden sich die Verfahren der Faktorextraktion?
—> Verfahren unterscheiden sich in ihren Annahmen über die Kommunalitäten
Kommunalität: Teil der Varianz einer Variablen, der durch die gemeinsamen Faktoren erklärt wird [0= es wird nichts erklärt; 1= es wird alles erklärt]
a) Hauptachsenanalyse: Die erwarteten Kommunalitäten werden geschätzt.
Vorgabe von Startwerten (< 1)
Zusätzliche Manipulationsmöglichkeit des Forschers
b) Hauptkomponentenanalyse: Für die Kommunalitäten wird ein Startwert von 1 angenommen.
Nenne mehrere mögliche Regeln um die Faktorenanzahl zu bestimmen?
Kaiser-Kriterium: Extrahiere nur Faktoren mit Eigenwerten größer 1
Eigenwert: Erklärungsbeitrag eines Faktors in Hinblick auf die Varianz aller Variablen
[Scree-Test: Plotte die Eigenwerte gegen die Zahl der Faktoren – Der erste Punkt links
vom Knick in der Funktion (Ellenbogen) gibt die Zahl der zu extrahierenden Faktoren an.] → Problem: meist kein Knick erkennbar
Wähle die Zahl der Faktoren so, dass die Faktoren besonders gut zu interpretieren sind.
Extrahiere eine bestimmte (gewünschte) Anzahl von Faktoren.
Extrahiere so viele Faktoren, dass mindestens x % der Varianz erklärt sind.
Die Zahl der Faktoren sollte kleiner als die Hälfte der Zahl der Variablen sein.
Nenne Möglichkeiten um die Güte einer Lösung zu bestimmen.
Varianzerklärung: Anteil der Gesamtvarianz der Variablen, der durch die Faktorenerklärt wird
Beispiel Zugaben: 71,7 %
Interpretierbarkeit der Faktoren
Cronbach‘s Alpha:
Misst die Reliabilität eines Konstruktes: Erfassen die Variablen (Items), die zu einem Konstrukt zusammengefasst worden sind, den gleichen Sachverhalt?
Akzeptable Werte: >= 0,7 (>= 0,6 bei explorativer Forschung)
Cronbach‘s Alpha wird größer mit steigender Anzahl von Items in einem Konstrukt.
Nenne die Unterschiede von Faktorwerten und Summed Scores und deren Vorteile.
Faktorwerte bzw. Summed Scores geben wieder, welche Ausprägung ein Faktor für eine Beobachtung hat (Beispiel: Wie preisbewusst ist ein Konsument?)
Faktorwert: berechnet auf Basis der Faktorladungen (gewichteter Durchschnitt der Variablenausprägungen)
Vorteil: Faktorwerte sind unkorreliert
Summed Score: ungewichteter Durchschnitt der Variablenausprägungen
Vorteil: Summed Scores vergleichbar über Studien hinweg
=> heutzutage Standard in der wissenschaftlichen Literatur
Beispiel Summed Scores:
Marke = (Marke1 + Marke2 + Marke3)/3
Preis = (Preis1 + Preis2 + Preis3)/3
Korrelation der Konstrukte Preis und Marke = -0,24
Was ist die konfirmatorische Faktorenanalyse und wie unterscheidet sie sich zu der explorativen Faktorenanalyse?
Messung komplexer Konstrukte durch Indikatoren
Gleichzeitig Gütebeurteilung der Messung
Sonderfall der Kausalanalyse (Strukturgleichungsanalyse mit latenten Variablen)
Unterschiede zur exploratorischen Faktorenanalyse:
Strukturprüfendes Verfahren
Messfehler explizit berücksichtigt
Erlaubt Test von Modellparametern auf Signifikanz
Aussagekräftigere Gütemaße
Wie ist die Vorgehensweise bei der konfirmatorischen Faktorenanalyse?
Modellspezifikation:
Definition der Variablen und der Konstrukte
Zuordnung der Variablen zu den Konstrukten
Festlegung der Korrelationen zwischen den Konstrukten
[Korrelation der Messfehler (sofern inhaltlich sinnvoll)]
[Prüfung der Modellidentifikation]
Parameterschätzung
Modellbeurteilung
Globale Anpassungsmaße
Lokale Anpassungsmaße
Ergebnisinterpretation
Anpassungsmaße
Was ist die Moderation bei komplexen Zusammenhängen?
Moderation: Stärke und/oder Richtung des Effekts einer unabhängigen Variablen X auf eine abhängige Variable Y werden durch eine dritte Variable Z (Moderator) beeinflusst
→ „Wovon hängt die Wirkung von X auf Y ab?“
-> Modellierung über Interaktionseffekt
Was ist die Mediation bei komplexen Zusammenhängen?
Eine unabhängige Variable X wirkt auf eine abhängige Variable Y über eine dritte Variable M (Mediator)
-> „Warum wirkt X auf Y?“
-> Modellierung über Strukturgleichungsmodell
Wozu dient die Modellierung von Moderatoreffekten?
Möglich bei allen Verfahren zur Analyse von Zusammenhängen (z. B. Regression, logistische Regression, ...)
Die Modellierung findet über den Interaktionseffekt statt:
Achtung: Haupteffekt des Moderators ins Modell aufnehmen (sofern inhaltlich sinnvoll)
Wie werden die Moderationeffekte interpretiert?
Was ist die Strukturgleichungsanalyse (SGA)?
Die Strukturgleichungsanalyse (SGA) umfasst statistische Verfahren zur Untersuchung komplexer Beziehungsstrukturen zwischen Variablen
Nur manifeste Variablen→Pfadanalyse
Auch latente Variablen→Kausalanalyse
Strukturgleichungsanalysen kombinieren faktoranalytische Ansätze (Messmodell) und regressionsanalytische Ansätze (Strukturmodell)
Strukturgleichungsanalysen können gleichzeitig...
Messmodelle für latente Variablen prüfen (z. B. Multi-Item-Konstrukte)
Beziehungen zwischen Variablen untersuchen
Mehrstufige Abhängigkeiten untersuchen (Mediation)
Interaktionseffekte untersuchen (Moderation)
Nenne die Vorgehensweise bei der Strukturgleichungsanalyse.
Hypothesenbildung
Modellspezifikation → ggf. mit Mediation und Moderation
Identifikation der Modellstruktur
→ bei kovarianzanalytischem Ansatz wie bei konfirmatorischer Faktorenanalyse
Parameterschätzung • Kovarianzanalytisch • Varianzanalytisch
Beurteilung der Modellgüte
Interpretation der Ergebnisse
Strukturgleichungsanalyse
Hypothesenbildung:
Annahmen für Kausalität:
Veränderung von X resultiert in Veränderung von Y (Kovarianz, Korrelation)
Veränderung von Y geschieht zeitlich nach der Veränderung von X
Kovarianz bzw. Korrelation zwischen X und Y ist nicht auf eine dritte Variable zurückzuführen (Scheinkorrelation)
Erfüllt nur in Experimenten und Längsschnittstudien
SGA sollten die Defizite bei den Annahmen durch ein starkes theoretisches Fundament bestmöglich kompensieren
Parameterschätzung:
Interpretation von Mediationseffekten:
Methoden der Präferenzmessung
Was versteht man unter Conjointanalyse? Nenne Beispiele.
Die Conjointanalyse ermittelt, welche Präferenzen Probanden bezüglich der Eigenschaften von Objekten und ihren Ausprägungen haben.
Frage: Welchen Beitrag leisten verschiedene Komponenten zum Gesamtnutzen eines Objektes?
Produktgestaltung: Welche Präferenzen bestehen in Bezug auf verschiedene Produkteigenschaften, und wie wichtig sind die Eigenschaften für die Konsumenten
Markenwertmessung: Wie wichtig ist die Marke bei der Kaufentscheidung von Konsumenten
Zahlungsbereitschaften: Wie wichtig ist der Preis bei der Kaufentscheidung?
Welchen Einfluss nehmen Zugaben auf die Kaufentscheidung?
Wie lautet die Vorgehensweise bei der Conjointanalyse?
Auswahl von Eigenschaften und Eigenschaftsausprägungen
Erhebungsdesign
Bewertung der Stimuli
Schätzung der Nutzenfunktion (Choice-Modell)
Interpretation der Teilnutzenwerte
Marktanteilssimulation
Beurteilung der Güte der Ergebnisse
Welche Regeln gelten bei der Auswahl von Eigenschaften und Eigenschaftsausprägungen?
Die Eigenschaften müssen relevant sein.
Die Eigenschaften sollten durch den Hersteller beeinflussbar sein.
Die Eigenschaftsausprägungen müssen realisierbar sein.
Die Eigenschaften sollten voneinander unabhängig sein.
Die Eigenschaften müssen in einer kompensatorischen Beziehung zueinander stehen, d. h., sie dürfen keine K.O.-Kriterien darstellen.
Die Anzahl der Eigenschaften und ihrer Ausprägungen muss begrenzt werden.
Was ist beim Erhebungsdesign und der Bewertung der Stimuli zu beachten?
Welche zwei Annahmen zum Kaufverhalten gibt es beim Choice Simulator)?
First Choice: Der Konsument kauft das Produkt mit dem höchsten Gesamtnutzen
—> Beispiel: Gesamtnutzen von Stimulus 1 = Teilnutzen von ‚99 €‘ + Teilnutzen von ‚Air Berlin‘ + Teilnutzen von ‚keine Aktion‘
Welche zwei Aspekte sind bei der Beurteilung der Güte der Schätzergebnisse zu beachten?
Interne Validität:
Inhaltlich: Konsistenz im Urteil der Befragten
Prüfmaß: Hit Rate: besagt, welcher Anteil der Entscheidungen korrekt vorhergesagt wird (im Beispiel: 0,93)
Werte: Wert sollte möglichst dicht an 1 sein
Externe Validität:
Inhaltlich: Stimmen der aus dem Modell abgeleitete und der tatsächliche Marktanteil ungefähr überein?
Prüfmaß: Abweichung zwischen dem durch das Modell prognostizierten und dem tatsächlichen Marktanteil
Werte: Abweichung sollte möglichst gering sein
Verlgleich CBC und traditionelle Conjointanalyse
Was ist die adaptive Conjointanalyse (ACA) und welche Vorteile bietet sie?
Mehrstufige Vorgehensweise:
kompositionelle Analyse (Self-Explicated Approach) zur Bestimmung der wichtigsten Eigenschaften
dekompositionelle Analyse (Paarvergleiche) mit diesen wichtigsten Eigenschaften
Gewichtung der ermittelten Nutzenwerte aus den beiden Analysestufen (‚Kalibrierung‘)
Vorteile:
Berücksichtigung vieler Eigenschaften ist möglich
Computergestützte Befragung erlaubt persönliches Design (‚Adaption‘)
Welche Anwendungsempfehlungen gibt es bei der Conjointanalyse?
Traditionelle Conjointanalyse kaum noch eingesetzt [Nicht gut]
sehr mühsam für die Probanden
Unrealistische Erhebungssituation
Standard: Choice-Based Conjoint [Sehr gut]
-> Berücksichtigung von Heterogenität über Mixture-Modell
Wenn viele Eigenschaften: ACA
Was versteht man unter Hypothetical Bias?
Verzerrung, die auftritt, wenn Daten nicht auf realem Verhalten, sondern auf hypothetischen Äußerungen beruhen
Beispiel: hypothetische Zahlungsbereitschaften sind substantiell größer als reale Zahlungsbereitschaften
Ursachen:
Risikofreie Entscheidungen ohne Verpflichtung (z. B. eigene Budget-Restriktionenignoriert)
Soziale Erwünschtheit
Lösungsmöglichkeiten:
Befragte auffordern, realistisch zu antworten („Cheap Talk“)
Anreizkompatible Messverfahren
Was ist die Grundidee von anreizkompatiblen Verfahren zur Messung von Präferenzen?
Grundidee: Teilnehmer müssen (evtl.) das Produkt kaufen (mit realem Geld!)
Häufig eingesetzt zur Messung von Zahlungsbereitschaften
Methoden:
Vickrey-Auktion
Vickrey (1961)
Teilnehmer reichen verdeckte Gebote ein
Das höchste Gebot gewinnt, aber muss nur den zweit-höchsten Preis bezahlen
Methode von Becker/DeGroot/Marschak (BDM)
Becker/DeGroot/Marschak (1964)
Der Verkaufspreis wird zufällig bestimmt (Lotterie)
Teilnehmer muss das Produkt kaufen, wenn sein Gebot höher ist als der Verkaufspreis, bezahlt aber nur den Verkaufspreis
Vorteile: Man muss nicht mehrere Teilnehmer zusammen bringen, keine Konkurrenzsituation
Anreizkompatible Conjointanalyse
Ding (2007)
Methode:
Verfahren den Befragten erläutern
Präferenzmessung mit CBC
Berechnen der Zahlungsbereitschaft für ein reales Produkt aus Teilnutzen
Mit Lotterie ermitteln, ob Befragter kaufen muss und wenn ja, zu welchem Preis
Eigenschaften:
Anreizkompatibel wie Vickrey-Auktion und BDM
Indirekte Messung der Zahlungsbereitschaft
Probleme von Methoden der Präferenzmessung
Empirischer Vergleich von Methoden
Was ist bei der Berücksichtigung von Heterogenität zu beachten?
Basis: disaggregierte Daten (z. B. Single-Source-Panel, Conjoint)
Konsumenten unterscheiden sich in...
ihren Präferenzen
ihrer Reaktion auf Marketing-Mix-Variablen
Modellierung dieser Heterogenität wichtig, um...
Heterogenität zu erfassen (z. B. Interesse an Segmenten)
Verzerrungen in Parametern zu vermeiden
Traditionelle Modelle: individuelle oder zweistufige Analysen
Neuere Modelle: simultane Analyse
——
Traditionelle Vorgehensweise am Beispiel der Conjointanalyse:
Auswertung auf individuellem Niveau:
Typisch für trad. Conjointanalyse
Ggf. hinterher Clusterung der Probanden
Auswertung auf aggregiertem Niveau:
Z. T. bei Choice-Based Conjointanalyse
Ggf. vorher Segmentbildung und Analyse auf Segment-Niveau
Probleme:
Individuelle Ergebnisse wenig reliabel
Aggregierte Ergebnisse verwischen Präferenzunterschiede, haben Bias
Zweistufige Ansätze finden nicht die beste Segmentlösung
Lösung: Mixture-Modelle
—->
Continuos Mixture-Modell:
Modellparameter unterliegen einer Verteilung
Annahme einer Verteilungsform
Schätzung der Parameter der Verteilung
Typische Verteilungsform: Normalverteilung
Typische Schätzverfahren:
Simulated Maximum Likelihood
Hierarchical Bayes
Finite Mixture-Modell:
Probanden werden in Segmente eingeteilt
Simultane Schätzung von
Wahrscheinlichkeiten der Segmentzugehörigkeit
Modellparameter pro Segment
Schätzung von Modellen mit unterschiedliche vielen Segmenten und Auswahl des besten Modells (z. B. niedrigster BIC)
Was ist Endogenität und wie ist diese im Regressionsmodell festzustellen?
Ziel ist die Analyse von kausalen Wirkungszusammenhängen.
Daher wird angenommen, dass die unabhängige Variable exogen ist:
Erfüllt bei Experimenten (Faktoren durch Marktforscher systematisch manipuliert)
Evtl. problematisch bei nicht-experimentellen Daten
—> Endogenität im Regressionsmodell:
Was sind mögliche Ursachen für Endogenität?
Simultanität (Endogenität im engeren Sinne)
→ Beispiel: Preis wirkt auf Absatz und umgekehrt
Selbstselektion
→ Beispiel: Wirkung von Bonusprogrammen auf den Umsatz – Kunden, die am Programm teilnehmen, kaufen mehr – aber es nehmen auch eher die Kunden teil, die mehr kaufen
Fehlende Variablen
→ Beispiel: Einfluss der Ausbildung auf das Einkommen – beides beeinflusst von Fähigkeit (schwer zu beobachten)
Sonstige
Wie ist geht man mit Endogenität um?
Diagnose:
Statistische Tests begrenzt aussagekräftig (erst a posteriori möglich, erfordern unverzerrten Schätzer)
Sachlogik
Ansätze zur Berücksichtigung von Endogenität im Modell:
Korrektur der Modellspezifiktion, z. B.
fehlende Variablen aufnehmen
Mehrgleichungssystem bei Simultanität
Schätzung mit Instrument-Variablen
Matching (bei Selbstselektion)
Was sind Instrument-Variablen?
Was ist Propensity Score Matching?
Last changeda year ago