Was beschreibt die Reliabilität?
Welche Testverfahren zur Messung gibt es?
Welche Maßnahmen führen zur Verbesserung der Reliabilität?
Die Reliabilität beschreibt die Verlässlichkeit von Messungen. Sie ist derjenige Anteil an der Varianz, der durch tatsächliche Unterschiede im zu messenden Merkmal und nicht durch Messfehler erklärt werden kann. Wenn das gleiche Ergebnis bei wiederholter Messung erreicht wird, kann von einer hohen Reliabilität ausgegangen werden.
Reliabilität = Freiheit von Zufallsfehlern
Testverfahren/ Überprüfung durch:
Test-Retest-Reliabiliät: Vergleich der Ergebnisse von zeitlich aufeinanderfolgenden
Messungen eines Messobjektes mit demselben Messinstrument
Split-Half-Reliabilität: Aufteilung des Samples in zwei Hälften und Vergleich der
Messergebnisse
Maßnahme zur Verbesserung der Reliabilität im Experiment:
Geringe Reliabilität verbessern: Vergrößerung der Stichprobe (desto näher kommen wir der Normalverteilung und desto geringer die Zufallsfehler)
Was beschreibt die Validität?
Welche Maßnahmen führen zur Verbesserung der Validität?
Validität = Freiheit von systematischen Fehlern (z.B. falsche Definition der Grundgesamtheit / Fehler in der Stichprobenauswahl: z.B. montagsmorgens im Supermarkt Biergeschmäcker erfragen / suggestive Fragestellungen des Interviewers / soziale Erwünschtheit von Antworten)
- Misst man das, was man messen möchte?
Testverfahrung zur Messung von Validität:
1) Inhaltsvalidität (Content Validity, Face Validity): Plausibilität der Messergebnisse (Achtung: hoher Ermessensspielraum!)
2) Konvergierende Validität: Unterschiedliche Messmethoden führen für den gleichen Sachverhalt zu gleichen Ergebnissen
3) Diskriminierende Validität: Eine Messmethode führt bei der Anwendung auf unterschiedliche Sachverhalte zu unterschiedlichen Ergebnissen (Gegenteil der konvergierenden Validität)
Maßnahme zu Verbesserung der Validität im Experiment, z.B.:
- Störeinflüsse besser kontrollieren, z.B. durch Neutralität der Fragen (kein suggestives Fragen, soziale Erwünschtheit möglichst geringhalten, immer identische Reihenfolge/Vollständigkeit) oder Stichprobenauswahl (geeignete Grundgesamtheit)
Verfahren zur Analyse von Zusammenhängen
Multikollinearität
Verfahren zum Testen von Multikollinearität
Multikollinearität: liegt vor, wenn unabhängige Variablen miteinander korrelieren. Das Problem ist, dass die einzelnen unabhängigen Variablen durch Multikollinearität teilweise die gleichen Varianzanteile der abhängigen Variable beschreiben und dadurch nicht eindeutig interpretierbar ist, welche unabhängige Variable welchen Anteil des Effektes erklärt. In der Praxis liegt immer ein bisschen Multikollinearität vor (jedoch, siehe Schwellenwerte).
Außerdem wird die Schätzung des Regressionskoeffizienten bei steigender Multikollinearität weniger verlässlich, da unklarer wird, welchen Teil der Varianz die einzelnen unabhängigen Variablen erklären.
Verfahren zum Testen von Multikollinearität:
allgemein hohe Korrelationen sind ein Zeichen für Multikollinearität
Berechnung der Toleranzen: 1-R²
(Schwellenwert: Tol >0,5 = keine Multikollinearität —> Wert behalten)
Berechnung der VIF-Werte: 1 / (1-R²)
(Schwellenwert: VIF<2 = keine Multikollinearität —> Wert behalten)
Explorative Datenanalyse
Test auf Eignung der Daten + Erklärung der Gütekriterien
Eignung der Daten:
mindestens intervallskalierte Daten
Zahl der Beobachtungen >= 3 * Variablenzahl
Ausgangsdaten sollten ausreichend hohe Korrelationen aufweisen
Faktoren sollten hingegen nicht oder nur schwach miteinander korrelieren
Bartlett‘s Test:
Test der Null-Hypothese, dass die Korrelationsmatrix von
Variablen stammt, die voneinander unabhängig sind
ab Sigifikanz < 0,05 → Variablen sind korreliert und eignen sich für Faktorenanalyse
Kaiser Meyer Olkin (KMO) Measure of Sampling Adequacy (MSA):
Bestimmung der Faktorenanzahl
Bestimmung der Faktorenanzahl durch Kaiser-Kriterium: Extrahiere nur Faktoren mit Eigenwerten > 1
Eigenwert: Erklärungsbeitrag eines Faktors in Hinblick auf die Varianz aller Variablen
Zahl der Faktoren sollte kleiner als die Hälfte der Zahl der Variablen sein
Aus welchem Grund soll eine Interpretation der Faktorladungen anhand einer rotierten Faktorlösung und nicht anhand einer unrotierten Faktorlösung vorgenommen werden?
Damit die Annahme der Unkorreliertheit zwischen den einzelnen Faktoren wahr ist, müssen die Faktorladungen rotiert werden. Bei der Faktorrotation werden die Faktorladungen auf einen Faktor maximiert und auf die anderen Faktoren minimiert. Dadurch wird sicher gestellt, dass die Korrelationen der beiden Faktoren nicht zu dicht aneinander liegen. Dadurch sind die Ergebnisse einfacher zu interpretieren.
Faktorwerte vs. Summed Scores
beide geben wieder, welche Ausprägung ein Faktor für eine Beobachtung hat (Beispiel: Wie preisbewusst ist ein Konsument?)
Summed Scores: ungewichteter Durchschnitt der Variablenausprägungen
Vorteil: Summed Scores sind über Studien hinweg vergleichbar
Faktorwert: gewichteter Durchschnitt der Variablenausprägung
Vorteil: Faktorwerte sind unkorreliert
Cronbach’s Alpha
Wird in der exploratorischen Faktorenanalyse als Gütemaß verwendet
Misst die Reliabilität eines Konstruktes: Erfassen die Variablen (Items), die zu einem Konstrukt zusammengefasst worden sind, den gleichen Sachverhalt?
Akzeptable Werte: >= 0,7 ( >=0,6 bei explorativer Forschung)
Cronbach‘s Alpha wird größer mit steigender Anzahl von Items in einem Konstrukt
Kriterien der Exploratorischen und Konfirmatorischen Faktorenanalyse
Interne & Externe Validität
Interne Validität: (Kontrolle von Störeinflüssen)
ist gegeben, wenn Ergebnisse einer Untersuchung kausal eindeutig interpretierbar sind. D.h., die Effekte in der abhängigen Variable sind zweifelsfrei auf die Wirkung der unabhängigen Variablen zurückzuführen und nicht auf die anderer Faktoren oder von Störfaktoren.
Probleme der internen Validität:
Nichtvergleichbarkeit von Test- u. Kontrollgruppe
Sterblichkeit von Testpersonen
Äußere Einflüsse
Änderung des Erhebungsinstruments
Externe Validität: (Realitätsnähe)
ist gegeben, wenn sich die Ergebnisse einer Untersuchung auch auf andere Situationen, Populationen oder Kontexte übertragen lassen.
—> Ergebnisse gelten dann nicht nur in der spezifischen Testumgebung, sondern lassen sich verallgemeinern
Problem der externen Validität:
wenig realistische Aufgabenstellung
Definition Experiment
Empirische Untersuchung einer Kausalhypothese (=dass a wirklich zu b führt —> Ursache-Wirkungs-Zusammenhang kann nachgewiesen werden und nicht bloß eine Korrelation)
Systematische Variation einer Variabel (Stimulus: alle anderen Variablen müssen dabei gleichgehalten werden)
Kontrolle aller anderen Variablen
Vorgehensweise eines Experiments
Vorgehensweise (Wo, was, wer)
Kontrollgruppe:
Experimentalgruppe:
Manipulierte Variable / Stimulus:
Abhängige Variable:
Feldexperiment vs. Laborexperiment:
Vorteile & Nachteile
Vorgehensweise beim Feldexperiment
natürliches Umfeld
Probanden wissen i.d.R. nicht, dass sie an einem Experiment teilnehmen
Schwieriger als beim Laborexperiment, alle Variablen zu kontrollieren
alle anderen Variablen bis auf die zu untersuchende werden konstant gehalten (Kontrolle der anderen Variablen)
Unterschied zwischen Test- und Kontrollgruppe —> Kausalität
Vorgehensweise Laborexperiment
künstliches Umfeld (kann jedoch auch in der Öffentlichkeit sein)
z.B. Blindverkostung/ Befragung im Supermarkt
meistens Erfragung von Kaufwahrscheinlichkeiten
bisher rein hypothetischer Kauf
Probanden wissen, dass sie an einem Experiment teilnehmen
alle anderen Variablen werden konstant gehalten (Kontrolle aller anderen Variablen)
Ursachen für Missing Values
Unwissenheit / mangelndes Wissen
Antwortverweigerung
fehlerhaftes Untersuchungsdesign
fehlerhafte Kodierung
Motivationsprobleme
Übersehen von Fragen
Streuungsparameter
Metrische Skala:
Varianz
Std.abw.
Spannweite
Variationskoeffizient
Verfahren zum Umgang mit Missing Values
Imputation durch Schätzwerte:
Einsetzen von Mittelwert oder Expertenschätzungen
Vorteil: kein Informationsverlust der Daten
Nachteil: Verzerrung der Daten möglich, da eingesetzte Schätzwerte nicht der Wahrheit entsprechen könnten
Eliminieren der Beobachtung oder der Variable
Vorteil: keine Verzerrung des Datensatzes, schnelle und einfache Methode
Nachteil: Informationsverlust (Stichprobe nun kleiner)
Lageparameter
Modus (häufigster Wert): Nominalskala
Median (mittlerer Wert): Ordinalskala
Mittelwert (Durchschnitt): Metrische Skala
Definition Korrelation
Formel Pearson’s Korrelationskoeffizient
Definition Korrelation:
misst die Stärke einer statistischen Beziehung / des Zusammenhangs von zwei Variablen zueinander
ob dabei auch ein kausaler Zusammenhang zwischen den beiden Ereignissen besteht, kann jedoch erst durch ein zusätzliches Experiment überprüft werden
Pearson’s Korrelationskoeffizient:
kann Werte zwischen -1 und 1 annehmen
testet für lineare Zusammenhänge (nicht jedoch für andere z.B. quadratische)
Signifikanztest auf Basis der t-Verteilung möglich
Kontingenzanalyse
für welche Fragestellungen?
Vorgehensweise
Fragestellungen:
Untersucht Zusammenhang zwischen nominalskalierter abhängigen Variable und nominalskalierten unabhängigen Variablen
Vorgehensweise:
erstellen einer Kreuztabelle mit beobachteten und erwarteten Werten
Chi²-Test um Signifikanz des statistischen Zusammenhang zu überprüfen (testet jedoch nicht auf Stärke)
Chi²-Test
Nichtparametrische Tests
Viele statistische Tests verlangen die Annahme bestimmter Verteilungen der Variablen (z. B. Normalverteilung bei t-Test)
Nichtparametrische Tests sind demgegenüber verteilungsfrei (z. B. Chi²-Test).
—> Bei kleinen Stichproben gut geeignet
Warum werden Residualgrößen (Fehlerterme) bei der linearen Regression quadriert?
damit sich die positiven und negativen Abweichungen nicht gegenseitig aufheben
um größere Ausreißer stärker zu gewichten
Annahmen der linearen Regression
keine Multikollinearität
unabhängige Variablen korrelieren untereinander
keine Autokorrelation
Autokorrelation tritt v.a. bei Zeitreihen auf, wobei ein Wert dann von dem vorherigen abhängig ist
Homoskedastizität
Annahme verletzt, wenn z.B. Trichterförmiger Verlauf im Streudiagramm
Normalverteilung der Residuen
F-Test Formel
Conjoint Analyse: Probabilistic Choice Formel
Conjoint Analyse: Bestimmung der Bedeutungsgewichte
Korrigiertes R²
korrigiert den Wert für R², in dem die Anzahl unabhängiger Variablen im Modell berücksichtigt wird. Je höher die Anzahl, desto geringer wird der Korr. R² Wert. Dieses Gütemaß bestraft also für zu viele unabhängige Variablen.
Logistische Regression: Überprüfung der Modellgüte anhand von Kriterien
Endogenitäts-Problem:
Was ist das? / Auftreten
Ursachen
Umgang
Bsp.frage: Wie wirkt der Preis auf den Absatz?
Daten: Marktdaten
—> Endogenitäts Problem: Wenn die Nachfrage steigt, erhöhen Unternehmen den Preis (Simultanität)
Endogenität liegt vor, wenn Korrelation zwischen Preis und Absatz von ungleich 0
—> Kontrolle für Endogenität, da sonst der Preis-Effekt unterschätzt wird
Ursachen:
Simultanität (=Endogenität im engeren Sinne)
Selbstselektion
z.B. Beispiel: Wirkung von Bonusprogrammen auf den Umsatz Kunden, die am Programm teilnehmen, kaufen mehr aber es nehmen auch eher die Kunden teil, die mehr kaufen
Fehlende Variablen
z.B. Einfluss der Ausbildung auf das Einkommen beides beeinflusst von Fähigkeit (schwer zu beobachten)
Umgang mit Endogenität:
Korrektur des Modells (z.B. fehlende Variablen aufnehmen, Mehrgleichungssystem bei Simultanität)
Schätzung mit Instrument-Variablen
Matching (bei Selbstselektion)
Instrument-Variable
Cook’s Distance
Identifikation von Ausreißern
Untersucht, wie stark die Regressionsgerade sich verändert, wenn man eine Beobachtung weglässt
Daumenregel für kritischen Wert: Cook‘s Distance > 1
Was sagt der Eigenwert aus?
Kaiser-Kriterium
Der Eigenwert ist der Erklärungsbeitrag eines Faktors im Hinblick auf die Varianz aller Variablen. Dieser sollte mindestens 1 ein.
Kaiser-Kriterium: Extrahiere nur Faktoren mit Eigenwert > 1
Single-Item-Skala vs. Multi-Item-Skala
Formative vs. reflektive
reflektiv: alle Test müssen anschlagen, da sie miteinander korrelieren
formativ: Nicht alle Items müssen anschlagen /miteinander korrelieren.
Unterschiede der konfirmatorischen Faktorenanalyse zur exploratorischen Faktorenanalyse
Zuletzt geändertvor einem Jahr