Was ist der Modus?
Der Modus ist der Wert einer Variablen, der am häufigsten auftritt.
Was ist der Median
Der Median splittet die Verteilung einer Variablen in zwei gleich große Hälften und
entspricht dem 50%-Quantil.
Was ist der Mittelwert
Der Mittelwert ist der durchschnittliche Wert aller Messwerte.
Was ist die Quadratsumme?
Die Quadratsumme ist die Summe der quadrierten Abweichungen aller Messwerte vom
Mittelwert.
Was ist die Varianz
➢ Die Varianz ist die mittlere quadrierte Abweichung der Messwerte vom Mittelwert.
Was ist die Standartabweichung
Die Standardabweichung ist die Wurzel der Varianz.
Was sind die Skalenniveaus von Variablen
Bei Kategorialen Daten:
Nominalskala -> Gleichheit, Verschiedenheit (Geschlecht, Haarfarbe, Partei)
Ordinalskala -> Größer-Kleiner Relationen, Rangfolgen (Platzierung, Schulnoten)
Bei Kardinalen (Metrisch) Daten:
Intervallskala -> Gleichheit von Differenzen (Temperatur, Intelligenzquotient)
Verhältnisskala -> Gleichheit von Verhältnissen (Einkommen, Alter, Körpergewicht)
Erkläre die beiden Quantitative Forschungsmethoden:
Experimentelle Designs:
Manipulation unabhängiger Variablen,
Messen abhängiger Variablen
50% der Kunden erhalten vor dem Kauf ein kleines Geschenk, die anderen nicht. Wer kauft mehr ein?
T-Test, ANOVA
Korrelative Designs
Untersuchung von Zusammenhängen zwischen Variablen
Haben Bildung, Einkommen und Familienstand Einfluss auf den Konsum bestimmter Güter?
Korrelationen, Regression
-> Aufklären von Unterschieden und Zusammenhängen
Was sind die Typen von Variablen in Dependenzanalysen
Unabhängige Variablen (UV)
Prädiktoren, Independent Variables, Einflussgrößen, Exogene Variablen, Predictor
Variablen, die einen Einfluss ausüben, manipuliert werden oder prädizieren
Ausprägung der Kundenzufriedenheit
Abhängige Variablen (AV)
Kriteriumsvariablen, Dependent Variables, Zielgrößen, Endogene Variablen, Outcome
Variablen, auf die Einflüsse wirken und die aufgrund von Manipulation der UV variieren
Umsatz des Kunden und Kaufverhalten
Unabhängige und abhängige Designs
Zwischensubjekt-Designs (Between-Subject-Designs)
Innersubjekt-Designs (Within-Subject-Designs)
Untersuchung unabhängiger Gruppen (Autofahrer vs. Motorradfahrer)
Untersuchung abhängiger Gruppen (Patient vor und nach der Behandlung)
Was sind sie Systematische und unsystematische Variabilität
Systematische Variabilität -> Variabilität begründet sich aufgrund von gezielter Manipulation der UV, Nachweis von Kausalität.
Unsystematische Variabilität-> Variabilität kann nicht erklärt werden und entsteht aus nicht erhobenen Einflüssen.
Erkläre Systematischer und zufälliger Fehler
Systematischer und zufälliger Fehler
Der systematische Fehler wird auch als “Bias” bezeichnet, der zufällige Fehler auch als “Error”.
Bei Reliabilitätsstudien sprechen wir synonym von hoher Präzision (geringer zufälliger Fehler) und hoher Richtigkeit (geringer systematischer Fehler). Sind Präzision und Richtigkeit ausreichend ausgeprägt, so ist Genauigkeit gegeben (notwendige Bedingungen).
Was ist wichtig bei Fragestellungen und Hypothesen
Fragestellungen sollten ethisch vertretbar sowie exakt formuliert sein und wissenschaftlichen Nutzen bieten.
Hypothesen müssen empirisch überprüfbar sein.
Deskriptive und explorative Untersuchungen dienen zur Generierung von Hypothesen.
Explanative Untersuchungen haben das Ziel, vorab formulierte Hypothesen zu prüfen.
Was sind gerichtete und umgerichtete Hypothesen?
Gerichtete Hypothesen
Es wird die konkrete Richtung der Einflüsse, Unterschiede oder Zusammenhänge formuliert.
Ungerichtete Hypothesen
Es wird keine Annahme über die Richtung getroffen.
Erklär Randomisation
In unabhängigen Designs bedeutet Randomisation die zufällige Zuordnung zu Untersuchungsgruppen.
In abhängigen Designs bedeutet Randomisation die zufällige Abfolge zu den Untersuchungsbedingungen.
Konfundierende Variablen werden durch Randomisation neutralisiert und üben keinen systematischen Einfluss aus.
Erkläre die drei Typen der Verblindung.
Verblindung
Einfach Untersuchungsobjekte
Doppelt Untersuchungsobjekte, Untersuchungsleiter
Dreifach Untersuchungsobjekte, Untersuchungsleiter, Statistischer Auswerter
Gütekriterien: Welche Qualität hat meine Untersuchung?
Welche Formen von Validität können wir unterscheiden?
Interne Validität Veränderungen der AV sind eindeutig auf die UV zurückzuführen.
Externe Validität Die Ergebnisse lassen sich auch auf die Population generalisieren.
Konstruktvalidität Das formulierte Konstrukt wird tatsächlich gemessen.
Kriteriumsvalidität Es gibt einen Zusammenhang zwischen Messinstrument und Zielgröße.
Inhaltsvalidität Das Konstrukt wird bestmöglich erfasst und operationalisiert.
In wiefern ist Interne und externe Validität in Abhängig vom Design
Felduntersuchungen finden im Gegensatz zu Laboruntersuchungen in natürlicher Umgebung statt.
Experimentelle Untersuchungen arbeiten mit zufälligen, quasi-experimentelle mit natürlichen Gruppen.
in welchem standartfehlerbereich liegen 95% der Stichproben-Mittelwerte
➢95% der Stichproben-Mittelwerte liegen im Bereich von −1.96 x Standardfehler bis +1.96 x Standardfehler. (SE = Standard Error)
Wie seitig müssen Gerichte Hypothesen getestet werden?
➢Gerichtete Hypothesen müssen 1-seitig getestet werden.
Wie gerichtet müssen Ungerichtete Hypothesen getestet werden
➢Ungerichtete Hypothesen müssen 2-seitig getestet werden
Fasse die wichtigsten Punkte von Hypothesentests und statistische Signifikanz zusammen
➢Die Alternativhypothese entspricht unserer Forschungshypothese, die Nullhypothese behauptet das komplementäre Ereignis.
➢Die Alternativhypothese wird mit H1, die Nullhypothese mit H0 bezeichnet.
➢Bevor getestet wird, muss die Irrtumswahrscheinlichkeit (α; Signifikanzniveau) festgelegt werden. Dieses liegt in der Regel bei 5%.
➢Ein signifikantes Ergebnis liegt vor, wenn der empirisch ermittelte p-Wert des Tests unter oder gleich dem vorab festgelegten Signifikanzniveau liegt (üblicherweise p ≤ .05).
➢Der p-Wert gibt an, wie wahrscheinlich das gefundene Ergebnis oder ein noch extremeres Ergebnis unter Annahme der Nullhypothese wäre.
➢Ein nicht signifikantes Ergebnis bedeutet nicht, dass die Nullhypothese wahr ist!
➢Nicht signifikante Ergebnisse sind genauso wichtig wie signifikante Ergebnisse!
Was beschreibt die Statistische Signifikanz Testentscheidung.
➢Behalten wir die Nullhypothese bei, obwohl in Wahrheit die Alternativhypothese gilt, sobegehen wir einen β-Fehler oder Fehler 2. Art.
➢Ergebnisse statistischer Tests sind immer nur Aussagen über Wahrscheinlichkeiten, es gibt keine absolute Sicherheit!
➢Lehnen wir die Nullhypothese ab und nehmen die Alternativhypothese an, obwohl in Wahrheit die Nullhypothese gilt, so entspricht dies einem α-Fehler oder Fehler 1. Art.
Wie beeinflusst die Stichprobengröße den p-Wert
➢Mit wachsendem Stichprobenumfang werden Standardfehler und p-Wert immer kleiner.
Worüber trifft die Effektstärke keine Aussage
➢Ein statistisch signifikantes Ergebnis sagt noch nichts über die praktische oder klinische Relevanz des gefundenen Effektes aus!
Wie wird die effektstärke von Cohen’s d (Mittelwerte) eingeschätzt?
Wie wird die effektstärke vom Koeffizienten r (Korrelation) eingeschätzt?
Was ist die Teststärke und wovon hängt sie ab (Statistische Power)
➢Die Teststärke (1 − β) ist die Wahrscheinlichkeit, eine in der Population gültige H1 durch den eingesetzten statistischen Test tatsächlich zu bestätigen.
➢Die Teststärke hängt von der Effektstärke, α und N ab. Alle 4 Größen beeinflussen sich gegenseitig. Sind drei davon bekannt, lässt sich die vierte Größe berechnen.
Womit hängt der Anstieg der Teststärke ab?
höherem α-Niveau
größerer Effektstärke
wachsendem Stichprobenumfang
Womit hängt ein sinken der Teststärke zusammen
geringerem α-Niveau
geringerer Effektstärke
geringerem Stichprobenumfang
Wie wird der optimale Stichprobenumfang berechnet.
➢A priori Analyse: Aus geplanter Teststärke, Signifikanzniveau und Effektstärke wird der optimale Stichprobenumfang berechnet.
Wie wird die tatsächliche Teststärke berechnet.
➢Post hoc Analyse: Aus dem Signifikanzniveau, der Effektstärke und dem Stichprobenumfang wird die tatsächliche Teststärke berechnet.
Was sind die wichtigsten Konzepte um Wichtige Konzepte um statistische Modelle aufzustellen und zu prüfen:
1. Welche Bedeutung hat der Standardfehler?
2. Wie können wir Konfidenzintervalle berechnen?
3. Was ist ein Signifikanztest?
4. Was sind Parameter?
5. Wie schätzen wir Parameter?
Wodurch wird der Populationsmittelwert geschätzt?
➢ Der Mittelwert der Population wird durch den Stichprobenmittelwert geschätzt.
womit werden Parameter und womit Schätzer gekennzeichnet.
➢Parameter werden mit griechischen, Schätzer hingegen mit lateinischen Buchstaben gekennzeichnet.
Was ist die Kleinst-Quadrate-Methode (KQ) auch Ordinary Least Squares (OLS) genannt?
Die Parameter b0, b1, …, bn werden so geschätzt, dass die Summe der quadrierten Abweichungen des Fehlerterms minimal wird. Dies nennt man Kleinst-Quadrate-Methode (KQ) oder Ordinary Least Squares (OLS).
Wie findet die Quadratsummenzerlegung im ALM statt
Gib einen Überblick zum Allgemeinen Linearen Modell (ALM)
➢Die abhängige Variable muss metrisch sein und sollte nicht zu schief verteilt sein oder Ausreißerwerte enthalten. Liegt eine stark abweichende Verteilung vor oder ist die AV nicht metrisch, so können Transformationen helfen oder der Einsatz eines verallgemeinerten linearen Modells (Generalized Linear Model).
➢Die unabhängigen Variablen können metrisch oder kategorial sein, also beliebiges Skalenniveau aufweisen. Haben kategoriale Variablen mehr als 2 Ausprägungen, müssen diese vorab dummy-codiert (dichotomisiert) werden.
➢Alle unabhängigen Variablen müssen Varianz aufweisen (s² > 0)
➢Die UVs und die AV sollten in der Realität linear miteinander verknüpft sein.
➢Alle Fälle (Beobachtungen, Personen, …) müssen voneinander unabhängig sein.
Welchen Einfluss haben Ausreißer auf die geschätzte Regressionsgerade und das Modell!
Ausreißer haben einen starken Einfluss auf die geschätzte Regressionsgerade und das Modell!
Einflussreiche Fälle können durch die Hebelwirkung ebenso die Regressionsgerade und die Modellparameter beeinflussen und so „vom Weg abbringen“.
Welche Lösungengibt es um Bias zu entdecken:
Lösungen, um Bias zu entdecken:
➢Visuelle Prüfung: Histogramme, Box-Plots (univariat) und Streudiagramme (bivariat): Sind alle Werte plausibel?
➢Berechnung der standardisierten Residuen (M = 0; SD = 1). 95 % der Werte sollten im Bereich −2 bis +2 liegen. Werte < −3 oder > +3 sind höchstwahrscheinlich Ausreißer.
➢Berechnen von Distanzmaßen (z. B. Cook‘s Distance). Sie misst, wie einflussreich ein Fall auf das Modell wirkt. Fälle >1 sollten genauer untersucht werden.
Welche Lösungen gibt es um Bias zu vermeiden?
:
➢Trimming: Daten „beschneiden“ und somit Ausreißerwerte ausschließen → muss Ausnahme bleiben!
➢Einsatz robuster Methoden, die Parameter und Standardfehler verlässlich schätzen können, z. B. via Bootstrapping.
➢Transforming: Bessere Verteilung durch eine mathematische Transformation erzeugen (z. B. Logarithmieren linksschiefer Verteilungen).
Welche Voraussetzungen müssen erfüllt sein um die Ergebnisse generalisierbar zu machen und so Die Inferenzstatistiken verlässlich machen.
1) Additivität und Linearität
2) Unkorrelierte Residuen
3) Varianzhomogene Residuen (Homoskedastizität)
4) Normalverteilte Residuen
5) Keine zu starke Multikollinearität (nur relevant wenn Anzahl UVs >1)
Was ist Voraussetzung Additivität und Linearität
➢Additivität: Die einzelnen Effekte addieren sich.
➢Linearität: Jede einzelne UV ist linear mit der AV verknüpft. Das Modell ist linear in seinen Parametern.
Was besagt die Vorraussetzung der Unkorrelierten Residuen
Unkorrelierte Residuen
➢ Die Voraussetzung ergibt sich aus dem Versuchsdesign bzw. der Datenerhebung. Kein Fall darf mit anderen Fällen zusammenhängen.
Was besagen die Varianzhomogenen Residuen (Homoskedastizität)
Varianzhomogene Residuen (Homoskedastizität)
➢Die Residuen ei sollten über alle Werte der UV gleichmäßig streuen (homogene Varianzen haben).
Was besagt die Vorraussetzung der Normalverteilten Residuen
Normalverteilte Residuen
➢Die Residuen ei sollten annähernd normalverteilt sein.
Warum ist die Vorraussetzung für alm Keine zu starke Multikollinearität
➢Die UVs dürfen untereinander nicht zu stark korrelieren. Prüfen der Voraussetzungen in SPSS:
➢Anfordern der Kollinearitätsdiagnose im Untermenü „Statistiken“, anschließend Beurteilung des VIF (Variance Inflation Factor). Der VIF sollte für alle UVs < 10 sein.
Was bedeutet Korrelation für Kausalität
Korrelationen sind für kausale Beziehungen notwendige Bedingung, aber keine hinreichende.
Beschreibe einen Positiven linearen Zusammenhang
Beschreibe einen negativen linearen Zusammenhang im Diagramm
Beschreibe einen monotonen aber nicht linearen positiven Zusammenhang im Diagramm
Beschreibe einen nicht monotonen Zusammenhang im Diagramm
Beschreibe wie ein Diagramm ohne Zusammenhang der Residuen aussieht.
Erkläre die Linearen Zusammenhänge von Kovarianz und Korrelation
➢Die Höhe der Kovarianz hängt von der Einheit der Variablen ab.
➢Um Zusammenhänge zu quantifizieren, müssen die Kovarianzen standardisiert werden.
➢Die Pearson-Korrelation teilt die gemeinsame Kovarianz durch das Produkt der einzelnen Standardabweichungen. Die Kovarianz wird somit an den Streuungen der beiden Variablen „relativiert“.
Erläutere den Korrelationskoeffizient, als Maß für die Stärke eines Zusammenhangs:
Der Wertebereich reicht von −1 bis +1 und entspricht einem Kontinuum.
➢Positive Zusammenhänge zeigen sich durch Werte > 0, negative Zusammenhänge durch Werte < 0.
➢Ist der Wert = 0 oder nahe 0 so besteht statistisch kein Zusammenhang zwischen den Variablen.
➢Sind die Voraussetzungen der parametrischen Korrelation nicht erfüllt oder die Zusammenhänge non-linear, so muss eine non-parametrische Korrelation eingesetzt werden, z. B. Spearman‘s ρ (=rs) oder Kendall‘s τ
➢Wird der Zusammenhang metrischer Variablen untersucht und gibt es eine lineare Beziehung zwischen den Variablen, so wird die Pearson-Korrelation r eingesetzt.
➢Für die Überprüfung von Zusammenhängen mit Beteiligung nominaler Variablen werden spezielle Korrelationskoeffizienten berechnet.
➢Für Korrelationskoeffizienten können Standardfehler, Konfidenzintervalle und Signifikanz berechnet werden.
Wie heißen die Non-parametrische Korrelationskoeffizienten
Spearman‘s ρ
Kendall t
Erkläre Spearman‘s ρ im Zusammenhang mit non-parametrischen Korrelationskoeffizienten
Konvertiert Original-Messwerte in Ränge
Berücksichtigt die Differenzen der Ränge
Berechnet mit den Differenzen Pearson’s r
Erkennt nur monotone Zusammenhänge
Erkläre Kendall τ im Zusammenhang mit non-parametrischen Korrelationskoeffizienten
Berücksichtigt nur Unterschiede zwischen Rängen
Berechnet die (Dis)-Konkordanzen der Rangpaare
Was sind die Ablaufschritte der Linearen Regression
Modellformulierung
Schätzung der Regressionsfunktion
Prüfung der Regressionsfunktion
Prüfung der Regressionskoeffizienten
Prüfung der Modellprämissen
Was besagt der Schritt der Modellformulierung für lineare Regression
Wir starten mit der einfachen linearen Regression (1 UV).
Grafische Prüfung des Zusammenhangs zwischen UV und AV
Umgangssprachlich: Was können wir ohne Berechnung des Regressionsmodells schon anhand der Streudiagramme ablesen?
Wie wird die Schätzung der Regressionsfunktion vorgenommen
➢Die Schätzung der Regressionskoeffizienten erfolgt mittels KQ-Methode (= OLS). Das ist händisch theoretisch möglich, wir verwenden dazu SPSS.
➢ Kennen wir den Wert der UV (Werbung, X), so können wir den geschätzten Wert der AV (Geschätzter Absatz, Ŷ) berechnen und anschließend das Residuum (Differenz zum tatsächlichen Absatz, Y)
Wie sollten Fragestellungen formuliert sein?
➢ Hypothesen müssen empirisch überprüfbar sein.
➢ Deskriptive und explorative Untersuchungen dienen zur Generierung von Hypothesen.
➢ Explanative Untersuchungen haben das Ziel, vorab formulierte Hypothesen zu prüfen.
Erkläre die Statistische Vergleichbarkeit
Strukturgleichheit:
Was ist gemeint?
Wie heißt die Verletzung?
Nenne ein Beispiel.
Und die Lösung.
Die Beobachtungsgruppen unterscheiden sich nur zufällig.
Selection Bias
Die Experimentalgruppe ist deutlich älter als die Kontrollgruppe.
Randomisation
Behandlungsgleichheit
Die Beobachtungsgruppen erhalten offensichtlich die gleiche Behandlung.
Performance Bias
Die Kontrollgruppe bleibt nicht unbehandelt.
Beobachtungsgleichheit
Die Bewertungsmaßstäbe sind für alle Beobachtungsgruppen gleich.
Detection Bias
Depressivität wird mit unterschiedlichen Scores erhoben.
Welche Art Bias werden zusätzlich unterschieden?
Zusätzlich unterscheiden wir noch den Attrition Bias und den Publication Bias.
Hypothesentests und statistische Signifikanz: Das Wichtigste zusammengefasst
➢ Die Alternativhypothese entspricht unserer Forschungshypothese, die Nullhypothese behauptet das komplementäre Ereignis.
➢ Die Alternativhypothese wird mit H1, die Nullhypothese mit H0 bezeichnet.
➢ Bevor getestet wird, muss die Irrtumswahrscheinlichkeit (α; Signifikanzniveau) festgelegt werden. Dieses Liegt in der Regel bei 5%.
➢ Der p-Wert gibt an, wie wahrscheinlich das gefundene Ergebnis oder ein noch extremeres Ergebnis unter Annahme der Nullhypothese wäre.
➢ Ein signifikantes Ergebnis liegt vor, wenn der empirisch ermittelte p-Wert des Tests unter oder gleich dem vorab festgelegten Signifikanzniveau liegt (üblicherweise p ≤ .05).
➢ Ein nicht signifikantes Ergebnis bedeutet nicht, dass die Nullhypothese wahr ist!
➢ Nicht signifikante Ergebnisse sind genauso wichtig wie signifikante Ergebnisse!
Effektstärken und Beispiele wann gelten Korrelation r und Cohen’s d
Worüber hat die Effekt keine Aussage
➢ Ein statistisch signifikantes Ergebnis sagt noch nichts über die praktische oder klinische Relevanz des gefundenen Effektes aus!
Was besagt die Teststärke als Funktion der anderen Größen
Was bedeutet Multiples Teste?
Welche Bedeutung hat der Standardfehler?
beschreibt die Streuung der Stichprobenmittelwerte um den wahren Populationsmittelwert. Er gibt an, wie stark der Mittelwert einer Stichprobe von dem tatsächlichen Mittelwert der Grundgesamtheit abweichen kann.
Der Standardfehler zeigt, wie genau ein Stichprobenmittelwert (xˉ) den wahren Populationsmittelwert (μ) schätzt.
Ein kleiner SE weist darauf hin, dass die Stichprobe den wahren Mittelwert gut repräsentiert.
Der SE wird verwendet, um Konfidenzintervalle zu berechnen, die den wahren Populationswert mit einer bestimmten Wahrscheinlichkeit (z. B. 95 %) einschließen.
Im t-Test und anderen Verfahren wird der SE genutzt, um die Signifikanz von Unterschieden zu bewerten.
Beispiel:
Wenn der SE einer Stichprobe 2 beträgt, bedeutet das, dass der Mittelwert der Stichprobe im Durchschnitt um 2 Einheiten vom wahren Mittelwert der Population abweicht.
Was ist ein Signifikanztest?
Hypothesen zu prüfen und festzustellen, ob ein beobachtetes Ergebnis zufällig oder auf einen systematischen Effekt zurückzuführen ist. Es dient dazu, eine Entscheidung darüber zu treffen, ob die Nullhypothese (H0 ) verworfen werden kann.
Hypothesen:
Nullhypothese (H0 ): Es gibt keinen Unterschied oder Effekt.
Alternativhypothese (H1 ): Es gibt einen Unterschied oder Effekt.
Signifikanzniveau (α):
Der festgelegte Schwellenwert, ab dem ein Ergebnis als statistisch signifikant gilt (z. B. α=0,05 p-Wert:
Die Wahrscheinlichkeit, das beobachtete Ergebnis oder ein extremeres zu erhalten, wenn H0 wahr ist.
Entscheidungsregel:
Wenn p≤α H0 wird verworfen (signifikant).
Wenn p>α H0 wird nicht verworfen (nicht signifikant).
Wie können wir Konfidenzintervalle berechnen?
Konfidenzintervalle sind Intervalle, die einen Schätzwert (z. B. Mittelwert) umgeben und mit einer bestimmten Wahrscheinlichkeit (1−α) den wahren Wert der Population enthalten. Die Berechnung eines Konfidenzintervalls hängt von den zugrunde liegenden Daten und der Art der Schätzung ab.
Ein Konfidenzintervall wird durch den Schätzwert, den Standardfehler und den Z- oder t-Wert bestimmt. Es gibt die Unsicherheit der Schätzung wieder und ermöglicht eine Einschätzung, wie gut die Stichprobe die Population repräsentiert.
Wie schätzen wir Parameter?
Parameter können entweder durch Punkt-Schätzung oder Intervallschätzung ermittelt werden. Die Wahl der Methode hängt von der Zielsetzung und den verfügbaren Daten ab. Häufig verwendete Techniken sind die Maximum-Likelihood-Methode und Konfidenzintervalle, während bayessche Methoden Vorwissen einbeziehen.
Punkt-Schätzung:
Ziel: Einen einzigen Wert für den unbekannten Parameter schätzen.
Der Mittelwert einer Stichprobe (xˉ) als Schätzer für den Populationsmittelwert (μ).
Die Stichprobenvarianz (s2) als Schätzer für die Populationsvarianz (σ2).
Methoden:
Maximum-Likelihood-Schätzung (MLE): Schätzt den Parameter so, dass die Wahrscheinlichkeit der beobachteten Daten maximiert wird.
Methode der kleinsten Quadrate: Minimiert die Summe der quadrierten Abweichungen zwischen Modell und Daten.
Intervallschätzung:
Ziel: Ein Konfidenzintervall berechnen, das den wahren Parameter mit einer bestimmten Wahrscheinlichkeit enthält.
Das 95%-Konfidenzintervall für den Mittelwert gibt einen Bereich an, in dem der Populationsmittelwert mit 95%iger Wahrscheinlichkeit liegt.
Bayessche Schätzung:
Ziel: Berücksichtigt neben den Stichprobendaten auch Vorwissen (Prior-Verteilung).
Kombiniert das Vorwissen mit den Daten (Likelihood) zu einer Posterior-Verteilung.
Daten erheben:
Eine repräsentative Stichprobe aus der Population ziehen.
Schätzmethode wählen:
Punkt-Schätzung (z. B. MLE) oder Intervallschätzung (z. B. Konfidenzintervalle).
Formel oder Algorithmus anwenden:
Beispiel für den Stichprobenmittelwert:μ^=xˉ=1n∑i=1nxiμ^=xˉ=n1i=1∑nxi
Beispiel für die Stichprobenvarianz:σ^2=1n−1∑i=1n(xi−xˉ)2σ^2=n−11i=1∑n(xi−xˉ)2
Güte des Schätzers überprüfen:
Kriterien:
Erwartungstreue: Der Schätzer liefert im Durchschnitt den wahren Parameterwert.
Effizienz: Der Schätzer hat die geringste Varianz unter allen erwartungstreuen Schätzern.
Konsistenz: Mit wachsender Stichprobengröße nähert sich der Schätzer dem wahren Parameter an.
Was sind Parameter?
In der Statistik bezieht sich ein Parameter auf eine feste, aber oft unbekannte Zahl, die eine Eigenschaft einer gesamten Population beschreibt. Parameter stehen im Gegensatz zu Statistiken, die auf Stichproben basieren und verwendet werden, um Parameter zu schätzen.
Mittelwert (μμ): Der Durchschnitt aller Werte in der Population.
Varianz (σ2σ2): Ein Maß für die Streuung oder Variabilität der Werte in der Population.
Proportion (pp): Der Anteil der Population, der eine bestimmte Eigenschaft besitzt.
Parameter beschreiben die gesamte Population (z. B. der "wahre Mittelwert").
Sie sind normalerweise unbekannt, da die Daten einer Population selten vollständig verfügbar sind.
Wir schätzen Parameter mithilfe von Statistiken aus Stichproben.
Nenne Parameter und Schätzer!
Messwert
Mittelwert
Abweichung
Quadrierte Abweichung
Welches Modell ist offensichtlich das bessere?
Modell 1 Mittelwert
Wie ist Unser universelles lineares Modell aufgebaut?
Wie sehen Lineare Modelle mit unterschiedlicher Anzahl an UVs aus
Wie sehen Lineare Modelle mit UV grafisch aus
Wie sieht ein lineares Modell mit 2 UVs grafisch aus?
Wie sieht die Schätzung der Parameter im Allgemeinen Linearen Modell (ALM) grafisch aus?
Wie sieht die Quadratsummenzerlegung im ALM grafisch aus?
QSTotal = QSModell + QSError
Stelle die Wichtigen Formeln im ALM auf
Liefere einen Überblick zum Allgemeines Lineares Modell (ALM)
y𝑖 = 𝑏0 + 𝑏1𝑥1𝑖 + 𝑏2𝑥2𝑖 + ⋯ + 𝑏𝑛𝑥𝑛𝑖 + e𝑖
➢ Die abhängige Variable muss metrisch sein und sollte nicht zu schief verteilt sein oder Ausreißerwerte enthalten. Liegt
eine stark abweichende Verteilung vor oder ist die AV nicht metrisch, so können Transformationen helfen oder der Einsatz
eines verallgemeinerten linearen Modells (Generalized Linear Model).
➢ Die unabhängigen Variablen können metrisch oder kategorial sein, also beliebiges Skalenniveau aufweisen. Haben
kategoriale Variablen mehr als 2 Ausprägungen, müssen diese vorab dummy-codiert (dichotomisiert) werden.
➢ Alle unabhängigen Variablen müssen Varianz aufweisen (s² > 0).
➢ Die UVs und die AV sollten in der Realität linear miteinander verknüpft sein.
➢ Alle Fälle (Beobachtungen, Personen, …) müssen voneinander unabhängig sein.
Wie sehen Mögliche Verzerrungen (Bias: Ausreißerwerte) im Histogramm und im boxplott aus?
Was beeinflussen Mögliche Verzerrungen (Bias: Ausreißerwerte) auf die Regressionsgerade
Einflussreiche Fälle können durch die Hebelwirkungmebenso die Regressionsgerade und die Modellparameter beeinflussen und so „vom Weg abbringen“.
Nenne Lösungen, um Bias zu entdecken:
➢ Visuelle Prüfung:
Histogramme, Box-Plots (univariat) und Streudiagramme (bivariat): Sind alle Werte plausibel?
➢ Berechnung der standardisierten Residuen (M = 0; SD = 1). 95 % der Werte sollten im Bereich −2 bis +2
liegen. Werte < −3 oder > +3 sind höchstwahrscheinlich Ausreißer.
➢ Berechnen von Distanzmaßen (z. B. Cook‘s Distance). Sie misst, wie einflussreich ein Fall auf das Modell
wirkt. Fälle >1 sollten genauer untersucht werden
Nennen sie Lösungen, um Bias zu vermeiden:
➢ Trimming: Daten „beschneiden“ und somit Ausreißerwerte ausschließen → muss Ausnahme bleiben!
➢ Einsatz robuster Methoden, die Parameter und Standardfehler verlässlich schätzen können, z. B. via
Bootstrapping.
➢ Transforming: Bessere Verteilung durch eine mathematische Transformation erzeugen
(z. B. Logarithmieren linksschiefer Verteilungen).
Neben der Inspektion der Daten auf Ausreißer und einflussreiche Fälle erfordert das Allgemeine Lineare Modell noch
weitere Voraussetzungen. Welche?
Sind folgende Voraussetzungen nicht erfüllt, können die Ergebnisse nicht generalisiert werden. Die
Inferenzstatistiken sind nicht verlässlich.
Die Voraussetzungen 2, 3 und 4 beziehen sich allein auf den Fehlerterm ei
Was besagt die ➢ Additivität
➢ Additivität: Die einzelnen Effekte addieren sich.
Was besagt die Linearität
Linearität: Jede einzelne UV ist linear mit der AV verknüpft. Das Modell ist linear in seinen Parametern.
Wie sieht gegebene und nicht gegebene linearität im Diagramm aus?
Was sind Unkorrelierte Residuen
➢ Die Voraussetzung ergibt sich aus dem Versuchsdesign bzw. der Datenerhebung. Kein Fall darf mit
anderen Fällen zusammenhängen.
Was besagt Varianzhomogene Residuen (Homoskedastizität)
➢ Die Residuen ei sollten über alle Werte der UV gleichmäßig streuen (homogene Varianzen haben).
Beispiel mit einer nominalen UV (Städte) im Rahmen einer einfaktoriellen Varianzanalyse.
Die Mittelwerte (oben) der AV sind rechts und links ähnlich, diemVarianzen (unten) der AV jedoch nicht.
Wie sehen Normalverteilte Residuen im streudiagramm aus?
➢ Die Residuen ei sollten annähernd normalverteilt sein.
Erkläre das Kriterium, Keine zu starke Multikollinearität
5) Keine zu starke Multikollinearität
➢ Die UVs dürfen untereinander nicht zu stark korrelieren.
Modellformulierung der einfachen linearen Regression (1 UV).
Absatz = 𝑓(Werbung)
y𝑖 = 𝑏0 + 𝑏1𝑥1𝑖 + e𝑖
𝐴𝑏𝑠𝑎𝑡𝑧𝑖 = 𝑏0 + 𝑏1𝑊𝑒𝑟𝑏𝑢𝑛𝑔𝑖 + e𝑖
Grafische Prüfung des Zusammenhangs zwischen Werbung und Absatz
-> zusätzlich Einzeichnen einer Regressionsgeraden
Was können wir ohne Berechnung des Regressionsmodells schon anhand der Streudiagramme ablesen?
Wie verläuft die Schätzung einer Regressionsfunktion?
➢ Die Schätzung der Regressionskoeffizienten erfolgt mittels KQ-Methode (= OLS). Das ist händisch theoretisch möglich, wir verwenden dazu SPSS.
➢ Kennen wir den Wert der UV (Werbung, X), so können wir den geschätzten Wert der AV (Geschätzter Absatz, Ŷ) berechnen und anschließend das Residuum (Differenz zum tatsächlichen Absatz, Y).
Schätzung der multiplen linearen Regression.
Wie verläuft die Prüfung der Regressionsfunktion?
Was wir zur Prüfung des Modells heranziehen:
➢ Quadratsummen (Total, Regression, Residuen) und zugehörige Freiheitsgrade
➢ Teststatistik: Ist unser Regressionsmodell signifikant? (F-Test der ANOVA)
➢ Standardfehler des Modells SE
➢ Bestimmtheitsmaß R²
Wie verläuft die Prüfung der Regressionskoeffizienten
Wie gut werden die Regressionskoeffizienten bj geschätzt?
Absatz𝑖 = 𝑏0 + 𝑏1𝑊𝑒𝑟𝑏𝑢𝑛𝑔𝑖 + 𝑏2𝑃𝑟𝑒𝑖𝑠𝑖 + 𝑏3𝑉𝑒𝑟𝑘𝑎𝑢𝑓𝑠𝑓ö𝑟𝑑𝑒𝑟𝑢𝑛𝑔𝑖 + e𝑖
Wie verläuft die Prüfung der Modellprämissen?
A1) Additivität und Linearität
A5) Unkorrelierte Residuen
A4) Varianzhomogene Residuen (Homoskedastizität)
A6) Normalverteilte Residuen
A7) Keine zu starke Multikollinearität
A2) Es fehlen keine relevanten UVs.
A3) Die UVs werden ohne Fehler gemessen.
Diese Modellprämissen (A2, A3) setzen wir „normalerweise“ voraus.
➢ Die Variable „Region“ hat 4 Ausprägungen: Nord, Ost, West, Süd. Wie können wir diese UV in unser Regressionsmodell integrieren?
Ursprüngliche Codierung:
Nord = 1
Ost = 2
West = 3
Süd = 4
Lösung: Dummy-Codierung von kategorialen UVs mit mehr als 2 Ausprägungen. UVs, die nur dichotom sind, sollten zur einfacheren Interpretation 0/1 codiert werden.
𝑈𝑚𝑠𝑎𝑡𝑧𝑖 = 𝑏0 + 𝑏1𝑂𝑠𝑡𝑖 + 𝑏2𝑊𝑒𝑠𝑡𝑖 + 𝑏3𝑆ü𝑑𝑖 + e𝑖
-> Modell mit Region als einziger UV.
Was sollte man über Dummy-Codierung kategorialer UVs wissen?
➢ Die Dummy-Codierung erlaubt uns den Einschluss kategorialer UVs mit mehr als 2 Ausprägungen.
➢ Metrische UVs gehen direkt in das Modell als Prädiktoren ein. Der lineare Zusammenhang mit der AV wird am Regressionskoeffizienten b erkennbar.
➢ Kategoriale UVs (nominal oder ordinal) müssen vorab dummy-codiert werden, es sei denn, es gibt nur 2 Ausprägungen (0 vs 1 codiert). Die mit 0 codierte Gruppe stellt dabei die Referenzkategorie („Basis“) dar.
➢ Für k Ausprägungen einer Variable müssen k-1 Dummy-Variablen erstellt werden, jede erhält einen eigenen Regressionskoeffizienten. Dies gilt nur, wenn der Intercept („Konstante“) b0 eingeschlossen ist.
➢ Der Regressionskoeffizient bj zeigt die Differenz des Mittelwertes im Vergleich zur Referenzkategorie an.
was ist die Notwendige Fallzahlen (sample sizes)?
Es existieren keine festen Vorgaben dafür. Dennoch einige Regeln:
➢ Je größer die Stichprobe, desto besser (höhere Teststärke, stabileres Modell).
➢ Basis für multivariate Analysen sollte bei mindestens N = 50, besser N = 100 liegen.
➢ Für jeden weiteren Effekt im Modell (=Regressionskoeffizient), egal ob Haupteffekt oder Interaktion, zusätzlich N = 20 → N = 200)
(Beispiel: Modell mit 3 Haupteffekten und 2 Interaktionseffekten = 5 Effekte = 100 + (5 x 20)
➢ Ist man sich unsicher, kann nachträglich eine Poweranalyse durchgeführt werden. (Wie groß war die Teststärke 1−β ?)
➢ Wenn N > 400 hat man es mit optimalen Stichprobenumfängen zu tun.
Wie sieht die Multiple Korrelation R und die Bivariate Korrelation r aus?
Wie sieht die Quadrierte Korrelation (0. Ordnung), die Quadrierte Partialkorrelation und die Quadrierte Semipartialkorrelation, als Formel und im KuchenDiagramm aus?
Was gibt die Partialkorrelation an?
Die Partialkorrelation gibt den linearen Zusammenhang zweier Variablen an, aus dem der lineare Einfluss einer dritten Variablen eliminiert wurde.
➢ In einer Studie wurde analysiert, wie die erreichten Punkte in einer Klausur (AV) durch Prüfungsangst und die investierte Lernzeit (UVs) beeinflusst werden.
Nenne die drei Variablen und die Ergebnisse der Korrelation.
Wie interpretieren wir die bivariaten Korrelationen?
Wie interpretieren wir den Output zu Korrelationen, was können wir daraus lesen?
Wie verlau die verschiedenen Methoden zum Aufbau eines Regressionsmodells?
Wie geht die Umsetzung der Einschluss-Methode zum Aufbau eines Regressionsmodells?
(Forced Entry oder Enter-Methode)
Alle interessierenden UVs werden simultan in das Modell aufgenommen.
Regressionmodell:
Wie funktioniert Hierarchisches (blockweises) Vorgehen zum aufstellen eines Modells
(Hierarchical Entry)
Die Variablen werden aufgrund von theoretischen Vorüberlegungen
nacheinander in das Modell eingegeben. Der Untersucher entscheidet allein
darüber, welche UVs wann in das Modell aufgenommen werden.
Wie geht die Umsetzung bei Schrittweise, Vorgehen
(Stepwise Entry), vorwärts- (forward) und rückwärts-(backwards)
zum Aufbau eines Regressionsmodells?
Die Variablen werden ausschließlich aufgrund von statistischen Kriterien in das
Modell aufgenommen. Aus einem Pool an unabhängigen Variablen wird
diejenige aufgenommen, die das Modell signifikant und in größtem Maße
verbessert (Zuwachs an R²). Dies geschieht so lange, bis keine weitere Variable
mehr aufgenommen wird. Ist in einem Modell eine bereits aufgenommene UV
nicht mehr signifikant, so wird sie wieder ausgeschlossen. Varianten des
schrittweisen Vorgehens sind die forward- und backwards-Methode.
Was sind wichtige Punkte zum Aufbau eines Regressionsmodells
➢ Es empfiehlt sich eine Mischung aus hierarchischem Vorgehen und der Einschluss-Methode.
➢ Schrittweises Vorgehen sollte nur in rein explorativen Untersuchungen eingesetzt werden, bei dem der Einfluss auf die AV und der theoretische Hintergrund unklar sind.
➢ Alle wichtigen Variablen und mögliche Confounder (Störvariablen) sollten mit in das Modell aufgenommen werden, um deren Einfluss zu „kontrollieren“.
➢ Es sollte darauf geachtet werden, wie die Regressionskoeffizienten sich im Prozess der Modellbildung ändern.
➢ Es gilt in der statistischen Modellierung immer der Grundsatz: Simplicity first!
Oder anders: So einfach wie möglich, so komplex wie nötig.
Durch die Auswahl der Methode können Sie festlegen, wie unabhängige Variablen in die Analyse eingeschlossen werden.
Anhand verschiedener Methoden können Sie eine Vielfalt von Regressionsmodellen mit demselben Set von Variablen erstellen.
Nenne und erkläre sie
Einschluss (Regression). Eine Prozedur für die Variablenauswahl, bei der alle Variablen eines Blocks in einem einzigen Schritt aufgenommen werden.
• Stepwise. Bei jedem Schritt wird die unabhängige Variable eingegeben, die nicht in der Gleichung mit der kleinsten Wahrscheinlichkeit von F enthalten ist, wenn diese Wahrscheinlichkeit ausreichend klein ist. Bereits in der Regressionsgleichung enthaltene Variablen werden entfernt, wenn ihre F Wahrscheinlichkeit hinreichend groß wird. Das Verfahren endet, wenn keine Variablen mehr für Aufnahme oder Ausschluss infrage kommen.
• Entfernen. Ein Verfahren zur Variablenauswahl, bei dem alle Variablen eines Blocks in einem Schritt ausgeschlossen werden.
• Rückwärtselimination. Eine Prozedur zur Variablenauswahl, bei der alle Variablen in die Gleichung aufgenommen und anschließend sequenziell entfernt werden. Die Variable mit der kleinsten Teilkorrelation zur abhängigen Variablen wird als erste für den Ausschluss in Betracht gezogen. Wenn sie das Ausschlusskriterium erfüllt, wird sie entfernt. Nach dem Ausschluss der ersten Variablen wird die nächste Variable mit der kleinsten Teilkorrelation in Betracht gezogen. Das Verfahren wird beendet, wenn keine Variablen mehr zur Verfügung stehen, die die Ausschlusskriterien erfüllen.
• Vorwärtsauswahl. Eine Prozedur zur schrittweisen Variablenauswahl, bei der Variablen sequenziell in das Modell eingegeben werden. Die erste Variable, die in Betracht gezogen wird, ist die mit der größten positiven bzw. negativen Korrelation mit der abhängigen Variablen. Diese Variable wird nur dann in die Gleichung aufgenommen, wenn sie das Aufnahmekriterium erfüllt. Wenn die erste Variable aufgenommen wurde, wird als Nächstes die unabhängige Variable mit der größten partiellen Korrelation betrachtet. Das Verfahren endet, wenn keine verbliebene Variable das Aufnahmekriterium erfüllt.
In einer korrelativen Studie wurde untersucht, ob sich das Risiko für eine Frau, ein Kind mit Down-Syndrom zur Welt zu bringen, mit jedem weiteren Kind erhöht. Es zeigte sich, dass das Risiko mit jedem weiteren Kind drastisch steigt, also ein positiver Zusammenhang zwischen dem Risiko und dem Rang der Geburt vorliegt.
Es scheint keine vernünftige medizinische Erklärung für diesen Zusammenhang zu geben.
Was ist der wirkliche Grund für dieses Ergebnis?
Beide Kreise überlappen sich: Starker Zusammenhang und geteilte Varianz
Wie sieht ein Positiver linearer Zusammenhang im streudiagramm aus?
Wie sieht ein Negativer linearer Zusammenhang im streudiagramm aus?
Wie sieht ein Monotoner nicht-linearer positiver Zusammenhang im streudiagramm aus?
Wie sieht ein Nicht-monotoner Zusammenhang im streudiagramm aus?
Gib ein Beispiel dafür wie es im streudiagramm aussieht wenn Kein Zusammenhang vorliegt.
Lineare Zusammenhänge:
Wie ist der Zusammenhang zwischen Kovarianz und Korrelation?
➢ Die Höhe der Kovarianz hängt von der Einheit der Variablen ab.
➢ Um Zusammenhänge zu quantifizieren, müssen die Kovarianzen standardisiert werden.
➢ Die Pearson-Korrelation teilt die gemeinsame Kovarianz durch das Produkt der einzelnen Standardabweichungen.
Die Kovarianz wird somit an den Streuungen der beiden Variablen „relativiert“.
Maß für die Stärke eines Zusammenhangs:
Erkläre den Korrelationskoeffizient
➢ Der Wertebereich reicht von −1 bis +1 und entspricht einem Kontinuum.
➢ Positive Zusammenhänge zeigen sich durch Werte > 0, negative Zusammenhänge durch Werte < 0.
➢ Ist der Wert = 0 oder nahe 0 so besteht statistisch kein Zusammenhang zwischen den Variablen.
➢ Wird der Zusammenhang metrischer Variablen untersucht und gibt es eine lineare Beziehung zwischen den
Variablen, so wird die Pearson-Korrelation r eingesetzt.
➢ Sind die Voraussetzungen der parametrischen Korrelation nicht erfüllt oder die Zusammenhänge non-linear,
so muss eine non-parametrische Korrelation eingesetzt werden, z. B. Spearman‘s ρ (=rs) oder Kendall‘s τ.
➢ Für die Überprüfung von Zusammenhängen mit Beteiligung nominaler Variablen werden spezielle
Korrelationskoeffizienten berechnet.
➢ Für Korrelationskoeffizienten können Standardfehler, Konfidenzintervalle und Signifikanz berechnet werden.
Nenne und erkläre Non-parametrische Korrelationskoeffizienten
Nenne Korrelationskoeffizienten für verschiedene Zusammenhänge:
Positiver linearer Zusammenhang
Negativer linearer Zusammenhang
Monotoner nicht-linearer positiver Zusammenhang
Nicht-monotoner Zusammenhang
Kein Zusammenhang
Gib einen Überblick zur Kontingenzanalysen
➢ Es soll der Zusammenhang zwischen kategorialen Variablen untersucht werden.
➢ Zur deskriptiv-explorativen Darstellung der Häufigkeiten kategorialer Variablen werden Kreuztabellen eingesetzt.
➢ Wir unterscheiden absolute Häufigkeiten (N) und relative Häufigkeiten (%).
➢ Oftmals sind die Variablen nur dichotom, haben also nur 2 Ausprägungen, z. B. weiblich/männlich, gesund/krank, überlebt/verstorben, gekauft/nicht gekauft usw.
➢ Die Nullhypothese entspricht der Unabhängigkeit der Variablen, also das kein Zusammenhang zwischen ihnen existiert.
➢ Zahlreiche Maße sind mit Kontingenzanalysen assoziiert: Chi-Quadrat-Wert, Odds Ratio, relatives Risiko, Phi-Koeffizient, Cramers V, Kontingenzkoeffizient …
➢ Sind mehr als 2 Variablen zu untersuchen, so kommen log-lineare Analysen zum Einsatz.
Gib ein paar Anwendungsbeispiele für Kontingenzanalysen
Erstellung einer Kreuztabelle
Nenne χ² - basierte Zusammenhangsmaße
Wie wirkt sich langjährige soziale Isolation auf die Genese einer Angsterkrankung aus?
Erkläre Kohortenstudie und Fall-Kontroll-Studie
Sie arbeiten als klinische Psycholog/in in einer psychiatrischen Klinik auf einer Station für Patienten mit Borderline-Störung. Im Rahmen eines empirischen Projektes möchten Sie untersuchen, wie Borderline-Patienten im Vergleich zu Gesunden in der Kindheit Missbrauchshandlungen erlebt haben. Sie können für Ihre Studie 30 Borderline-Patienten als Fälle und 30 psychisch gesunde Personen als Kontrollen rekrutieren. In den Einzelgesprächen mit den Patienten stellt sich am Ende heraus, dass in der Borderline-Gruppe 17 Patienten Missbrauch in der Kindheit erlebt hatten, bei den gesunden Personen waren es hingegen 4, die davon berichteten.
Um welchen Studientyp handelt es sich und warum?
Stellen Sie eine 4-Felder-Tafel mit den oben beschriebenen Fallzahlen auf. Denken Sie daran die Expositions-Variable als Zeilenvariable zu definieren.
Berechnen Sie die entsprechenden Randhäufigkeiten (Summen der Zeilen und Spalten).
Wie hoch ist der Anteil in der gesamten Stichprobe, die Missbrauch erlebt haben?
Berechnen Sie eine geeignete Maßzahl, um erlebten Kindesmissbrauch als Risikofaktor für eine spätere Borderline-Erkrankung einzuschätzen.
Interpretieren Sie die Ergebnisse, wie lautet Ihr Fazit?
Liefere einen Überblick zum T-Test für unabhängige Stichproben: Überblick
Der T-Test ist eine Anwendung des Allgemeinen Linearen Modells und unterliegt dessen Voraussetzungen.
➢ Wir grenzen den T-Test für unabhängige Stichproben ab vom Einstichproben-T-Test und vom T-Test für abhängige Stichproben.
➢ Ziel ist es zu prüfen, ob die Mittelwerte aus 2 Populationen gleich sind. Somit lautet die ungerichtete Nullhypothese μ1 = μ2, die Alternativhypothese korrespondierend μ1 ≠ μ2.
➢ Als Schätzer für die Populationsmittelwerte μi verwenden wir die Stichprobenmittelwerte x̄i.
➢ Je größer die Differenz zwischen den Stichprobenmittelwerten, desto mehr Evidenz spricht für die H1.
➢ Um die Mittelwertsdifferenz zu standardisieren, können wir Cohens d berechnen.
➢ Die Teststatistik T hängt maßgeblich von der Streuung der AV in den Populationen ab.
Es soll untersucht werden, ob sich das Maß der psychischen Belastung in einem Architekturbüro mit 18 Mitarbeitern zwischen Frauen und Männern unterscheidet. Dazu wird ein Testverfahren eingesetzt, das am Ende die Belastung in einem Score abbildet.
Wie lauten Null- und Alternativhypothese?
Gib einen Überblick zur Varianzanalyse (ANOVA)
➢ Die Varianzanalyse erweitert die Möglichkeiten des T-Test auf mehr als 2 Gruppen.
➢ Auch die Varianzanalyse prüft Mittelwertsunterschiede zwischen mehreren Gruppen.
➢ Die UV bezeichnen wir in der Varianzanalyse auch als Faktor. Untersuchen wir 3 Gruppen, so ist der Faktor 3-fach gestuft.
➢ Im Gegensatz zu einzelnen T-Tests hat die Varianzanalyse mehr statistische Power.
➢ Mit dem Overall-F-Test wird untersucht, ob es generell Mittelwertsunterschiede gibt.
➢ Mit anschließenden Kontrasten und Post-hoc-Tests werden Unterschiede zwischen den einzelnen Gruppen Im Nachgang geprüft.
➢ Die Signifikanz hängt auch hier maßgeblich von den Mittelwertsdifferenzen, der Streuung und der Stichprobengröße ab.
Wenn du einen parametrischen Test bei normalverteilten Daten durchführen sollst welche kommen in fragen?
Wenn die Daten nicht normalverteilt sind was dann welche Tests nutzt du und ist der Test dann noch parametrisch?
Welche Vorteile haben parametrische Tests?
Parametrische Tests sind in der Regel teststärker als nicht parametrische Tests!
Nicht parametrische Tests unterliegen aber weniger Bedingungen.
Was ist der Unterschied zwischen der Spearman Rangkorrelation und seinem nichtparametrischen Gegenstück der Pearson Korrelation.
Die Spearman Korrelation verwendet nicht die Ausgangsdaten, sondern die Rangplätze der Daten.
Wir haben von 8 Computerspielern die Reaktionszeit gemessen und das Alter abgefragt.
-> Wenn wir eine Pearson Korrelation berechnen, nehmen wir einfach die beiden Variablen Reaktionszeit und Alter und berechnen den Pearson Korrelationskoeffizienten.
-> Wir wollen nun aber die Spearman Rangkorrelation berechnen, also ordnen wir erstmal jeder Person für Reaktionszeit und Alter einen Rang zu.
-> kleinste Wert, bekommt also Rang 1 , der zweitkleinste, bekommt also Rang 2
-> Das gleiche machen wir auch bei dem Alter.
Also die Spearman Korrelation ist gleich der Pearson Korrelation, nur dass die Rangplätze anstelle der Ausgangswerte verwendet werden.
Wie sieht der unterschied zwischen einem t-Test für unabhängige Stichproben und dem Mann-Whitney U Test aus?
Der t-Test für unabhängige Stichproben und der Mann-Whitney U Test prüfen, ob es einen Unterschied zwischen zwei Gruppen gibt.
Der Mann Whitney U Test ist das nicht parametrische Gegenstück zum t-Test für unabhängige Stichproben.
Gibt es einen Unterschied zwischen der Reaktionsfähigkeit von Frauen und Männer.
-> Der T-Test für unabhängige Stichproben prüft, ob es einen Mittelwertsunterschied in den Gruppen gibt.
-> Für beide Stichproben wird also der Mittelwert berechnet und es wird überprüft, ob sich diese Mittelwerte signifikant unterscheiden.
-> Beim Mann-Whitney U Test hingegen wird überprüft, ob es einen Rangsummenunterschied gibt.
-> kleinster Wert rang 1, zweit kleinster Wert Rang 2
-> Anschließend können wir einfach die Ränge der ersten Gruppe und der zweiten Gruppe aufsummieren.
-> Nun können wir untersuchen, ob es einen signifikanten Unterschied zwischen diesen Rangsummen gibt.
Ordne folgenden Arten von Stichproben die passenden parametrischen Tests zu:
Eine Stichprobe
Zwei unabhängige Stichproben
Zwei abhängige Stichproben
Mehr als zwei unabhängige Stichproben
Mehr als zwei abhängige Stichproben
Korrelation zwischen zwei Variablen
Parametrische Tests
Einfacher t-Test
t-Test für unabh. Stichpr.
t-Test für abh. Stichpr.
ANOVA
ANOVA mit Messwieder.
Pearson-Korrelation
Ordne folgenden Arten von Stichproben die passenden nicht parametrischen Tests zu:
Nichtparametrische Tests
Wilcoxon test für eine Stichpr.
Wilcoxon Test
Mann-Whitney U Test
Kruskal-Wallis Test
Friedman Test
Spearman-Korrelation
Was ist Quantitative Forschung?
Quantitative Forschung ist eine Forschungsmethode für die quantitative Erfassung und Analyse von Daten.
Was ist das Ziel quantitativer Forschung?
Mit der quantitativen Forschung möchtest du aussagen über die Realität treffen und Erkenntnisse gewinnen bzw vorhandene Erkenntnisse prüfen.
Wie ist der Ablauf quantitativer Forschung?
Was sagt der P-Wert aus und worüber trifft er keine Aussage?
p-Wert fasst Messergebnisse zusammen und bestimmt ob es ein Zufalls Ergebnis vorliegt, also Zufall ja/nein
Die Effekt-Stärke lässt sich dabei nicht ablesen.
Was wenn der Signifikanztest einen p-Wert < 0,05 ergibt?
H1: Es besteht ein Effekt
Alternativ-Hypothese: deine Vermutung kann angenommen werden
H0: es besteht kein Zusammenhang
Kann abgelehnt werden
Was besagt die Teststatistik, wo liegt das Signifikanz Niveau?
Teststatistik
Ablehnungsbereich meist bei p-Wert < 0,05 (desto kleiner desto besser)
Kann Hypothese abgelehnt werden
Was ist validität?
Validität beschreibt den Grad der Gültigkeit mit der ein Merkmal gemessen wird
Was besagt die Inhalts validität?
Inhaltsvalidität fragt danach, ob die Menge der Testitems (Aufgaben) eine repräsentative Stichprobe des gesamten Itemuniversums erfasst.
Was besagt die Kriteriumsvalidität?
Kriteriumsvalidität fragt danach, ob die Messergebnisse mit einem praktisch bedeutsamen Außenkriterium korrelieren.
Was besagt die Konstruktvalidität?
Konstruktvalidität fragt danach, ob die Messergebnisse mit theoretisch abgeleiteten Messvorhersagen übereinstimmen.
Was ist die Effektstärke?
Definition: Die Effektstärke misst die Größe oder Relevanz eines Effekts unabhängig von der Stichprobengröße.
Sie gibt an, wie stark ein Zusammenhang, Unterschied oder Effekt in der Population ist.
Nenne und erkläre Arten von Effektstärken
Für Gruppenunterschiede
Cohen's dd: Unterschied zwischen zwei Mittelwerten, standardisiert durch die Standardabweichung.
Interpretation (nach Cohen):
d=0.2d=0.2: kleiner Effekt
d=0.5d=0.5: mittlerer Effekt
d=0.8d=0.8: großer Effekt
Für Zusammenhänge
Korrelationskoeffizient rr: Stärke eines linearen Zusammenhangs.
Interpretation:
r=0.1r=0.1: kleiner Effekt
r=0.3r=0.3: mittlerer Effekt
r=0.5r=0.5: großer Effekt
Für Varianzaufklärung
R2R2: Anteil der erklärten Varianz in einer Regression.
Wertebereich: 00 bis 11.
Effektgrößen für nominale Daten
Cramér's VV: Maß für den Zusammenhang bei Kreuztabellen.
Warum Effektstärken?
Ergänzen p-Werte (Signifikanztests sagen nichts über die Größe des Effekts).
Erlauben Vergleichbarkeit zwischen Studien.
Wichtig für Power-Analysen und Metaanalysen.
Was ist die Teststärke (Power)?
Definition: Die Teststärke gibt die Wahrscheinlichkeit an, dass ein statistischer Test einen tatsächlich vorhandenen Effekt entdeckt (d.h. die Nullhypothese korrekt ablehnt).
Formel:Teststa¨rke=1−βTeststa¨rke=1−β wobei ββ die Wahrscheinlichkeit für einen Fehler 2. Art ist (das Übersehen eines tatsächlichen Effekts).
Warum ist die Teststärke wichtig?
Vermeidet falsche Schlussfolgerungen (Übersehen eines Effekts).
Planungsinstrument für Stichprobengröße: Eine höhere Teststärke erfordert oft größere Stichproben.
Entscheidend bei Studienplanung, um sinnvolle Ergebnisse zu gewährleisten.
Welche Faktoren, beeinflussen die Teststärke?
Effektstärke:
Größere Effekte sind leichter zu entdecken (höhere Teststärke).
Stichprobengröße:
Je größer die Stichprobe, desto höher die Teststärke.
Signifikanzniveau (αα):
Ein höheres Signifikanzniveau (z. B. α=0.05α=0.05 statt α=0.01α=0.01) erhöht die Teststärke.
Varianz in den Daten:
Geringere Varianz führt zu höherer Teststärke, da Messwerte präziser sind.
Wie wird die teststärke interpretiert?
Interpretation der Teststärke:
80% (0.8) ist ein üblicher Schwellenwert:
Bedeutet, dass in 80% der Fälle ein Effekt entdeckt wird, wenn er tatsächlich existiert.
100% (1.0) ist ideal, aber selten erreichbar.
Was bedeutet multiples Testen?
Definition: Beim multiplen Testen werden mehrere Hypothesentests gleichzeitig durchgeführt.
Problem: Mit der Anzahl der Tests steigt das Risiko, mindestens einen Fehler 1. Art (αα) zu machen.
Was ist statistische Modellierung?
Definition: Statistische Modellierung ist der Prozess, Daten mit einem mathematischen Modell zu beschreiben, um Zusammenhänge, Muster oder Vorhersagen zu analysieren.
Ziel: Vereinfachung komplexer Realitäten durch Annahmen und Schätzungen.
Nenne und erkläre Arten von statistischen Modellen:
Deskriptive Modelle
Beschreiben Muster in den Daten (z. B. Mittelwerte, Streuungen).
Prädiktive Modelle
Treffen Vorhersagen für neue Daten (z. B. Regressionsanalyse).
Erklärende Modelle
Untersuchen kausale Zusammenhänge (z. B. Varianzanalyse).
Nenne und erkläre Wichtige Komponenten eines Modells:
Wichtige Komponenten eines Modells:
Daten: Beobachtungen, die analysiert werden.
Parameter: Unbekannte Größen, die geschätzt werden (z. B. Steigung einer Geraden).
Funktion: Mathematische Formel, die die Beziehung zwischen Variablen beschreibt.
Beispiel: y=β0+β1x+εy=β0+β1x+ε (lineares Modell).
Nenne und erkläre Schritte in der Modellierung:
Modellauswahl:
Welches Modell passt zu den Daten? (z. B. lineare Regression, logistisches Modell).
Modellanpassung:
Schätzung der Parameter (z. B. mit der Methode der kleinsten Quadrate).
Modellbewertung:
Wie gut passt das Modell zu den Daten? (z. B. R2R2, p-Werte).
Modellvalidierung:
Prüfung der Generalisierbarkeit (z. B. durch Kreuzvalidierung).
Was ist der Standardfehler?
Definition: Der Standardfehler (SE) gibt an, wie stark eine Stichprobenkennzahl (z. B. Mittelwert) um den wahren Populationswert schwankt.
Formel für den Standardfehler des Mittelwerts:SE=snSE=ns
ss: Standardabweichung der Stichprobe.
nn: Stichprobengröße.
Wofür wird der Standardfehler verwendet?
Schätzung der Präzision: Zeigt, wie genau der Stichprobenmittelwert den wahren Populationsmittelwert schätzt.
Hypothesentests: Wird zur Berechnung von Teststatistiken (z. B. t-Wert) genutzt.
Konfidenzintervalle: Zur Bestimmung der Unsicherheit um den Stichprobenmittelwert.
Was ist der Unterschied zwischen Standardabweichung vs. Standardfehler?
Standardabweichung (ss): Streuung der Datenpunkte um den Mittelwert in der Stichprobe.
Standardfehler (SESE): Streuung der Stichprobenmittelwerte um den Populationsmittelwert.
Unterschied: Standardabweichung vs. Standardfehler
Welche Faktoren beeinflussen den Standardfehler :
Stichprobengröße (nn):
Größere Stichproben → kleinerer Standardfehler (präzisere Schätzung).
Variabilität in den Daten (ss):
Höhere Variabilität → größerer Standardfehler.
Was ist ein Konfidenzintervall?
Definition: Ein Bereich, der mit einer bestimmten Wahrscheinlichkeit (1−α1−α) den wahren Parameter der Population einschließt.
Beispiel: Ein 95%-Konfidenzintervall bedeutet, dass bei 95 von 100 Stichproben der wahre Wert in diesem Bereich liegt.
Nenne und erkläre für Konfidenzintervalle Wichtige Begriffe:
Wichtige Begriffe:
Konfidenzniveau: Wahrscheinlichkeit, mit der der wahre Parameter im Intervall liegt (z. B. 95%).
Breite des Intervalls: Hängt ab von:
Stichprobengröße (nn): Größere nn → engeres Intervall.
Variabilität (ss): Höhere Streuung → breiteres Intervall.
Konfidenzniveau: Höheres Niveau (z. B. 99%) → breiteres Intervall.
Was wird beim Konfidenzintervall interpretiert?
Ein 95%-Konfidenzintervall bedeutet: „Wir sind zu 95% sicher, dass der wahre Wert des Parameters im Intervall liegt.“
Wichtig: Das Intervall deckt entweder den wahren Wert ab – oder nicht. Das Konfidenzniveau bezieht sich auf den Prozess der Intervallbildung.
Definition: Ein statistisches Verfahren, um zu prüfen, ob ein beobachtetes Ergebnis einer Stichprobe durch Zufall zustande gekommen ist oder auf einen echten Effekt in der Population hinweist.
Ziel: Überprüfung einer Nullhypothese (H0H0) gegen eine Alternativhypothese (H1H1).
Erläutere Schritte eines Signifikanztests:
Hypothesen aufstellen:
H0H0 (Nullhypothese): Kein Effekt/keine Unterschiede.
H1H1 (Alternativhypothese): Effekt oder Unterschied vorhanden.
Signifikanzniveau (αα) wählen:
Häufig: 5% (α=0,05α=0,05).
Teststatistik berechnen:
Beispiel: t-Wert, z-Wert, F-Wert.
p-Wert berechnen:
Wahrscheinlichkeit, das beobachtete Ergebnis (oder extremeres) unter H0H0 zu erhalten.
Entscheidung treffen:
p≤αp≤α: Nullhypothese ablehnen (signifikant).
p>αp>α: Nullhypothese nicht ablehnen.
Erläutere Wichtige Begriffe für signifikantstests
p-Wert: Maß für die Stärke der Evidenz gegen H0H0.
Signifikanzniveau (αα): Wahrscheinlichkeit, einen Fehler 1. Art zu begehen (fälschliche Ablehnung von H0H0).
Definition: Kennzahlen, die Eigenschaften einer Population beschreiben (z. B. Mittelwert μμ, Standardabweichung σσ, Proportion pp).
Beispiele:
μμ: Wahrer Mittelwert der Population.
σ2σ2: Wahre Varianz der Population.
Was sind Schätzer?
Definition: Statistische Größen, die auf Basis von Stichprobendaten Parameter der Population abschätzen.
xˉxˉ: Stichprobenmittelwert als Schätzer für μμ.
s2s2: Stichprobenvarianz als Schätzer für σ2σ2.
Nenne und erkläre Arten von Schätzern:
Arten von Schätzern:
Punkt-Schätzer:
Schätzt den Parameter als einen einzelnen Wert.
Beispiel: Stichprobenmittelwert xˉxˉ.
Intervallschätzer:
Gibt einen Wertebereich an, in dem der wahre Parameter mit einer bestimmten Wahrscheinlichkeit liegt.
Beispiel: Konfidenzintervalle.
Was sind Gütekriterien für Schätzer:
Erwartungstreue (Unverzerrtheit):
Der Schätzer liefert im Mittel den wahren Wert des Parameters.
Beispiel: xˉxˉ ist erwartungstreu für μμ.
Konsistenz:
Mit wachsender Stichprobengröße nähert sich der Schätzer dem wahren Parameterwert.
Effizienz:
Ein effizienter Schätzer hat die geringste Varianz unter allen möglichen Schätzern.
Suffizienz:
Ein Schätzer nutzt alle Informationen aus der Stichprobe.
Was ist der Unterschied zwischen Parameter und Schätzer:
Merkmal
Parameter
Schätzer
Gilt für
Typ
Beispiele
Unterschied zwischen Parameter und Schätzer:
Population
Stichprobe
Theoretischer Wert
Statistische Berechnung
μμ, σσ, pp
xˉxˉ, ss, p^
Was sind Quadratsummen?
Definition: Quadratsummen messen die Streuung der Daten und sind eine zentrale Größe in der Varianzanalyse (ANOVA). Sie basieren auf der Summe der quadrierten Abweichungen zwischen Werten und einem Referenzwert (z. B. Mittelwert).
Ziel: Zerlegung der Gesamtstreuung in verschiedene Komponenten.
Was ist der Anwendungsbereich von Quadratsummen?
ANOVA: Zur Untersuchung von Mittelwertsunterschieden zwischen Gruppen.
Was ist Fehlervarianz?
Definition: Fehlervarianz bezeichnet die Streuung der Daten, die nicht durch das Modell oder die erklärenden Variablen erklärt wird. Sie stellt die verbleibende Variabilität dar, die nach der Berücksichtigung der erklärenden Variablen übrig bleibt und durch zufällige oder unbekannte Faktoren verursacht wird.
Was ist die Bedeutung der Fehlervarianz:
Fehlervarianz hilft zu verstehen, wie gut oder schlecht ein Modell die tatsächlichen Daten beschreibt.
Kleine Fehlervarianz: Modell erklärt die Daten gut, geringe unerklärte Variabilität.
Große Fehlervarianz: Modell ist weniger gut und lässt viel unerklärte Streuung.
Erkläre den Zusammenhang zwischen der Fehlervarianz mit der Gesamtvarianz!
Gesamtvarianz = Modellvarianz + Fehlervarianz
In der ANOVA wird die Fehlervarianz oft mit der Modellvarianz (zwischen den Gruppen) verglichen, um festzustellen, ob der Unterschied zwischen den Gruppen signifikant ist.
Was ist die Bedeutung Bedeutung der Fehlervarianz für die F-Statistik (ANOVA)
Bedeutung für die F-Statistik (ANOVA):
F-Statistik: Der F-Wert wird berechnet, indem die Modellvarianz (zwischen den Gruppen) durch die Fehlervarianz (innerhalb der Gruppen) geteilt wird. F = \frac{\text{Modellvarianz (SS_{\text{between}} / df_{\text{between}})}}{\text{Fehlervarianz (SS_{\text{within}} / df_{\text{within}})}}
Hoher F-Wert zeigt an, dass das Modell signifikante Unterschiede zwischen den Gruppen erklärt, im Vergleich zur Fehlervarianz.
Welche Annahmen, die in der linearen Regressionsanalyse und in vielen anderen statistischen Verfahren eine wichtige Rolle spielen gewährleisten Gültigkeit und Zuverlässigkeit der Ergebnisse?
Diese Annahme besagt, dass die Beziehung zwischen den unabhängigen Variablen (UV) und der abhängigen Variablen (AV) linear ist und additive Effekte vorliegen. Das bedeutet, dass sich der Effekt jeder unabhängigen Variablen auf die abhängige Variable nicht in Wechselwirkungen mit anderen Variablen verändert.
Es wird angenommen, dass alle relevanten Variablen, die den Wert der abhängigen Variablen beeinflussen könnten, in das Modell aufgenommen wurden. Ein fehlendes oder ausgelassenes wichtiges Prädiktor könnte das Modell verfälschen und zu verzerrten Ergebnissen führen (sogenannte omitted variable bias).
In der Praxis ist es oft schwer, Variablen ohne Messfehler zu erfassen, aber diese Annahme geht davon aus, dass alle unabhängigen Variablen korrekt gemessen werden. Messfehler in den UVs können zu verzerrten Schätzungen und fehlerhaften Ergebnissen führen.
Homoskedastizität bedeutet, dass die Varianz der Residuen (Fehlerterme) konstant über alle Werte der unabhängigen Variablen hinweg ist. Eine Verletzung dieser Annahme, die als Heteroskedastizität bezeichnet wird, kann zu ineffizienten Schätzungen und verzerrten Testergebnissen führen.
Die Residuen sollten unkorreliert sein, d.h., die Fehler der Vorhersagen eines Wertes sollten nicht mit den Fehlern der Vorhersagen eines anderen Wertes zusammenhängen. Wenn dies nicht der Fall ist (z. B. bei Zeitreihen oder in Paneldaten), kann das zu ineffizienten Schätzungen und verzerrten Ergebnissen führen.
Für die Durchführung von Hypothesentests und die Konstruktion von Konfidenzintervallen wird oft angenommen, dass die Residuen (Fehlerterme) normalverteilt sind. Diese Annahme ist vor allem für kleine Stichproben wichtig, während große Stichproben aufgrund des zentralen Grenzwertsatzes oft auch ohne diese Annahme eine verlässliche Schätzung liefern.
Multikollinearität tritt auf, wenn zwei oder mehr unabhängige Variablen stark miteinander korreliert sind. Eine starke Multikollinearität kann zu instabilen Schätzungen der Regressionskoeffizienten führen und die Interpretation des Modells erschweren.
Was ist Dummy-Codierung?
Definition: Die Dummy-Codierung ist eine Technik, um kategoriale Variablen (z. B. Geschlecht, Herkunft, etc.) in numerische Werte umzuwandeln, damit sie in statistischen Modellen, wie z. B. der linearen Regression, verwendet werden können.
Ziel: Um die Regressionsanalyse auf nominale und ordinale Variablen anzuwenden, müssen diese Variablen in ein Format gebracht werden, das vom Modell verarbeitet werden kann.
Wie funktioniert die Dummy-Codierung?
Erstellung von Dummy-Variablen: Jede Kategorie einer kategorialen Variablen wird in eine separate Dummy-Variable umgewandelt. Eine Dummy-Variable erhält den Wert 1, wenn die Beobachtung zu dieser Kategorie gehört, und 0, wenn sie nicht dazugehört.
Beispiel: Für die Variable "Geschlecht" (mit den Kategorien "männlich" und "weiblich"):
männlich → Dummy-Variable 1: 1, Dummy-Variable 2: 0
weiblich → Dummy-Variable 1: 0, Dummy-Variable 2: 1
In diesem Beispiel wird eine Variable als Referenzkategorie (z. B. "männlich") beibehalten, um die Dummy-Codierung zu vermeiden.
Warum ist Dummy-Codierung wichtig?
Verarbeitung kategorialer Daten: Kategoriale Daten können nicht direkt in statistischen Modellen verwendet werden, die nur mit numerischen Variablen arbeiten.
Interpretation von Effekten: Dummy-Variablen ermöglichen es, die Auswirkungen jeder Kategorie im Vergleich zur Referenzkategorie zu untersuchen.
Was sind Vorteile der Dummy-Codierung:
Flexibilität: Sie ermöglicht es, mit nicht-numerischen Daten zu arbeiten und diese in Modellen zu integrieren.
Interpretierbarkeit: Dummy-Variablen bieten eine klare Interpretation der Effekte einzelner Kategorien in Bezug auf eine Referenzkategorie.
Was besagt Quadrierte Korrelation (r²)
Quadrierte Korrelation (r²)
Definition: Die quadrierte Korrelation (r²) misst den Anteil der Variation der abhängigen Variablen, der durch die unabhängige Variable erklärt wird. Sie zeigt, wie gut ein Modell oder eine Variable die Streuung der Daten erklärt.
Berechnung: r² = (Korrelationskoeffizient)²
Ein r² von 0.25 bedeutet, dass 25 % der Variabilität in der abhängigen Variablen durch die unabhängige Variable(n) erklärt werden.
Ein höherer r²-Wert zeigt eine stärkere Vorhersagekraft des Modells.
Was besagt die Partialkorrelation
Partialkorrelation
Definition: Die Partialkorrelation misst die Korrelation zwischen zwei Variablen, während der Einfluss einer dritten (oder mehreren) Variablen konstant gehalten wird.
Berechnung: Sie zeigt den Zusammenhang zwischen den Variablen X und Y, nachdem der Effekt der dritten Variablen (Z) entfernt wurde.
Interpretation: Die Partialkorrelation zeigt den direkten Zusammenhang zwischen X und Y, ohne dass Z die Beziehung beeinflusst.
Beispiel: Wir untersuchen die Beziehung zwischen Studienzeit und Noten, kontrollieren aber den Einfluss von Alter. Die Partialkorrelation zeigt uns den direkten Einfluss der Studienzeit auf die Noten, ohne dass das Alter als Störfaktor wirkt.
Was besagt die Semipartialkorrelation?
Semipartialkorrelation
Definition: Die Semipartialkorrelation misst den Anteil der Variation in einer Variablen, der durch die andere Variable erklärt wird, wobei der Einfluss der dritten Variablen nur auf eine der Variablen kontrolliert wird.
Berechnung: Sie ist ähnlich wie die Partialkorrelation, aber nur eine der Variablen wird „bereinigt“.
Interpretation: Während die Partialkorrelation den direkten Zusammenhang beider Variablen misst, kontrolliert die Semipartialkorrelation nur den Einfluss einer Variablen auf eine der anderen.
Beispiel: Wenn wir den Einfluss von Studienzeit auf Noten untersuchen und den Einfluss von Alter nur auf Studienzeit kontrollieren, erhalten wir eine Semipartialkorrelation.
Was ist eine Korrelation?
Definition: Eine Korrelation misst den Zusammenhang zwischen zwei Variablen. Sie zeigt, wie stark und in welche Richtung zwei Variablen miteinander in Beziehung stehen.
Messung: Der Korrelationskoeffizient, häufig als r bezeichnet, kann Werte von -1 bis +1 annehmen.
r = +1: Perfekte positive Korrelation (wenn eine Variable steigt, steigt auch die andere).
r = -1: Perfekte negative Korrelation (wenn eine Variable steigt, sinkt die andere).
r = 0: Keine Korrelation (es gibt keinen linearen Zusammenhang).
Was sind Arten der Korrelation:
Arten der Korrelation:
Positive Korrelation: Beide Variablen steigen oder sinken gleichzeitig.
Beispiel: Je mehr Stunden du lernst, desto besser wird deine Note.
Negative Korrelation: Eine Variable steigt, während die andere sinkt.
Beispiel: Je mehr Zeit du vor dem Bildschirm verbringst, desto weniger Schlaf bekommst du.
Null-Korrelation: Es besteht kein linearer Zusammenhang.
Beispiel: Das Alter einer Person und die Schuhgröße sind meistens unkorreliert.
Was sind Berechnung der Korrelation
Berechnung der Korrelation
Pearson-Korrelation (r): Wird verwendet, wenn beide Variablen intervallskaliert und linear zusammenhängen. Sie ist die am häufigsten verwendete Korrelationsmethode.
Spearman-Rangkorrelation (ρ): Wird verwendet, wenn die Daten ordinal sind oder nicht normal verteilt sind. Sie misst den monotonen Zusammenhang.
Kendall-Tau: Eine weitere Methode zur Berechnung der Korrelation bei ordinalen Daten. Sie ist robuster bei kleinen Datensätzen und Ausreißern.
Wie werden Korrelationskoeffizienten (r) interpretiert
r = 0.1 bis 0.3: Schwacher Zusammenhang
r = 0.3 bis 0.5: Mäßiger Zusammenhang
r = 0.5 bis 1.0: Starker Zusammenhang
r = -1 bis -0.5: Starker negativer Zusammenhang
r = -0.5 bis -0.3: Mäßiger negativer Zusammenhang
r = -0.3 bis -0.1: Schwacher negativer Zusammenhang
Erkläre warum Korrelation ≠ Kausalität
Korrelation ≠ Kausalität
Wichtig: Eine Korrelation zwischen zwei Variablen bedeutet nicht, dass die eine Variable die andere verursacht. Sie zeigt nur, dass ein Zusammenhang besteht, aber nicht, warum oder wie dieser Zusammenhang zustande kommt.
Was ist eine Varianzanalyse (ANOVA)?
Definition: Die Varianzanalyse (ANOVA) ist ein statistisches Verfahren, das verwendet wird, um die Mittelwerte von mehr als zwei Gruppen zu vergleichen, um festzustellen, ob es signifikante Unterschiede zwischen ihnen gibt.
Ziel: Sie prüft, ob die Varianz zwischen den Gruppen größer ist als die Varianz innerhalb der Gruppen, was auf signifikante Mittelwertunterschiede hinweist.
Erkläre Grundlegende ANOVA-Modelle:
Grundlegende ANOVA-Modelle:
Einfaktorielle ANOVA: Vergleicht die Mittelwerte von mehr als zwei Gruppen basierend auf einem faktorisiertenMerkmal (z.B. verschiedene Behandlungsmethoden).
Beispiel: Vergleichen der Testergebnisse von Schülern, die unterschiedliche Lernmethoden (A, B, C) verwendet haben.
Mehrfaktorielle ANOVA: Untersucht, wie mehrere Faktoren gleichzeitig die abhängige Variable beeinflussen. Hierbei können auch Interaktionen zwischen den Faktoren getestet werden.
Beispiel: Ein Experiment, das die Auswirkungen von Lernmethode (A, B, C) und Schlafdauer (kurz, lang) auf die Testergebnisse untersucht.
Was sind Hypothesen der ANOVA:
Nullhypothese (H₀): Es gibt keinen Unterschied zwischen den Mittelwerten der Gruppen.
Formulierung: Alle Gruppenmittelwerte sind gleich.
Alternativhypothese (H₁): Mindestens ein Mittelwert unterscheidet sich von den anderen.
Wie verläuft die Durchführung einer ANOVA:
Durchführung einer ANOVA:
Schritt 1: Berechnung der Gesamtvarianz (Gesamtvariation in den Daten).
Schritt 2: Aufteilung der Gesamtvarianz in:
Zwischen-Gruppen-Varianz: Die Variation, die durch die Unterschiede zwischen den Gruppenmittelwerten verursacht wird.
Innerhalb-Gruppen-Varianz: Die Variation innerhalb jeder Gruppe.
Schritt 3: Berechnung des F-Werts (Verhältnis zwischen der zwischen-Gruppen-Varianz und der innerhalb-Gruppen-Varianz):
F = (Zwischen-Gruppen-Varianz) / (Innerhalb-Gruppen-Varianz)
Ein hoher F-Wert zeigt einen großen Unterschied zwischen den Gruppen an.
Was sind Annahmen der ANOVA:
Unabhängigkeit: Die Proben müssen unabhängig voneinander sein.
Normalverteilung: Die Daten in jeder Gruppe sollten normal verteilt sein.
Homoskedastizität: Die Varianzen innerhalb der Gruppen sollten ungefähr gleich sein.
Wofür ist der Post-Hoc-Tests:
Post-Hoc-Tests:
Falls die ANOVA signifikante Unterschiede anzeigt, aber nicht sagt, welche Gruppen sich unterscheiden, werden Post-Hoc-Tests durchgeführt, wie:
Tukey’s HSD
Bonferroni
Scheffé-Test
Was kannst du aus folgendem t-test für unabhängige Stichproben ablesen?
Oben bei "Gruppenstatistiken" siehst du, bei wie vielen Fällen/Personen das Merkmal erfasst wurde. 687 Personen hatten angegeben, in ihrer Ehe sehr zufrieden zu sein, 426 waren ziemlich oder nicht zufrieden. In der Spalte "Mittelwert" sind die jeweiligen Gruppenmittelwerte angegeben.
Hier lässt sich bereits erkennen, dass die Mittelwerte nicht besonders weit auseinander liegen: 2.78 Stunden Fernsehen pro Tag bei den ziemlich und nicht Zufriedenen sowie 2.58 Stunden bei den sehr Zufriedenen. Diesen Abstand siehst du auch in der unteren Tabelle bei "Mittlere Differenz": .201 oder 0.201. Das entspricht ungefähr 12 Minuten: SPSS gibt keine Minuten an, daher muss man das umrechnen, hier ein Fünftel (0.2) einer Stunde.
Die Tabelle "Test bei unabhängigen Stichproben" ist zweigeteilt, was man leider nicht unmittelbar erkennen kann. Auf der linken Seite wird der sog. Levene-Test durchgeführt, welcher überprüft, ob die Varianzen in beiden Gruppen (ungefähr) gleich sind (selbstverständlich werden sie nie komplett gleich sein).
Die Nullhypothese dieses Tests lautet: "Die Varianzen sind in beiden Gruppen gleich.". Dies bedeutet, dass ein signifikanter Levene-Test anzeigt, dass sich die Varianzen der beiden Gruppen signifikant unterscheiden. Da die Standardabweichung die Wurzel aus der Varianz ist, könnte man sagen, dass der Test überprüft, ob die Standardabweichungen gleich sind. Dies wiederum kannst du bereits oben bei Gruppenstatistiken annähernd erkennen.
Wofür braucht man den Levene-Test? Er sagt uns, in welcher Zeile wir das Ergebnis des t-Tests ablesen sollen.
Hier sehen wir in der Spalte "Signifikanz" beim Levene-Test den Wert .606 oder 0.606. Da dieser deutlich über dem konventionellen kritischen p-Wert von .05 liegt, haben wir ein nicht-signifikantes Ergebnis, was bedeutet, dass die Varianzen (Standardabweichungen) der beiden Gruppen ähnlich sind. Das kannst du bei Gruppenstatistiken verifizieren: in der Spalte "Std.-Abweichung" siehst du die Werte 2.167 und 1.986, also recht ähnliche Standardabweichungen.
Daher lesen wir das Ergebnis des t-Tests in der Zeile "Varianzen sind gleich" ab.
Nun endlich zum t-Test: Du kannst das Ergebnis in der Spalte "Sig. (2-seitig)" ablesen. Da steht .113, also ein nicht signifikantes Ergebnis.
Aber vielleicht denkst du dir jetzt: wir haben doch einseitig (links) getestet – wieso steht hier jetzt zweiseitig? SPSS testet bei den älteren Versionen immer zweiseitig! Bei den neueren Versionen siehst du auch den p-Wert für die einseitige Testung.
Werte folgenden Output ein EINFACHEn LINEAREn REGRESSION aus
Bei "Aufgenommene/Entfernte Variablen" wird angegeben, welche Variablen bzw. Prädiktoren in das Regressionsmodell aufgenommen wurden. Dieses Feld spielt besonders dann eine Rolle, wenn man z. B. theoriegeleitet schrittweise Variablen entfernt oder hinzufügt – was wir hier jedoch nicht tun. Außerdem haben wir momentan ohnehin nur einen Prädiktor definiert. Zudem wird in der rechten Spalte die verwendete Methode angegeben, hier "Einschluss", d. h. alle definierten Prädiktoren wurden ins Modell aufgenommen. In der Fußnote kannst du immer ablesen, was die abhängige Variable bzw. das Kriterium ist.
Bei "Modellzusammenfassung" findest du die Varianzaufklärung. Wie viel Prozent der gesamten Variabilität der Werte erklärt unser Regressionsmodell? Dazu schaust du bei der einfachen Regression bei "R-Quadrat" und siehst .068. Wenn du das mit 100 multiplizierst, erhältst du den Prozentsatz der aufgeklärten Varianz. Das wären sage und schreibe 6.8%, also nicht besonders viel.
Die Tabelle "ANOVA" zeigt die Ergebnisse eines F-Tests, der (auch) zur Welt der Varianzanalyse gehört (Analysis of Variance, ANOVA). Dass er hier angezeigt wird, liegt daran, dass sowohl die Regression als auch die Varianzanalyse demselben mathematischen Modell entstammen, nämlich dem Allgemeinen linearen Modell, ALM. Daher lässt sich jede Regression als Varianzanalyse rechnen – und umgekehrt.
Beim F-Test interessiert dich letztlich nur der p-Wert, der bei "Sig." steht: .000 zeigt ein hochsignifikantes Ergebnis an. Die Aussage dieses sog. globalen F-Tests ist einfach nur, dass das Modell etwas taugt und sich die Wirkung des Prädiktors von 0 unterscheidet. Mehr wissen wir erst einmal nicht.
Doch um mehr über den Effekt des Prädiktors herauszufinden, gibt es die Tabelle "Koeffizienten". Hier kannst du in der Spalte "Regressionskoeffizient ß" in der ersten Zeile die Konstante a sowie den Effekt des Prädiktors in der Original-Einheit ablesen und somit die Regressionsgerade basteln: y = a + bx. Hier wäre das: y = 5.523 – 0.201x
Zu guter Letzt siehst du dir ganz rechts bei "Sig." an, ob der Effekt des Prädiktors signifikant ist: .000 deutet auf ein hochsignifikantes Ergebnis hin (die Signifikanz der Konstante in der ersten Zeile interessiert nicht).
Fazit: Die Fernsehdauer lässt sich zu einem kleinen Teil (6.8%) aus dem höchsten abgeschlossenen Schuljahr vorhersagen. Der Effekt des Prädiktors von -.201 besagt, dass mit jedem weiteren abgeschlossenen Schuljahr die Fernsehdauer um ca. 12min absinkt (negativer Zusammenhang: je höher das Schuljahr, desto geringer die Fernsehdauer – oder: je weniger Schuljahre, desto mehr Zeit vor dem Fernseher).
Werte folgend Outputs einer MULTIPLEn LINEAREn REGRESSION aus:
Die Tabelle "ANOVA" zeigt die Ergebnisse des F-Tests. Die getestete Nullhypothese lautet: Keiner der Prädiktoren hat einen Einfluss auf das Kriterium. Sobald der Test wie hier signifikant wird (.000), bedeutet das, dass mindestens einer der Prädiktoren einen signifikanten Einfluss auf das Kriterium hat. Welcher das ist, wird jedoch nicht angezeigt
Um das herauszufinden, sehen wir wieder in die Tabelle "Koeffizienten". In der Spalte "Regressionskoeffizient ß" siehst du wie oben in der ersten Zeile die Konstante a sowie darunter die Effekte der einzelnen Prädiktoren in der Original-Einheit. Jetzt könntest du wieder die Regressionsgerade aufstellen, hier: y = 4.955 – 0.192x1 + 0.045x2+0.008x3.
Wie du siehst, hat sich der Einfluss des höchsten abgeschlossenen Schuljahrs im Vergleich zum Output bei der einfachen Regression leicht verringert. Meist verändern sich die Effekte der Prädiktoren (die sog. ß-Koeffizienten), wenn man Variablen hinzunimmt oder entfernt. Stell' dir das systemisch vor oder wie ein Mobile, das aus Papiervögeln besteht. In dem Moment, in dem du einen Papiervogel entfernst oder hinzufügst, ändert sich das Gefüge und Zusammenspiel der anderen. So ähnlich ist das hier auch.
Da die Effekte der Prädiktoren in den Einheiten vorliegen, in denen sie gemessen wurden, lassen sie sich nicht direkt vergleichen. Dafür gibt es jedoch die Spalte "Standardisierte Koeffizienten". Hier kannst du den Effekt der einzelnen Koeffizienten/Prädiktoren direkt miteinander vergleichen.
Kleiner Hinweis: nur weil ein Prädiktor negativ ist, heißt das nicht, dass er einen kleineren Effekt hat! Es gilt beim Vergleichen von Koeffizienten zunächst nur der Betrag, der absolute Effekt. Und dieser kann positiv oder negativ sein.
Nun zum Vergleich der Prädiktoren bei "Standardisierte Koeffizienten": hier sieht man, dass das höchste abgeschlossene Schuljahr bei weitem den größten Effekt hat (-.249), gefolgt vom Alter (.063)und dann vom Geschlecht (.010).
Jetzt sehen wir uns noch ganz rechts bei "Sig." an, ob die einzelnen Prädiktoren einen signifikanten Effekt auf das Kriterium haben: .000 beim höchsten abgeschlossenen Schuljahr ist ein hochsignifikantes Ergebnis. Das Geschlecht ist kein signifikanter Prädiktor (.618), das Alter hingegen schon (.002), ebenfalls hochsignifikant (die Signifikanz der Konstante in der ersten Zeile interessiert nicht). Hier zeigt sich übrigens am Beispiel des Alters, dass ein Effekt auch dann (hoch-) signifikant sein kann, wenn er verschwindend gering ist!
Es macht also Sinn, das Geschlecht aus dem Modell zu entfernen. Hier siehst du den Output für das Modell mit den Prädiktoren Alter und höchstes abgeschlossenes Schuljahr (man könnte jedoch, wie bereits vorher erwähnt, auch das Alter ohne große Varianzaufklärungs-Verluste aus dem Modell entfernen und wäre dann wieder bei obigem Output für die einfache Regression).
FAZIT: Die Fernsehdauer pro Tag lässt sich zu einem kleinen Teil (7.1%) aus dem höchsten abgeschlossenen Schuljahr und dem Alter vorhersagen. Der Effekt des Prädiktors von -0.192 besagt, dass mit jedem weiteren abgeschlossenen Schuljahr die Fernsehdauer um knappe 12min absinkt (negativer Zusammenhang: je höher das Schuljahr, desto geringer die Fernsehdauer). Und der nahezu vernachlässigbare Effekt des Alters von 0.008 bedeutet, dass mit jedem Lebensjahr die Fernsehdauer um ein paar Sekunden ansteigt (positiver Zusammenhang).
Werte folgenden Mann Whitney u Test aus:
Verwenden Sie den gelb markierten Text, wenn in Ihrer Studie (z. B. Hundebesitzerinnen und Nicht-Hundebesitzerinnen) kein signifikanter Unterschied zwischen den beiden Gruppen festgestellt wurde. Verwenden Sie den gold markierten Text, wenn ein signifikanter Unterschied festgestellt wurde. Ein Unterschied ist signifikant, wenn der p-Wert in der Tabelle „Teststatistik“ kleiner oder gleich dem von Ihnen gewählten Alpha-Niveau ist (typischerweise α = 0,05). In unserem Beispiel ist der einzige angegebene p-Wert „Asymp. Sig. (2-tailed)“. Bei kleinen Stichproben könnte auch ein „Exact Sig. (2-tailed)“-p-Wert im SPSS-Ausdruck erscheinen. In diesem Fall berichten Sie diesen Wert („Exact Sig“).
Um festzustellen, welche der beiden Gruppen in Ihrer Studie eine höhere (oder niedrigere) Ausprägung der abhängigen Variablen hat (z. B. Wurfweite eines Frisbees), überprüfen Sie die Tabelle „Ränge“. In unserem Beispiel zeigen die Werte, dass die Frisbee-Wurfweiten von Hundebesitzerinnen (mittlerer Rang: 30,89) höher sind als die von Nicht-Hundebesitzerinnen (mittlerer Rang: 22,19). Wählen Sie ein geeignetes Adjektiv, um die beiden Gruppen zu vergleichen (z. B. höher, niedriger, größer, schneller usw.).
Berichten Sie den Mann-Whitney-U-Wert aus der Tabelle „Teststatistik“ im SPSS-Ausdruck mit zwei Dezimalstellen.
Der z-Wert eines Mann-Whitney-U-Tests in der Tabelle „Ränge“ im SPSS-Ausdruck ist immer negativ. Berichten Sie diesen Wert mit zwei Dezimalstellen. Wenn der z-Wert kleiner als –1,000 ist, fügen Sie eine führende Null hinzu. Beispiel: –.041 wird als –0,04 berichtet.
Wenn die Fallzahl in beiden Gruppen, die Sie vergleichen, jeweils 20 oder weniger beträgt, berichten Sie den U-Wert und verwenden Sie den grau markierten Text. Wenn die Fallzahl in einer oder beiden Gruppen größer als 20 ist, berichten Sie den z-Wert und verwenden den rosa markierten Text. In unserem Beispiel beträgt die Fallzahl in der Gruppe der Nicht-Hundebesitzer*innen 31, also berichten wir den z-Wert.
Berichten Sie den genauen p-Wert mit zwei oder drei Dezimalstellen entsprechend dem SPSS-Ausdruck. Wenn der p-Wert jedoch .000 beträgt, berichten Sie ihn als < .001. Fügen Sie dem p-Wert keine führende Null hinzu.
Beispiel für einen Mann-Whitney-U-Test im APA-Stil Ein Mann-Whitney-U-Test wurde durchgeführt, um zu überprüfen, ob sich die [Frisbee-Wurfweite] zwischen [Hundebesitzerinnen] und [Nicht-Hundebesitzerinnen] unterscheidet. Die Ergebnisse zeigten, dass [Hundebesitzerinnen] signifikant größere [Frisbee-Wurfweiten] aufwiesen als [Nicht-Hundebesitzerinnen], z = [–2,05], p = [.040].
Interpretiere folgende Outputs eines Wilcoxon-Tests
Interpretiere folgenden Kruskal-Wallis-H-Test
Ein Kruskal-Wallis-H-Test wurde durchgeführt, um die Zufriedenheitsniveaus bei drei Kundenservice-Plattformen zu vergleichen: E-Mail-Support, Live-Chat und telefonischer Support. Der Test untersuchte, ob es statistisch signifikante Unterschiede in den Zufriedenheitswerten zwischen den Gruppen gibt. Die mittleren Ränge der Zufriedenheitswerte betrugen 40,17 für den E-Mail-Support, 51,87 für den Live-Chat und 44,47 für den telefonischen Support.
Die Ergebnisse des Kruskal-Wallis-H-Tests zeigten, dass es keinen statistisch signifikanten Unterschied in den Zufriedenheitsniveaus zwischen den drei Kundenservice-Plattformen gab, H (2) = 3,12, p = .210. Dies deutet darauf hin, dass die Art der Kundenservice-Plattform in der untersuchten Stichprobe keinen signifikanten Einfluss auf die Kundenzufriedenheit hat.
Interpretiere folgenden Friedman Test
Ein Friedman-Test wurde durchgeführt, um die Unterschiede im Gewichtsverlust bei Teilnehmenden nach drei verschiedenen Diäten zu bewerten: Diät A, Diät B und Diät C. Die Ergebnisse zeigten signifikante Unterschiede im Gewichtsverlust zwischen den Diäten, χ² (2, N = 20) = 40.000, p < .001.
Die mittleren Ränge der Diäten waren wie folgt: Diät A hatte den höchsten mittleren Rang (3,00), gefolgt von Diät B (2,00), während Diät C den niedrigsten mittleren Rang (1,00) hatte. Diese Ergebnisse deuten darauf hin, dass die Teilnehmenden den größten Gewichtsverlust mit Diät A und den geringsten mit Diät C erzielten.
Last changed19 days ago