Wozu dient die einfaktorielle Varianzanalyse (ANOVA)?
simultaner Vergleich von k größer als 2 Mittelwerten
Analyse von Lageuunterschieden
Wird also eingesetzt bei Lageunterschieden zwischen 2 oder mehr Gruppen (Erweiterung t-Test)
Warum sind keine drei sequentiellen t-Tests möglich?
Problem der Alphafehler-Kumulierung
Für steigendes k (Anzahl an Gruppen) und m (Anzahl an Tests) strebt der family wise error schnell gegen 1
Gemeinsamer Fehler (family wise error) ist bei 3 t-Tests dreimal höher als der nominell gewählte
Reales Alpha, bzw. echter family wise error ist eig noch höher, weil nicht alle Vergleiche voneinander unabhängig sind
Wie kann der familywise error kontrolliert werden?
Bonferroni-Korrektur:
p-Wert jedes Tests wird nicht mit Alpha verglichen, sondern mit
Alpha / Anzahl an Tests
-> Nachteil: sehr konservatives Vorgehen, Verwerfen der H0 wird uU unverhältnismäßig schwierig (es braucht größere Unterschiede zw. den Gruppen, ein signifikantes Ergebnis zu bekommen wird schwierig)
Warum ist ANOVA für den Vergleich mehrerer Gruppen also das geeignetste Analyseinstrument?
kontrolliert den familywise error
nicht so konservativ wie alternative Prozeduren, da nur ein Hypothesentest durchgeführt wird (nicht m>1)
Wodurch wird das Prinzip der Varianzanalyse charakterisiert?
Omnibustest: ANOVA prüft NICHT sequentiell die Hypothesen , sondern alle gleichzeitig (alle in einer Gleichung)
H0: Mittelwerte unterscheiden sich nicht/ sind gleich
H1 angenommen: mind. 2 der untersuchten Mittelwerte signifikant voneinander unterschiedlich (muss so sein)
welche Mittelwerte sich unterscheiden bleibt offen
Richtung bleibt auch offen
Test beruht auf dem Vergleich der Varianz der Daten, die durch systematische Unterschiede bedingt wird (Gruppen), gegenüber der Varianz, die durch den Zufall zustande kommt -> „Varianzanalyse“
Zufallsvarianz wird mit der Varianz verglichen, die durch Gruppenunterschiede entsteht
„Inwiefern kann die UV die Variabilität der Werte erklärt werden?”
Wie berechnet man folgendes:
Ist die Varianz der Gruppenmittelwerte um einen gemeinsamen Mittelwert größer als die Varianz innerhalb der Gruppen (=Zufall)?
Berechnung der Quadratsummen:
Gesamtvariabilität
= Systematische Variabilität + Unsystematische Variabilität
Was sagt die Gesamtvariabilität aus?
Wie unterschiedlich sind Gruppen von einem gemeinsamen Mittelwert
Was sagt die systematische Variabilität aus?
die Variabilität zwischen Gruppen
= QS zwischen
Was sagt die Unsystematische Variabilität aus? (Zufall)
WIe unterscheidet sich die Variabilität innerhalb der Gruppen vom Gruppenmittelwert?
= QS innerhalb
Wie erfolgt die Berechnung der Varianzschätzer?
Berechnung der Varianzschätzer
QS gesamt = QS zwischen + QS innerhalb
(wenn man also 2 davon hat, kann man sich den dri5en ausrechnen)
Quadratsumme dienen zur Varianzschätzung
Wie sieht die Signifikanztestung der Varianzanalyse aus? “F-Test”
wen H0 gilt: Varianz zwischen = Varianz innerhalb (unabhängig, aber gleich groß)
Inferenzstatatistische Überprüfung mit F-Test
-> F = Varianz zwischen / Varianz innerhalb
-> wenn Varianz zwischen größer, dann F>1 -> H1 gültig
F-Wert mit krit. F-Wert verglichen
nur Varianz zwischen > Varianz innerhalb sricht gegen die Gültigkeit von H0
allerdings ungerichtete H1 (Richtung und Gruppe unbekannt)
Wie werden F-Tests interpretiert?
F > 1: H1 annehmen, = signifikant
Je größer F ist, desto größer ist die Streuung zwischen den Gruppen
Was kann allgemein über F-Verteilungen gesagt werden?
Varianz zwischen und Varianz innerhalb folgen jeweils X-Verteilungen
X-Verteilungen sind durch Freiheitsgrade charakterisiert
Varianz zwischen und Varianz innerhalb voneinander stat. unabhängig
Quotient zweier X-verteilter Variablen durch F-Verteilung beschrieben
durch zwei freiheitsgrade charakterisiert:
-> Zähler- und Nennerfreiheitsgrade
F-Verteilungen jaben nur postive Zahlenwerte und sind rechtsschief
Für größere Freiheitsgrade geht der Erwartungswert der F-Verteilung schnell gegen 1
unter der H0 wird der Quotient zweier gleichgroßer Varianzen nahe bei 1 erwartet
=> große F-Werte weisen auf eine größere Zählervarianz als die Nennervarianz hin und Verwerfung der H0
nur große Zahlenwerte sprechen für die H1 und einseitige Testung
Wie kann man herausfinden, WELCHE Gruppen signifikante Unterschiede zeigen?
durch Einzelvergleiche/Kontraste und Post-hoc Tests
Wodurch werden Einzelvergleiche/Kontraste ausgezeichnet?
A priori formuliert (planned contrast)
Geht aber auch a posteriori (explorativ)
Bei planned contrast: Testung von Hypothesen, welche Mittelwerte sich voneinander unterscheiden
-> hypothesengeleitetes Vorgehen, einseiXge Hypothesen
Planned contrasts können Omnibustests ersetzen: wenn Omnibustest nicht die eigentliche Hypothese widerspiegelt; Kontrast ist dann das geeignetere Vorgehen und hat größere Testmacht
Wozu dienen Post-hoc Tests?
rein zur Datenexploration -> explorativ
Wozu dienen Einzelvergleiche/Kontraste?
erlauben spezifische Gruppenvergleiche & gerichtete Hypothesen (z.B. Gesunde und Remittierte haben niedrigere Werte als akut Depressive)
Kontrasttests entweder:
orthogonal
zerlegen Quadratsummen des Omnibustests in voneinander unabh. Anteile
(Welche Gruppenunterschiede werden für Signifikanz des omnibustests verantwortlich gemacht?)
nicht-orthogonal
addieren sich nicht auf das Ergebnis des Omnibustests
also voneinander stat. unabhängig oder abhängig
Wieviele orthogonale Kontraste können konstruiert werden?
df=k-1
(soviele wie Freiheitsgrade, wie in der Ziwsschengruppenvarianz vorhanden)
-> es muss mindestens 3 Gruppen geben
Wie erfolgt die rechnerische Durchführung von Einzelvergleichen/Kontrasten? (egal, ob orthogonal oder nicht)
durch Bildung von Linearkombinationen (= gewichtete Summen) der jeweiligen Gruppenmittelwerten mithilfe von Kontrastkoeffizienten (=Gewichte)
Gruppen müssen Zahlen/Gewichte zugeordnet werden
= Kontrastkoeffizienten gj
müssen eine Nebenbedingung erfüllen
Summe aller Gewichte muss 0 sein
Was ist die Definition & was ist bei der Erzeugung der Kontrastkoeffizienten zu beachten?
Gruppen, die zusammengelegt werden, bekommen dieselbe Zahl
Gruppen, die verglichen werden, bekommen unterschiedliche Vorzeichen
Gruppen, die nicht berücksichtigt werden, bekommen die Zahl 0
Zahlenwerte sind beliebig, müssen nur Summe 0 bilden
Normal wird kleinstmögliche Zahl verwendet
2 Kontraste sind orthogonal, wenn die Summe der Produkte ihrer Koeffizienten 0 ist
Was ist bei der Konstruktion zweier orthogonaler Kontraste zu beachten?
Koontrast 1 soll Gruppe 1 (Gesunde) und Gruppe 2 (Remittierte) zusammenfassen und mit Gruppe 3 (Depressiven) vergleichen
Kontrast 2 soll nur Gruppe 1 und 2 vergleichen
Alternative Kontraste sind ebenso mögllich (andere kombis der 3 Gruppen)
insgesamt kann es bei 3 Gruppen aber nur 2 orthogonale Kontraste geben
Was sind die allgemeinen Konstruktionsbedingungen orthogonaler Kontraste?
erster Kontrast enthält alle Gruppen
pro weiterem Kontrast bekommt eine weitere Gruppe den Koeffizienten 0 und wird aus Vergleichen ausgeschlossen
Zahlenwerte anderer Koeffizienten werden ggf. angepasst, damit Summe wieder 0
Kontraste testen dann sequentiell Unterschiede in Kombinationen der vorliegenden Gruppen
letzter kontrast vergleicht nur mehr zwei Gruppen
Was sollte bei der Berechnung vieler Kontraste beachtet werden?
die Fehöerkontrolle -> Bonferroni-Kontrolle
Was sagen die Ergebnisse von Kontrasttests aus?
Gesunde und Remittierte unterscheiden sich signifikant von Depressiven; Gesunde unterscheiden sich signifikant von Remittierten
Prüfgröße ist t-verteilt und kann auch für Tests von gerichteten Hypothesen verwendet werden
einseitige Testung - p-Wert halbieren
funktioniert nur für Kontrasttests, nicht post-hoc Testungen
Wonach richtet sich die einseitige oder zweisichtige Testung in Kontrasten?
Was muss dabei beachtet werden?
nach dem Vorhandensein gerichteter Hypothesen
muss a priori entschieden werdne und kann nicht a posteriori zum “Fischen nach Signifikanz” eingesetzt werden
gerichtete Hypothesentests zeigen sich nicht in den Zahlen der Kontrastkoeffizienten und werden auch nicht durch diese festgelegt
Wozu dienen andere Kontraste in JASP und wie werden sie bezeichnet?
Polynomiale Kontraste
-> dienen zur Analyse von Trends
-> zueinander orthogonal (unabhängig)
Welche 3 Arten von polynomialen Kontrasten unterscheidet man?
Linear (mind. 2 Gruppen)
Quadratisch (mind. 3 Gruppen)
Kubisch (mind. 4 Gruppen)
Wann sind polynomiale Kontraste nützlich?
wenn Gruppen eine sinnvolle und nicht beliebige Ordnung aufweisen
-> Äquidistanz der Faktorstufen vorausgesetzt
Welche weiteren Kontraste kennt man?
Abweichung
Einfach
Differenz
Helmert
Wiederholt
Vergleich
jede Gruppe mit Gesamtmittelwert
jede Gruppe mit ausgewählter Referenzgruppe
jede Gruppe mit Mittelwert der vorhergehenden Gruppe
jede Gruppe mit Mittelwert der nachfolgenden Gruppe
jede Gruppe mit MW der direkt nachfolgenden Gruppe
Orthogonal
NEIN
JA
Wozu wird der einfache Kontrast verwendet?
Um eine Referenzgruppe mit allen anderen Gruppen zu vergleichen
Wozu wird Differenz ud Helmert verwendet?
gleiche Prozedur:
Differenz: von oben nach unten
Helmert: von unten nach oben
Wozu eignet sich der wiederholte Kontrast?
um alle paarweisen Mittelwertsunterschiede aufeinanderfolgender Gruppen zu testen
Was sind die Merkmale von Post-hoc Tests?
erlauben explorative Untersuchung, welche Gruppen sich nach signifikantem Omnibustest der ANOVA voneinander unterscheiden
vergleichen alle Paare von Gruppen miteinander (nicht-orthogonal)
nicht zur Testung von a priori Hypothesen, sondern zur Datenexploration
nur zweiseitige Tests -> ggf. geringere testmacht als Kontraste
JASP und SPSS bieten Vielzahl (3+5 corrections & 18!) unterschiedlilcher Post-hoc Testverfahren an+
Unterschiede in Art der Kontrolle des familywise error (Typ 1 Fehler), Testmacht (Typ 2 Fehler) und Robustheit gegenüber Voraussetzungsverletzungen
Welche Tests sind die einzigen, die bei inhomogenen Varianzen und ungleichen Gruppengrößen ausreichend für Typ1 Fehler kontrollieren?
Games-Howell
Dunnet’s C test
Dunnet’s T3 test
Tamhane’s T2 test
-> auch sonst gute Power und Kontrolle des Typ 1 Fehlers
-> werden generell empfohlen
Welche tests werden sonst bei geleichem n pro Gruppe und homogenen Varianzen angewendet?
Q nach Ryan-Einot-Gabriel-Welsh
Tukey
Was sind die Annahmen und Voraussetzungen der varianzanalyse?
Gültigkeit und Durchführung der einfaktoriellen ANOVA an vier Voraussetzungen gebunden:
AV hat metrische Skaleneigenschaften
Stufen der UV voneinander unabhängig
Varianz der AV über alle Gruppen homogen
AV innerhalb aller Gruppen normalverteilt
gleiche Voraussetzungen wie t-Test für unabhängige Gruppen
Vpraussetzungen müssen vor der Durchführung geprüft werden , sonst anderes Testverfahren
Wie sieht das formale Modell der einfaktoriellen ANOVA aus?
Gesamtmittelwert zbd Effekt der Gruppe sind Konstanten (feste Effekte)
Streuung innerhalb der Gruppe kommt nur durch Fehler zustande
-> Variation innerhalb der Gruppe zufällig
Verrteilung der Fehler muss in allem Gruppen
gleich sein (Varianzhomogenität)
normal sein
Modell ist Teil des allg. linearen Modells: X = YA + U
Werte einer AV (X) werden durch Werte einer UV (Y) vorhergesagt
Matrix enthält Regressionsgewichte
im Fall der ANOVA = feste Effekte
Matrix Y enthält dan Indikatorwerte der Gruppenzugehörigkeit
“U” enthält alle individuellen Abweichungen von festen Effekten
Was wird durch ALM bezeichnet?
es ist das Rahmenmodell parametrischer Testverfahren:
lineare Regression
t-Test
f-Test
ANOVA
ANCOVA
MANOVA
etc.
Wannmacht ALM bezogen auf Fehler spezifische Ausnahmen?
Fehler haben Erwartungswert 0
Varianz der Fehler in allen Stufen des Faktors (ANOVA) bzw. über alle Ausprägungen der UV (Regression) gleich (Homoskedastizität)
Fehler sind normalverteilt
Fehler voneinander unabhängig
-> daraus leiten sich alle “klassischen” Voraussetzungen parametrischer Verfahren her
Was beinhaltet der BOXPLOT?
Lageparameter (Median)
Streuungsmaß (Interquartilabstand; IQA): Länge der Box
Lage des Medians innerhalb der Box & Länge der “Whisker” geben Hinweise auf Schiefe der Verteilung
Whisker zeigen Min. un Max. an, wenn diese < 1.5 x IQA von Box entfernt
Wetrte Außerhalb = Ausreißer
Was tun bei Verletzung der Voraussetzungen?
ANOVA (& ALM) = robuste Verfahren, dh einzelne Voraussetzungsverfahren haben keinen großen Einfluss auf Ergebnis des F - Test
Wenn ns gleich (und/ oder große ns) sind Abweichungen von NV oder Varianzhomogenität oft vernachlässigbar (zentrales Grenzwerttheorem)
Bei ungleichen ns (& wenn klein, also ns < 25) können Abweichungen einen größeren Einfluss ausüben
Keine ausreichende Kontrolle von Fehlerraten
U. U. ausweichen auf nicht-parametrische Tests
notwendig
Wann muss besonders auf Voraussetungsverletzungen geachtet werden?
sehr ungleiche Gruppen
sehr kleine Gruppen
Wie können nicht-homogene Varianzen korrigiert werden?
Robusten F-Test durchführen (robuste Verfahren können weniger robuste Verfahren widerlegen)
korrigieren der Freiheitsgrade des Fehlers & beruhen auf alternativer Berechnung der Fehlerquadratsummen
„Welch“ kontrolliert Typ-II-Fehler besser (höhere Testmacht)
Wie kann die varianzhomogenität geprüft werden?
durch Levene-Test (Pendant des F-Test)
Zuletzt geändertvor 6 Monaten