Arten von Studien
Pilotstudie
Explorative Studie
hypothesengerichtete (konfirmatorische) Studien
P-Wert
die Wahrschienlichkeit der Nullhypothese H0
ein geringer P-Wert bestägt die Alternativhypothese H1
beim berechnen des P-Werts wird geschaut wie wahrscheinlich es ist bei der geltenden H0 zufällig einen Effekt mindestens so extrem wie in den Daten zu bekommen
-> wenn dies nicht wahrscheinlich ist (geringer P-Wert) -> bedeutet, dass H1 vermutlich stimmt (die erhobenen Daten passen nicht zur Normalverteilung von H0)
Punktwahrscheinlichkeit P(Punkt)
Wahrscheinlichkeit eines bestimmten Ereignisses unter H0
assozierte Wahrscheinlichkeit (1)
Proportion aller möglichen Ereignisse mind. so groß wie das beobachtete Ergebnis
einseitiger P-Wert
assoziierte Wahrscheinlichkeit (2)
Proportion aller mögichen Ereignisse mind. so extrem wie das beobachtete Ergebnis
zweiseitiger P-Wert
exakter P-Wert
Häufigkeiten für jeden möglichen Wert der Teststatistik
=>für jeden Datenpunkt wird die Wahrscheinlichkeit ermittelt
approximierter P-Wert
Wert der Teststatistik wird mit idealer Verteilung verglichen (=> Gesetzt der großen Zahlen)
ideale Verteilung - z.B.: Normal-, X^2-, t-, F-Verteilung
(-> häufig bei großen Datensätzen der Fall, da der genau nicht möglich ist bzw. zu. viel Kapazität beansprucht)
Typ 1 Fehler
= alpha Fehler
false positve -> H(0) wird verworfen dabei gibt es keinen Effekt
wenn ein zu hoher Teil der Nullhypothese noch wahrscheinlich ist
dies passiert wenn die Schwelle zu hoch gesetzt ist, bspw. P=0.1 —> auch wenn H(0) zu 9 % wahrscheinlich ist, wird sie nicht abgelehnt
—> Wahrscheinlichkeit ist hoch einen Effekt zu finden
passiert, da die Grenze zu “locker” ist
Typ 2 Fehler
= beta Fehler
false negativ -> H(0) wird beibehalten dabei gibt es einen Effekt
Wahrscheinlichkeit einen soll gering sein einen Effekt zu findne
hohe Chance einen echten Effekt zu verpassen
passiert, da die Grenze zu “streng” ist
Power
Wahrscheinlichkeit eine wahre H(1) zu erkennen
Power = 1 - beta
—> beta sollte möglichst gering sein, dann ist jedoch die Gefahr einen alpha Fehler zu machen recht hoch
wann wird H(0) abgelehnt
wenn die Wahrscheinlichkeit den Wert in der Teststatistik “zu finden” unter 0.05 ist
P < 0.05
p-Wert kleiner als 0.05
wann wird H(0) beibehalten
wenn die Wahrscheinlichkeit den Wert in der Teststatistik “zu finden” über 0.05 ist
P > 0.05
p-Wert größer als 0.05
Warum ist multiples Testen “gefährlich”?
da es bei jedem Vergleich / Test eine Irrtumswahrscheinlichkeit von 5% gibt (p-Wert!)
die Irrtumswahrscheinlichkeiten summieren sich d.h. die totale Irrtumswahrscheinlichkeit ist deutlich höher als 5%
—> viele Tests erhöhen die Wahrscheinlichkeit für zufällige Signifikanzen
Multiples Tetsten
mehrere Tests zu einer Hypothese
globale Tests
betrachtet alle Levels gleichzeitig und schaut, ob es einen Unterschied zwischen ihnen gibt, jedoch nicht wo dieser liegt
ist der globale Test signidikant werden paarweise post-hoc Tests durchgeführt, um herauszufindne wo die Signifikanz liegt
auf mutiples Tetsten korregieren
Bonferroni-Korrektur -> alpa level anpassen
alpha*
Sequentielle Bonferroni Korrektur
bei einem kleinem N muss nicht korregiert werden, da dies die Wahrscheinlichkeit eines beta Fehlers erhöht
Last changed20 hours ago