Arten von Studien
Pilotstudie
Explorative Studie
hypothesengerichtete (konfirmatorische) Studien
P-Wert
die Wahrscheinlichkeit der Nullhypothese H0
ein geringer P-Wert bestägt die Alternativhypothese H1
beim berechnen des P-Werts wird geschaut wie wahrscheinlich es ist bei der geltenden H0 zufällig einen Effekt mindestens so extrem wie in den Daten zu bekommen
-> wenn dies nicht wahrscheinlich ist (geringer P-Wert) -> bedeutet, dass H1 vermutlich stimmt (die erhobenen Daten passen nicht zur Normalverteilung von H0)
Punktwahrscheinlichkeit P(Punkt)
Wahrscheinlichkeit eines bestimmten Ereignisses unter H0
assozierte Wahrscheinlichkeit (1)
Wahrscheinlichkeit / Proportion aller möglichen Ereignisse mind. so groß wie das beobachtete Ergebnis
einseitiger P-Wert
assoziierte Wahrscheinlichkeit (2)
Proportion aller mögichen Ereignisse mind. so extrem wie das beobachtete Ergebnis
zweiseitiger P-Wert
exakter P-Wert
Häufigkeiten für jeden möglichen Wert der Teststatistik
=>für jeden Datenpunkt wird die Wahrscheinlichkeit ermittelt
approximierter P-Wert
Wert der Teststatistik wird mit idealer Verteilung verglichen (=> Gesetzt der großen Zahlen)
ideale Verteilung - z.B.: Normal-, X^2-, t-, F-Verteilung
(-> häufig bei großen Datensätzen der Fall, da der genau nicht möglich ist bzw. zu. viel Kapazität beansprucht)
Typ 1 Fehler
= alpha Fehler
false positve -> H(0) wird verworfen dabei gibt es keinen Effekt
wenn ein zu hoher Teil der Nullhypothese noch wahrscheinlich ist
dies passiert wenn die Schwelle zu hoch gesetzt ist, bspw. P=0.1 —> auch wenn H(0) zu 9 % wahrscheinlich ist, wird sie nicht abgelehnt
—> Wahrscheinlichkeit ist hoch einen Effekt zu finden
passiert, da die Grenze zu “locker” ist
Typ 2 Fehler
= beta Fehler
false negativ -> H(0) wird beibehalten dabei gibt es einen Effekt
Wahrscheinlichkeit einen soll gering sein einen Effekt zu finden
hohe Chance einen echten Effekt zu verpassen
passiert, da die Grenze zu “streng” ist
Power
Wahrscheinlichkeit eine wahre H(1) zu erkennen
Power = 1 - beta
—> beta sollte möglichst gering sein, dann ist jedoch die Gefahr einen alpha Fehler zu machen recht hoch
wann wird H(0) abgelehnt
wenn die Wahrscheinlichkeit den Wert in der Teststatistik “zu finden” unter 0.05 ist
P < 0.05
p-Wert kleiner als 0.05
wann wird H(0) beibehalten
wenn die Wahrscheinlichkeit den Wert in der Teststatistik “zu finden” über 0.05 ist
P > 0.05
p-Wert größer als 0.05
Warum ist multiples Testen “gefährlich”?
da es bei jedem Vergleich / Test eine Irrtumswahrscheinlichkeit von 5% gibt (p-Wert!)
die Irrtumswahrscheinlichkeiten summieren sich d.h. die totale Irrtumswahrscheinlichkeit ist deutlich höher als 5%
—> viele Tests erhöhen die Wahrscheinlichkeit für zufällige Signifikanzen
Multiples Tetsten
mehrere Tests zu einer Hypothese
globale Tests
betrachtet alle Levels gleichzeitig und schaut, ob es einen Unterschied zwischen ihnen gibt, jedoch nicht wo dieser liegt
ist der globale Test signidikant werden paarweise post-hoc Tests durchgeführt, um herauszufinden wo die Signifikanz liegt
auf mutiples Tetsten korregieren
Bonferroni-Korrektur -> alpa level anpassen
alpha*
Sequentielle Bonferroni Korrektur
bei einem kleinem N muss nicht korregiert werden, da dies die Wahrscheinlichkeit eines beta Fehlers erhöht
ordinal skalierte Daten
diskrete Kategorien mit natürlicher Rangfolge
=> nominale Kategorien zwischen denen eine Rangfolge gebildet werden kann
aber die Abstände sind nicht quantifizierbar d.h. es wird nur zwischen besser / schlechter und kleiner / größer unterschieden
nominal skalierte Daten
qualitativ, diskrete Kategorien ohne Rangfolge
(Nomen)
=> es wird zwischen verschiedenen Ausprägungen / Kategorien unterschieden (z.B. Haarfarbe)
=>geringster Informationsgehalt
metrisch skalierte Daten
qualitativ, stetige Daten mit quantifizierbaren Abständen
=> höchster Informationsgehalt
=> mathematische Informationen sinnvoll
Objekt in R Funktion
Ergebnisse die als solche gespeichert werden
meinErgebnis=sum(1:10)
Funktion in R
R Befehl, quasi was passieren soll
Führt Operation an Argumenten aus
Argument in R
steht in Klammern hinter der Funktion
an was soll der Befehl durchgeführt werden?
long format
eine Zeile pro Beobachtung
short format
eine Zeile pro Subjekt
Modus
häufigster Wert
Median
die Mitte zwischen den kleinsten und größten Werten der Stichprobe
Standardabweichung
Wurzel aus Summe von den quadrierten Abweichungen vom Arithmetischen Mittel durch die Größe der Stichprobe minus 1
Mittelwert und Median in Excel und R berechnen
= Mittelwert (Bereich)
= Median (Bereich)
mean(…)
median(…)
nichtparametrische Tests
machen keine Annahme über die Verteilung der Daten,
beruhen auf Rangfolge
parametrische Tests
gehen von normalverteilten Residuen aus und homogene Varianz
-> nur für metrische Daten geeignet (müssen Normaltverteilt sein!)
shapiro test in R und Nullhypothese
shapiro.test(xdata)
Nullhypothese dass die Daten normalverteilt sind
p < 0,05 - keine Normalverteilung “Daten weichen signifikant von der Normalverteilung ab”
p > 0,05 - Normalverteilung
Prädiktor
Variable die zur Vorhersage einer anderen Variabel benutzt wird (= die beeinflussende Messgröße)
Response
die untersuchte Messgröße
Powertests
berechenen von Stichprobengröße, Effektgröße und Power 2 der 3 Werte
-> so kann Stichprobengröße vor der druchführung ermittelt werden
Gefahren bei geringer Stichprobengröße
geringe Power -> falsches Beibehalten von H(0)
einzelne Messwerte beeinflussen das Ergebnis und verfälschen dieses
Warum muss Pseudoreplikation vermieden werden?
die erhobenen Daten sind von den Eigenschaften eines Individuums abhängig
Stichprobengröße wird künstlich aufgeblasen
Pseudoreplikation
Ein Individuum viele Messwerte
gestufte Replikation
Pro Individuum mehre Messwerte -> muss im Umgang mit den Daten berücksichtigt werden => Tests für gepaarte Stichproben
volle Replikation
Je Messwer ein Individuum
Basisfunktion zum plotten
plot(x=Kondition, y=Messwerte)
Varianz
durchschnittliche Abweichung zwischen Mittelwert und Beobachtung einer Variablen
Kovarianz
Durchschnittliche Abweichung zwischen Mittelwert und Beobachtungen zweier Variablen
n
Anzahl der Möglichkeiten (insgesamten, orientiert sich daran wie häufig wird der Versuch durchgeführt)
k
Anzahl der richtigen Ergebnisse (wieviele “treffer” sind dabei)
Binominalkoeffiziente
Effektgröße z.B.: Cohen’s D
Effektgrößen geben die Relevanz der Ergebnisse an
Es müssen standardisierte Kennwerte sein, welche die Ergebnisse vergleichbar machen
Cohen’s D
Wie relevant ist die Differenz zwischen den Gruppen im Vergleich zu den Unterschieden die es innerhalb der Gruppen gibt?
wenn die Different innerhalb der Gruppe gering ist, ist sie zwischen den Gruppen signifikant
wenn die Differenz innerhalb der Gruppe groß ist, ist sie zwischen den Gruppen (vlt.) weniger relevant
Binomialtest
keinen Prädiktor, Response ist nominal
eine Variabel mit zwei Kategorien z.b. Münzwurf
ANOVA Grundfrage
Ist die Varianz zwischen den Levels größer als die Varianz innerhalb der Levels?
Größere Varianz zwischen als innerhalb der Levels heißt, dass sich die Messwerte zwischen den Levels unterscheiden.
Varianzgleichheit testen
mit var.test(…)
H(0) = Varianzen sind gleich
p < 0,05 -> H(0) wird verworfen d.h. Varianzen sind nicht gleich
dann einen nichtparametrischen Test rechnen
(zusätzliche Bedingung ist immer dass die Daten normalverteilt sind)
Last changed15 days ago