Stichprobe
Lagemaß
Mittelwert aus Daten
Streuungsmaß
Ausmaß der Streuung, dargestellt durch Fehlerbalken
zb aus Standardabweichung oder Standardfehler dargestellt
Standardabweichung
wie sehr die Messwerte in der Stichprobe/ um den Mittelwert streuen
gut geeignet, eine Stichprobe zu beschreiben:
68% der Messwerte liegen im Bereich von ±1 Standardabweichung
Standardfehler
wie sehr man dem Mittelwert vertrauen kann
68% der der Stichprobenmittelwerte würden im Bereich von ±1 Standardfehler liegen
gut geeignet für Gruppenvergleiche bei der Stichprobengröße zur Berechnung mit herangezogen wird,
bei der Standardabweichung nicht.
Das ist der essentielle Unterschied zwischen diesen Maßen
Box Whisker Plot
Darstellung von Median, erstem+ 3, Quartil, Minimum+ Maximum
erstes (unteren) und dem drittes (oberen) Quartil wird ein Kasten (Box)
-> nicht zwangsläufig symmetrisch ist, so auch die Whisker
Regel: Wenn ein Messpunkt weiter als 1,5xBoxlänge vom Rand der Box entfernt ist =Ausreißer
Median
von Ausreißern nicht beeinflusst -> besser als der MW
Whisker
Whisker: reichen von Minimum zur Box und vom Maximum zu Box
-> Asymmetrien gut erkennbar l
Interquartilsabstand
Abstand von 1. Quartil (unten) zum 3. Quartil (oben)
Ausreißer
Ausreißer:
separat dargestellt
Verteilung der Messwerte ist viel besser zu erkennen als in Balkendiagrammen.
Die Ausreißer werden als Sternchen gezeichnet, nicht weggestrichen.
Lagemaße
Lagemaß = Mittelwert und Streuungsmaß = Standardabweichung
b) Lagemaß = Mittelwert und Streuungsmaß = Standardfehler
a) Lagemaße = Median mit Minimum, 1. Quartil, 3. Quartil, Maximum; ein Streuungsmaß hier wäre = Interquartilsabstand
Interquartilabstand
Stichprobe: Teil der Grundgesamtheit, an dem eine Untersuchung durchführt wird -> Rückschlüsse auf die Grundgesamtheit
Wichtig für Aussagekraft einer Stichprobe= Stichprobengröße: Anzahl der in die Stichprobe eingeschlossenen Merkmalsträger
Grundgesamtheit
alle möglichen Träger:innen des untersuchten Merkmals,
Wahrscheinlichkeit
Aussage wie groß die Wahrscheinlichkeit ist, einen Unterschied so groß wie den beobachteten (oder größer) zu finden, obwohl die Nullhypothese (H0=kein Unterschied) wahr ist (=in Wirklichkeit keiner da ist)
Bei p≤0,05 ->Nullhypothese verworfen und die Alternativhypothese (es gibt einen Unterschied zwischen den Gruppen) akzeptiert.
Welche Variable ist die erklärende (unabhängige) Variable?
erklärende Variable: definiert untersuchte Gruppen
->z.B. Geschlecht = Frauen/Männer; Pflanzentyp= Wildtyp/Mutante; Patientenstudiengruppe= Medikamentengruppe/Placebogruppe
->auf der x-Achse
Welche Variable ist die abhängige Variable,
abhängige Variable: deren Ausprägung ->Größe der gemessenen Werte abhängig davon, in welcher Gruppe auf der x-Achse wir sind
Hier= Körpergewicht. Sie steht auf der y-Achse.
Logarithmus statistische Tests
t-Test
zwei Stichproben
Daten halbwegs normalverteilt?
> Varianz (Streuung) in den Stichproben mehr oder weniger gleich?
-> ja: t-test mit gleichen Varianzen
->nein= mit ungleichen Varianzen
>Stichproben unabhängig voneinander?
> nein (z.B. vorher-nachher-Messungen an den gleichen Individuen):
t-test mit abhängigen Stichproben=gepaarter t-Test;
> ja: z.B. Männer vs. Frauen: t-test mit unabhängigen Stichproben = ungepaarter t-Test
t-test mit gleichen Varianzen
+ mit ungleichen Varianzen
bei 2 Stichproben bei denen die Daten halbwegs normalverteilt sind
gepaarter t-Test
ungepaarter t-Test
bei 2 Stichproben die halbwegs normalverteilt sind
Logarithmus
U test
nein:
sehr schiefe Daten, deutliche Ausreißer: U-Test (= Wilcox-Test, Mann-Whitney-Test)
-> U-Test „transformiert“ die Daten von Messwerten in Ränge =Rangtransformation
> mehr als zwei Stichproben und Daten halbwegs normal
> eine oder mehrere erklärende Variable (egal wie viele)
> eine: einfaktorielle ANOVA (Varianzanalyse)
> mehrere: mehrfaktorielle ANOVA
> mehr als zwei Stichproben und Daten sehr schief / nicht normalverteilt
> eine oder mehrere erklärende Variablen
> ein : Kruskal-Wallis-Test: Dieser „transformiert“ die Daten von Messwerten in Ränge = Rangtransformation
> mehrere: hier gibt es leider nichts
Anova
(Hinweis: Nach ANOVA kann ein post-hoc-test folgen)
mehr als zwei Stichproben und Daten sehr schief / nicht normalverteilt
Ich möchte den Zusammenhang zwischen zwei Variablen analysieren
Gibt es eindeutig eine erklärende und eine abhängige Variable?
> nein, unsicher ob die eine Variable die andere bedingt
> Ist der Zusammenhang linear (oder zumindest in eine Richtung weisend)?
> ja: Pearsons Korellationskoeffizient
Wichtig: es geht nicht um Kausalzusammenhang! Kann vorkommen aber in dem Fall nicht Kern der Frage -> Es geht um einen rein mathematischen / statistischen Zusammenhang zw. zwei Variablen
>nein: zumindest nicht Pearsons Korellationskoeffizient, denn der verlangt Linearität
> ich kann sagen, dass die eine Variable bedingen kann, was auf der anderen passiert, aber nicht umgekehrt
Es gibt also eine erklärende und eine abhängige Variable) --> Kausalzusammenhang
Pearsons Korellationskoeffizient
verlangt Linearität
ist zusammenhang linear?
ja: (lineare) Regression --> Kausalzusammenhang
> nein:war nicht Inhalt des Unterrichts13
Last changed5 months ago