Stichprobe
Lagemaß
Mittelwert aus Daten
Streuungsmaß
Ausmaß der Streuung, dargestellt durch Fehlerbalken
zb aus Standardabweichung oder Standardfehler dargestellt
Standardabweichung
wie sehr die Messwerte in der Stichprobe/ um den Mittelwert streuen. Sie ist also gut geeignet, eine Stichprobe zu beschreiben: 68% der Messwerte liegen im Bereich von ±1 Standardabweichung
Standardfehler
wie sehr man dem Mittelwert vertrauen kann. 68% der der Stichprobenmittelwerte würden im Bereich von ±1 Standardfehler liegen. Er ist gut geeignet, um Gruppenvergleiche zu illustrieren
die Stichprobengröße zur Berechnung mit herangezogen wird, bei der Standardabweichung nicht. Das ist der essentielle Unterschied zwischen diesen Maßen
Box Whisker Plot
Darstellung von Median, erstem+ 3, Quartil, Minimum+ Maximum
Median wird von Ausreißern nicht beeinflusst, er ist hier also besser als der Mittelwert. Mit dem ersten (unteren) und dem dritten (oberen) Quartil wird ein Kasten (Box) gebildet, der nicht zwangsläufig symmetrisch ist, ebensowenig die Whisker, die von Minimum zur Box und vom Maximum zu Box reichen. Asymmetrien lassen sich also gut erkennen. Zudem gilt die Regel: Wenn ein Messpunkt weiter als 1,5xBoxlänge3 vom Rand der Box entfernt ist, wird er als Ausreißer betrachtet.
Interquartilsabstand
Abstand von 1. Quartil (unten) zum 3. Quartil (oben)
Ausreißer werden somit separat dargestellt und die Verteilung der Messwerte ist viel besser zu erkennen als in Balkendiagrammen. Die Ausreißer werden als Sternchen gezeichnet, nicht weggestrichen.
Lagemaße
Lagemaß = Mittelwert und Streuungsmaß = Standardabweichung
b) Lagemaß = Mittelwert und Streuungsmaß = Standardfehler
a) Lagemaße = Median mit Minimum, 1. Quartil, 3. Quartil, Maximum; ein Streuungsmaß hier wäre = Interquartilsabstand
Interquartilabstand
Stichprobe: Teil der Grundgesamtheit, an dem eine Untersuchung durchführt wird -> Rückschlüsse auf die Grundgesamtheit
Grundgesamtheit: alle möglichen Träger:innen des untersuchten Merkmals,
Wichtig für Aussagekraft einer Stichprobe= Stichprobengröße: Anzahl der in die Stichprobe eingeschlossenen Merkmalsträger
Wahrscheinlichkeit
Aussage wie groß die Wahrscheinlichkeit ist, einen Unterschied so groß wie den beobachteten (oder größer) zu finden, obwohl die Nullhypothese (H0=kein Unterschied) wahr ist (=in Wirklichkeit keiner da ist)
Bei p≤0,05 ->Nullhypothese verworfen und die Alternativhypothese (es gibt einen Unterschied zwischen den Gruppen) akzeptiert.
Welche Variable ist die erklärende (unabhängige) Variable, welche die abhängige?
erklärende Variable: definiert untersuchte Gruppen
->z.B. Geschlecht = Frauen/Männer; Pflanzentyp= Wildtyp/Mutante; Patientenstudiengruppe= Medikamentengruppe/Placebogruppe
->auf der x-Achse
abhängige Variable: deren Ausprägung ->Größe der gemessenen Werte abhängig davon, in welcher Gruppe auf der x-Achse wir sind
Hier= Körpergewicht. Sie steht auf der y-Achse.
Logarithmus statistische Tests
t-Test
Stichproben vergleichen
> sind es zwei oder mehr Stichproben?
> zwei Stichproben
> sind die Daten halbwegs normalverteilt? -> ja: t-test
> ist Varianz (Streuung) in den Stichproben mehr oder weniger gleich?
-> ja: t-test mit gleichen Varianzen
->nein= mit ungleichen Varianzen
>sind die Stichproben unabhängig voneinander?
> nein (z.B. vorher-nachher-Messungen an den gleichen Individuen):
t-test mit abhängigen Stichproben=gepaarter t-Test;
> ja: z.B. Männer vs. Frauen: t-test mit unabhängigen Stichproben = ungepaarter t-Test
Logarithmus
U test
Daten halbwegs normalverteilt?
nein: sehr schiefe Daten, deutliche Ausreißer: U-Test (= Wilcox-Test, Mann-Whitney-Test)
Dieser U-Test „transformiert“ die Daten von Messwerten in Ränge =Rangtransformation
> mehr als zwei Stichproben und Daten halbwegs normal
> eine oder mehrere erklärende Variable (egal wie viele)
> eine7: einfaktorielle ANOVA (Varianzanalyse)
> mehrere8: mehrfaktorielle ANOVA (--> siehe Fußnote)
(Hinweis: Nach einer ANOVA kann ein post-hoc-test folgen9)
> mehr als zwei Stichproben und Daten sehr schief / nicht normalverteilt
> eine oder mehrere erklärende Variablen
> ein : Kruskal-Wallis-Test: Dieser Test „transformiert“ die Daten von Messwerten in Ränge = Rangtransformation
> mehrere: hier gibt es leider nichts
Ich möchte den Zusammenhang zwischen zwei Variablen analysieren
Gibt es eindeutig eine erklärende und eine abhängige Variable?
> nein, ich kann nicht sagen, dass die eine Variable die andere beding t 10
> Ist der Zusammenhang linear (oder zumindest in eine Richtung weisend)?
> ja: Pearsons Korellationskoeffizient
Wichtig: Hier geht es nicht um einen Kausalzusammenhang! Es mag in Fällen einer vorliegen, aber wir wissen es nicht und ziehen auch keine entsprechenden Schlüsse. Es geht um einen rein mathematischen / statistischen Zusammenhang zw. zwei Variablen
>nein: zumindest nicht Pearsons Korellationskoeffizient, denn der verlangt Linearität11.
> ich kann sagen, dass die eine Variable bedingen kann, was auf der anderen passiert, aber nicht umgekehrt12 Es gibt also eine erklärende und eine abhängige Variable) --> Kausalzusammenhang
ist zusammenhang linear?
ja: (lineare) Regression --> Kausalzusammenhang
> nein:war nicht Inhalt des Unterrichts13
Last changed3 months ago