Was sind Momente einer Verteilung?
- Kennzahlen, die Form und Lage einer Verteilung beschreiben./Beispiele: Mittelwert, Varianz, Schiefe, Wölbung.
Was beschreibt das erste Moment?
- Den Erwartungswert (Mittelwert) einer Zufallsvariablen./Zeigt die zentrale Lage der Verteilung.
Was beschreibt das zweite Moment?
- Die Varianz → misst die Streuung der Werte um den Mittelwert./Je größer, desto breiter die Verteilung.
Was beschreibt das dritte Moment?
- Die Schiefe (Skewness) → misst Asymmetrie der Verteilung./Positiv = langer rechter Schwanz, negativ = langer linker Schwanz.
Was beschreibt das vierte Moment?
- Die Wölbung (Kurtosis) → misst, wie stark Werte um den Mittelwert konzentriert sind./Hohe Kurtosis = spitze Verteilung, niedrige = flach.
Was ist der Unterschied zwischen zentralem und rohem Moment?
- Rohes Moment bezieht sich auf Ursprung (E[X^k])./Zentrales Moment bezieht sich auf Mittelwert (E[(X−μ)^k]).
Was ist der Erwartungswert?
- Theoretischer Durchschnitt einer Zufallsvariablen./E[X] = Σx·P(x) oder ∫x·f(x)dx.
Was ist die Varianz?
- Erwarteter quadratischer Abstand vom Mittelwert./Misst Streuung und Schwankungsbreite der Werte.
Was ist die Standardabweichung?
- Quadratwurzel der Varianz./Einheitenkompatibel zur Originalvariable.
Was bedeutet „biased estimator“?
- Schätzer, der im Mittel nicht den wahren Parameter trifft (systematischer Fehler).
Was bedeutet „unbiased estimator“?
- Erwartungswert des Schätzers = wahrer Parameterwert./Beispiel: Stichprobenmittel ist unverzerrter Schätzer für μ.
Was ist ein Stichprobenmittel?
- Durchschnitt aller beobachteten Werte in einer Stichprobe./x̄ = (1/n) Σ xᵢ.
Was ist eine Stichprobenvarianz?
- Misst Streuung innerhalb der Stichprobe./Schätzer für Populationsvarianz (geteilt durch n−1).
Was ist der Unterschied zwischen Parameter und Schätzer?
- Parameter beschreibt Population (z. B. μ, σ)./Schätzer beschreibt Stichprobe (z. B. x̄, s).
Was ist ein Punktschätzer?
- Liefert einen einzelnen Wert zur Schätzung eines Parameters./z. B. x̄ als Schätzer für μ.
Was ist ein Intervallschätzer?
- Liefert ein Konfidenzintervall, in dem der wahre Parameter mit gewisser Wahrscheinlichkeit liegt.
Was bedeutet Konfidenzintervall?
- Bereich, der den wahren Parameter mit Wahrscheinlichkeit (z. B. 95 %) enthält./z. B. μ ∈ [x̄ ± t·s/√n].
Was ist ein Hypothesentest?
- Statistisches Verfahren, um eine Annahme (Hypothese) über eine Population anhand von Stichproben zu prüfen.
Was ist die Nullhypothese (H₀)?
- Ausgangsannahme: „kein Unterschied“ oder „kein Effekt“./Wird versucht zu widerlegen, nicht zu beweisen.
Was ist die Alternativhypothese (H₁)?
- Gegenaussage zu H₀ → behauptet Unterschied oder Effekt.
Was ist der p-Wert?
- Wahrscheinlichkeit, das beobachtete Ergebnis (oder extremeres) zu erhalten, wenn H₀ wahr ist./Klein → H₀ wird abgelehnt.
Was ist der Signifikanzlevel α?
- Grenze für die Ablehnung von H₀ (meist 0.05)./p < α → signifikantes Ergebnis.
Was ist ein Fehler 1. Art (Typ I)?
- Falsches Verwerfen von H₀, obwohl sie wahr ist („false positive“).
Was ist ein Fehler 2. Art (Typ II)?
- Nicht-Verwerfen von H₀, obwohl sie falsch ist („false negative“).
Was ist die Teststärke (Power)?
- Wahrscheinlichkeit, H₀ korrekt zu verwerfen, wenn sie falsch ist./Power = 1 − β.
Was ist der t-Test?
- Test zum Vergleich von Mittelwerten (zwei Gruppen oder gegen bekannten Wert)./Basiert auf t-Verteilung.
Was ist die t-Verteilung?
- Glockenförmig wie Normalverteilung, aber breitere Flanken./Wird für kleine Stichproben verwendet.
Was ist der Unterschied zwischen einseitigem und zweiseitigem Test?
- Einseitig prüft nur Richtung (z. B. größer als)./Zweiseitig prüft auf Unterschied unabhängig von Richtung.
Was ist der F-Test?
- Testet Gleichheit von Varianzen zweier Gruppen oder Modellgüte (ANOVA).
Was ist der Kolmogorov-Smirnov-Test?
- Prüft, ob Stichprobe einer Referenzverteilung folgt./Nichtparametrisch, nutzt CDF-Vergleich.
Was ist der Wilcoxon-Test (Mann-Whitney)?
- Nichtparametrischer Test für Median- oder Rangunterschiede zweier Gruppen./Alternative zum t-Test ohne Normalverteilungsannahme.
Was ist der Tukey-Duckworth-Test?
- Nichtparametrischer Test basierend auf Rangunterschieden in gepaarten Stichproben.
Was ist der Unterschied zwischen parametrischen und nichtparametrischen Tests?
- Parametrisch: setzt Verteilungsannahme (z. B. Normalverteilung) voraus./Nichtparametrisch: arbeitet mit Rängen, robust gegen Ausreißer.
Was ist eine Teststatistik?
- Kennzahl, die Abweichung der Stichprobe von H₀ misst (z. B. t- oder F-Wert).
Was ist eine Verwerfungsregion?
- Bereich extremer Teststatistikwerte, bei denen H₀ abgelehnt wird.
Was bedeutet „two-sample test“?
- Vergleich von Mittelwerten oder Verteilungen zweier unabhängiger Stichproben.
Was ist eine z-Transformation?
- Standardisierung: z = (x − μ)/σ./Ermöglicht Vergleich unterschiedlicher Skalen und Verteilungen.
Was ist der Zusammenhang zwischen Standardfehler und Stichprobengröße?
- SE = σ/√n → wächst n, wird SE kleiner./Mehr Daten → präzisere Schätzung.
Was bedeutet „robuster Test“?
- Test bleibt zuverlässig auch bei Verletzung von Annahmen (z. B. leichte Schiefe).
Was ist ein „Bootstrap“-Verfahren?
- Schätzmethode durch wiederholtes Ziehen (mit Zurücklegen) aus der Stichprobe./Ermöglicht empirische Konfidenzintervalle.
Was ist eine Monte-Carlo-Simulation?
- Zufallsexperiment zur numerischen Annäherung statistischer Verteilungen oder Tests.
Wann nutzt man den Mittelwert als Lagemaß?
- Wenn Daten symmetrisch verteilt und ohne starke Ausreißer sind./Bei schiefer Verteilung ist der Median robuster.
Wann ist der Median besser als der Mittelwert?
- Wenn Daten Ausreißer oder starke Schiefe enthalten./Median reagiert weniger empfindlich.
Wann verwendet man die Varianz statt der Standardabweichung?
- Wenn man Streuung mathematisch weiterverarbeiten will (z. B. in Formeln)./Standardabweichung ist anschaulicher, aber nicht additiv.
Wann ist ein Schätzer unverzerrt (unbiased)?
- Wenn sein Erwartungswert dem wahren Parameter entspricht./z. B. s² = (1/(n−1)) Σ (xᵢ − x̄)².
Wann ist ein Schätzer effizient?
- Wenn er unter allen unverzerrten Schätzern die kleinste Varianz hat.
Wann wählt man einen Punktschätzer statt Intervallschätzer?
- Wenn eine präzise Einzelabschätzung gewünscht ist, z. B. bei Modellparametern.
Wann ist ein Intervallschätzer besser geeignet?
- Wenn Unsicherheit berücksichtigt werden soll → Aussage mit Konfidenz (z. B. 95 %).
Wann ist ein t-Test angemessen?
- Wenn man Mittelwerte vergleicht und Daten normalverteilt sind oder n > 30 (zentraler Grenzwertsatz).
Wann nutzt man den gepaarten t-Test?
- Wenn Messungen abhängig sind (z. B. Vorher-Nachher-Design).
Wann nutzt man den F-Test?
- Wenn man Varianzen oder Modellanpassungen (z. B. ANOVA) vergleichen will.
Wann nutzt man den Kolmogorov–Smirnov-Test?
- Wenn man prüfen will, ob eine Stichprobe einer theoretischen Verteilung folgt oder zwei Stichproben unterschiedlich verteilt sind.
Wann nutzt man den Wilcoxon- oder Mann-Whitney-Test?
- Wenn Daten nicht normalverteilt sind oder Ausreißer enthalten./Vergleicht Ränge statt Mittelwerte.
Wann nutzt man den Tukey-Duckworth-Test?
- Wenn Daten gepaart sind, aber keine Normalverteilung vorliegt./Nichtparametrische Alternative zum gepaarten t-Test.
Wann verwendet man parametrische Tests?
- Wenn Verteilungsannahmen (z. B. Normalverteilung, Varianzgleichheit) erfüllt sind./Beispiele: t-Test, F-Test.
Wann sind nichtparametrische Tests vorzuziehen?
- Wenn Annahmen verletzt sind oder Daten ordinal/skalenfrei sind./Beispiele: Wilcoxon-, KS-Test.
Wann ist ein zweiseitiger Test angebracht?
- Wenn Abweichung in beide Richtungen interessant ist (z. B. größer oder kleiner).
Wann verwendet man einen einseitigen Test?
- Wenn nur eine Richtung relevant ist (z. B. größer als Kontrollwert).
Wann ist ein hoher p-Wert kein Beweis für H₀?
- Weil ein hoher p-Wert nur „keine Evidenz gegen H₀“ zeigt, nicht „H₀ ist wahr“.
Wann ist ein Ergebnis statistisch, aber nicht praktisch signifikant?
- Wenn p < 0.05, aber Effektgröße sehr klein ist./→ Unterschied zwar messbar, aber irrelevant.
Wann sinkt der Standardfehler?
- Wenn Stichprobengröße n steigt./Mehr Daten → stabilere Mittelwerte.
Wann steigt die Power eines Tests?
- Mit größerem n, höherem Effekt und kleinerem Streubereich (σ).
Wann ist eine hohe Power wünschenswert?
- Um Fehler 2. Art (falsches Beibehalten von H₀) zu vermeiden.
Wann ist ein Fehler 1. Art gravierend?
- Wenn fälschlich ein Effekt behauptet wird (false positive)./Beispiel: Medikament wird als wirksam erklärt, obwohl es nicht wirkt.
Wann ist ein Fehler 2. Art gravierend?
- Wenn echter Effekt übersehen wird (false negative)./Beispiel: wirksames Medikament wird verworfen.
Wann ist Bootstrapping nützlich?
- Wenn analytische Formeln fehlen oder Verteilungen unbekannt sind./Ermöglicht empirische Unsicherheitsabschätzung.
Wann ist eine Monte-Carlo-Simulation sinnvoll?
- Wenn analytische Berechnung zu komplex ist./Beispiel: p-Werte für komplizierte Teststatistiken.
Wann ist der zentrale Grenzwertsatz praktisch relevant?
- Er erklärt, warum Stichprobenmittel bei großem n normalverteilt sind, egal wie die Ursprungsverteilung aussieht.
Wann ist die t-Verteilung statt der Normalverteilung zu verwenden?
- Bei kleinen Stichproben (n < 30) mit unbekannter Varianz.
Wann ist eine hohe Kurtosis problematisch?
- Hohe Kurtosis = spitze Verteilung → mehr Ausreißergefahr./Tests auf Normalität reagieren empfindlicher.
Wann ist Schiefe (Skewness) kritisch?
- Schiefe bedeutet asymmetrische Verteilung → Mittelwert nicht repräsentativ.
Wann kann man Normalverteilung annehmen?
- Wenn Histogramm symmetrisch ist und Shapiro-Test p > 0.05 ergibt.
Wann sind parametrische Tests robuster als gedacht?
- Wenn Stichproben groß genug sind (n > 30) → zentraler Grenzwertsatz gleicht Abweichungen aus.
Wann ist ein Boxplot besser als ein Histogramm?
- Wenn man Median, Quartile und Ausreißer visuell vergleichen will.
Wann verwendet man Effektgröße zusätzlich zum p-Wert?
- Wenn man praktische Relevanz bewerten will (Cohen’s d, η², r)./p-Wert allein zeigt nur Signifikanz, nicht Stärke.
Wann sollte man mehrere Tests korrigieren (Multiple Testing)?
- Wenn viele Hypothesen geprüft werden (z. B. Genomdaten)./→ Bonferroni- oder FDR-Korrektur nötig.
Wann ist die Annahme gleicher Varianzen wichtig?
- Für klassischen t-Test und ANOVA./Wenn verletzt, → Welch-Test oder nichtparametrische Alternative.
Wann sollte man den Welch-t-Test verwenden?
- Wenn Varianzen ungleich oder Stichprobengrößen unterschiedlich sind.
Wann ist die Interpretation eines Konfidenzintervalls falsch?
- Wenn man denkt, dass der wahre Parameter „zu 95 % darin liegt“./Korrekt: „95 % aller solchen Intervalle enthalten den wahren Wert“.
Wann ist der Zusammenhang zwischen Power und α wichtig?
- Niedriger α (strengere Schwelle) reduziert Power → schwieriger, echte Effekte zu finden.
Wann ist Visualisierung vor Hypothesentests sinnvoll?
- Immer: erlaubt Erkennung von Schiefe, Ausreißern, Clusterbildung vor formalen Tests.
Zuletzt geändertvor 2 Monaten