Zufallsexperiment-1
Was ist ein Zufallsexperiment?
✅ Ein Experiment mit ungewissem Ausgang und sich gegenseitig ausschließenden Ereignissen.
❓Zusätzlicher Kontext ❓
Ein Zufallsexperiment ist ein Vorgang, der unter gleichen Bedingungen beliebig oft wiederholt werden kann,
dessen Ergebnis jedoch nicht vorhersagbar ist.
Die möglichen Ausgänge schließen sich gegenseitig aus – es kann immer nur genau eines eintreten.
Klassisches Beispiel: Der Münzwurf.
Die möglichen Ergebnisse sind Kopf oder Zahl – beide können nicht gleichzeitig auftreten und eines davon muss eintreten.
In der Stochastik bildet das Zufallsexperiment die Grundlage für alle weiteren Konzepte wie Wahrscheinlichkeiten, Zufallsvariablen und Verteilungen.)
Zufallsexperiment-2
Was ist der Ereignisraunm Ω und wie unterscheidet er sich je nach Typ?
✅ Der Ergebnisraum Ω ist die Menge aller möglichen Ergebnisse eines Zufallsexperiments.
Der Ergebnisraum Ω (auch Stichprobenraum) enthält jeden denkbaren Ausgang eines Zufallsexperiments.
Man unterscheidet zwei Typen:
• Diskret (abzählbar): Ω ist endlich oder abzählbar unendlich. Beispiel: Würfelwurf Ω = {1,2,3,4,5,6} oder Anzahl Anrufe pro Tag Ω = {0,1,2,...}.
• Stetig (überabzählbar): Ω enthält überabzählbar viele Elemente.
Beispiel: Wartezeit in Minuten Ω = [0, ∞) – zwischen zwei Zeitpunkten gibt es unendlich viele mögliche Werte.
Zufallsexperiment-3
Was ist der Modus einer Verteilung?
✅ Der Modus ist der am häufigsten auftretende Wert – bei stetigen Verteilungen das Maximum der Dichtefunktion.
Der Modus (auch Modalwert) ist ein Lagemaß, das den 'typischsten' Wert einer Verteilung angibt:
• Diskret: Der Wert x mit der größten Wahrscheinlichkeit P(X=x). Bei einem fairen Würfel gibt es keinen eindeutigen Modus (alle Werte gleich wahrscheinlich).
• Stetig: Der Wert x, an dem die Dichtefunktion f(x) ihr globales Maximum hat.
Beispiel: Bei der Normalverteilung N(µ,σ²) ist der Modus gleich dem Erwartungswert µ.
Zufallsexperiment-4
Wie ist die Verteilungsfunktion F(x) definiert und welche Eigenschaften hat sie?
✅ F(x) gibt die Wahrscheinlichkeit an, dass X einen Wert ≤ x annimmt: F(x) = P(X ≤ x).
Die Verteilungsfunktion (CDF) kumuliert alle Wahrscheinlichkeiten bis zum Wert x.
Sie ist eine universelle Darstellung, die für diskrete und stetige Zufallsvariablen existiert. Wichtige Eigenschaften:
(1) F(x) ist monoton nicht-fallend.
(2) F(-∞) = 0 und F(+∞) = 1.
(3) F ist rechtsseitig stetig.
(4) Bei stetigen Verteilungen gilt: die Dichte f(x) ist die Ableitung von F(x), also f(x) = F'(x)
Zufallsexperiment-5
Was ist die bedingte Wahrscheinlichkeit P(A|B) und wie berechnet man sie?
✅ P(A|B) ist die Wahrscheinlichkeit von A, wenn man weiß, dass B bereits eingetreten ist. P(A|B) = P(A ∩ B) / P(B) [P(B) > 0]
Die bedingte Wahrscheinlichkeit aktualisiert unsere Einschätzung über A, sobald wir neue Information über B haben.
Man 'konditioniert' auf das Ereignis B – der Ergebnisraum wird von Ω auf B eingeschränkt. Beispiel: Ein Würfel wird geworfen.
P(Augenzahl=6 | Augenzahl gerade) = P({6} ∩ {2,4,6}) / P({2,4,6}) = (1/6) / (3/6) = 1/3. Multiplikationsregel: Umgestellt ergibt sich P(A ∩ B) = P(A|B) · P(B), was die Berechnung gemeinsamer Wahrscheinlichkeiten ermöglicht.
Zufallsexperiment-6
Wann sind zwei Ereignisse A und B stochastisch unabhängig?
✅ A und B sind unabhängig, wenn das Eintreten von B keinerlei Information über A liefert – und umgekehrt
Stochastische Unabhängigkeit bedeutet:
die Wahrscheinlichkeit des gemeinsamen Eintretens von A und B ist das Produkt der Einzelwahrscheinlichkeiten.
Äquivalent dazu: P(A|B) = P(A)
– die Bedingung B ändert nichts an der Wahrscheinlichkeit für A.
Stetig: Zwei Zufallsvariablen X und Y sind unabhängig, wenn ihre gemeinsame Verteilungsfunktion in das Produkt der Randverteilungen zerfällt.
Wichtig: Unabhängigkeit ≠ Unkorreliertheit (ρ=0).
Unabhängigkeit impliziert Unkorreliertheit, aber nicht umgekehrt – außer bei der Normalverteilung.
Zufallsexperiment-7
Wie ist der Erwartungswert E(X) definiert?
✅ Der Erwartungswert ist der 'Schwerpunkt' der Verteilung – der mittlere Wert, den X bei sehr vielen Wiederholungen annimmt.
Der Erwartungswert (Mittelwert) µ ist das gewichtete Mittel aller möglichen Werte – gewichtet mit ihren jeweiligen Wahrscheinlichkeiten.
Anschaulich: Bei sehr vielen Wiederholungen des Experiments nähert sich das arithmetische Mittel der Ergebnisse dem Erwartungswert an (Gesetz der großen Zahlen).
Beispiel diskret: Fairer Würfel: E(X) = (1+2+3+4+5+6)/6 = 3.5. Dieser Wert wird nie konkret gewürfelt, ist aber der langfristige Durchschnitt.
Zufallsexperiment-8
Welche drei Haupteigenschaften hat der Erwartungswert?
✅ Linearität, Additivität und (bei Unabhängigkeit) Multiplikativität.
Der Erwartungswert ist ein linearer Operator – das macht ihn besonders einfach zu handhaben: ① Lineare Transformation: E(aX + b) = a·E(X) + b. Skalierung und Verschiebung gehen direkt in den Erwartungswert ein. Bsp: E(2X + 3) = 2·E(X) + 3.
② Additivität: E(X + Y) = E(X) + E(Y). Diese Eigenschaft gilt IMMER – unabhängig davon, ob X und Y abhängig oder unabhängig sind! Das ist sehr mächtig.
③ Produktregel: E(X·Y) = E(X)·E(Y) – aber NUR wenn X und Y stochastisch unabhängig sind. Bei abhängigen Variablen gilt stattdessen E(XY) = Cov(X,Y) + E(X)·E(Y).
Achtung: Die Produktregel gilt NUR bei Unabhängigkeit! Die Additivität hingegen gilt immer.
Zufallsexperiment-9
Was ist das p-Quantil einer Verteilung?
✅ Das p-Quantil x_p ist der Wert, unterhalb dessen ein Anteil p der Wahrscheinlichkeitsmasse liegt. P(X ≤ x_p) = p bzw. F(x_p) = p
Das p-Quantil (oder p-Perzentil) teilt die Verteilung so, dass ein Anteil p der Wahrscheinlichkeit links davon liegt. Formal ist x_p der kleinste Wert mit P(X ≤ x_p) ≥ p.
Wichtige Spezialfälle:
Das 0.5-Quantil heißt Median – er teilt die Verteilung in zwei gleich wahrscheinliche Hälften.
Das 0.25-Quantil (Q1) und 0.75-Quantil (Q3) heißen unteres und oberes Quartil.
Der Bereich [Q1, Q3] enthält 50% der Wahrscheinlichkeitsmasse.
Beispiel: Das 0.9-Quantil der Standardnormalverteilung ist ≈ 1.28. Das bedeutet: P(Z ≤ 1.28) = 90%.
Zufallsexperiment-10
Wie ist die Varianz Var(X) definiert?
✅ Die Varianz misst die mittlere quadratische Abweichung der Zufallsvariable von ihrem Erwartungswert.
Die Varianz σ² quantifiziert die Streuung (Dispersion) einer Zufallsvariable um ihren Erwartungswert µ.
Durch das Quadrieren werden positive und negative Abweichungen gleich behandelt und große Abweichungen stärker gewichtet.
Maßeinheit: Die Varianz hat die quadratische Einheit der Originalvariable (z.B. cm² statt cm). Deshalb ist die Standardabweichung σ = √Var(X) oft praktischer – sie hat dieselbe Einheit wie X.
Zufallsexperiment-11
Welche drei Haupteigenschaften hat die Varianz?
✅ Quadratische Skalierung, Additivität bei Unabhängigkeit, und die Verschiebungsregel (Rechenformel).
Anders als der Erwartungswert ist die Varianz nicht linear:
① Lineare Transformation: Var(aX + b) = a²·Var(X). Die Verschiebung b verschwindet komplett – sie verändert die Streuung nicht, nur die Skalierung a geht quadratisch ein!
② Summe bei Unabhängigkeit: Var(X+Y) = Var(X) + Var(Y) – aber NUR wenn X und Y unabhängig sind. Sonst gilt: Var(X+Y) = Var(X) + Var(Y) + 2·Cov(X,Y).
③ Verschiebungsregel (Rechenformel): Var(X) = E(X²) − (E(X))² = E(X²) − µ². Diese Formel ist oft einfacher zu berechnen als die Definition direkt.
Zufallsexperiment-12
Was ist die Standardabweichung und warum wird sie verwendet?
✅ σ = √Var(X) – die Standardabweichung ist die Wurzel der Varianz und hat dieselbe Einheit wie X. σ = √( Var(X) ) = √( E(X²) − µ² )
Die Standardabweichung σ ist das gebräuchlichste Streuungsmaß, da sie interpretierbar in der Originaleinheit ist.
Während die Varianz in 'quadratischen Einheiten' angegeben wird, ist σ direkt mit dem Erwartungswert vergleichbar.
Faustregel (Normalverteilung):
Bei einer Normalverteilung liegen ca. 68% aller Werte im Bereich [µ−σ, µ+σ], ca. 95% in [µ−2σ, µ+2σ] und ca. 99.7% in [µ−3σ, µ+3σ] – die sogenannte 68-95-99.7-Regel.
Zufallsexperiment-13
Wie ist die Kovarianz Cov(X,Y) definiert und was misst sie?
✅ Die Kovarianz misst den linearen Zusammenhang zwischen X und Y – wie sie gemeinsam um ihre Erwartungswerte schwanken. Cov(X,Y) = E(XY) − E(X)·E(Y)
Die Kovarianz Cov(X,Y) gibt an, ob X und Y tendenziell gemeinsam über oder unter ihren Erwartungswerten liegen:
• Cov(X,Y) > 0: X und Y tendieren dazu, sich in dieselbe Richtung zu bewegen (beide groß oder beide klein).
• Cov(X,Y) < 0: Wenn X groß ist, ist Y eher klein – und umgekehrt (gegenläufiger Zusammenhang).
• Cov(X,Y) = 0: Kein linearer Zusammenhang (unkorreliert) – aber nicht zwingend unabhängig!
Zufallsexperiment-14
Welche Symmetrieeigenschaft hat die Kovarianz? Und wie lautet die Formel für Var(X+Y)?
✅ Die Kovarianz ist symmetrisch:
Cov(X,Y) = Cov(Y,X).
Var(X+Y) = Var(X) + Var(Y) + 2·Cov(X,Y)
Symmetrie:
Es spielt keine Rolle, in welcher Reihenfolge X und Y stehen – der lineare Zusammenhang zwischen X und Y ist derselbe wie zwischen Y und X. Mathematisch folgt dies direkt aus der Kommutativität der Multiplikation in E(XY) = E(YX).
Varianz der Summe:
Diese Formel ist eine Verallgemeinerung: Bei unabhängigen Variablen ist Cov(X,Y)=0 und die Formel vereinfacht sich zu Var(X)+Var(Y). Bei positiver Kovarianz ist die Streuung der Summe größer, bei negativer Kovarianz kleiner als die Summe der Einzelvarianzen.
Zufallsexperiment-15
Wann sind X und Y unkorreliert? Was bedeutet das?
✅ X und Y sind unkorreliert wenn ρ(X,Y) = 0, d.h. Cov(X,Y) = 0 – kein linearer Zusammenhang
Unkorreliertheit bedeutet lediglich, dass kein linearer Zusammenhang zwischen X und Y besteht.
Es können trotzdem nichtlineare Abhängigkeiten existieren!
Wichtiges Gegenbeispiel:
Sei X ~ U(-1,1) und Y = X².
Dann ist Cov(X,Y) = 0 (unkorreliert!), obwohl Y vollständig durch X bestimmt wird.
Der Zusammenhang ist quadratisch, nicht linear.
Ausnahme Normalverteilung:
Bei gemeinsamer Normalverteilung gilt: Unkorreliertheit genau dann, wenn Unabhängigkeit. Nur in diesem Spezialfall sind beide Begriffe äquivalent.
Zufallsexperiment-16
Wie berechnet sich der Korrelationskoeffizient ρ(X,Y) und was sagt er aus?
✅ ρ(X,Y) normiert die Kovarianz auf [-1, 1] und misst die Stärke des linearen Zusammenhangs. ρ(X,Y) = Cov(X,Y) / (σ_X · σ_Y)
Der Pearson-Korrelationskoeffizient ρ ist eine dimensionslose Kennzahl für den linearen Zusammenhang.
Durch Division durch die Standardabweichungen wird er auf das Intervall [-1, 1] normiert:
• ρ = +1: Perfekter positiver linearer Zusammenhang (Y = aX + b mit a > 0).
• ρ = −1: Perfekter negativer linearer Zusammenhang (Y = aX + b mit a < 0).
• ρ = 0: Kein linearer Zusammenhang (unkorreliert).
• |ρ| nahe 1: Starker linearer Zusammenhang;
|ρ| nahe 0: Schwacher linearer Zusammenhang.
Zufallsexperiment-17
Wie hängen Kovarianz, Korrelation, Unabhängigkeit und Unkorreliertheit zusammen?
✅ Unabhängigkeit ist stärker als Unkorreliertheit. Unabhängigkeit → Unkorreliertheit, aber nicht umgekehrt.
Unabhängig ⟹ Cov(X,Y)=0 ⟹ ρ(X,Y)=0 Diese Beziehungen sind zentral und werden häufig verwechselt:
• Unabhängig ⟹ unkorreliert: Wenn X und Y stochastisch unabhängig sind, folgt immer Cov(X,Y)=0.
• Unkorreliert ⇏ unabhängig: ρ=0 bedeutet nur kein linearer Zusammenhang – nichtlineare Abhängigkeiten sind möglich.
• Ausnahme Normalverteilung:
Bei multivariater Normalverteilung gilt: unkorreliert ⟺ unabhängig.
• Cov(X,Y) = 0 ⟺ ρ(X,Y) = 0: Da σ_X, σ_Y > 0, haben Kovarianz und Korrelationskoeffizient immer dasselbe Vorzeichen.
■ Merke: Für die Prüfung: Kennen Sie Gegenbeispiele! Y = X² zeigt: unkorreliert ≠ unabhängig. ■■ Achtung: Verwechslung von Unkorreliertheit und Unabhängigkeit ist ein häufiger Fehler in Prüfungen!
Zuletzt geändertvor 2 Tagen