Nutzen Wahrscheinlichkeitstheorie
dient dem Verständnis der Inferenzstatistik
hilft bei der Versuchsplanung
hilft im Alltag (Wahrscheinlichkeit eines Lottogewinns)
Reihenfolgeeffekte bei Tests
Permutation von Teilen eines Experiments
Randomisierung
Wahrscheichkeit nach Laplace
Die Wahrscheinlichkeit nach Laplace beschreibt die so genannte “a priori” Wahrscheinlichkeit, also jene Wahrscheinlichkeit, welche vor der Durchführung eines Zufallsexperiments bestimmt werden kann.
Somit sind vor einem Experiment schon alle möglichen Ereignisse (Ausgänge des Zufallsexperiments) bekannt.
Jedes Elementarereignis, jeder mögliche Ausgang eines Zufallsexperiments, hat dieselbe Auftretenswahrscheinlichkeit.
Aus der Menge der Elementarereignisse kann die Menge der günstigen Ereignisse bestimmt werden.
Wahrscheinlichkeit nach Bernoulli
Nicht in allen Fällen ist die Anzahl aller möglichen Ereignisse abzählbar, so dass eine “a priori” Berechnung nach Laplace möglich wäre.
Wenn der Ereignisraum vor dem Zufallsexperiment nicht genau bestimmt werden kann, kann nur “a posteriori” die Wahrscheinlichkeit ermittelt werden.
Die Wahrscheinlichkeit für ein Ereignis in der Population π(A) wird über die relative Häufigkeit seines Auftretens nA nach sehr vielen Durchgängen eines
Zufallsexperiments geschätzt.
N
Die Schätzung wird um so genauer, je mehr N gegen unendlich geht (N → ∞).
Dies wird auch als das Gesetz der Großen Zahl bezeichnet.
Da hier die Wahrscheinlichkeit für die Population geschätzt wird, wird von π und nicht von p gesprochen.
Zufalllsexperiment
Ein Zufallsexperiment ist ein Experiment, das beliebig oft wiederholbar ist und zu unterschiedlichen Ergebnissen führen kann. Für ein mögliches Ergebnis gibt es eine bestimmte Wahrscheinlichkeit p (=probability). Das Ergebnis eines Versuchsdurchgangs wird mit ω bezeichnet.
Die Versuchsdurchgänge ω werden als Ergebnisse, Stichproben, Realisierungen oder Elementarereignisse bezeichnet.
Ereignisraum
Der Ereignisraum Ω (sprich Omega) beschreibt die Menge aller möglichen Ereignisse (Versuchsdurchgänge) ω eines Zufallsexperiments.
Ω wird als Ergebnismenge oder Stichprobenraum bezeichnet, teilweise werden in der Literatur auch die Begriffe Grundraum oder Ergebnisraum verwendet.
Bsp. Für die Darstellung Ω = {1, 2, 3, 4, 5, 6}
Elementarereignis
Ein Elementarereignis ist eines von mehreren möglichen Ausgängen eines Zufallsexperiments. Jedes Ereignis A ist eine Teilmenge von Ω.
Darstellumg allgemein mit A, B, C
Ereignisse können sich aus einer Kombination von mehreren Elementarereignissen zusammensetzen; beispielsweise setzt sich das Ziehen einer roten Spielkarte eines Skatblattes aus den Elementarereignissen aller Herz- und Karo-Karten zusammen.
Logisches UND
Das logische UND ( ∩ ) beschreibt die Schnittmenge, die durch das gleichzeitige Auftreten zweier Ereignisse entsteht.
Logisches ODER
Das logische ODER ( U )beschreibt die Vereinigungsmenge, die durch das Auftreten von mindestens einem von mehreren möglichen Ereignissen entsteht.
Zu dieser Menge gehören alle Elemente, welche entweder der Menge A oder der Menge B angehören. Es gilt somit:
ω ∈ A∪B (12) wennω ∈ A (13) oderω ∈ B (14)
Sicheres Ereignis
Das sichere Ereignis hat die Wahrscheinlichkeit von p(A) = 1 und umfasst alle Elemente des Wahrscheinlichkeitsraums Ω.
A=Ω
p(A) = p(Ω) = 1
Unmögliches Ereignis
Das unmögliche Ereignis trifft nie ein und hat die Wahrscheinlichkeit von p(A) = 0.
Komplementärereignis
Zum Komplementärereignis A ̄ gehören alle Elementarereignisse, die nicht zum Ereignis A gehören.
p(A) = 1 − p(A ̄)
Disjunkte Ereignisse
Zwei Ereignisse A und B werden disjunkt genannt, wenn sie einander ausschließen, das heißt, dass A und B nicht gleichzeitig eintreffen können.
Somit sind zwei Ereignisse A und B disjunkt, wenn die Schnittmenge A ∩ B der leeren Menge ∅ entspricht.
Sobald die Wahrscheinlichkeit für das Auftreten beider Ereignisse >0 ist handelt es sich um ein nicht disjunktes Ereigniss
Bedingte Wahrscheinlichkeit
Das Auftreten eines bestimmten Ereignisses, nachdem ein anderes vorausgegangen oder bekannt ist.
p(A|B) wird als “p von A unter der Bedingung B”
p(A|B) ̸=(ungleich) p(B|A)
Zusammenhang Abhängigkeit und distjumktheit zweier Ereignisse
Disjunkte Ereignisse sind immer abhängig, außer in dem theoretisch möglichen aber praktisch unsinnigen Fall von p(A) = 0 oder p(B) = 0.
Nicht-disjunkte Ereignisse hingegen können stochastisch abhängig sein. Die Abhängigkeit beziehungsweise Unabhängigkeit von Ereignissen ist über die bedingte Wahrscheinlichkeit zu prüfen.
Es gilt als unabhängig wenn p(A) = p(A|B)
Additionstheorem
Multiplikationstheorem
Theorem von Bayes
Für wenn man die Abhängigkeit zweier Ergebniss berechnen will allerdings nur die Wahrscheinlichkeit für die Abhängigkeit in die andere Richtung hat
Kombinatorik
Die Kombinatorik als Teilgebiet der Wahrscheinlichkeitstheorie formuliert Regeln zur Bestimmung der Anzahl möglicher Kombinationen bestimmter Ereignisse. Diese Rechenregeln werden benötigt, um sowohl die Anzahl der möglichen als auch die Anzahl der günstigen Ereignisse zu berechnen. Beide Werte können dann zur Berech- nung der Wahrscheinlichkeit nach Laplace verwendet werden.
Kriterien:
Ist die Reihenfolge des günstigen Ergebnisses relevant?
Handelt es sich um ein Ziehen mit oder ohne Zurücklegen?
Zusätzlich gibt es bei einigen Regeln noch Detailfragen wie beispielsweise:
Sind Teilereignisräume relevant?
Sind die Untergruppen gleich groß?
Wird eine Ziehung vollständig oder nur teilweise durchgeführt?
1 Variationsregel
Wenn bei jedem Ziehen jedes von a sich gegenseitig ausschließenden (unabhängigen) Ereignissen auftreten kann, so gibt es bei k Versuchen a^k verschiedene mögliche Ereignisabfolgen.
Anwendung: In Reihenfolge, mit Zurücklegen, gleich große Teilereignisräume. Ein Teilereignisraum ist der Ereignisraum bei einer von mehreren aufeinander folgenden Ziehungen.
2 Variationsregel
Bei n voneinander unabhängigen Ereignissen mit n verschieden großen Ereignisräumen a1, . . . , an sind a1 · a2 · a3 · . . . · an verschiedene Ereignisabfolgen möglich.
Anwendung: In Reihenfolge, mit Zurücklegen, unterschiedlich große Teilereignisräume.
Permutationsregel
n verschiedene Objekte können in n! unterschiedlichen Abfolgen angeordnet werden.
Anwendung: In Reihenfolge, ohne Zurücklegen, vollständige Ziehung.
1 Kombinationsregel
Werden aus n verschiedenen Objekten r (Anzahl der gezogenen Objekte, bei teilweiser Ziehung) Objekte zufällig ausgewählt, so ergeben
n!/(n−r )! verschiedene Reihenfolgen für die r Objekte.
Anwendung: In Reihenfolge, ohne Zurücklegen, teilweise Ziehung.
2 Kombinationsregel
Werden aus n verschiedenen Objekten r Objekte zufällig ausgewählt und wird die
Reihenfolge dieser r Objekte außer Acht gelassen, so ergeben sich für die r
ausgewählten Objekte (n über r) Möglichkeiten.
Anwendung: Ohne Reihenfolge, ohne Zurücklegen, teilweise Ziehung.
3 Kombinationsregel
Anwendung: Ohne Reihenfolge, ohne Zurücklegen, verschieden große Untergruppen.
Ziehen ohne Reihenfolge mit Zurücklegen
Ordne in einer Tabelle an bei welchen Bedingungen welche Kombinatorikregel genutzt werden muss
3 Komponenten, die bei Wahrscheinlichkeiten in der Interferenzstatistik berücksichtigt werden, um ein Ergebnis durch Zufall auszuschließen
Die Differenz der Mittelwerte (je größer, desto unwahrscheinlichlicher der Zufall).
Die Streuung des Merkmals (je kleiner, desto unwahrscheinlichlicher der Zufall).
Die Stichprobengröße (je größer, desto unwahrscheinlichlicher der Zufall).
2 Arten von Wkeitsverteilungen
die diskrete Wahrscheinlichkeitsverteilung
(Binomialverteilung, Bernoulliverteilung, Hypergeometrische Verteilung)
die stetige Wahrscheinlichkeitsverteilung
(Normalverteilung, Standardnormalverteilung, χ2 -Verteilung, t-Verteilung, F-Verteilung)
Diskrete Wkeitsverteilung
Stetige Wkeitsverteilung
Dichtefunktionen und deren Nutzen
Nutzen
Theoretische Grundlage der Inferenzstatistik: → Berechnung von
Konfidenzintervallen
• Berechnung der WS, dass ein/e einzelne/r Proband*in einen Messwert im
Intervall x aufweist.
• Berechnung der Anzahl der Personen, welche in einem bestimmten
Intervall liegen.
Mathematisch:
• Voraussetzung: Vorliegen der Verteilungskurve der Stichprobenmesswerte
• Bestimmung der Anzahl der Proband*innen im Messbereich x erfolgt
mittels Integralrechnung.
• Integrale können in Verteilungstabellen abgelesen werden.
Binominalverteilung
bei diskreter Wkeitsverteilung
Poisson Verteilung
Bernoulli Verteilung
Hypergeometrische Verteilung
Normalverteilung
Von hoher Relevanz für die Auswertung von stetigen Variablen ist hingegen die Normalverteilung:
deshalb so wichtig, weil in der Natur sehr viele Merkmale
(annähernd) normalverteilt sind.
•Jede Normalverteilung …
a) hat einen „glockenförmigen“ Verlauf und
b) ist symmetrisch (a3=0) und
c) hat einen „normalen“ Exzess (a4 = 3)
•Zwei Parameter definieren eine Normalverteilung:
a) Der Mittelwert (μ) gibt die Position des „Gipfels“
an.
b) Die Standardabweichung (σ) gibt die Breite der Verteilung
Standartnormalverteilung
Die eine in Lehrbüchern genannte Normalverteilung wird über μ = 0 und σ = 1 definiert und als Standardnormalverteilung bezeichnet.
Alle anderen möglichen Normalverteilungen sind durch die z-Transformation in eine Standardnormalverteilung überführbar.
X^2 Verteilung
Aus der Standardnormalverteilung lässt sich als weitere stetige
Wahrscheinlichkeitsverteilung die χ2-Verteilung (sprich Chi) ableiten.
Das Quadrat einer Zufallsvariable z aus einer Standardnormalverteilung ergibt eine nicht-normalverteilte χ2 -Verteilung.
χ^2 1 = z^2
Verwendung:
Untersuchung eines nominalskalierten Merkmals auf statistisch bedeutsame Häufigkeitsunterschiede benötigt.
Die Anzahl der Merkmalsausprägungen definiert den Freiheitsgrad (Die Anzahl der Freiheitsgrade, ist die Anzahl der Werte, die frei geändert werden können, ohne den interessierenden statistischen Parameter oder ein zur Berechnung des statistischen Parameters benötigtes Zwischenergebnis zu ändern) der Verteilungsfunktion
t Verteilung
Diese Prüfverfahren dienen der Prüfung der statistischen Bedeutsamkeit von Mittelwertsunterschieden bei zwei Gruppen oder zwei Messzeitpunkten.
Der Freiheitsgrad wird hierbei im Allgemeinen über die Anzahl der Datenpunkte weniger eins definiert (N-1).
Bei Stichproben mit mehr als 120 Elementen geht die t-Verteilung in eine z-Verteilung über.
Die Unterschiede in den t-Verteilungen werden allerdings schon bei einem Freiheitsgrad größer 30 sehr gering.
F Verteilung
Die F-Verteilung wird durch zwei χ2-Verteilungen mit zwei Freiheitsgraden m1 und m2 definiert.
Somit werden zwei unabhängige χ2 -Verteilungen kombiniert.
Die F-Verteilung besitzt einen Zähler- und einen Nennerfreiheitsgrad. In der folgende Abbildung wurde nur der Zählerfreiheitsgrad variiert.
Anwendungsgebiete:
Test auf Varianzhomogenität zur Überprüfung der Voraussetzungen Varianzanalyse (siehe Sommersemester)
Last changeda year ago