Bayes-Statistik 1: Geschichte (4)
Geschichte: Bayes – Price – Laplace
• Entwicklung des Bayers-Theorems durch Thomas Bayes
(engl. Pastor, 1701 – 1761)
• Veröffentlichung posthum durch Richard Price (1763)
• Weiterentwicklung durch Pierre-Simon Laplace (1812)
• Kritik im 20. Jahrhundert
– Ronald Fisher und Neyman & Pearson entwickeln
den klassischen Null-Hypothesen-Signifikanztest
(NHST)
– Alle drei sind explizite Gegner des Bayesianischen
Ansatzes
• Verwendung des Bayestheorems durch britische und amerikanische Geheimdienste
im 2. Weltkrieg (z.B. Enigma)
• Weiterentwicklung seit den 1980er Jahren mit Verbreitung leistungsstarker Computer
• Im 21. Jahrhundert: Zunehmende Anwendung auch in der Psychologie
Bayesianische Kritik an der frequentistischen Statistik (3)
1) Die 𝐻0 ist immer falsch
– In einer kontinuierlichen Wahrscheinlichkeitsverteilung beträgt die
Wahrscheinlichkeit für einen bestimmten Wert immer 𝑝 𝑥 = 0
– Folglich ist auch die Wahrscheinlichkeit für 𝑝 𝛿 = 0 = 0
– Ein Test, der prüft ob die 𝐻0 zutrifft, ist daher sinnlos
2) Das Testergebnis hängt von der Stichprobengröße ab
– Bei kleinem N: Der Test ist nie signifikant
– Bei großem N: Der Test ist immer signifikant (weil die 𝐻0 immer falsch ist)
– Folglich testet der NHST nicht, ob ein Effekt existiert, sondern ob die Stichprobe
groß genug ist
3) Der p-Wert des NHST konvergiert nicht unter der 𝐻0
– Wenn in der Population die 𝐻0 gälte, hätten alle p-Werte von 0 bis 1 die gleiche
Wahrscheinlichkeit, unabhängig von der Stichprobengröße (Der Test ist nicht
konsistent)
– Bei fortgesetzter Datenerhebung kann immer ein signifikantes Ergebnis erreicht
werden
Das Theorem von Bayes (3)
• Umrechnung bedingter Wahrscheinlichkeiten nach dem Theorem von Bayes:
• Übertragen auf die Hypothesentestung:
• Zentraler Kritikpunkt an dem bayeschen Ansatz: Subjektive Ergebnisse, da eine prior Wahrscheinlichkeit (unabhängig von den Daten) festgelegt werden muss
Beispiel Interpretation von (medizinischen) Testergebnissen ()
• Wie kann man 𝑝 𝑇+ berechnen?
1. Fall: Krankheit liegt vor
• 2. Fall: Krankheit liegt NICHT vor
• 1. Fall oder 2. Fall ist gegeben
Wahrscheinlichkeit der Erkrankung bei positiven Testergebnis
• Die Wahrscheinlichkeit einer Erkrankung liegt nach einem positiven Testergebnis bei nur 0.6%!
Bayesian Updating (1)
• Wenn neue Daten vorliegen, kann die posterior Wahrscheinlichkeit nach Test 1 als neue prior Wahrscheinlichkeit verwendet werden
—> Bei zwei positiven Testergebnissen beträgt die Wahrscheinlichkeit einer Erkrankung nun etwa 3.4 Prozent
Multiple Hypothesen (3)
Multiple Hypothesen
• Beispiel: Ein Symptom passt zu 4 Krankheitsbildern (𝐾1 bis 𝐾4)
• Für jede Hypothese muss…
– eine Prior-Wahrscheinlichkeit (𝑝(𝐾𝑖)) angenommen werden
– eine Likelihood bekannt sein (𝑝(𝑆𝑦𝑚𝑝𝑡𝑜𝑚|𝐾𝑖)
• Tabellarische Berechnung (Zahlenbeispiel mit „uniformativem Prior“)
– Zähler des Bayes-Theorems: Prior x Likelihood
– Nenner des Bayes-Theorems: Die Spaltensumme (Pr x LH) ist die normalisierende Konstante
Informative vs. uniformative Prior (2)
• Zahlenbeispiel mit informativem Prior (z.B. gewichtet nach Prävalenzraten)
• Zwei konträre bayesianische Herangehensweisen:
– Position 1: Es sollten immer informative Prior verwendet werden, um das komplette Vorwissen eines Forscher zu Nutzen
—>„subjective Bayesian analysis“
– Position 2: Es sollten immer non-informative („objektive“, „default“) Prior verwendet werden, da die Ergebnisse nur von den aktuellen Daten abhängen sollte —>„objective Bayesian analysis“
– Je mehr Daten vorhanden sind, desto geringer ist der Einfluss des Priors!
Von diskreten Hypothesen zu kontinuierlichen Modellparametern (3)
• Statt Wahrscheinlichkeiten von diskreten Ereignissen können auch Wahrscheinlichkeitsverteilungen in das Bayestheorem eingesetzt werden
Elemente der Gleichung
Beispiel: Ein simples Modell für die Schlafdauer ()
• Daten: 𝑆 = 8.0, 7.5, … , 9.0 ; 𝑁 = 101
Parameterschätzung mit MCMC Verfahren ()
Parameterschätzung mit MCMC (Markow-Chain-Monte-Carlo-Verfahren) Verfahren
• Häufig wird die Posteriorverteilung der Modellparameter mit sogenannten MCMC Verfahren simuliert
• Jeder Schritt der MCMC-Kette stellt mögliche Parameterwerte dar
• Dabei entspricht die Verteilung der Parameterwerte (bei langen Ketten) der Posteriorverteilung
• Zur Schätzung von MCMC Ketten kann das Programm „stan“ (bzw. rstan) genutzt werden
• Prüfung der Ergebnisse
– Der Anfang einer Markow-Kette sollte nicht interpretiert werden („burn-in-phase“)
– Es muss geprüft werden, ob die Ketten „konvergieren“. Dazu vergleicht man, ob mehrere MCMC Ketten zur gleichen posterior Verteilung kommen
– Konvergenz kann auch mit der Rubin-Gelman Statistik geprüft werden: Übliches Kriterium:
Zusammenfassung- Bayes 1 ()
• Das Theorem von Bayes erlaubt die Umrechnung von bedingten Wahrscheinlichkeiten
• Die ermöglicht es zum Beispiel, die Wahrscheinlichkeit einer Erkrankung aus Sensitivität und Spezifität eines Tests zu berechnen
• Beim „Bayesian Updating“ werden die im letzten Schritt berechneten Posterior-Wahrscheinlichkeiten als neue Prior-Wahrscheinlichkeiten im nächsten Schritt verwendet
• Für eine Bayesianische Analyse muss immer eine a priori Wahrscheinlichkeit für ein Ereignis (eine Hypothese, etc.) angenommen werden
– Informative Prior nutzen Vorwissen des Forschers
– Bei uniformativen Priors hängt das Ergebnis (fast) nur von den aktuellen Daten ab
• Das Theorem von Bayes kann auch auf Wahrscheinlichkeitsverteilungen angewandt werden
– Es werden Posteriorverteilungen für alle Modellparameter geschätzt
– Dazu können MCMC Verfahren genutzt werden (z.B. stan)
– Wichtig ist es, die Konvergenz der MCMC Ketten zu prüfen
Ein Bayesianischer Hypothesentest (3)
• Eigenschaften des bayesianischen Hypothesentests
– Symmetrischer Test: Berücksichtigung von 𝐻0 und 𝐻1
– Konsistenz: Der Test soll bei großer Stichprobe immer konvergieren
– Quantitatives Ergebnis: Verzicht auf einen festen Cutoff
• Es werden immer zwei statistische Modelle verglichen (z.B. 𝐻0 und 𝐻1)
• Die Modelle unterscheiden sich in ihren Modellparametern
– Festsetzung auf einen bestimmten Wert
– Festsetzung durch eine Wahrscheinlichkeitsverteilung
Der Bayesfaktor (3)
Der Bayesfaktor
• Zum bayesianischen Modellvergleich kann der Bayesfaktor herangezogen werden
• Elemente der Gleichung
• Der Bayesfaktor gibt an, wie sich die die Odds für die Hypothesen aufgrund der Daten ändern
Marginal Likelihoods (3)
Marginal Likelihoods
• Die Likelihood gibt an, wie gut die Daten zu einem Modell passen
• Die Likelihoodfunktion gibt für die Daten eine Wahrscheinlichkeitsdichte an
– Beispiel t-Test: Die t-Verteilung gibt die Wahrscheinlichkeitsdichte für die beobachtete Mittelwertsdifferenz an
• Bei einem Modell mit freien Parametern hängt die Likelihoodfunktion von den Parameterwerten (𝜃) ab
– Beispiel: 𝐿 (𝐷|𝛿 = 0.0) ≠ 𝐿(𝐷|𝛿 = 0.5)
Zur Berechnung der marginal Likelihood wird die Likelihood für jeden möglichen Parameterwert eines Modells mit der Priorwahrscheinlichkeit für diesen Parameterwert gewichtet
Wertebereich des Bayesfaktors (2)
• Der Bayesfaktor hat einen Wertebereich von 0 bis unendlich
• Je größer 𝐵𝐹, desto mehr stützen die Daten das Modell im Zähler
• Bei der Interpretation des Bayesfaktors muss daher immer beachtet werden, welches Modell im Zähler des Bruchs steht
Interpretation des Bayesfaktors (3)
Bayesfaktor und Stichprobengröße ()
Bayesfaktor und Stichprobengröße
• Der Bayesfaktor ist konsistent
– Wenn die Daten besser zur 𝐻0 passen, konvergiert der 𝐵𝐹10 mit steigender
Stichprobengröße gegen 0
– Wenn die Daten besser zur 𝐻1 passen, konvergiert der 𝐵𝐹10 mit steigender
Stichprobengröße gegen unendlich
– 𝐵𝐹 ≈ 1: Nicht genügend Daten, um zwischen den Hypothesen zu entscheiden
Der Bayesianische t-Test (Rouder, 2009) (3)
Der Bayesianische t-Test (Rouder, 2009)
• Problem: Eine Wahrscheinlichkeitsverteilung für die Effektstärke der Alternativ-hypothese muss angenommen werden
– Diese Verteilung soll so objektiv wie möglich gewählt werden („default prior“)
– Lösung: Annahme einer Cauchyverteilung (t-Verteilung mit 𝑑𝑓 = 1) für mögliche Effektstärken unter der 𝐻1
• Auch unter der 𝐻1 wird für 𝛿 = 0 die höchste Wahrscheinlichkeitsdichte angenommen —>Dies ist unproblematisch, weil die Punkthypothese der 𝐻0 (𝛿 = 0)
bei kleinen empirischen Effektstärken immer die größere marginal Likelihood besitzt
Bayesianische Hypothesentests in R: t-test ()
Bayesianische Hypothesentests in R
• Im R-package 'BayesFactor' sind viele statistische Analysen implementiert
• Beispiel: Der bayesianische t-Test
– Fragestellung: Unterscheiden sich Singles von Personen mit fester Partnerschaft in ihrer Stimmung?
– 𝐵𝐹10 = 0.27 < 1Τ3
—>Moderate Evidenz für die 𝐻0 (—>kein Unterschied zwischen den Gruppen)
Bayesianische Hypothesentests in R: bayesianische Regression ()
• Beispiel: Die bayesianische Regression
– Fragestellung: Klären Extraversion, Sozialkontakte, Kontrollüberzeugung und
Erfolgserlebnisse Varianz der Lebenszufriedenheit auf?
– 𝐵𝐹10 = 1 450 157 > 100
—>Extreme Evidenz für die 𝐻1 (Es wird ein substantieller Anteil der Kriteriumsvarianz aufgeklärt)
Bayesianische Hypothesentests in R: bayesianische ANOVA ()
• Beispiel: Die bayesianische ANOVA
– Fragestellung: Unterscheiden sich Personen mit unterschiedlichen
Freizeitaktivitäten (Sport, Freunde, Medien, Entspannung) in ihrer Schlafdauer?
– 𝐵𝐹10 = 1.4 ≈ 1
—>Keine Evidenz (Die Daten passen ähnlich gut zu 𝐻0 und 𝐻1)
Zusammenfassung 2 (3)
Zusammenfassung 2
• Bayesianische Hypothesentests beruhen auf dem Bayesfaktor:
• Konventionen zur Interpretation
Bayesfaktoren für die 𝐻0:
• Der Bayesianische t-Test (Rouder, 2009) nimmt eine Cauchy-Verteilung der Effektstärke für die 𝐻1 an
• In R können Bayesfaktoren mit den Kommandos aus dem 'BayesFactor'Package
berechnet werden
– ttestBF(…)
– lmBF(…)
– anovaBF(…)
Last changed2 years ago