Buffl

uncertainties for deep neural networks

ek
by enzo K.



was sagt byesian probability theory

wofür wird sie eingesetzt

wichtig hier die idee!

bennene bestandteile:



Die Idee hinter der Bayesschen Wahrscheinlichkeitstheorie ist, Unsicherheit durch Wahrscheinlichkeiten darzustellen und diese durch die Kombination von Vorwissen (Prior) und neuen Daten (Likelihood) zu aktualisieren. Dies erfolgt mittels des Bayes-Theorems, das die bedingte Wahrscheinlichkeit einer Hypothese basierend auf beobachteten Daten berechnet.


Geschichte dazu:

Du hast schon einige Verdächtige im Kopf. Der Bäcker erzählt dir, dass der Schokoladenliebhaber Karl häufig spät in der Nacht in der Nähe der Bäckerei gesehen wird. Daher denkst du, dass die Wahrscheinlichkeit, dass Karl der Dieb ist, ziemlich hoch ist. Das ist dein Vorwissen oder Prior.

Während deiner Ermittlungen findest du eine neue Spur: Fußabdrücke im Mehl, das aus der Bäckerei stammt. Du weißt, dass Karl große Füße hat, die zu den Abdrücken passen könnten. Das sind deine neuen Daten oder Likelihood.

Um nun deine Vermutung zu bestätigen oder zu widerlegen, kombinierst du dein Vorwissen mit den neuen Daten. Du überlegst dir: “Wenn Karl der Dieb ist (Prior), wie wahrscheinlich ist es, dass er diese Fußabdrücke hinterlässt (Likelihood)?”

Mit dieser Überlegung aktualisierst du deine Vermutung. Wenn die neuen Daten gut zu deiner ursprünglichen Annahme passen, bist du nun sicherer, dass Karl der Dieb ist. Wenn nicht, könnte jemand anderes der Dieb sein.

Durch die Kombination deines Vorwissens und der neuen Beweise kommst du zu einer fundierteren Schlussfolgerung. Du hast die Unsicherheit reduziert und bist näher daran, den Fall zu lösen.


Beschriftung: likelihood Prior

Evidence

Author

enzo K.

Information

Last changed