Ein Theorem der Wahrscheinlichkeitstheorie zur Berechnung bedingter Wahrscheinlichkeiten, benannt nach dem englischen Mathematiker Thomas Bayes.
Das Bayes-Theorem beschreibt wie absolute und bedingte Wahrscheinlichkeiten zweier Ereignisse sich zueinander verhalten.
Hierin ergibt sich die bedingte Wahrscheinlichkeit von 𝑨 unter der Voraussetzung, dass 𝑩 eingetreten ist. Hierfür müssen die bedingte Wahrscheinlichkeit von 𝑩 unter der Voraussetzung, dass 𝑨 eingetreten ist, sowie die absoluten (a-priori) Wahrscheinlichkeiten von 𝑨 und 𝑩 bekannt sein.
Darin ist:
Alle Wahrscheinlichkeiten werden als Fließkommazahl zwischen 0
(sehr unwahrscheinlich) und 1
(sehr wahrscheinlich) in die Berechnung übernommen. Für eine Wahrscheinlichkeit von 50 % wird also 0,5 eingefügt.
Die einzige Einschränkung dabei ist, dass 𝑷 ( 𝐵 ) nicht genau 0
sein darf (siehe: Division durch Null)
Das Bayes-Theorem hat sich als einer der wichtigsten Kernsätze der Wahrscheinlichkeitsrechnung erwiesen für den es zahlreiche Anwendungsfälle in Statistik (siehe Bayessche Statistik) und darüber hinaus gibt.