Bedingte Wahrscheinlichkeit: Unterschied zwischen den Versionen
Die Seite wurde neu angelegt: „ == Definition == Die '''bedingte Wahrscheinlichkeit''' <math>P_B(A)</math> bzw. <math>P(A|B)</math> beschreibt die Wahrscheinlichkeit eines Ereignisses <math>A</math> unter der Voraussetzung, dass ein anderes Ereignis <math>B</math> bereits eingetreten ist. Wir sagen auch "Wahrscheinlichkeit von A unter der Bedingung B". Es seien <math>A, B</math> Ereignisse mit <math>P(B)>0)</math>, dann gilt :<math>P_B(A) = \frac{P(A \c…“ |
Keine Bearbeitungszusammenfassung |
||
Zeile 29: | Zeile 29: | ||
<math>P_B(A) = \frac{a}{a+c}</math> berechnen. | <math>P_B(A) = \frac{a}{a+c}</math> berechnen. | ||
== Satz von Bayes == | |||
Es seien <math>A, B</math> Ereignisse mit <math>P(B) > 0</math>. Die Wahrscheinlichkeiten <math>P_A(B)</math>, <math>P(A)</math> und <math>P(B)</math> seien gegeben. Die Wahrscheinlichkeit von <math>A</math> unter der Bedingung <math>B</math> wird dann durch | |||
:<math>P_B(A) = \frac{P_A(B) \cdot P(A)}{P(B)}</math> | |||
berechnet. | |||
== Beispiele == | == Beispiele == | ||
Version vom 13. Juni 2025, 07:36 Uhr
Definition
Die bedingte Wahrscheinlichkeit [math]\displaystyle{ P_B(A) }[/math] bzw. [math]\displaystyle{ P(A|B) }[/math] beschreibt die Wahrscheinlichkeit eines Ereignisses [math]\displaystyle{ A }[/math] unter der Voraussetzung, dass ein anderes Ereignis [math]\displaystyle{ B }[/math] bereits eingetreten ist. Wir sagen auch "Wahrscheinlichkeit von A unter der Bedingung B".
Es seien [math]\displaystyle{ A, B }[/math] Ereignisse mit [math]\displaystyle{ P(B)\gt 0) }[/math], dann gilt
- [math]\displaystyle{ P_B(A) = \frac{P(A \cap B)}{P(B)} }[/math]
Stochastische Unabhängigkeit
Zwei Ereignisse A und B heißen stochastisch unabhängig, wenn
- [math]\displaystyle{ P(A \cap B) = P(A) \cdot P(B) }[/math]
gilt.
Dies bedeutet, dass das Eintreten von B die Wahrscheinlichkeit von A nicht beeinflusst. Für bedingte Wahrscheinlichkeiten bei unabhängigen Ereignissen gilt [math]\displaystyle{ P_B(A) = P(A) }[/math] und [math]\displaystyle{ P_A(B) = P(B) }[/math].
Zusammenhang mit der Vierfeldertafel
Die Vierfeldertafel eignet sich besonders gut zur Veranschaulichung bedingter Wahrscheinlichkeiten und zur Überprüfung auf stochastische Unabhängigkeit:
[math]\displaystyle{ B }[/math] | [math]\displaystyle{ \bar{B} }[/math] | [math]\displaystyle{ \sum }[/math] | |
[math]\displaystyle{ A }[/math] | [math]\displaystyle{ a }[/math] | [math]\displaystyle{ b }[/math] | [math]\displaystyle{ a+b }[/math] |
[math]\displaystyle{ \bar{A} }[/math] | [math]\displaystyle{ c }[/math] | [math]\displaystyle{ d }[/math] | [math]\displaystyle{ c+d }[/math] |
[math]\displaystyle{ \sum }[/math] | [math]\displaystyle{ a+c }[/math] | [math]\displaystyle{ b+d }[/math] | 1 |
Die bedingte Wahrscheinlichkeit [math]\displaystyle{ P_B(A) }[/math] lässt sich dann durch [math]\displaystyle{ P_B(A) = \frac{a}{a+c} }[/math] berechnen.
Satz von Bayes
Es seien [math]\displaystyle{ A, B }[/math] Ereignisse mit [math]\displaystyle{ P(B) \gt 0 }[/math]. Die Wahrscheinlichkeiten [math]\displaystyle{ P_A(B) }[/math], [math]\displaystyle{ P(A) }[/math] und [math]\displaystyle{ P(B) }[/math] seien gegeben. Die Wahrscheinlichkeit von [math]\displaystyle{ A }[/math] unter der Bedingung [math]\displaystyle{ B }[/math] wird dann durch
- [math]\displaystyle{ P_B(A) = \frac{P_A(B) \cdot P(A)}{P(B)} }[/math]
berechnet.
Beispiele
Medizinischer Test (mit Vierfeldertafel)
Fortsetzung des Beispiels aus der Vierfeldertafel:
- Sensitivität [math]\displaystyle{ P_K(T) = 0,95 }[/math]
- Spezifität [math]\displaystyle{ P_{\bar{K}}(\bar{T}) = 0,90 }[/math]
- Prävalenz [math]\displaystyle{ P(K) = 0,02 }[/math]
Die Wahrscheinlichkeit krank zu sein bei positivem Test ist eine bedingte Wahrscheinlichkeit:
- [math]\displaystyle{ P_T(K) = \frac{P(K \cap T)}{P(T)} = \frac{0,019}{0,117} \approx 16,2\% }[/math]
Würfelbeispiel zur stochastischen Unabhängigkeit
Betrachtet man zwei Ereignisse beim Würfeln:
- A: "Gerade Zahl" = {2,4,6} → [math]\displaystyle{ P(A) = 0,5 }[/math]
- B: "Zahl > 3" = {4,5,6} → [math]\displaystyle{ P(B) = 0,5 }[/math]
Schnittmenge: [math]\displaystyle{ A \cap B }[/math] = {4,6} → [math]\displaystyle{ P(A \cap B) = \frac{2}{6} \approx 0,333 }[/math]
Da [math]\displaystyle{ P(A) \cdot P(B) = 0,25 \neq 0,333 }[/math], sind die Ereignisse nicht stochastisch unabhängig.
Die bedingte Wahrscheinlichkeit: [math]\displaystyle{ P_B(A) = \frac{P(A \cap B)}{P(B)} = \frac{0,333}{0,5} \approx 0,666 }[/math]
Münzwurfbeispiel zur stochastischen Unabhängigkeit
Bei zwei Münzwürfen:
- A: "Erster Wurf Kopf" → [math]\displaystyle{ P(A) = 0,5 }[/math]
- B: "Zweiter Wurf Zahl" → [math]\displaystyle{ P(B) = 0,5 }[/math]
Da die Würfe unabhängig sind: [math]\displaystyle{ P(A \cap B) = 0,25 = P(A) \cdot P(B) }[/math]
Die bedingte Wahrscheinlichkeit: [math]\displaystyle{ P_B(A) = \frac{0,25}{0,5} = 0,5 = P(A) }[/math] (wie erwartet bei stochastischer Unabhängigkeit)