Bedingte Wahrscheinlichkeit
Definition
Die bedingte Wahrscheinlichkeit [math]\displaystyle{ P_B(A) }[/math] bzw. [math]\displaystyle{ P(A|B) }[/math] beschreibt die Wahrscheinlichkeit eines Ereignisses [math]\displaystyle{ A }[/math] unter der Voraussetzung, dass ein anderes Ereignis [math]\displaystyle{ B }[/math] bereits eingetreten ist. Wir sagen auch "Wahrscheinlichkeit von A unter der Bedingung B".
Es seien [math]\displaystyle{ A, B }[/math] Ereignisse mit [math]\displaystyle{ P(B)\gt 0) }[/math], dann gilt
- [math]\displaystyle{ P_B(A) = \frac{P(A \cap B)}{P(B)} }[/math]
Stochastische Unabhängigkeit
Zwei Ereignisse A und B heißen stochastisch unabhängig, wenn
- [math]\displaystyle{ P(A \cap B) = P(A) \cdot P(B) }[/math]
gilt.
Dies bedeutet, dass das Eintreten von B die Wahrscheinlichkeit von A nicht beeinflusst. Für bedingte Wahrscheinlichkeiten bei unabhängigen Ereignissen gilt [math]\displaystyle{ P_B(A) = P(A) }[/math] und [math]\displaystyle{ P_A(B) = P(B) }[/math].
Zusammenhang mit der Vierfeldertafel
Die Vierfeldertafel eignet sich besonders gut zur Veranschaulichung bedingter Wahrscheinlichkeiten und zur Überprüfung auf stochastische Unabhängigkeit:
[math]\displaystyle{ B }[/math] | [math]\displaystyle{ \bar{B} }[/math] | [math]\displaystyle{ \sum }[/math] | |
[math]\displaystyle{ A }[/math] | [math]\displaystyle{ a }[/math] | [math]\displaystyle{ b }[/math] | [math]\displaystyle{ a+b }[/math] |
[math]\displaystyle{ \bar{A} }[/math] | [math]\displaystyle{ c }[/math] | [math]\displaystyle{ d }[/math] | [math]\displaystyle{ c+d }[/math] |
[math]\displaystyle{ \sum }[/math] | [math]\displaystyle{ a+c }[/math] | [math]\displaystyle{ b+d }[/math] | 1 |
Die bedingte Wahrscheinlichkeit [math]\displaystyle{ P_B(A) }[/math] lässt sich dann durch [math]\displaystyle{ P_B(A) = \frac{a}{a+c} }[/math] berechnen.
Beispiele
Medizinischer Test (mit Vierfeldertafel)
Fortsetzung des Beispiels aus der Vierfeldertafel:
- Sensitivität [math]\displaystyle{ P_K(T) = 0,95 }[/math]
- Spezifität [math]\displaystyle{ P_{\bar{K}}(\bar{T}) = 0,90 }[/math]
- Prävalenz [math]\displaystyle{ P(K) = 0,02 }[/math]
Die Wahrscheinlichkeit krank zu sein bei positivem Test ist eine bedingte Wahrscheinlichkeit:
- [math]\displaystyle{ P_T(K) = \frac{P(K \cap T)}{P(T)} = \frac{0,019}{0,117} \approx 16,2\% }[/math]
Würfelbeispiel zur stochastischen Unabhängigkeit
Betrachtet man zwei Ereignisse beim Würfeln:
- A: "Gerade Zahl" = {2,4,6} → [math]\displaystyle{ P(A) = 0,5 }[/math]
- B: "Zahl > 3" = {4,5,6} → [math]\displaystyle{ P(B) = 0,5 }[/math]
Schnittmenge: [math]\displaystyle{ A \cap B }[/math] = {4,6} → [math]\displaystyle{ P(A \cap B) = \frac{2}{6} \approx 0,333 }[/math]
Da [math]\displaystyle{ P(A) \cdot P(B) = 0,25 \neq 0,333 }[/math], sind die Ereignisse nicht stochastisch unabhängig.
Die bedingte Wahrscheinlichkeit: [math]\displaystyle{ P_B(A) = \frac{P(A \cap B)}{P(B)} = \frac{0,333}{0,5} \approx 0,666 }[/math]
Münzwurfbeispiel zur stochastischen Unabhängigkeit
Bei zwei Münzwürfen:
- A: "Erster Wurf Kopf" → [math]\displaystyle{ P(A) = 0,5 }[/math]
- B: "Zweiter Wurf Zahl" → [math]\displaystyle{ P(B) = 0,5 }[/math]
Da die Würfe unabhängig sind: [math]\displaystyle{ P(A \cap B) = 0,25 = P(A) \cdot P(B) }[/math]
Die bedingte Wahrscheinlichkeit: [math]\displaystyle{ P_B(A) = \frac{0,25}{0,5} = 0,5 = P(A) }[/math] (wie erwartet bei stochastischer Unabhängigkeit)