Bedingte Wahrscheinlichkeit

Aus FLBK-Wiki
Zur Navigation springen Zur Suche springen

Definition

Die bedingte Wahrscheinlichkeit [math]\displaystyle{ P_B(A) }[/math] bzw. [math]\displaystyle{ P(A|B) }[/math] beschreibt die Wahrscheinlichkeit eines Ereignisses [math]\displaystyle{ A }[/math] unter der Voraussetzung, dass ein anderes Ereignis [math]\displaystyle{ B }[/math] bereits eingetreten ist. Wir sagen auch "Wahrscheinlichkeit von A unter der Bedingung B".

Es seien [math]\displaystyle{ A, B }[/math] Ereignisse mit [math]\displaystyle{ P(B)\gt 0) }[/math], dann gilt

[math]\displaystyle{ P_B(A) = \frac{P(A \cap B)}{P(B)} }[/math]

Stochastische Unabhängigkeit

Zwei Ereignisse A und B heißen stochastisch unabhängig, wenn

[math]\displaystyle{ P(A \cap B) = P(A) \cdot P(B) }[/math]

gilt.

Dies bedeutet, dass das Eintreten von B die Wahrscheinlichkeit von A nicht beeinflusst. Für bedingte Wahrscheinlichkeiten bei unabhängigen Ereignissen gilt [math]\displaystyle{ P_B(A) = P(A) }[/math] und [math]\displaystyle{ P_A(B) = P(B) }[/math].

Zusammenhang mit der Vierfeldertafel

Die Vierfeldertafel eignet sich besonders gut zur Veranschaulichung bedingter Wahrscheinlichkeiten und zur Überprüfung auf stochastische Unabhängigkeit:

[math]\displaystyle{ B }[/math] [math]\displaystyle{ \bar{B} }[/math] [math]\displaystyle{ \sum }[/math]
[math]\displaystyle{ A }[/math] [math]\displaystyle{ a }[/math] [math]\displaystyle{ b }[/math] [math]\displaystyle{ a+b }[/math]
[math]\displaystyle{ \bar{A} }[/math] [math]\displaystyle{ c }[/math] [math]\displaystyle{ d }[/math] [math]\displaystyle{ c+d }[/math]
[math]\displaystyle{ \sum }[/math] [math]\displaystyle{ a+c }[/math] [math]\displaystyle{ b+d }[/math] 1

Die bedingte Wahrscheinlichkeit [math]\displaystyle{ P_B(A) }[/math] lässt sich dann durch [math]\displaystyle{ P_B(A) = \frac{a}{a+c} }[/math] berechnen.

Beispiele

Medizinischer Test (mit Vierfeldertafel)

Fortsetzung des Beispiels aus der Vierfeldertafel:

  • Sensitivität [math]\displaystyle{ P_K(T) = 0,95 }[/math]
  • Spezifität [math]\displaystyle{ P_{\bar{K}}(\bar{T}) = 0,90 }[/math]
  • Prävalenz [math]\displaystyle{ P(K) = 0,02 }[/math]

Die Wahrscheinlichkeit krank zu sein bei positivem Test ist eine bedingte Wahrscheinlichkeit:

[math]\displaystyle{ P_T(K) = \frac{P(K \cap T)}{P(T)} = \frac{0,019}{0,117} \approx 16,2\% }[/math]

Würfelbeispiel zur stochastischen Unabhängigkeit

Betrachtet man zwei Ereignisse beim Würfeln:

  • A: "Gerade Zahl" = {2,4,6} → [math]\displaystyle{ P(A) = 0,5 }[/math]
  • B: "Zahl > 3" = {4,5,6} → [math]\displaystyle{ P(B) = 0,5 }[/math]

Schnittmenge: [math]\displaystyle{ A \cap B }[/math] = {4,6} → [math]\displaystyle{ P(A \cap B) = \frac{2}{6} \approx 0,333 }[/math]

Da [math]\displaystyle{ P(A) \cdot P(B) = 0,25 \neq 0,333 }[/math], sind die Ereignisse nicht stochastisch unabhängig.

Die bedingte Wahrscheinlichkeit: [math]\displaystyle{ P_B(A) = \frac{P(A \cap B)}{P(B)} = \frac{0,333}{0,5} \approx 0,666 }[/math]

Münzwurfbeispiel zur stochastischen Unabhängigkeit

Bei zwei Münzwürfen:

  • A: "Erster Wurf Kopf" → [math]\displaystyle{ P(A) = 0,5 }[/math]
  • B: "Zweiter Wurf Zahl" → [math]\displaystyle{ P(B) = 0,5 }[/math]

Da die Würfe unabhängig sind: [math]\displaystyle{ P(A \cap B) = 0,25 = P(A) \cdot P(B) }[/math]

Die bedingte Wahrscheinlichkeit: [math]\displaystyle{ P_B(A) = \frac{0,25}{0,5} = 0,5 = P(A) }[/math] (wie erwartet bei stochastischer Unabhängigkeit)