Unabhängigkeit
Würfeln wir zweimal hintereinander, so ist das Eintreten einer 6 im zweiten Wurf unabhängig vom Ergebnis des ersten Wurfs, und speziell ist die Wahrscheinlichkeit, im zweiten Wurf eine 6 zu würfeln, immer noch gleich 1/6, auch wenn bereits im ersten Wurf eine 6 gewürfelt wurde. Allgemein ist die Wahrscheinlichkeit, im ersten Wurf a1 und dann im zweiten Wurf a2 zu würfeln, gleich dem Produkt der Einzelwahrscheinlichkeiten, also gleich 1/6 · 1/6 = 1/36. Wir definieren nun „Unabhängigkeit“ über diese Produktregel:
Definition (unabhängige Ereignisse)
Sei (A, μ) ein Wahrscheinlichkeitsraum. Zwei Ereignisse B, C ⊆ A heißen unabhängig (unter oder bei μ), falls gilt:
μ(B ∩ C) = μ(B) · μ(C).
Sei z. B. n ≥ 2 und μ die Gleichverteilung auf A = { 1, …, 6 }n, d. h. wir modellieren den n-fachen Wurf eines Würfels. Dann sind alle Ereignisse B und C, die nur mit Hilfe zweier verschiedener Indizes i und j aus { 1, …, n } definiert sind, unabhängig voneinander. Denn seien
B = { (a1, …, an) ∈ A | ℰ(ai) },
C = { (a1, …, an) ∈ A | ℱ(aj) },
für gewisse Eigenschaften ℰ und ℱ und 1 ≤ i, j ≤ n mit i ≠ j. Wir setzen:
k0 = „die Anzahl aller 1 ≤ w ≤ 6 mit ℰ(w)“,
k1 = „die Anzahl aller 1 ≤ w ≤ 6 mit ℱ(w)“.
Dann hat die Menge B genau k0 · 6n − 1 viele, die Menge C genau k1 · 6n − 1 und die Menge B ∩ C = { (a1, …, an) ∈ A | ℰ(ai) und ℱ(aj) } wegen i ≠ j genau k0 · k1 · 6n − 2 viele Elemente. Da μ die Gleichverteilung auf { 1, …, 6 }n ist, gilt also
μ(B ∩ C) = (k0 k1)/62 = k0/6 · k1/6 = μ(B) · μ(C).
Dieses Ergebnis entspricht unserer Intuition, dass sich der i-te und der j-te Wurf des Würfels in keiner Weise gegenseitig beeinflussen.
Wir betrachten die Unabhängigkeit zweier Ereignisse noch unter einem etwas anderen Blickwinkel. Modellieren wir ein Zufallsexperiment durch einen Wahrscheinlichkeitsraum (A, μ) und erhalten wir die Information, dass ein Ereignis B eingetreten ist, so verändert diese Information unser Maß μ. Ist beim Wurf eines Würfels B = { 2, 4, 6 }, so arbeiten wir fortan mit der Verteilung ν(1) = ν(3) = ν(5) = 0, ν(2) = ν(4) = ν(6) = 1/3 der Eins, und nicht mehr mit der Gleichverteilung. (Bei dieser Betrachtung ist die Interpretation von Wahrscheinlichkeiten als Maß unserer Ignoranz besonders bestechend.) Allgemein definieren wir:
Definition (bedingte Wahrscheinlichkeit)
Sei (A, μ) ein Wahrscheinlichkeitsraum. Dann heißt für alle B, C ⊆ A mit μ(B) ≠ 0 der Wert
μB(C) = μ(B ∩ C)/μ(B)
die bedingte Wahrscheinlichkeit von C gegeben B.
Zwei Ereignisse B und C mit μ(B) ≠ 0 sind damit genau dann unabhängig, wenn die Information, dass das Ereignis B eingetreten ist, an der Wahrscheinlichkeit von C nichts ändert, d. h. falls die bedingte Wahrscheinlichkeit von C gegeben B gleich μ(C) ist.
Allgemeiner definieren wir nun noch die Unabhängigkeit einer Folge von Ereignissen:
Definition (unabhängige Folgen)
Sei (A, μ) ein Wahrscheinlichkeitsraum. Eine Folge 〈 Ai | i ∈ I 〉 in ℘(A) heißt unabhängig (unter μ), falls für alle endlichen J ⊆ I mit J ≠ ∅ gilt:
μ(⋂j ∈ J Aj) = Πj ∈ J μ(Aj).
Es genügt hier nicht zu fordern, dass μ(Ai ∩ Aj) = μ(Ai) · μ(Aj) für alle i < j gilt. Sei hierzu μ die Gleichverteilung auf A = { 0, 1 } × { 0, 1 }. Wir betrachten
B = { (0, 0), (0, 1) }, C = { (0, 0), (1, 0) }, D = { (0, 1), (1, 0) }.
Dann sind je zwei Elemente von 𝒜 = { B, C, D } unabhängig, während das System 𝒜 selbst nicht unabhängig ist:
μ(B ∩ C) = μ(B ∩ D) = μ(C ∩ D) = 1/4 = μ(B) μ(C) = μ(C) μ(D) = μ(B) μ(D),
μ(B ∩ C ∩ D) = μ(∅) = 0 ≠ 1/8 = μ(B) μ(C) μ(D).