8. Vorlesung, 10. Oktober 2019

Zusammenfassung der 7. Vorlesung
Bedingte Erwartungswert

Die Abbildung die zu jedem Ereignis \(A\) die bedingte W-Keit \(P(A|B)\) assoziiert,

\[ A \mapsto P(A|B) \]

ein neues W-Mass ist. Sie hat daher alle bekannte Eigenschaften des W-Masses:

  • \(P(\Omega|B) =1\)
  • \(P(A^c|B) = 1- P(A|B)\)
  • \(P(\bigcup_{i\ge 1}A_i|B) = \sum_{i\ge 1} P(A_i|B)\) für \(A_i\) disjunkt.
  • \(P(A\cup C| B) = P(A|B) + P(C|B) - P(A\cap C|B)\), usw.

Achtung: Diese Regeln gelten nur in dem ersten Argument, z.B. \(P(A|B^c)\neq 1-P(A|B)\).

Bedingter Erwartungswert

Weil \(A\mapsto P(A|B)\) kann man den entsprechenden Erwartungswert definieren:

Definition. Sei \(X\) eine Zufallsvariable auf \((\Omega, \mathcal A, P)\) und \(B\in \mathcal A\) mit \(P(B)>0\). Der bedingte Erwartungswert von \(X\) gegeben \(B\) ist:

\[E(X|B) = \sum_{\omega\in \Omega} X(\omega) P(\{\omega\}|B),\]

wenn die Summe wohldefiniert ist.

Der bedingte Erwartungswert hat alle eigenschaften des Erwartungswerts:

  • Monotonie: \(E(X|B) \le E(Y|B)\) falls \(X\le Y\)
  • Linearität: \(E(aX + bY|B) = aE(X|B) + bE(Y|B)\) für \(a,b\in \mathbb R\) und ZVn \(X\), \(Y\)

Andere Formeln für bedingten Erwartungswert

Lemma. Für \(X\) und \(B\) wie oben gilt:

\[ E(X|B) = \frac{E(\boldsymbol 1_B X)}{P(B)} = \sum_{x\in \Omega_X} x P(\{\omega: X(\omega)= x\}|B).\]

Die letzte Formel wir mit \(\sum_{x\in \Omega_X} x P(X=x|B)\) abgekürzt.

Beispiel. (zwei Würfel) In der Vorlesung haben wir gesehen, das \(E(S|\{X_1=1\})=9/2\).

Unabhängigkeit

Unabhängigkeit ist einer der wichtigsten Konzepte der W-Theorie. Sie formalisiert die Vorstellung, dass sich zwei Ereignisse nicht beeinflussen.

Definition. Zwei Ereignisse \(A,B\) auf dem gleichen W-Raum \((\Omega, \mathcal A, P)\) heissen unabhängig falls

\[ P(A\cap B) = P(A) P(B).\]

Bemerkungen.

  • Falls \(P(B) >0\) sind A und B unabhängig genau dann, wenn \(P(A) = P(A|B)\), d.h. das Eintreten von \(B\) beeinflusst nicht die W-Keit des Eintretens von \(A\).

  • Unabhängigkeit ist eine Eigenschaft von \(A\), \(B\) aber auch von dem Mass \(P\).

Unabhängigkeit von mehreren Ereignissen

Definition. Eine Kollektion \((A_i)_{i\in I}\) heisst unabhängig falls

\[ P(\bigcap_{i\in J} A_i) = \prod_{i\in J} P(A_i),\]

für alle endliche Teilmengen \(J\subset I\).

Beispiel

Z.B. die Unabhängigkeit von drei Ereignissen \(A\), \(B\), \(C\) bedeutet, dass \(P(A\cap B) = P(A\cap B)\), \(P(A\cap C)= P(A)P(C)\), \(P(B\cap C) = P(B)P(C)\) und \(P(A\cap B\cap C) =P(A)P(B)P(C)\).

Beispiel. (zwei faire Münzen) Wir haben gesehen, dass die Ereignisse

  • die erste Münze zeigt Kopf
  • die zweite Münze zeigt Kopf
  • die beide Münzen zeigen unterschiedliches Zeichen

die erste drei Bedingungen erfüllen (man sagt sie sind paarweise unabhängig), aber die letzte Bedingung ist nicht erfüllt, d.h. sie sind nicht unabhängig.

Eigenschaften der Unabhängigkeit

Satz. Wenn \(A\) und \(B\) zwei unabhängige Ereignisse sind, dann sind auch \(A\) und \(B^c\), \(A^c\) und \(B\), und \(A^c\) und \(B^c\) unabhängig.

Beweis. Für \(A\) und \(B^c\): Wegen der Additivität von \(P\) und Unabhängigkeit von \(A\), \(B\)

\[ P(A\cap B^c) = P(A) - P(A\cap B) \\ = P(A) - P(A)P(B) \\= P(A) (1-P(B))\\=P(A)P(B^c).\]

Eigenschaften der Unabhängigkeit

Ähnliches Satz gilt für mehrere Ereignisse:

Satz. Sei \((A_i)_{i\in I}\) eine unabhängige Kollektion von Ereignissen. Für jedes \(i\in I\), sei \(B_i = A_i\) oder \(B_i=A_i^c\). Dann ist auch die Kollektion \((B_i)_{i\in I}\) unabhängig.