12. Vorlesung, 24. Oktober 2019

Zusammenfassung der 11. Vorlesung
Erwartungswert von unabhängigen ZV’n

Satz. Seien \(X_1,\dots,X_n\) unabhängige Zufallsvariablen auf dem gleichen (diskreten) W-Raum. Dann

\[ E( X_1 \dots X_n ) = E(X_1)\dots E(X_n). \]

Varianz

Definition/Satz (aus der letzten Vorlesung) Varianz einer Zufallsvariable \(X\) ist

\[ \mathop{\mathrm{Var}}X = E\big( (X-EX)^2\big) = E(X^2) - (EX)^2. \]

Beispiel. (Varianz der Bernoulli Verteilung) Sei \(X\) eine Bernoulliverteilte Zufallsvariable mit Paramenter \(p\in [0,1]\). Dann ist \(EX = p\) und \(\mathop{\mathrm{Var}}X = p(1-p)\).

Eigenschaften der Varianz

Lemma. Sei \(X\) eine Zufallsvariable mit \(E(X^2) < \infty\) und \(a,b\in \mathbb R\). Dann ist \(\mathop{\mathrm{Var}}X < \infty\) und

\[\mathop{\mathrm{Var}}(aX+b) = a^2 \mathop{\mathrm{Var}}X. \]

Bemerkung. Die Varianz ist nicht lineare Funktion von \(X\).

Lemma/Definition. (Varianz der Summe) Seien \(X\), \(Y\) zwei Zufallsvariablen auf dem gleichen W-Raum mit \(E(X^2)<\infty\), \(E(Y^2)<\infty\). Dann ist

\[ \mathop{\mathrm{Var}}(X+Y) = \mathop{\mathrm{Var}}X + \mathop{\mathrm{Var}}Y + 2 \mathop{\mathrm{Cov}}(X,Y), \]

wobei die Kovarianz \(\mathop{\mathrm{Cov}}(X,Y)\) von den Zufallsvariablen \(X\), \(Y\) durch

\[\mathop{\mathrm{Cov}}(X,Y) = E\big( (X-EX)(Y-EY) \big) \in (-\infty,\infty).\]

definiert ist.

Kovarianz und Unabhängigkeit

Definition. Wenn \(\mathop{\mathrm{Cov}}(X,Y)=0\), heissen die Zufallsvariablen \(X\) und \(Y\) unkorreliert.

Korollar. Für zwei unkorrelierte Zufallsvariablen \(X\), \(Y\) gilt

\[\mathop{\mathrm{Var}}(X+Y) = \mathop{\mathrm{Var}}(X) + \mathop{\mathrm{Var}}(Y). \]

Lemma. Wenn \(X\) und \(Y\) unabhängige Zufallsvariablen sind mit \(E(X^2)<\infty\), \(E(Y^2)<\infty\), dann sind sie auch unkorreliert und daher \(\mathop{\mathrm{Var}}(X+Y) = \mathop{\mathrm{Var}}(X) + \mathop{\mathrm{Var}}(Y)\).

Varianz der Binomialverteilung

Sei \(S\) eine binomialverteilte Zufallsvariable mit Parametern \(n\in \mathbb N\), \(p\in[0,1]\). Wir wissen, dass \(S = X_1+ \dots + X_n\), wobei \(X_1, \dots, X_n\) unabhängige Bernoulli\((p)\)-verteilte Zufallsvariablen sind. Daher

\[ E(S) = \sum_{i=1}^n E(X_i) = n p\]

und

\[ \mathop{\mathrm{Var}}X = \sum_{i=1}^n \mathop{\mathrm{Var}}(X_i) = n p(1-p). \]

Wichtige Ungleichungen

Satz. (Ungleichung von Markov) Sei \(X\) eine nichtnegative Zufallsvariable (d.h. \(P(X\ge 0)=1\).) mit \(EX<\infty\). Dann, für alle \(a>0\)

\[ P(X\ge a) \le \frac 1 a EX. \]

Bemerkung. Die Ungleichung ist nur für \(a>EX\) interessant.

Satz. (Ungleichung von Chebyshev) Sei \(X\) eine Zufallsvariable mit \(E(X^2)<\infty\). Dann, für alle \(a>0\),

\[ P\big( |X-EX|\ge a) \le \frac 1 {a^2} \mathop{\mathrm{Var}}X. \]

Beispiel

Seien \(X_1,\dots,X_n\) unabhängig (oder nur unkorreliert) mit \(\mathop{\mathrm{Var}}X_i \le M<\infty\) für alle \(1\le i\le n\). Dann

\[ \mathop{\mathrm{Var}}(S_n) = \mathop{\mathrm{Var}}(X_1+\dots+X_n) =\mathop{\mathrm{Var}}X_1 + \dots + \mathop{\mathrm{Var}}X_n \le n M.\]

Schwaches Gesetz der grossen Zahlen

SATZ. Seien \(X_1,\dots,X_n\) unabhängige (oder nur unkorrelierte) Zufallsvariablen mit \(E X_i = \mu\) und \(\mathop{\mathrm{Var}}X_i = \sigma^2 <\infty\). Setze \(S_n = X_1 + \dots +X_n\). Dann, für alle \(\varepsilon>0\)

\[ P\Big(\Big| \frac 1n S_n - \mu \Big | \ge \varepsilon\Big) \le \frac{\sigma^2}{\varepsilon^2 n} \xrightarrow{n\to\infty} 0. \]