Satz. Seien \(X_1,\dots,X_n\) unabhängige Zufallsvariablen auf dem gleichen (diskreten) W-Raum. Dann
\[ E( X_1 \dots X_n ) = E(X_1)\dots E(X_n). \]
12. Vorlesung, 24. Oktober 2019
Satz. Seien \(X_1,\dots,X_n\) unabhängige Zufallsvariablen auf dem gleichen (diskreten) W-Raum. Dann
\[ E( X_1 \dots X_n ) = E(X_1)\dots E(X_n). \]
Definition/Satz (aus der letzten Vorlesung) Varianz einer Zufallsvariable \(X\) ist
\[ \mathop{\mathrm{Var}}X = E\big( (X-EX)^2\big) = E(X^2) - (EX)^2. \]
Beispiel. (Varianz der Bernoulli Verteilung) Sei \(X\) eine Bernoulliverteilte Zufallsvariable mit Paramenter \(p\in [0,1]\). Dann ist \(EX = p\) und \(\mathop{\mathrm{Var}}X = p(1-p)\).
Lemma. Sei \(X\) eine Zufallsvariable mit \(E(X^2) < \infty\) und \(a,b\in \mathbb R\). Dann ist \(\mathop{\mathrm{Var}}X < \infty\) und
\[\mathop{\mathrm{Var}}(aX+b) = a^2 \mathop{\mathrm{Var}}X. \]
Bemerkung. Die Varianz ist nicht lineare Funktion von \(X\).
Lemma/Definition. (Varianz der Summe) Seien \(X\), \(Y\) zwei Zufallsvariablen auf dem gleichen W-Raum mit \(E(X^2)<\infty\), \(E(Y^2)<\infty\). Dann ist
\[ \mathop{\mathrm{Var}}(X+Y) = \mathop{\mathrm{Var}}X + \mathop{\mathrm{Var}}Y + 2 \mathop{\mathrm{Cov}}(X,Y), \]
wobei die Kovarianz \(\mathop{\mathrm{Cov}}(X,Y)\) von den Zufallsvariablen \(X\), \(Y\) durch
\[\mathop{\mathrm{Cov}}(X,Y) = E\big( (X-EX)(Y-EY) \big) \in (-\infty,\infty).\]
definiert ist.
Definition. Wenn \(\mathop{\mathrm{Cov}}(X,Y)=0\), heissen die Zufallsvariablen \(X\) und \(Y\) unkorreliert.
Korollar. Für zwei unkorrelierte Zufallsvariablen \(X\), \(Y\) gilt
\[\mathop{\mathrm{Var}}(X+Y) = \mathop{\mathrm{Var}}(X) + \mathop{\mathrm{Var}}(Y). \]
Lemma. Wenn \(X\) und \(Y\) unabhängige Zufallsvariablen sind mit \(E(X^2)<\infty\), \(E(Y^2)<\infty\), dann sind sie auch unkorreliert und daher \(\mathop{\mathrm{Var}}(X+Y) = \mathop{\mathrm{Var}}(X) + \mathop{\mathrm{Var}}(Y)\).
Sei \(S\) eine binomialverteilte Zufallsvariable mit Parametern \(n\in \mathbb N\), \(p\in[0,1]\). Wir wissen, dass \(S = X_1+ \dots + X_n\), wobei \(X_1, \dots, X_n\) unabhängige Bernoulli\((p)\)-verteilte Zufallsvariablen sind. Daher
\[ E(S) = \sum_{i=1}^n E(X_i) = n p\]
und
\[ \mathop{\mathrm{Var}}X = \sum_{i=1}^n \mathop{\mathrm{Var}}(X_i) = n p(1-p). \]
Satz. (Ungleichung von Markov) Sei \(X\) eine nichtnegative Zufallsvariable (d.h. \(P(X\ge 0)=1\).) mit \(EX<\infty\). Dann, für alle \(a>0\)
\[ P(X\ge a) \le \frac 1 a EX. \]
Bemerkung. Die Ungleichung ist nur für \(a>EX\) interessant.
Satz. (Ungleichung von Chebyshev) Sei \(X\) eine Zufallsvariable mit \(E(X^2)<\infty\). Dann, für alle \(a>0\),
\[ P\big( |X-EX|\ge a) \le \frac 1 {a^2} \mathop{\mathrm{Var}}X. \]
Seien \(X_1,\dots,X_n\) unabhängig (oder nur unkorreliert) mit \(\mathop{\mathrm{Var}}X_i \le M<\infty\) für alle \(1\le i\le n\). Dann
\[ \mathop{\mathrm{Var}}(S_n) = \mathop{\mathrm{Var}}(X_1+\dots+X_n) =\mathop{\mathrm{Var}}X_1 + \dots + \mathop{\mathrm{Var}}X_n \le n M.\]
SATZ. Seien \(X_1,\dots,X_n\) unabhängige (oder nur unkorrelierte) Zufallsvariablen mit \(E X_i = \mu\) und \(\mathop{\mathrm{Var}}X_i = \sigma^2 <\infty\). Setze \(S_n = X_1 + \dots +X_n\). Dann, für alle \(\varepsilon>0\)
\[ P\Big(\Big| \frac 1n S_n - \mu \Big | \ge \varepsilon\Big) \le \frac{\sigma^2}{\varepsilon^2 n} \xrightarrow{n\to\infty} 0. \]