Skip to Content

Large Samples

Law of Large Numbers

Monte-Carlo Integration

Convergent Distributions

Central Limit Theorem

Moiver-Laplace Theorem

Gesetz der grossen Zahlen

Wir wissen wenn wir eine Zufallsvariable \(X_i\) mit einer Bernoulli Verteilung haben also \(X_i \sim B(p)\) dann ist \(\sum_{i=1}^{n}{X_i} \sim Bin(n,p)\). Die relative Häufigkeit ist wie wir wissen die Anzahl des Eintreffen eines Ereignis \(X\) durch die anzahl unabhängige Ausführungen des Experiments \(n\) dann gilt folgendes

math\lim_{n \to \infty}{P(|\frac{X}{n} - p| \geq e)} = 0

Was so viel heisst wie wenn desto mehr unabhängige Experimente wir ausführen desto besser stabilisiert sich die relative Häufigkeit um den Erwartungswert.

Mehr dazu findest du hier

Zentraler Grenzwertsatz

Der zentrale Grenzwertsatz liefert die Begründung für das Phänomen, dass sich bei der additiven Überlagerung vieler kleiner unabhängiger Zufallsexperiment approximativ zu einer Normalverteilung wird.

Wenn wir also eine Folge von unabhängigen Zufallsvariablen \(X_1,X_2,...\)vom gleichen Wahrscheinlichkeitsraum haben welche alle dieselbe Verteilung mit Erwartungswert \(\mu\) und Varianz \(\sigma^2\) haben dann gilt für \(n\) die Anzahl Zufallsvariablen und die Summe \(S_n=X_1+...+X_n\). Dann hat die Summe approximative die Normalverteilung \(N(\mu n, \sigma n)\) wobei \(\mu n = n \cdot \mu\) und \(\sigma n = \sqrt{n} \cdot \sigma\).

Diese Verteilung kann dann natürlich auch noch standardisiert werden.

math\frac{S_n -\mu n}{\sqrt{n}\cdot \sigma}\sim N(0,1)

Satz von Moivre-Laplace

Weil eine Binomialverteilte Zufallsvariable \(X \sim Bin(n,p)\) als Summe von \(n\) Bernoulliverteilte Zufallsvariablen interpretiert werden kann und wir sie mit der Normalverteilung annähern können mit \(N(np, \sqrt{np(1-p)})\) können wir ein paar Approximationen machen. Wobei \(normcdf(x)\) die Verteilungsfunktion der standardisierten Normalverteilung ist.

Mit dem Satz können wir für \(n > \frac{9}{p(1-p)}\) folgendes gut approximieren

mathP(a \leq X \leq b) \approx normcdf(\frac{b-np}{\sqrt{np(1-p)}})-normcdf(\frac{a-np}{\sqrt{np(1-p)}})

Genauer wird es dann mit der Stetigkeitskorrektur

mathP(a \leq X \leq b) \approx normcdf(\frac{b+\frac{1}{2}-np}{\sqrt{np(1-p)}})-normcdf(\frac{a-\frac{1}{2}-np}{\sqrt{np(1-p)}})

:::note Beispiel Satz von Moivre-Laplace

Ein fairer Würfel wirf 1000 mal geworfen. Wie hoch ist die Wahrscheinlichkeit, dass wir zwischen 150 und 200 sechs würfeln?

Genau:

mathbinocdf(200,1000,1/6)-bincdf(149,1000,1/6)=0.9265

Mit Satz von Moivre-Laplace:

mathnormcdf(\frac{200+\frac{1}{2}-\frac{1000}{6}}{\sqrt{1000\cdot \frac{5}{36}}}) - normcdf(\frac{150-\frac{1}{2}-\frac{1000}{6}}{\sqrt{1000\cdot \frac{5}{36}}})=0.9253

:::

Last updated on