Absolute Häufigkeit und relative Häufigkeit

Die Absolute Häufigkeit \(H_{n}(E)\) gibt die Anzahl an, mit der ein Ereignis \(E\) bei \(n\)-maliger Durchführung eines Zufallsexperiments eintritt.

Die relative Häufigkeit \(h_{n}(E)\) bezieht die Anzahl, mit der ein Ereignis \(E\) bei \(n\)-maliger Durchführung eines Zufallsexperiments eintritt, auf die Anzahl \(n\) der Versuche.

 

Relative Häufigkeit eines Ereignisses \(\boldsymbol{E}\)

\[h_{n}(E) = \frac{H_{n}(E)}{n}\]

\(H_{n}(E)\): Anzahl mit der das Ereignis \(E\) entritt.

\(n\): Anzahl der Durchführungen des Zufallsexperiments.

 

 

Eigenschaften der relativen Häufigkeiten von zufälligen Ereignissen

Die relative Häufigkeit \(h_{n}(E)\) eines Ereignisses \(E\) ist das Ergebnis eines Zufallsexperiments und hängt somit selbst vom Zufall ab.

Bei einem ausreichend oft wiederholten Zufallsexperiment mit dem Ergebnisraum \(\Omega\) genügen die relativen Häufigkeiten von Ereignissen folgenden Gesetzmäßigkeiten (\(n\): Anzahl der Versuche):

 

\[0 \leq h_{n}(E) \leq 1\]

\[h_{n}(\Omega) = 1\]

\[h_{n}(\{\,\}) = 0\]

 

Jedes Ereignis \(E\) und dessen Gegenereignis \(\overline{E}\) ergänzen sich stets zum sicheren Ereignis \(\Omega\). Daraus ergibt sich:

 

\[h_{n}(E) + h_{n}(\overline{E}) = 1 \quad \Longleftrightarrow \quad h_{n}(\overline{E}) = 1 - h_{n}(E)\]

 

Die relative Häufigkeit \(h_{n}(E)\) eines Ereignisses \(E\) ist gleich der Summe der relativen Häufigkeiten \(h_{n}(\{\omega_{i}\})\) der Ergebnisse \(\omega_{1}, \omega_{2}, ..., \omega_{k}\), die das Ereignis \(E\) beschreiben.

 

\[h_{n}(E) = h_{n}(\{\omega_{1}\}) + h_{n}(\{\omega_{2}\}) + \dots + h_{n}(\{\omega{k}\}) = \sum \limits_{i \, = \, 1}^{k} h_{n}(\{\omega_{i}\})\]

 

Additionssatz der relativen Häufigkeiten:

 

\[h_{n}(A \cup B) = h_{n}(A) + h_{n}(B) - h_{n}(A \cap B)\]

 

Im Falle der Unvereinbarkeit \(A \cap B = \{\,\}\) zweier Ereignisse \(A\) und \(B\) gilt:

 

\[h_{n}(A \cup B) = h_{n}(A) + h_{n}(B)\]

 

Die relative Häufigkeit \(h_{n}(E)\) eines Ereignisses \(E\) stabilisiert sich mit zunehmender Anzahl \(n\) der Versuche und schwankt somit immer weniger um einen bestimmten Wert \(h_{n}(E)\).

 

Der Wahrscheinlichkeitsbegriff

Es liegt nahe, die Wahrscheinlichkeit \(P(E)\) eines Ereignisses \(E\) als Grenzwert der relativen Häufigkeit \(h_{n}(E)\) für \(n \to \infty\) zu definieren. Dennoch ist diese Definition bislang nicht gelungen.

Stattdessen fasst die moderne Wahrscheinlichkeitstheorie den Wahrscheinlichkeitsbegriff als Erfüllung von formalen Eigenschaften auf (Axiome von Kolmogorow), die den Eigenschaften von relativen Häufigkeiten entsprechen.

 

Wahrscheinlichkeitsaxiome von Kolmogorow

Die Funktion \(P \colon A \mapsto P(A)\) mit \(A \subset \Omega\) und \(P(A) \in \mathbb R\) ordnet jedem Ereignis \(A\) eines Zufallsexperiments mit dem Ergebnisraum \(\Omega\) eine relle Zahl \(P(A)\) so zu, dass folgende Axiome (Grundsätze) erfüllt sind:

Axiom 1: \(P(A) \geq 0\)

Axiom 2: \(P(\Omega) = 1\)

Axiom 3: Wenn \(A \cap B = \{\,\}\), dann muss gelten: \(P(A \cup B) = P(A) + P(B)\).

\(P(A)\) heißt Wahrscheinlichkeit von \(A\).

Die Funktion \(P \colon A \mapsto P(A)\) heißt Wahrscheinlichkeitsverteilung.

 

Eigenschaften der Wahrscheinlichkeiten

Aus den Axiomen von Kolmogorow lassen sich folgende Eigenschaften ableiten:

\(0 \leq P(A) \leq 1\) für jedes Ereignis \(A \subseteq \Omega\)

\(P(\{\,\}) = 0\) und \(P(\Omega) = 1\)

\[B \subseteq A \quad \Longrightarrow \quad P(B) \leq P(A)\]

\[P(\overline{A}) = 1 - P(A)\]

Additionssatz für beliebige Ereignisse \(A\) und \(B\):

\[P(A \cup B) = P(A) + P(B) - P(A \cap B)\]

Die Wahrscheinlichkeit eines Ereignisses \(A\) ist gleich der Summe der Wahrscheinlichkeiten \(P(\{\omega_{i}\})\) der Ergebnisse \(\omega_{1}, \omega_{2}, ..., \omega_{k}\), die das Ereignis \(A\) beschreiben.

\[A = \{\omega_{1}, \omega_{2}, ..., \omega_{k}\}\]

\[\Longrightarrow \quad P(A) = P(\{\omega_{1}\}) + P(\{\omega_{2}\}) + \dots + P(\{\omega_{k}\}) = \sum \limits_{i \, = \, 1}^{k} P(\{\omega_{i}\})\]

 

 

Statistische Definition der Wahrscheinlichkeit

In der Praxis wird eine unbekannte Wahrscheinlichkeit \(P(A)\) eines zufälligen Ereignisses \(A\) häufig näherungsweise durch eine bei umfangreichen Versuchsreihen beobachtete relative Häufigkeit \(h_{n}(A)\) beschrieben. Die Anzahl \(n\) der Einzelversuche muss einen hinreichend großen Wert annehmen, sodass von einer Stabilisierung der relativen Häufigkeit \(h_{n}(A)\) ausgegangen werden kann.

 

\[P(A) \approx h_{n}(A)\]

 

Dabei muss die auf diese Weise festgelegte Wahrscheinlichkeit \(P(A)\) immer im Einklang mit den Axiomen von Kolmogorow stehen.

 

Beispielaufgabe

Bei der Herstellung eines Smartphone Akkus vom Typ X können zwei Fehler auftreten. Aus laufender Qualitätskontrolle ist bekannt, dass 5 % der produzierten Akkus einen Entladefehler \(E\) und 8 % einen Kontaktfehler \(K\) aufweisen. 10 % der hergestellten Akkus heben mindestens einen der beiden Fehler.

Berechnen Sie die Wahrscheinlichkeit dafür, dass ein aus dem Produktionsbetrieb zufällig entnommener Akku beide Fehler \(E\) und \(K\) aufweist.

 

Der Angabe lassen sich folgende Wahrscheinlichkeiten entnehmen:

 

\(P(E) = 0{,}05\), \(P(K) = 0{,}08\)

 

Das Ereignis „mindestens einen der beiden Fehler" bedeutet Entladefehler \(E\) oder Kontaktfehler \(K\) oder beide Fehler zugleich \(E \cap K\) und beschreibt somit die Vereinigungsmenge \(E \cup K\).

 

\(P(E \cup K) = 0{,}10\)

 

Gesucht ist die Wahrscheinlichkeit \(P(E \cap K)\).

 

Additionssatz für beliebige Ereignisse anwenden:

 

\[\begin{align*} P(E \cup K) &= P(E) + P(K) - P(E \cap K) \\[0.8em] \Longleftrightarrow \enspace P(E \cap K) &= P(E) + P(K) - P(E \cup K) \\[0.8em] &= 0{,}05 + 0{,}08 - 0{,}10 \\[0.8em] &= 0{,}03 \end{align*}\]

 

Mit einer Wahrscheinlichkeit von 3 % hat ein Akku, der dem Produktionsbetrieb zufällig entnommen wird, sowohl einen Entlade- als auch einen Kontaktfehler.