Wahrscheinlichkeit (engl.: Probability)

In der Statistik versteht man unter W. die Zuordnung von Zahlen zu den (möglichen) Ergebnissen (den »Ereignissen«) eines Zufallsvorganges (oder Zufallsprozesses, Zufallsexperimentes), durch die man die »Chancen« für das Eintreten der verschiedenen Ereignisse zu quantifizieren versucht.

Axiome der Wahrscheinlichkeit

Andrej Kolmogoroff hat hierfür folgende Axiome formuliert:

  1. 0P(A)1
    Das heißt: Die Wahrscheinlichkeit eines Ereignisses A lässt sich als Zahl zwischen 0 und 1 (jeweils einschließlich) ausdrücken (eine Wahrscheinlichkeit von 0 bezeichnet unmögliche Ereignisse);
  2. P( Ω )=1
    Dabei steht Ω (Omega) für den gesamten Ereignisraum (die Gesamtheit der möglichen Ereignisse). Das Axiom besagt also, dass mit Sicherheit irgend ein Ereignis eintritt.
  3. P( AB )=P( A )+P( B ) wenn gilt AB=
    In Worten: Schließen sich zwei Ereignisse wechselseitig aus oder sind disjunkt (Beispiel: die Zahl 4 und die Zahl 6 können beim Werfen eines einzelnen Würfels nicht gleichzeitig auftreten), so ist die Wahrscheinlichkeit für A oder B zusammen (also das Eintreten des einen oder des anderen Ereignisses, z.B. die Wahrscheinlichkeit, dass 4 oder 6 gewürfelt wird) gleich der Summe der Einzelwahrscheinlichkeiten.

Aus diesen Axiomen können einige weitere Regeln abgeleitet werden:

P( AB )=P( A )+P( B )P(AB)
Wenn die beiden Ereignisse A und B nicht disjunkt sind (wenn sie also gemeinsam auftreten können), ist die Wahrscheinlichkeit, dass A oder B auftritt, gleich der Summe der Einzelwahrscheinlichkeiten minus der Wahrscheinlichkeit des gemeinsamen Auftretens

P(Ā)=1P(A)
Die Wahrscheinlichkeit des Ereignisses Nicht-A ist gleich 1 minus der Wahrscheinlichkeit von A. Im Beispiel: Die Wahrscheinlichkeit, beim Würfeln mit einem Würfel keine 1 zu werfen, ist gleich 1 minus der Wahrscheinlichkeit, eine 1 zu werfen.

Wahrscheinlichkeitsbegriffe

Über die Bestimmung der Wahrscheinlichkeiten gibt es verschiedene Vorstellungen (Wahrscheinlichkeitsbegriffe oder -definitionen):

Nach dem klassischen oder a-priori-Wahrscheinlichkeitsbegriff (a priori: lat. für »im Vorhinein«) ist die Wahrscheinlichkeit eines (Elementar-)Ereignisses – also eines nicht aus mehreren Einzelereignissen zusammengesetzten Ereignisses – gleich 1/N (mit N = Zahl der möglichen Ereignisse); vorausgesetzt ist, dass alle Ereignisse die gleiche Eintrittswahrscheinlichkeit haben. Man spricht hier auch von Laplace-Wahrscheinlichkeit (nach dem französischen Mathematiker Laplace [1749-1827]). Beim Würfeln (mit einem einzigen Würfel) ist also z.B. die Wahrscheinlichkeit einer beliebigen Zahl 1/6. (Die Wahrscheinlichkeiten komplexer [zusammengesetzter] Ereignisse lassen sich dann bei Unabhängigkeit nach dem 3. Axiom von Kolmogoroff, sonst unter Zuhilfenahme weiterer Überlegungen berechnen.)

Nach dem frequentistischen oder a-posteriori-Wahrscheinlichkeitsbegriff (a posteriori: lat. für »im Nachhinein«) ist die Wahrscheinlichkeit eines Ereignisses gleich dem Grenzwert der relativen Häufigkeit des Ereignisses, wenn der Zufallsvorgang immer häufiger (mit Grenzwert gegen unendlich) wiederholt wird. (Wir würden also z.B. bei einem »korrekten« Würfel erwarten, dass jede einzelne Zahl in 1/6 aller Würfe geworfen wird – wenn die Zahl der Würfe gegen unendlich geht. Faktisch werden wir bei einer gegebenen Zahl von Würfen diesen Wert nur selten exakt erreichen.)

Hinweis: Die Begriffe »A-priori-« und »A-posteriori-Wahrscheinlichkeit« spielen auch in der Bayes-Statistik eine Rolle, werden dort aber anders definiert. (Dort heißen sie manchmal aber auch einfach »Priori-« und »Posteriori-Wahrscheinlichkeit«.)

Von subjektivem Wahrscheinlichkeitsbegriff spricht man schließlich, wenn die Wahrscheinlichkeit auf der Grundlage persönlicher Einschätzungen beurteilt wird. (Sportwetten beruhen z.B. mindestens implizit darauf, dass man den möglichen Ergebnissen größere oder kleinere Wahrscheinlichkeiten zuordnet und auf die Ergebnisse mit der größten subjektiven Wahrscheinlichkeit setzt.)


Mehr über Wahrscheinlichkeiten

Multiplikationsregel für unabhängige Ereignisse

Sind zwei Ereignisse voneinander unabhängig (wenn etwa ein Würfel zwei Mal nacheinander geworfen wird), so ist die Wahrscheinlichkeit des Auftretens von A und B (z.B.: beim ersten Wurf eine 1 und beim zweiten Wurf eine 5) gleich dem Produkt der Einzelwahrscheinlichkeiten:

P(AB)=P(A)P(B)
Bedingte Wahrscheinlichkeiten

Die Wahrscheinlichkeit eines Ereignisses B, gegeben ein Ereignis A, ist definiert als:

P(B|A)= P(AB) P(A)

Dabei ist vorausgesetzt, dass P(A) > 0.

Aus dieser Formel folgt durch Umformen die Multiplikationsregel für das gemeinsame Auftreten zweier abhängiger Ereignisse:

P(AB)=P(B|A)P(A)

Siehe auch: Bayes-Theorem

Literatur:

  • Kinney, John J.: Probability. An Introduction with Statistical Applications. New York: Wiley, 1997
  • Ross, Sheldon: A First Course in Probability (6. Auflage). Upper Saddle River: Prentice-Hall, 2002

© W. Ludwig-Mayerhofer | Last update: 20 Nov 2009