Konfidenzintervall (engl.: Confidence Interval)

Die aus Stichproben geschätzten Parameter für eine Grundgesamtheit stimmen zwangsläufig meist nicht mit den wahren Parametern überein. Genauer: Exakt den »richtigen« Wert zu erhalten, ist ein recht unwahrscheinliches Ereignis. Man kann jedoch mit Hilfe wahrscheinlichkeitstheoretischer Überlegungen nachweisen, dass bei hinreichend großen Stichproben (vorausgesetzt, es handelt sich um Zufallsstichproben) die meisten Stichprobenwerte nicht allzu weit vom wahren Wert abweichen. Im Rahmen der Inferenzstatistik wird gezeigt, dass man aus der Stichprobe Intervalle schätzen kann, die den wahren Parameter mit einer vorgegebenen Wahrscheinlichkeit (der Überdeckungswahrscheinlichkeit) enthalten. Diese Intervalle werden als K. (auch: Vertrauensbereich oder Vertrauensintervall, in der älteren Literatur manchmal auch Mutungsbereich oder Mutungsintervall) bezeichnet.

Spiegelbildlich formuliert wird häufig auch die Irrtumswahrscheinlichkeit angegeben, mit der das Intervall den wahren Parameter nicht enthält. Man erhält damit Aussagen der Art: Mit einer (Irrtums-)Wahrscheinlichkeit von α – häufig wählt man für α einen Wert von 0,05, manchmal aber auch 0,01 oder 0,001 – enthält das Konfidenzintervall mit der Untergrenze GU und der Obergrenze GO nicht den wahren Wert.

Die manchmal zu findende Redeweise von der »Wahrscheinlichkeit, mit der der wahre Wert in dem Intervall liegt« (oder nicht liegt), ist daher streng genommen nicht korrekt. Der wahre Wert liegt entweder in dem gegebenen Intervall oder nicht. Eine Aussage über ein Konfidenzintervall mit einer (beispielsweise) 95-prozentigen Überdeckungswahrscheinlichkeit ist vielmehr im Sinne des frequentistischen Paradigmas der Statistik zu verstehen: Wenn wir von der Vorstellung ausgehen, dass wir aus der Grundgesamtheit immer wieder Stichproben ziehen, dann liefert das Schätzverfahren in 95 Prozent aller Stichproben (also: mit 95prozentiger Wahrscheinlichkeit) ein Konfidenzintervall, das den wahren Wert enthält.

Wie man das K. im einzelnen schätzt, hängt von dem interessierenden Parameter, von Annahmen über die Verteilung der betreffenden Variablen in der Grundgesamtheit sowie vom Stichprobenumfang ab.

Man unterscheidet zwischen zwei- und einseitigen K.n. Zweiseitige K. liegen im Regelfall symmetrisch um den geschätzten Parameter; die Wahrscheinlichkeit, dass der wahre Parameter über GO liegt, soll gleich groß sein wie diejenige, dass er unter GU liegt, und vor allem führt dieses Verfahren zu den schmalsten Konfidenzintervallen. Bei einem einseitigen K. wird eine der beiden Grenzen auf den Wert (+ oder -) »unendlich« festgelegt; man interessiert sich nur dafür, ob der Parameter über bzw. unter einem vorgegebenen Wert liegt. Ein Beispiel: Lautet die Forschungsfrage, in welchem Bereich der Intelligenzquotient von Mädchen mit vorgegebener Irrtumswahrscheinlichkeit liegt, so muß man ein zweiseitiges Konfidenzintervall festlegen; will man aber feststellen, ob ihre Intelligenz einen bestimmten interessierenden (Schwellen-)Wert überschreitet, so wird man ein einseitiges Konfidenzintervall zugrundelegen.

Die Breite des Konfidenzintervalls hängt – bei vorgegebener Irrtumswahrscheinlichkeit – vor allem von zwei Faktoren ab: der Stichprobengröße und der Variabilität der Grundgesamtheit. Aus diesen Größen ergibt sich in der Regel der Standardfehler, der dann in Verbindung mit der gewählten Irrtumswahrscheinlichkeit die Breite des Konfidenzintervalls bestimmt. Allgemein gilt (bei guten Schätzverfahren): Je größer – ceteris paribus – die Stichprobe, desto kleiner wird das Konfidenzintervall; ebenso wird das Konfidenzintervall kleiner bei kleinerer Variabilität der Grundgesamtheit.

Siehe auch: Einseitige Hypothese, Signifikanz, -niveau, -test.

© W. Ludwig-Mayerhofer, ILMES | Last update: 11 Nov 2016