Likelihood-Verhältnis-Test (auch: Likelihood-Quotienten-Test, Likelihood-Ratio Test [engl.])

Der L.-V.-T. ist ein relativ allgemein einsetzbares Verfahren zum Vergleich von Modellen auf der Grundlage des Maximum-Likelihood Schätzverfahrens. Verglichen werden jeweils zwei Modelle: Ein Ausgangsmodell, welches i.a. mehrere Modellparameter enthält, und ein Vergleichsmodell, in welchem einem oder mehreren dieser Parameter Restriktionen auferlegt wurden. (Das Ausgangsmodell heißt daher auch unrestringiertes Modell, das Vergleichsmodell restringiertes Modell; diese Begriffe sind aber immer relativ zum jeweiligen Test-Ziel zu verstehen). Der Vergleich dient stets der Prüfung, ob das unrestringierte Modell tatsächlich (signifikant) »besser« ist als das restringierte, d.h. einen besseren Fit aufweist. Ist das nicht der Fall, ist das restringierte Modell, weil einfacher (und dennoch hinsichtlich der Erklärungskraft nicht schlechter), vorzuziehen.

Folgende »Restriktionen« wären z. B. denkbar (dies dürften die wichtigsten praktischen Anwendungsbedingungen sein):

  • Alle Parameter werden auf Null gesetzt. Dies ist eine Prüfung, ob das unrestringierte Modell insgesamt mehr "erklärt" als rein durch Zufallsschwankungen (im Rahmen der Stichprobenziehung) zu erwarten wäre. Dieser Test entspricht dem F-Test auf Signifkanz des Gesamtmodells in der linearen Regressionsanalyse. Er wird von vielen Statistik-Paketen standardmäßig bei der Modellschätzung ausgegeben.
  • Ein Parameter wird auf Null gesetzt. Dies ist eine Prüfung, ob die betreffende Variable einen statistisch signifikanten Einfluss auf die abhängige Variable hat. Diese Prüfung ist anderen Statistiken (etwa mittels der Wald-Statistik oder der t-Statistik) überlegen.
  • Mehrere Parameter werden auf Null gesetzt. Hier soll geprüft werden, ob eine Gruppe von Variablen einen statistisch signifikanten Einfluss auf die abhängige Variable hat.
  • Zwei oder mehr Parameter sollen identisch sein (oder eine bestimmte, vorgegebene Differenz aufweisen). Hiermit kann geprüft werden, ob die Beträge zweier (oder mehrerer Parameter) sich in statistisch signifikanter Weise voneinander unterscheiden bzw. ihre Differenz einen bestimmten Betrag über- bzw. unterschreitet.

Man beachte: In der Praxis heißt »Parameter auf Null setzen« nichts anderes als ein Modell zu schätzen, in welchem die entsprechenden Variablen weggelassen werden. Andere Restriktionen (wie die zuletzt genannte) sind nicht in allen Statistikpaketen standardmäßig implementiert.

Der L.-V.-T. beruht auf folgender Test-Statistik:

LR = 2 * ln(Lu/Lr)

bzw.

LR = 2 * (ln(Lu) - ln(Lr))

bzw.

LR = 2 * ln(Lu) - 2* ln(Lr)

Dabei ist Lu die Likelihood des unrestringierten Modells und Lr die Likelihood des restringierten Modells, ln ist der natürliche Logarithmus. Da die Likelihood eine sehr kleine Größe ist, arbeiten viele Statistikprogramme gleich mit dem Logarithmus der Likelihood, oft als Log-Likelihood bezeichnet bzw. als LL abgekürzt, oder auch mit der negativen Likelihood, also -LL. Es ist also jeweils genau zu beachten, welche Statistiken die Programme ausgeben (oft ist dies auch 2*LL oder -2*LL). Achtung: Bei einer Log-Likelihood handelt es sich um eine negative Zahl (da die Likelihood zwischen 0 und 1 liegt, ist ihr Logarithmus kleiner als 0), bei einer negativen Log-Likelihood also um eine positive Zahl!

Die Statistik LR folgt der Chi-Quadrat-Verteilung; die Zahl der Freiheitsgrade entspricht der Zahl der Restriktionen.

© W. Ludwig-Mayerhofer, ILMES | Last update: 24 June 2002