Zufallskoeffizienten (engl.: Random Coefficients)
In der klassischen Regressionsanalyse (und verwandten Verfahren) werden die Regressionsparameter als fixe Größen betrachtet (z. B. ein Regressionskoeffizient für den Zusammenhang zwischen Bildung und Einkommen, der für alle Individuen als gleich angenommen wird). Bei Daten, die sich auf Individuen (allgemeiner: Untersuchungsobjekte) in Kontexten beziehen, z. B. Schüler in Schulen, wie sie etwa im Rahmen der Mehrebenenanalyse untersucht werden, kann geprüft werden, ob die Regressionsparameter zufällig zwischen den Kontexten variieren. Die Koeffizienten setzen sich dann aus einer fixen und einer Zufallskomponente zusammen; verkürzt spricht man von Zufallskoeffizienten oder Random Coefficients. Genauer unterscheidet man dann zwischen einer zufällig variierenden Regresssionskonstanten oder Random Intercept und zufällig variierenden Steigungskoeffizienten oder Random Slopes.
Formal ausgedrückt sieht ein einfaches Regressionsmodell so aus:
Y = b0 + b1X1 + e
Sowohl b0 als auch b1 haben hier für alle Untersuchungseinheiten den gleichen Wert; die beobachteten individuellen Werte in Y weichen um den (individuell unterschiedlichen) Betrag e von den Schätzwerten des Regressionsmodells ab.
In einem Random Intercept-Modell wird die Abweichung der beobachteten von den geschätzten Y-Werten auch als Zufallsfunktion des Kontextes aufgefasst; dies lässt sich formal so schreiben, dass b0 nicht für alle Kontexte konstant ist, sondern je nach Kontext um einen zufälligen Betrag u0 um einen Gesamtwert g0 schwankt:
b0 = g0 + u0
Ebenso kann ein einem Random Slope-Modell angenommen werden, dass b1 zwischen den Kontexten variiert:
b1 = g1 + u1
Setzt man diese beiden Gleichungen in die Gesamtgleichung ein, erhält man:
Y = g0 + g1X1 + (e + u0 + u1X1)
Der wesentliche Unterschied zum klassischen Regressionsmodell liegt also im komplexeren Fehlerterm (e + u0 + u1X1), in den Einflüsse der individuellen wie der Kontext-Ebene eingehen.
© W. Ludwig-Mayerhofer, ILMES | Last update: 30 Dec 1999