Faktorenanalyse (engl.: Factor Analysis)

Überblick

Die F. ist ein Verfahren der Datenreduktion. Die grundlegende Idee ist folgende: Es wird angenommen, dass hinter einer Reihe von Messwerten – z. B. Ergebnissen eines psychometrischen Tests oder einer Befragung zu Meinungen über bestimmte Sachverhalte – eine grundlegende, nicht direkt messbare, hypothetische (oder auch latente) Variable steht, etwa eine Eigenschaft oder eine Einstellung (Attitüde). Eine solche hypothetische Variable wird als »Faktor« bezeichnet. Wenn angenommen wird, dass die erzielten Messergebnisse auf einen einzigen Faktor zurückgehen, so bedeutet das, dass die betreffenden Variablen untereinander in hohem Maße korrelieren müssten. Die entsprechende Korrelationsmatrix ist daher Ausgangspunkt der F. Häufig wird die F. auch eingesetzt, wenn man annimmt, dass eine Serie von Messwerten verschiedene Merkmale oder unterschiedliche Dimensionen einer Eigenschaft repräsentiert; dann soll die F. festlegen, welcher Messwert zu welchem Faktor (oder welcher Dimension) gehört bzw. entsprechende Vorab-Hypothesen testen.

Die explorative F. versucht, aus der Korrelationsmatrix Faktoren zu »extrahieren«; diese Faktoren sollen voneinander unabhängig sein. Nach bestimmten Verfahren werden solange Faktoren ermittelt, bis ein Stop-Kriterium erreicht ist, nach dem die Annahme weiterer Faktoren keinen Erklärungsgewinn mehr verspricht (es stehen mehrere solcher Kriterien zur Verfügung). Im allgemeinen sucht man anschließend die Faktoren so mit den Messwerten »abzugleichen«, dass alle Messwerte mit einem der Faktoren sehr hoch zusammenhängen (oder hoch auf ihm »laden«) und mit allen anderen nicht oder nur äußerst niedrig. Zu diesem Zweck werden in einem zweiten Schritt die ermittelten Faktoren »rotiert« (Faktorenrotation). Die so ermittelten Faktoren müssen nunmehr »interpretiert« werden, d. h. man inspiziert die Zusammenhänge zwischen den einzelnen Messwerten und den Faktoren darauf, ob sich sinnvolle Ergebnisse gezeigt haben. Diese substanzwissenschaftliche Interpretation ist sehr wichtig, da eine Faktorenanalyse nahezu immer im rein mathematisch-statistischen Sinn »brauchbare« Ergebnisse liefert.

Die konfirmatorische (manchmal auch: konfirmative) F. hingegen legt vorab Hypothesen über die Faktorstruktur fest und prüft dann, ob diese Hypothesen verworfen werden müssen oder beibehalten werden können. Die konfirmatorische F. wird im allgemeinem im Rahmen von Strukturgleichungsmodellen durchgeführt.


Näheres zur explorativen Faktorenanalyse

Das Grundprinzip

Formal lässt sich die Idee der Faktorenanalyse wie folgt ausdrücken: Die Messwerte ergeben sich als Linearkombination aus den zugrundeliegenden Faktoren. Ganz ähnlich wie in einer Regressionsgleichung werden die Messwerte also auf andere Variablen zurückgeführt, nur dass diese bei der F. unbeobachtete, hypothetische Konstrukte sind:

zmi = ai1 · fm1 + ai2 · fm2 + ... + aij · fmj

Das bedeutet: Für jede von m Personen liegen i Messwerte vor (die zmi; es handelt sich um standardisierte Variablen). Diese Messwerte lassen sich erklären aus den »Faktorwerten« der Personen (den fmj , d. h. den Werten, den sie in insgesamt j verschiedenen unbeobachteten Merkmalen [den Faktoren] aufweisen), die mit den »Gewichten« dieser Faktoren für das jeweilige Merkmal, den aij, multipliziert werden. Diese »Gewichte« heißen Faktorladungen. Für jede Variable existieren also so viele Faktorladungen, wie es Faktoren gibt; insgesamt gibt es also bei i Variablen und j Faktoren i · j Faktorladungen. Die Summen aller quadrierten Faktorladungen pro Variablen heißen Kommunalitäten; diese geben an, wie gut die manifesten Messwerte durch die hypothetischen Faktoren erklärt werden (bei einer Kommunalität von 1 lassen sich die Messwerte perfekt durch die Faktoren erklären).

Von den Kommunalitäten sind die Eigenwerte der Werte der Faktoren zu unterscheiden. Diese geben an, wie viel Varianz in den Daten insgesamt (also nicht nur in einer einzelnen Variablen) durch den jeweiligen Faktor erklärt werden kann. Die Summe der Eigenwerte entspricht der Anzahl der Variablen, denn da es sich um standardisierte Variablen handelt, hat jede Variable die Varianz 1. Der Eigenwert eines jeden Faktors ist die Summe aller quadrierten Faktorladungen, die zu ihm gehören. (Man beachte also: Die Summe der quadrierten Faktorladungen über jede Variable ergibt die Kommunalität der Variablen; die Summe dieser Ladungen über den Faktor ergibt dessen Eigenwert.)

Prüfung der Korrelationsmatrix auf Eignung für die Faktorenanalyse

Vor der eigentlichen Durchführung der Faktorenanalyse ist es sinnvoll, die Korrelationsmatrix der Variablen, die in die Analyse eingehen, auf ihre Eignung für die Faktorenanalyse zu prüfen. Gemeint ist damit folgendes: Wenn die erhobenen Merkmale allesamt gar nicht oder nur schwach untereinander zusammenhängen, so ist es unwahrscheinlich, dass sich Faktoren finden lassen, durch die sich die Vielzahl der Variablen auf einer geringere Zahl von Dimensionen (eben die Faktoren) reduzieren lässt. Für die Prüfung der Eignung der Korrelationsmatrix wurden mehrere Verfahren vorgeschlagen:

  • Der Bartlett-Test auf Sphärizität prüft, ob die Daten aus einer Grundgesamtheit stammen, in der die Variablen untereinander allesamt unkorreliert sind; da dieser Test bei größeren Stichproben fast immer zu einem positiven (d. h. signifikanten) Ergebnis führt (das liegt in der Natur großer Stichproben), gilt er nur bei kleinen Fallzahlen als sinnvoll.
  • Besser ist eine Betrachtung der »Anti-Image-Korrelationsmatrix«. Diese berücksichtigt, wie groß der Anteil der Varianz der einzelnen Variablen ist, der sich nicht durch die anderen Variablen erklären lässt. Die Diagonalelemente dieser Matrix werden als MSA, Measure of Sampling Adequacy, bezeichnet und sind umso größer, je kleiner dieses nicht durch andere Variablen erklärbare Anteil ist. Entsprechend sollten die einzelnen Variablen ein möglichst hohes MSA aufweisen; Variablen mit Werten unter 0,5 gelten als gänzlich ungeeignet, ab 0,6 gelten sie als brauchbar, über 0,8 als recht gut geeignet.
  • Aus den Kennwerten für die einzelnen Variablen wird auch ein Gesamtmaß – das Kaiser-Meyer-Olkin-Kriterium der Stichprobeneignung – abgeleitet, für das das die gleichen Zahlenwerte als Eignungskriterien gelten.

Extraktionsverfahren

Für die Extraktion der Faktoren wurden unterschiedliche Verfahren entwickelt; ebenso gibt es verschiedene Kriterien für die Zahl der zu extrahierenden Faktoren. Unter den Extraktionsverfahren dürften die wichtigsten die Hauptkomponenten-Methode und die Hauptfaktoren- (oder Hauptachsen)-Methode sein.

Der wesentliche Unterschied ist in folgendem zu sehen: Man wird üblicherweise unterstellen können bzw. müssen, dass die Faktoren nicht komplett die Varianz der einzelnen Variablen erklären können, sondern dass ein unerklärter Rest an Varianz bleibt (Einzelrestvarianz, »spezifische Varianz«). Die Hauptkomponenten-Methode interessiert sich aber nicht für letztere; daher führt sie dann zu Kommunalitäten von 1 (bzw. zu einer erklärten Gesamtvarianz von 100 Prozent), wenn die Zahl der Faktoren der Zahl der Variablen entspricht. Die Hauptachsenmethode berücksichtigt dagegen explizit, dass unerklärte spezifische Varianz vorhanden ist, dass also die einzelnen Variablen nicht komplett aufeinander bzw. die zugrundeliegenden Faktoren zurückgeführt werden können. Daher führt sie im allgemeinen zu niedrigeren Kommunalitäten bzw. Faktorladungen.

Allerdings ist in der Praxis jedenfalls dann, wenn den beobachteten Daten wirklich klare Faktoren entsprechen, die grundsätzliche Faktorenlösung (welche Items laden hoch auf welchem Faktor?) bei beiden Verfahren in der Regel identisch (eine ausführlichere Diskussion mit dem gleichen Ergebnis findet sich bei Velicer/Jackson 1990).

Für alle Verfahren der Faktorenextraktion gilt: Der erste extrahierte Faktor soll einen so großen Varianzanteil wie möglich erklären. Der zweite Faktor (falls mehr als ein Faktor extrahiert wird) ist von dem ersten Faktor völlig unabhängig (in der Fachterminologie: er ist orthogonal zum ersten Faktor); er erklärt den maximalen Anteil der Restvarianz. Soweit weitere Faktoren zu extrahieren sind, erfüllen diese wiederum die Bedingung der Orthogonalität zu den übrigen Faktoren und der Extraktion von so viel Varianz wie jeweils möglich.

Zahl der Faktoren

Die Zahl der zu extrahierenden Faktoren liegt bei der explorativen Faktorenanalyse nicht a priori fest. Aus dem Vorstehenden wird klar, dass irgendwann einmal die Restvarianz, die ein weiterer Faktor erklärt, so klein ist, dass sich die Extraktion dieses Faktors nicht mehr »lohnt«. Meist wird als Kriterium herangezogen, dass der Eigenwert eines jeden Faktors größer als 1 sein soll (Eigenwerte kleiner oder gleich 1 bedeuten, dass ein Faktor keinen größeren Varianzanteil als eine einzelne Variable erklärt); dies wird häufig nach seinem Erfinder als Kaiser-Kriterium bezeichnet. Allerdings kann unter Umständen schon dieses Kriterium zu einer zu großen Anzahl von Faktoren führen; häufig wird daher der sog. Scree-Plot herangezogen, in dem die Eigenwerte der Faktoren als Liniendiagramm abgetragen werden. Meist ist in diesem Diagramm ein deutlicher Knick zu sehen, was bedeutet, dass die Faktoren ab diesem Knick keinen nennenswerten Erklärungsbeitrag liefern. Ist der Knick also beispielsweise beim vierten Faktor zu sehen, so dürfte die beste Lösung bei drei Faktoren liegen. Letztlich müssen aber auch immer Kriterien der inhaltlichen bzw. theoretischen Adäquatheit herangezogen werden.

Faktorenrotation

Wie schon geschildert, werden die Faktoren jeweils so extrahiert, dass sie möglichst viel (Rest-)Varianz in allen Merkmalen erklären. Man ist aber an Faktoren interessiert, die möglichst unabhängig voneinander sind (man sagt auch, dass die Faktoren orthogonal – also rechtwinklig – zueinander sein sollten); einzelne Variablen sollen hoch auf einem Faktor und möglichst niedrig auf den anderen Faktoren laden. Dazu wird die durch die Extraktion gewonnene Faktorenlösung »rotiert« (dieser Begriff geht auf die geometrische Veranschaulichung von Korrelationen zurück, die hier nicht dargestellt werden kann). Auch für diese Rotation gibt es verschiedene Kriterien, u. a. solche, die auch ein gewisses Ausmaß an Korrelation zwischen den Faktoren zulassen (»schiefwinklige« oder »oblique Rotation«). Die Qualität des Ergebnisses einer Faktorenanalyse kann man auch daran erkennen, dass sie für jede Variable eine hohe Ladung (Absolutbetrag mindestens 0,6) auf einem Faktor und niedrige Ladungen (Absolutbetrag möglichst unter 0,1) auf allen anderen Faktoren ergibt (sog. »Einfachstruktur«). (Stellt sich dieses Ergebnis nicht ein, so liegt dies meist nicht an der Faktorenanalyse, sondern daran, dass die Daten etwas komplexer als vermutet sind.)

Interpretation

Den letzten Schritt der F. stellt die Interpretation der gewonnenen Faktoren dar. Die Tatsache, dass bestimmte Merkmale zu einem gemeinsamen Faktor gehören, muss durch inhaltliche Überlegungen plausibel gemacht werden können. (Würde man beispielsweise annehmen, dass der Spruch »Männer sind Schweine« sich auch als Eigenschaftspaar ausdrücken lässt, so sollte die »Männlichkeit« von Untersuchungspersonen mit ihrer »Schweinlichkeit« hoch zusammenhängen und beide Merkmale sollten dementsprechend in einer F. auch auf einem gemeinsamen Faktor laden.)


Das Fundamentaltheorem der Faktorenanalyse

Wie können die Gewichte aij, die sog. »Faktorladungen«, bestimmt werden? Das Fundamentaltheorem der Faktorenanalyse beschreibt die zentrale Bedingung, der die Faktorladungen entsprechen müssen. Diese lässt sich einfach und übersichtlich allerdings nur in Matrixschreibweise darstellen.

Wir gehen aus von der Matrix der Korrelationen zwischen den Variablen. Hierbei handelt es sich bekanntlich um die standardisierten Kovarianzen; alternativ lassen sich die Korrelationen als die Kovarianzen der standardisierten Variablen schreiben. In Matrixschreibweise heißt dies:

Formel für R

Die weiter oben angeführte Grundgleichung der Faktorenanalyse lautet in Matrixschreibweise:

Formel für Z als F mal A transponiert

Setzen wir die rechte Seite dieses Ausdrucks in die vorherige Formel ein, so erhalten wir

Formel für R mit FA' eingesetzt für Z

Löst man die Klammern auf, so erhält man den Ausdruck

Formel für R mit FA', Klammern aufgelöst

Der Ausdruck in der Mitte

F mal F transponiert

ist nichts anderes als die Matrix der Korrelationen zwischen den Faktorwerten (diese sind ihrerseits standardisierte Werte mit Mittelwert 0 und Standardabweichung 1). Da die Faktoren untereinander unabhängig sind, entspricht diese Matrix aber einer Einheitsmatrix. Damit wird der vorstehende Ausdruck zu

R als AIA

was (da Multiplikation mit der Einheitsmatrix der Multiplikation mit 1 in der »normalen« Mathematik entspricht) zu

R als AIA

führt.

Damit haben wir nun die Bedingung gefunden, der die Faktorladungen aij entsprechen müssen: Die Matrix der Ladungen A, multipliziert mit ihrer Transponierten, ergibt die Korrelationsmatrix der Variablen, die in die Faktorenanalyse eingingen. Natürlich wird diese Reproduktion der Korrelationsmatrix durch die Faktorladungen nicht ganz exakt sein (genauer gesagt: Sie ist es, wenn ebenso viele Faktoren extrahiert werden, wie Variablen vorhanden sind – aber dann ist die Faktorenanalyse überflüssig); aber es geht in der Faktorenanalyse auch nur darum, die Zusammenhänge der Variablen im Wesentlichen zu reproduzieren.

Die konkreten Verfahren, nach denen nun A bestimmt werden kann, sind komplex und liegen jenseits der Aufgaben dieses Artikels. Die modernen Extraktionsverfahren sind aber ohnehin nur mit Hilfe einschlägiger Statistiksoftware zu bewältigen.

Literatur:

  • Velicer, Wayne F./Jackson, Douglas N.: Component Analysis versus Common Factor Analysis: Some Issues in Selecting an Appropriate Procedure, Multivariate Behavioral Research, 25, 1990, S. 1-28

© W. Ludwig-Mayerhofer, ILMES | Last update: 20 Dec 2016