Desktop-Version

Start arrow Politikwissenschaft arrow Strukturgleichungsmodelle

  • Increase font
  • Decrease font


<<   INHALT   >>

2.2.2 Der Pearsonsche Korrelationskoeffizient: Standardisiertes Maß für den Zusammenhang zwischen metrischen Variablen

Kovarianzen fallen in den Wertebereich von minus unendlich bis plus unendlich. Ihr Wert hängt nicht nur von der Stärke des Zusammenhangs, sondern auch von der Skalierung der beiden betreffenden Variablen ab. Deshalb beschränkt sich die Interpretation von Kovarianzen im Grunde auf das Vorzeichen.

Eine Möglichkeit, die in der Varianz-Kovarianzmatrix enthaltene Information etwas anschaulicher darzustellen, ist die Umwandlung in eine Korrelationsmatrix. Korrelationskoeffizienten [1] sind auf das Intervall [−1;1] beschränkt. Dabei entspricht ein Wert von +1 einem perfekten positiven Zusammenhang, während bei -1 ein perfekter negativer Zusammenhang besteht. Bei einem Wert von 0 sind die Variablen voneinander unabhängig.

Zur Berechnung der Korrelationsmatrix R benötigt man die Standardabweichungen s aller Variablen, d. h. die jeweiligen Quadratwurzel ihrer Varianzen. Setzt man die Kehrwerte dieser Standardabweichung in eine Transformationsmatrix T ein, mit der S präund postmultipliziert wird, erhält man die Korrelationsmatrix R. Warum ist das so? Für zwei Variablen x und y erhält man den Korrelationskoeffizienten rx,y , indem man die Kovarianz cov (x, y) durch das Produkt der beiden

Standardabweichungen sx und sy teilt und auf diese Weise standardisiert (Gehring und Weins 2009, Kap. 7.4) [2]. Äquivalent dazu kann man die Kovarianz zunächst durch eine der beiden Standardabweichungen dividieren und dann das Resultat durch die zweite Standardabweichung teilen oder die Kovarianz nacheinander mit den Kehrwerten der beiden Standardabweichungen multiplizieren:

Letzteres geschieht bei der Multiplikation mit der Transformationsmatrix: Durch die Prämultiplikation wird zunächst die erste Zeile der Varianz-Kovarianzmatrix mit dem Kehrwert der ersten Standardabweichung multipliziert, die zweite Zeile mit dem Kehrwert der zweiten Standardabweichung, und so fort. Durch die anschließende Postmultiplikation wird dann die erste Spalte des Resultats mit dem Kehrwert der ersten Standardabweichung multipliziert, die zweite Spalte mit dem Kehrwert der zweiten Standardabweichung und so weiter.

Im Ergebnis werden die Varianzen auf der Hauptdiagonale zweimal durch ihre Quadratwurzel und somit letztlich durch sich selbst geteilt, während die Kovarianzen im unteren und oberen Dreieck jeweils durch das Produkt der „passenden“ Standardabweichungen dividiert werden. Durch die Verwendung von Matrixalgebra lässt sich diese Berechnung sehr kompakt darstellen, da unabhängig von der Zahl der Variablen stets nur zwei Matrizen miteinander multipliziert werden.

Für die Werte aus dem Beispiel lässt sich die Prozedur sehr leicht nachvollziehen. Für die Transformationsmatrix T erden lediglich die Standardabweichungen, d. h. die Quadratwurzeln der Varianzen aus Matrix S (Gl. (2.19), Seite 25) benötigt. Multipliziert man nun T mit S und das Ergebnis wiederum mit T, so erhält man [3].

Die vollständige Korrelationsmatrix lautet dementsprechend gerundet R = r 1 0.99 l, d. h. zwischen Religiosität und Rassismus besteht in diesem (konstruierten) Beispiel ein fast perfekter positiver Zusammenhang. Davon abgesehen sind hier drei allgemeine Punkte von Bedeutung:

1. Die Korrelationsmatrix hat die gleiche Dimension wie die zugrundeliegende Varianz-Kovarianzmatrix.

2. Wie die Varianz-Kovarianzmatrix ist auch die Korrelationsmatrix quadratisch und symmetrisch.

3. Alle Werte auf der Hauptdiagonale sind gleich 1, da jede Variable perfekt mit sich selbst korreliert ist [4].

Korrelationskoeffizienten sind nützlich, weil sie im Unterschied zu Kovarianzen den Vergleich der Stärke zweier Zusammenhänge ermöglichen. Aus Punkt 3 ergibt sich aber, dass die Berechnung einer Korrelationsmatrix stets mit einem Informationsverlust verbunden ist, da die Werte auf der Hauptdiagonale im Gegensatz zur Varianz-Kovarianzmatrix keine Informationen enthalten. Die Varianz-Kovarianzmatrix wiederum enthält weniger Informationen als die ursprüngliche Datenmatrix, da sie nur die Zusammenhänge zwischen den Variablen beschreibt, nicht aber das

Abb. 2.3 Lineare Beziehung von Religiosität und Rassismus

Niveau der Variablen. Hierfür wird zusätzlich ein Vektor mit den Mittelwerten der Variablen benötigt.

Strukturgleichungsmodelle können auf der Basis von Korrelationsmatrizen, Varianz-Kovarianzmatrizen oder Varianz-Kovarianzmatrizen mit zusätzlichen Mittelwerten geschätzt werden (siehe auch Abschn. 2.6.5), wobei die letztgenannte Kombination dem linearen Regressionsmodell entspricht [5]. Je höher der Informationsgehalt der Daten, desto höher auch der Informationsgehalt der Modellschätzungen.

  • [1] Gemeint ist hier der Pearsonsche Korrelationskoeffizient r, der für zwei intervallskalierte Variablen berechnet werden kann. Wenn eine oder beide Variablen nicht intervallskaliert sind, können alternative Korrelationskoeffizienten (z. B. Rangkorrelationen) berechnet werden (Reinecke 2014, Kap. 4.2.2)
  • [2] Die Standardabweichung ist wie oben auf Seite 23 dargelegt ein Maß für die Streuung einer Variablen. Indem die Messwerte beider Variablen durch die jeweilige Standardabweichung geteilt, also in Standardabweichungen ausgedrückt werden, transformiert man die Variablen gewissermaßen in eine gemeinsame Einheit, die unabhängig von den ursprünglichen Einheiten und Wertebereichen ist
  • [3] Es empfiehlt sich, dieses Beispiel mit Papier und Bleistift nachzuvollziehen
  • [4] Für standardisierte Variablen mit einem Mittelwert von 0 und einer Varianz von 1 sind Korrelationsund Varianz-Kovarianzmatrix identisch. Die Korrelationsmatrix kann deshalb auch als diejenige Varianz-Kovarianzmatrix verstanden werden, die sich ergeben würde, wenn die Variablen vorab standardisiert würden
  • [5] Die Rohdatenmatrix enthält mehr Informationen als die Kombination von Varianz-Kovarianzmatrix und Mittelwerten. Diese werden von linearen Modellen aber nicht berücksichtigt
 
<<   INHALT   >>

Related topics