Start Politikwissenschaft
Strukturgleichungsmodelle
|
|
|||||
1 Einleitung1.1 Wieso, weshalb, warum? Strukturgleichungsmodelle in der PolitikwissenschaftEmpirische politikwissenschaftliche Theorien bestehen aus Annahmen über die Realität (Hypothesen), deren Gültigkeit zumindest prinzipiell überprüft werden kann, wie diese drei bekannten Beispiele zeigen: Arbeitslosigkeit verursacht politische Apathie (Jahoda et al. 1975), Demokratien führen untereinander seltener Angriffskriege als Nicht-Demokratien (u. a. Doyle 1983), Konsensdemokratien sind erfolgreicher als Mehrheitsdemokratien (Lijphart 1999). Das bei weitem am häufigsten verwendete Verfahren zur Prüfung solcher Hypothesen ist die (multiple) lineare Regression, die eine abhängige Variable y (z. B. Zahl der Angriffskriege) zu einer oder mehreren unabhängigen Variablen x1, x2, x3 ... (Regimetyp, Vorhandensein einer gemeinsamen Grenze, Größe und Ausrüstung der jeweiligen Armeen etc.) in Beziehung setzt. Für jede unabhängige Variable wird ein Koeffizient geschätzt, der einen Eindruck davon vermittelt, wie stark und in welche Richtung sich Veränderungen in der jeweiligen unabhängigen Variablen auf die abhängige Variable auswirken.Das Verfahren der linearen Regression ist robust, einfach anzuwenden und zu interpretieren. Es bildet den Grundstein für eine Reihe von weiteren Regressionsverfahren (etwa logistische oder Poisson-Regression), die z. B. der besonderen Abb. 1.1 Eine einfache Kausalkette Verteilung einer gegebenen abhängigen Variablen Rechnung tragen. Etwaige Beziehungen zwischen den unabhängigen Variablen (beispielsweise könnten Demokratien ceteris paribus über kleinere Armeen verfügen) verursachen in der Regel keine Probleme [1], werden vom Verfahren aber als gegeben betrachtet und nicht gesondert modelliert. Letzteres ist dann von Nachteil, wenn die jeweilige Theorie eine ganze Reihe von miteinander verbundenen Hypothesen enthält, die gemeinsam getestet werden sollen, wie ein viertes Beispiel zeigt. So ist es erstens plausibel anzunehmen, dass Menschen, die auf dem Arbeitsmarkt mit Migranten konkurrieren, gegenüber dieser Bevölkerungsgruppe negative Einstellungen entwickeln. Zweitens dürften solche negativen Einstellungen ein wesentlicher Faktor für die Wahlentscheidung zugunsten fremdenfeindlicher Parteien sein. Ein und dieselbe Einstellung (Fremdenfeindlichkeit) wird also einmal als abhängige und einmal als unabhängige Variable betrachtet (vgl. Abb. 1.1). Betrachtet man über diese drei Variablen hinaus beispielsweise noch die Ursachen einer Konkurrenz auf dem Arbeitsmarkt, die weiteren Folgen fremdenfeindlicher Einstellungen sowie die Folgen einer rechten Wahlentscheidung ergibt sich rasch ein ganzes „Netz“ (Falter 1977b) von Kausalbeziehungen. Aus dem Wunsch, ein solches Netz durch ein komplexeres mathematisches Modell abzubilden (was keineswegs immer notwendig oder sinnvoll ist), entstand das Verfahren der klassischen Pfadanalyse, das von dem amerikanischen Genetiker Sewall Wright in den 1920er und 1930er Jahren entwickelt und seit den 1960er Jahren für die Soziologie und andere Sozialwissenschaften nutzbar gemacht wurde (Kaplan 2009, S. 1–6; Raftery 2001). Die Anwendung der Pfadanalyse setzt allerdings voraus, dass die Variablen, die die Knoten des kausalen Netzes bilden, direkt beobachtet werden können. In der Politikwissenschaft ist dies häufig nicht der Fall: Konzepte wie „Fremdenfeindlichkeit“ oder „Demokratie“ müssen erst mit Hilfe einer Messanweisung operationalisiert werden. Eine solche Messanweisung setzt eine nicht-beobachtbare Variable Abb. 1.2 Messung einer latenten Variablen durch mehrere Indikatoren (auch: latente Variable, Konstrukt, Faktor) zu einer oder mehreren beobachtbaren Variablen (auch: manifeste Variable, Indikator) in Beziehung. Dabei ist es nicht notwendig, dass ein Indikator die latente Variable perfekt abbildet oder dass alle Indikatoren in gleicher Weise geeignet sind, eine latente Variable zu messen. Vielmehr ist die Modellierung der unvermeidlichen MESSFEHLER Bestandteil des Verfahrens (siehe Abschn. 2.3). Bereits zu Beginn des 20. Jahrhunderts wurden von Charles Spearman und Karl Pearson verschiedene Verfahren zur Analyse des Zusammenhangs zwischen manifesten und latenten Variablen entwickelt. Diese Verfahren werden unter dem Namen FAKTORENANALYSE zusammengefasst und fanden vor allem in der Psychologie weite Verbreitung. Sie werden dort primär zur Identifikation von Intelligenzund anderen Persönlichkeitsfaktoren sowie zur Auswertung von Einstellungstests eingesetzt. Solche komplexen Konzepte werden mit guten Gründen durch jeweils mehrere Indikatoren abgebildet. Beispielsweise dürfte es sehr schwierig sein, ein einzelnes Fragebogen-Item zu finden, das eine komplexe und zugleich relativ diffuse Einstellung wie Fremdenfeindlichkeit in perfekter Weise misst. Stattdessen wird man eine große Zahl von Items (i1, i2, i3,.. .) entwickeln, die sich auf diesen Gegenstandsbereich beziehen, und diese einer Gruppe von Befragungspersonen vorlegen. Erfahrungsgemäß werden unterschiedliche Frageformulierungen in ähnlicher, aber nicht identischer Weise beantwortet, weil jedes einzelne Item bei den Befragten spezifische Reaktionen auslöst. Deshalb wird man anschließend versuchen, mit Hilfe faktoranalytischer Verfahren aus den Antwortmustern einen gemeinsamen Faktor, nämlich die Einstellung „Fremdenfeindlichkeit“ zu extrahieren, die einen mehr oder minder großen Anteil des Antwortverhaltens erklären kann (Abb. 1.2) [2]. Von einem politikwissenschaftlichen Standpunkt erscheint es naheliegend, Faktorund Pfadanalyse in einem gemeinsamen mathematischen Modell zu kombinieren, weil ein solches Konstrukt die Struktur vieler politikwissenschaftlicher Theorien adäquat abbildet. Tatsächlich wurden solche Strukturgleichungsmodelle [3] jedoch erst Ende der 1960er/Anfang der 1970er Jahre entwickelt. Zum einen fehlten zuvor die mathematischen Grundlagen, zum anderen setzte der praktische Einsatz dieser neuen Modelle den Zugang zu leistungsfähigen Computern voraus, die in der Lage waren, die Modellparameter zu schätzen. Die ersten Programme, mit denen dies möglich war, liefen auf den großen Computeranlagen der Universitätsrechenzentren und waren nur durch Spezialisten zu bedienen (siehe dazu ssicentral.com/lisrel/history.html). Erst die Verbreitung von leistungsstarken PCs in den 1990er Jahren führte zur Entwicklung benutzerfreundlicher(er) Programme. Dementsprechend sind Strukturgleichungsmodelle für die Politikwissenschaft im Gegensatz zu anderen Disziplinen wie der Psychologie oder der empirischen Bildungsforschung immer noch eine relativ neue Methode. Zudem ist die Grundlagenforschung in diesem Bereich noch keineswegs abgeschlossen: Nach wie vor werden die zugrundeliegenden mathematischen Modelle modifiziert und erweitert. Ziel dieses Buches kann es deshalb nur sein, einen ersten, anwendungsbezogenen Überblick über die Möglichkeiten des Verfahrens zu vermitteln. Der mathematische Apparat ist auf das absolute Minimum reduziert, auf Herleitungen und Beweise wird vollständig verzichtet. Vorausgesetzt werden lediglich mathematische Grundkenntnisse aus der Sekundarstufe I. Eine kompakte, auf sozialwissenschaftliche Anwendungen bezogene Darstellung dieser Grundlagen bietet Hagle (1995). Gill (2006) vermittelt ebenfalls anwendungsbezogen zusätzliches Hintergrundwissen. Geeignete Einführungen in die sozialwissenschaftliche Statistik sind Gehring und Weins (2009) sowie Kühnel und Krebs (2012). Weitere Hinweise auf weiterführende Literatur finden sich in Kap. 5. In der Forschungspraxis werden heute alle Berechnungen von Computerprogrammen vorgenommen, ohne dass der Anwender im einzelnen verstehen muss (oder kann) was innerhalb des Programms vor sich geht. Dennoch können (und sollen!) die einfachen Rechenbeispiele im Text mit Papier und Bleistift nachvollzogen werden [4]. Nur auf diese Weise lässt sich ein tieferes Verständnis des Verfahrens erreichen, was letztlich zu einem souveräneren Umgang mit den Ergebnissen der computergestützten Analysen führt.
|
<< | INHALT | >> |
---|
Related topics |