Desktop-Version

Start arrow Politikwissenschaft arrow Strukturgleichungsmodelle

  • Increase font
  • Decrease font


<<   INHALT   >>

2.6 Stichproben, Schätzungen, Strategien

2.6.1 Realität, Modell und Daten

Bisher war schon einige Male die Rede davon, dass Strukturgleichungsmodelle bzw. deren Parameter „geschätzt“ werden müssen. Hinter dieser Formulierung steht die Überlegung, dass die in einem bestimmten Datensatz beobachteten Zusammenhänge in der Regel generalisiert werden sollen.

Im einfachsten Fall handelt es sich beim Datensatz um eine einfache Zufallsstichprobe, von der auf die zugehörige Grundgesamtheit geschlossen wird (vgl. Abb. 2.9). In der Realität sind Zufallsstichproben allerdings meistens zweioder mehrfach gestuft. Beispielsweise werden für telefonische Befragungen in der Regel Festnetzanschlüsse zufällig ausgewählt. Innerhalb des Haushaltes wird dann die zu befragende Person durch einen Zufallsgenerator oder eine Annäherung daran

(z. B. die „Geburtstagsmethode“) bestimmt [1]. Durch diese zweifache Zufallsauswahl vergrößert sich der Stichprobenfehler. Sofern der Stichprobenplan bekannt ist und die verwendete Software über entsprechende Optionen verfügt, sollten diese Informationen bei der Modellschätzung berücksichtigt werden, da ansonsten die Präzision der Modellschätzungen zu optimistisch beurteilt würde [2].

In diesem Zusammenhang stellt sich oft die Anschlussfrage, wie groß die Stichprobe mindestens sein sollte. Im Bereich der Auswertung experimenteller Studien wird manchmal auf Faustregeln wie „mindestens 100 Personen“ und „mindestens zehn Fälle pro Parameter“ verwiesen, woraus sich für einfache Modelle Stichprobenumfänge im Bereich von 200 bis 300 Fällen ergeben würden.

Dies erscheint viel zu niedrig gegriffen. Die in Abschn. 2.6.2 vorgestellten Schätzverfahren produzieren Ergebnisse, die asymptotisch, d. h. in „sehr großen“ Stichproben korrekt sind. Simulationsstudien (siehe Seite 60) zeigen, dass je nach Schätzverfahren und Komplexität des Modells zumindest mehrere hundert, besser noch aber deutlich mehr als 1000 Fälle verwendet werden sollten.

In der Wahlund Einstellungsforschung sind große repräsentative Zufallsauswahlen Standard. In anderen Gebieten der Politikwissenschaft, vor allem im Bereich der makro-quantitativen Forschung, sind Vollerhebungen relativ kleiner Grundgesamtheiten (z. B. der OECD-Staaten) die Regel. Hier stellt sich manchmal die Frage, ob es sich bei den errechneten Werten überhaupt um Schätzungen handelt, die mit einer durch die Standardfehler ausgedrückten Unsicherheit behaftet sind.

Im Falle von Zeitreihendaten wird dabei häufig argumentiert, dass die beobachteten Werte kontinuierlich von einem unbekannten Prozess hervorgebracht werden, der an die Stelle der Grundgesamtheit tritt. Macht man sich dieses Argument zu eigen, erscheint es durchaus sinnvoll von Schätzungen zu sprechen und Standardfehler zu berechnen.

Weniger klar ist die Situation, wenn eine abgegrenzte Gruppe von Staaten in einer bestimmten Phase betrachtet wird, die im Grunde nur für sich selbst stehen (z. B.die 15 Mitglieder der EU zum Zeitpunkt der Osterweiterung). Gelegentlich wird hier darauf hingewiesen, dass der Zustand dieser Staaten in diesem historischen Augenblick von vielen Faktoren abhing, die als zufällig betrachtet werden können. Hinzu kommt, dass selbst die Messung scheinbar harter Fakten wie etwa des Bruttosozialproduktes oder der Arbeitslosigkeit von zufälligen Fehlern überlagert ist. Deshalb seien auch die 15 alten EU-Staaten wie eine Stichprobe aus einer Grundgesamtheit von möglichen alten EU-Staaten zu betrachten. Die Nützlichkeit solcher Überlegungen und die Interpretation der resultierenden Standardfehler sind durchaus strittig (Berk 2004; Berk et al. 1995; Bollen 1995). Dennoch finden sich in vielen veröffentlichten Arbeiten Standardfehler für Vollerhebungen.

Auch dann, wenn es sich um eine Zufallsstichprobe handelt, ist die korrekte Verbindung von Realität, Modell und Daten keineswegs trivial: Anwenderinnen von Strukturgleichungsmodellen interessieren sich für einen Ausschnitt der Realität, der per definitionem nicht direkt beobachtet werden kann und von dem sie nicht wissen, ob er überhaupt existiert. Ihre Vorstellungen über diese ungewisse Realität formulieren sie als strukturelle Modelle (Abschn. 2.5), d. h. als mathematische Beschreibungen der von ihnen vermuteten Zusammenhänge zwischen den latenten Variablen. Diese mathematischen Modelle sind im besten Fall eine grobe Vereinfachung der Realität, im schlechtesten Fall weichen sie völlig davon ab, indem sie beispielsweise theoretische Konstrukte enthalten, für die es in der Wirklichkeit keine Entsprechung gibt. Messmodelle, die ihrerseits falsch spezifiziert sein können, stellen die Verbindung zu den empirischen Daten her.

Wie im nächsten Abschnitt erläutert wird, setzen alle Schätzverfahren voraus, dass strukturelles Modell und Messmodell(e) korrekt spezifiziert sind, d. h. genau diejenigen Beziehungen zwischen den Variablen enthalten, die auch in der Wirklichkeit existieren. Überprüfen lässt sich diese Annahme normalerweise nicht. Umso wichtiger ist es, dass die theoretischen Annahmen über die Wirklichkeit plausibel sind, dem aktuellen Forschungsstand entsprechen und präzise in ein mathematisches Modell überführt werden.

  • [1] Bei der „Geburtstagsmethode“ fragt der Interviewer in Mehrpersonenhaushalten zunächst die Kontaktperson, welches volljährige Haushaltsmitglied zuletzt Geburtstag hatte, und interviewt dann diese Person. Dabei kann es sich durchaus auch um die ursprüngliche Kontaktperson handeln. Da sich Geburtsdaten in etwa gleich über das Jahr verteilen, kann so ohne weitere Hilfsmittel eine Zufallsauswahl approximiert werden
  • [2] Beispielsweise können in Stata mit Hilfe des svyset-Kommandos Informationen über die Stichprobenziehung in die Schätzung integriert werden
 
<<   INHALT   >>

Related topics