Desktop-Version

Start arrow Politikwissenschaft arrow Freiwillige Arbeit in gemeinnützigen Vereinen

< Zurück   INHALT   Weiter >

7.3.4 Multivariate Analysen und Hypothesenprüfung

Die Zugehörigkeit zu den Clustern ist polytom, also mit mehrfach nominaler Ausprägung codiert: 1 = pseudo-altruistisches Cluster, 2 = sozial-religiöses Cluster, 3 = selbstzentriert-hedonistisches Cluster und 4 = Selbstwert- und Kompensationscluster. Daher werden für die multivariaten Auswertungen multinomiale logistische Regressionsanalysen[1] berechnet (Spieß 2010, S. 496). Dies gilt ebenso für die Modelle, in denen die drei Organisationsformen als abhängige Variable integriert werden. Mit diesem Regressionsverfahren lässt sich ausdrücken, „mit welcher Wahrscheinlichkeit bestimmte Ereignisse eintreten und welche Einflussgrößen diese Wahrscheinlichkeiten bestimmten“ (Backhaus et al. 2008, S. 244). Zunächst soll überprüft werden, ob sich die Zugehörigkeit zu bestimmten Organisationsformen (abhängige Variable) durch die Motivstrukturen (unabhängige Variable) der Freiwilligen erklären lassen. Anschließend wird untersucht, mit welcher Wahrscheinlichkeit die Freiwilligen unterschiedlicher Organisationsformen und Kapitalausstattungen (unabhängige Variablen) auch signifikant unterschiedliche Motivstrukturen (abhängige Variable) aufweisen, ob und in welchem Ausmaß die Motivstruktur also durch die Kapitalsorten und die Zugehörigkeit zu einer der drei Organisationsformen erklärt werden kann. Schließlich wird in Kapitel 8.8 untersucht, wie Merkmale der Religion und Religiosität (unabhängige Variablen) die Wahrscheinlichkeit, freiwillig zu arbeiten (dichotome abhängige Variable) beeinflussen und, ob die Merkmale der Religion und Religiosität (unabhängige Variablen) die Wahrscheinlichkeit beeinflussen, in einer der Organisationsformen (abhängige Variable) freiwillig tätig zu sein. Für die dichotomen abhängigen Variablen werden binärligistische Regressionsmodelle berechnet. Im Folgenden wird das allgemeine logistische Regressionsmodell vorgestellt.

Die Motivstrukturen sind durch die Clustervariablen abgebildet. P drückt die Wahrscheinlichkeit aus, dass Freiwillige in ein bestimmtes Motivcluster fallen (y = 1) oder nicht (y = 0). Die Wahrscheinlichkeit p des Eintretens der abhängige Variable y = 1 wird durch die Summe der Einflussstärken der unabhängigen Variablen Xj bestimmt[2]. Diese Summe der Einflussstärken aller unabhängigen Variablen wird als die latente Variable Z bezeichnet, die durch eine Linearkom-bination der Einflussgrößen Xj erzeugt wird. Die logistische Regressionsanalyse berechnet die Wahrscheinlichkeit für das Eintreten des Ereignisses y = 1 bzw. das Ausbleiben des Ereignisses y = 0 durch die Einflussstärke Z mit einer logistischen Funktion p (Backhaus et al. 2008, S. 249).

Die Eintrittswahrscheinlichkeit wird also durch Rückgriff auf die logistische Funktion für einen Fall k berechnet (Bebd, S. 253). Die Parameter B werden durch die Maximum-Likelihood-Methode geschätzt, so dass die Wahrscheinlichkeit, die Beobachtungswerte für die Zugehörigkeit zu oder den Ausschluss von einem Motivcluster zu erhalten, für jeden Fall möglichst groß ist, also maximiert (max!). Aufgrund der stochastische Unabhängigkeit der einzelnen Fälle wird dazu die logistische Funktion für das Eintreten und das Ausbleiben des Ereignisses für alle Fälle multipliziert (ebd.).

Durch das Anwenden des Logarithmus kann das Produkt ersetzt und die Maximum-Likelihood-Funktion vereinfacht warden[3]. Durch die Methode der kleinsten Quadrate werden als erstes die Einflussgewichte der unabhängigen Variablen bj geschätzt. Anschließend wird die Eintrittswahrscheinlichkeit mit der Logit-Funktion berechnet und der Log-Likelihood-Wert für alle Fälle, um die Gesamt-Log-Likelihood-Funktion zu bestimmen. Dieser Vorgang wird solange wiederholt, bis ein Wert von bj gefunden ist, der die Gesamt-Log-LikelihoodFunktion nicht mehr maximiert (ebd.). Die iterative Parameterschätzung wird durch die Maximum-Likelihood-Methode vorgenommen.

Bei logistischen Regressionsanalysen kann kein linearer Zusammenhang zwischen den unabhängigen Variablen und der Eintrittswahrscheinlichkeit des Ereignisses angenommen werden (ebd., S. 256). Daher ist auch keine lineare Interpretation der Regressionskoeffizienten bj möglich. Allein die Richtung des Einflusses kann durch die Vorzeichen interpretiert werden. Daher werden die Wahrscheinlichkeitsverhältnisse oder auch Chancen (Odds) der Eintrittswahrscheinlichkeit zur Gegenwahrscheinlichkeit berechnet (Backhaus et al. 2008, S. 258; Diaz-Bone 2006, S. 234). Die Odds können Werte von 0 bis +co annehmen (Backhaus et al. 2008, S. 259).

Auf Basis der Log-Likelihood-Funktion wird die Güte der Modellanpassung überprüft. Die Devianz oder auch der -2Log-Likelihood-Wert, also der zweifache logarithmierte Likelihood-Wert, folgt der Chi²-Verteilung mit den entsprechenden Freiheitsgraden (K-J-1)[4] (Backhaus et al. 2008, S. 261). Je näher sich der Chi²-Wert an Null annähert und nicht signifikant ist, desto besser ist die Modellgüte und die H0, die besagt, dass das Modell eine perfekte Passung besitzt, kann angenommen werden (ebd., S. 270). Die Devianz ist allerdings nicht unabhängig von der Verteilung der Fälle auf die Kategorien der abhängigen Variablen. Da die Verteilung der Freiwilligen auf die Motivcluster in der vorliegenden Analyse jedoch nicht übermäßig schiefverteilt ist, ist nicht mit einer überbewerteten Modellgüte zu rechnen (Kapitel 7.3.3, Backhaus et al. 2008, S. 262; Hosmer und Lemeshow 2000, S. 13).

Dennoch wird der Likelihood-Ratio-Test (auch Modell Chi²-Test) zur Beurteilung der Signifikanz des Gesamtmodells berechnet, der robuster gegenüber der Verteilung ist. Er testet die Hypothese H0, alle Regressionskoeffizienten sind bj = 0, gegen die H1, die besagt, dass mindestens ein Regressionskoeffizient bj i0 ist[5]. Dies geschieht durch Berechnung der Differenz des Log-Likelihood-Werts des Null-Modells L0, also dem Wert ohne die Regressionskoeffizienten, und des Log-Likelihood-Werts des vollständigen Modells Lv. Für den so ermittelten Differenzwert wird anhand der Chi²-Tabelle mit seinen Freiheitsgraden überprüft, ob die H0 abgelehnt werden muss oder nicht (Backhaus et al. 2008, S. 262; Hosmer und Lemeshow 2000, S. 13).

Um die Modellgüte zu messen, wird überprüft, wie viel die unabhängigen Variablen zur Erklärung der Zugehörigkeit zu einer der Gruppen der abhängigen Variable beitragen. Das wird in der vorliegenden Analyse über das Nagelkerke R² berechnet. Es kann maximal den Wert 1 annehmen und ist daher inhaltlich gut interpretierbar und verwandten Pseudo-R²-Statistiken wie z.B. dem Cox- und Snell-R² überlegen (Backhaus et al. 2008, S. 264). Auch dieser Test wird auf Basis des Likelihood-Werts (des Null-Modells L0 und des vollständigen Modells Lv) berechnet (ebd.).

Der Likelihood-Quotient-Test wird berechnet, damit ein sogenanntes „Overfitting“ vermieden werden kann, also nicht zu viele irrelevante Variablen in das Modell aufgenommen werden. Dabei wird die Differenz der -2Log-Likelihoods mit und ohne den entsprechenden Koeffizienten berechnet und anhand der Chi²Verteilung mit den entsprechenden Freiheitsgraden überprüft, ob „die Effekte des Regressionskoeffizienten“ bj = 0 sind (H0) oder nicht (H1) (ebd., S. 272).

Die Wald-Statistik W misst ebenfalls, ob der Regressionskoeffizient signifi-

kant zur Trennung der Kategorien der abhängigen Variable beiträgt (H1) oder nicht (H0). Dabei wird der Regressionskoeffizient bj durch seinen Standardfehler sbj geteilt und dieser Quotient quadriert. Der berechnete W-Wert ist asymptotisch Chi²-verteilt und entsprechend seiner Freiheitsgrade signifikant oder nicht (Backhaus et al. 2008, S. 273; Diaz-Bone 2006, S. 250).

Eine weitere Möglichkeit zur Beurteilung der Güte der Anpassung ist die Beurteilung der Klassifikationsergebnisse (Backhaus et al. 2008, S. 267). Zum einen sollte der Anteil der Trefferquote der logistischen Regression der zufälligen Zuordnung der Fälle überlegen sein. Dies ist einem multinomialen Modell dann erreicht, wenn der Anteil der richtig klassifizierten Fälle höher ist als der Anteil der größten Gruppe an der Gesamtstichprobe, im vorliegenden Falle z.B. größer als Cluster 1 mit 38,2 %, bzw. größer als die Gruppe Freiwilliger christlicher Organisationen mit 58,7 %. Bei der binär-logistischen Regressionsanalyse gilt eine Klassifikation als überzufällig, wenn sie 50,0 % überschreitet.

  • [1] Das multinomiale logistische Regressionsmodell unterscheidet sich nur marginal vom binären logistischen Regressionsmodell z.B. hinsichtlich der Gütemaße (Backhaus et al. 2008, S. 245; Hosmer und Lemeshow 2000, S. 33)
  • [2] Da es sich im vorliegenden Falle nicht um metrische unabhängige Merkmale handelt, werden die unabhängigen Variablen auch Faktoren genannt
  • [3] LL = .Lk=1 yk + ln (1+e-zk ) + (1 yk )* ln (1 1+e-zk )
  • [4] K = Anzahl der Beobachtungen, J = Anzahl der Parameter
  • [5] Backhaus und Kollegen (2008, S. 262) formulieren hier „H1: alle Regressionskoeffizienten sind ungleich Null“. Dies ist jedoch nicht korrekt. Das Gegenteil von H0: alle bj = 0 ist nicht H1: alle bj i0 sondern nicht alle bj = 0 also ist mindestens ein bj i0. Die Autorin der vorliegenden Arbeit hat dies in ihrer Analysestrategie korrigiert
 
< Zurück   INHALT   Weiter >

Related topics