Desktop-Version

Start arrow Betriebswirtschaft & Management arrow Erfolgsfaktoren für Innovation in Unternehmen

< Zurück   INHALT   Weiter >

7.5.3 Multikollinearität

Das lineare Regressionsmodell hat die Prämisse, dass die unabhängigen Variablen nicht voneinander abhängig sind. Eine Variable darf also keine lineare Funktion der anderen Variablen darstellen. Dies wäre der Fall perfekter Multikollinearität und wür-de eine Regressionsanalyse unmöglich machen. Eine solche perfekte Multikollinearität kommt bei sinnvoll erhobenen empirischen Daten nur vor, wenn das Modell falsch spezifiziert ist, also beispielsweise zweimal die gleiche Variable verwendet wird.

Ein gewisses Maß an Multikollinearität ist aber bei empirischen Datensätzen nicht auszuschließen. Problematisch wird diese erst ab einer gewissen Höhe, da sich dann die Streuungen der einzelnen Variablen immer stärker überschneiden und es im Wesentlichen aus drei Gründen zur Beeinträchtigung der multiplen Regressionsanalyse kommen kann:

Beeinträchtigung der Messung von R und R2

Wie bereits beschrieben ist R eine Maßzahl für die Korrelationen der Faktoren und der abhängigen Variable und das R2 zeigt, wie viel der Varianz durch die einzelnen Faktoren erklärt werden kann. Nehmen wir den Fall, dass ein Faktor bereit recht erfolgreich die abhängige Variable vorhersagt, beispielsweise mit einem R2 von 0,7. Wird nun ein weiterer Faktor hinzugefügt, welcher stark mit dem ersten korreliert, dann kann es passieren, dass das R2 nur minimal steigt, beispielsweise auf 0,75. Und das obwohl die erklärte Varianz dieses neuen Faktors deutlich größer als 0,05 ist. Das kommt daher, dass der neue Faktor nur wenig „neue“ Varianz erklärt. Durch die hohe Korrelation mit dem ersten Faktor erklären beide viel derselben Varianz. Je geringer die Korrelation, desto größer der potentielle Beitrag weiterer Faktoren im Modell. Zudem bedeutet eine hohe Multikollinearität auch eine gewisse Redundanz der unabhängigen Variablen. Im Extremfall kann es vorkommen, dass das R2 einer Regression signifikant ist, während keiner der Koeffizienten signifikant wird (vgl. Field, 2005).

Wichtigkeit der Faktoren

Wenn zwei Faktoren hoch miteinander korrelieren. So ist nicht festzustellen, welcher der Faktoren die Varianz der unabhängigen Variablen erklärt. Im Extremfall wären beide austauschbar. Daher kann es passieren, dass nicht mit Sicherheit festgestellt werden kann, welche der unabhängigen Variablen, hier gleichbedeutend mit Faktoren, wichtiger ist als eine andere.

Unbeständige Faktorwerte

Die hohe Überschneidung der erklärten Varianz der abhängigen Variablen macht es schwierig, den Einfluss der einzelnen Faktoren genau zu bestimmen. Die Werte können recht stark schwanken oder eine hohe Abweichung ausweisen.

Um diesem Problem zu begegnen wird erstmal die Korrelationsmatrix betrachtet. Korrelationen über 0,9 sind starke Indikatoren für Multikollinearität. Allgemein gilt, dass alle Werte nahe 1 zu vermeiden sind.

Im konkreten Fall existieren fast überall signifikante Korrelationen, ausgenommen gegenüber Faktor 5, alle sind allerdings hinreichend niedrig. Erst Werte über 0,9 wären kritisch, Werte deutlich über 0,8 sind genauer zu betrachten. Basierend auf der Korrelationsmatrix (Tabelle 30) kann demnach keine Multikollinearität festgestellt werden. Die höchste Korrelation zwischen Faktor 1 und Faktor 8 liegt mit 0,78 unterhalb beider Schwellen.

Tabelle 30: Korrelation der einzelnen Faktoren miteinander

Faktor 1

Faktor 2

Faktor 3

Faktor 4

Faktor 5

Faktor 6

Faktor 7

Faktor 1: Innovationskultur

1

0,52

0,38

0,37

–0,21

0,56

0,78

Faktor 2: Innovationsstrategie

0,52

1

0,63

0,55

–0,18

0,66

0,70

Faktor 3: Kundenorientierung

0,38

0,63

1

0,45

–0,18

0,65

0,48

Faktor 4: Organisation

0,37

0,55

0,45

1

–0,13

0,54

0,40

Faktor 5: Erfolgsorientierung

–0,21

–0,18

–0,18

–0,13

1

–0,14

–0,32

Faktor 6: R&P-Management

0,56

0,66

0,65

0,54

–0,14

1

0,54

Faktor 7: Risikobereitschaft

0,78

0,70

0,48

0,40

–0,32

0,54

1

Es gibt einige Fälle, in denen alle Korrelationen unterhalb der kritischen Grenzen liegen, welche aber in ihrer Gesamtheit dennoch das Modell beeinflussen. Daher werden in einem zweiten Schritt weitere Indikatoren für Multikollinearität herangezogen, um diese komplett auszuschließen. Dies sind der VIF und die Toleranzstatistik. VIF steht für „Variance inflation factor“ und zeigt an, ob eine unabhängige Variable eine starke lineare Abhängigkeit zu den anderen hat. Die Toleranzstatisik ist der Kehrwert des VIF, wie in Tabelle 31 ersichtlich.

Tabelle 31: VIF und Toleranz für beide Regressionsmodelle

Toleranz

VIF

(Konstante)

Faktor 1: Innovationskultur

0,34

2,92

Faktor 2: Innovationsstrategie

0,32

3,11

Faktor 3: Kundenorientierung

0,50

2,01

Faktor 4: Organisation

0,63

1,58

Faktor 5: Erfolgsorientierung

0,88

1,14

Faktor 6: R&P-Management

0,39

2,57

Faktor 7: Risikobereitschaft

0,25

4,07

Beide Tests sind unabhängig vom Modell, ob mit Fremdoder Selbsteinschätzung, da die Beziehung der unabhängigen Variablen untereinander untersucht wird und die abhängige Variable hier keine Rolle spielt.

Es gibt keine allgemein akzeptierten Regeln welche Grenzwerte für VIF und Toleranz gelten, aber es gibt verschiedene Ansätze. Zuerst soll die Toleranz betrachtet werden:

• Eine Toleranz unterhalb von 0,1 zeugt von einem gravierenden Problem (vgl. Field, 2003).

• Eine Toleranz unter 0,2 kann ein Problem bedeuten (vgl. Menard, 1995).

Alle Toleranzen liegen oberhalb von 0,2. Damit sind diese basieren auf den genannten Ansätzen über jeden Zweifel erhaben.

Dazu gibt es zwei Richtwerte für die Höhe des VIF:

• Ein einzelnes VIF, das größer als 10 ist, ist ein Grund zur Sorge (vgl. Bowerman &

O'Connell, 1990).

• Wenn der Durchschnitt alles VIFs deutlich größer als 1 ist, dann könnte es sein, dass das Regressionsmodell beeinflusst wird.

Das höchste VIF ist das des Faktor 7 und mit 4,07 deutlich geringer als der Grenzwert von 10. Dabei zeigt sich hier die Parallele zur Korrelationsanalyse, da auch dort der Faktor 7 durch eine recht hohe Korrelation aufgefallen ist. Spätestens auf Basis des VIF kann eine Einfluss durch Multikollinearität aber ausgeschlossen werden. Der Durchschnitt der VIFs ist mit 2,49 etwas größer als 1, aber nicht deutlich größer. Nachdem alle anderen Indikatoren Multikollinearität ausschließen, ist diese nicht als

„deutlich“ größer einzuschätzen.

Insgesamt kann festgehalten werden, dass keine schädliche Multikollinearität festgestellt werden kann. Eine gewisse Multikollinearität lässt sich in dem Modell nicht vermeiden, da die einzelnen Faktoren für Innovationsfähigkeit auch inhaltlich nicht unabhängig voneinander sind und sich gegenseitig beeinflussen. Allerdings sind alle Tests negativ für Multikollinearität ausgefallen, die Grenzwerte wurden eingehalten.

 
< Zurück   INHALT   Weiter >

Related topics