Fandom

Marktforschungs-Wiki

Multiple Regressionsanalyse

90Seiten in
diesem Wiki
Seite hinzufügen
Diskussion0 Teilen

Grundlagen Bearbeiten

Die multiple Regressionsanalyse ist das flexibelste und in der Praxis sowohl in der Markt- als auch in der Sozialforschung am häufigsten eingesetzte multivariate Analyseverfahren. Sie dient der Untersuchung der Beziehung zwischen einer abhängigen und einer oder mehrerer unabhängigen Variablen. Die Regressionsanalyse kann unter anderem in der Ursachenanalyse (Darstellung und Quantifizierung von Wirkungszusammenhängen) und in der Prognostik (Prognose der Werte der abhängigen Variablen) zum Einsatz kommen.

Ein einfaches Beispiel: Wie verändert sich die Absatzmenge eines Konsumguts (abhängige Variable) bei Veränderungen am Produktpreis, an den Werbeausgaben oder der Anzahl der Vertreterbesuche pro potentiellem Kunden (unabhängige Variablen)? Sind lineare Zusammenhänge zu vermuten, dann ist eine multiple Regressionsanalyse hier das Idealverfahren zur Untersuchung des Sachverhalts.

Ein Ergebnis einer Regressionsanalyse ist stets die Regressionsfunktion:

  • Y = f(x) >> einfache Regression (eine abhängige und eine unabhängige Variable)
  • Y = f(x1, x2, x3, .... xn) >> multiple Regression (eine abhängige und mehrere unabhängige Variablen)

Da der Informationswert eines multiplen Regressionsmodells sehr hoch ist, bringt die Regressionsanalyse unter allen den multivariaten Analyseverfahren die meisten und detailliertesten Voraussetzungen mit sich. Nur selten lassen sich diese in der Praxis vollständig erfüllen und häufig liegt es in der Verantwortung des Marktforschers, auf der Basis seiner Erfahrungen und seiner Methodenkenntnisse eine Entscheidung über Abbruch oder Fortsetzung des Verfahrens zu treffen.

Einen besonderen Problemfall stellen die sogenannten interdependenten Beziehungen dar. So ist beispielsweise bei einer Untersuchung von Bekanntheitsgrad und Absatzmenge eines Produkts nicht unbedingt klar, ob der Bekanntheitsgrad die Absatzmenge beeinflusst (bekannte Produkte werden häufiger gekauft) oder umgekehrt (Produkte, die zu großen Stückzahlen im Umlauf sind, sind auch bekannter). Solche interdependenten Systeme lassen sich nicht in einer einzigen Regressionsfunktion erfassen, sondern nur in Mehrgleichungsmodellen.

Korrelation und Kausalität in der Regressionsanalyse Bearbeiten

Hinsichtlich der Regressionsanalyse ist darauf hinzuweisen, dass es sich um ein strukturprüfendes Verfahren und nicht um ein strukturentdeckendes Verfahren handelt. Es kann nicht dazu eingesetzt werden, nach Kausalitäten zu suchen, sondern lediglich, ein vorhandenes, auf Kausalitäten aufbauendes Modell zu überprüfen. Warum ist dieser Unterschied wichtig? Als unerfahrener Marktforscher ist man oft versucht, Korrelationen direkt kausal zu interpretieren, oder grundsätzlich davon auszugehen, dass Korrelationen von Kausalitäten herrühren. Korrelation und Kausalität sind aber mitnichten dasselbe. Es handelt sich um vollkommen unterschiedliche Konzepte, die gerade bei der Regressionsanalyse nicht durcheinandergebracht werden sollten.

Eine Korrelation kann grundsätzlich auf eine Kausalität hindeuten, sie ist eine notwendige, aber noch keine hinreichende Bedingung für das Vorliegen von Kausalität. Liegt beispielsweise eine Korrelation zwischen den Variablen A und B vor, so könnte man vermuten, dass die Variable A die Variable B beeinflusst. Es könnte aber genauso gut sein, dass die Variable B die Variable A beeinflusst – das reine Auftreten einer Korrelation und der Grad derselben gestatten noch keinen definitiven Rückschluss auf Kausalzusammenhänge. Schließlich wäre es auch möglich, dass eine Scheinkorrelation vorliegt – die Variablen A und B würden in diesem Falle gar nicht wirklich direkt miteinander korrelieren, sondern mit einer dritten Variable C.

Transformation nichtlinearer Variablen Bearbeiten

Das lineare Regressionsmodell dient nicht der Bestimmung der optimalen Kurvenanpassung in allen Fällen. Es setzt einen linearen Zusammenhang zwischen abhängigen und unabhängigen Variablen voraus. Dies bedeutet allerdings nicht, dass nichtlineare Zusammenhänge keinesfalls in die Analyse einfließen dürfen: Liegen solche Zusammenhänge vor, ist die Transformation einzelner Variablen möglich.

Dazu ein Beispiel: Bei Wachstumsprozessen kommt es häufig vor, dass sich die unabhängige Variable linear, die abhängige aber exponentiell verändert (beispielsweise bei der Umweltbelastung durch bestimmte Schadstoffe). Bei einer solchen zeitgebundenen exponentiellen Entwicklung lässt sich der Zusammenhang zwischen der Umweltbelastung (abhängige Variable) und der Zeit (unabhängige Variable) als exponentielle und damit nichtlineare Gleichung darstellen. Wird diese nicht für die Regressionsanalyse geeignete Gleichung nun aber logarithmiert, so ergibt sich ein linearer Zusammenhang, der eine Regressionsanalyse gestattet.

Vorsicht: In diesem Fall bilden die logarithmierten Werte für die Umweltbelastung die abhängige Variable. Dies ist bei der Interpretation der Ergebnisse unbedingt zu beachten.

Ablauf einer Regressionsanalyse Bearbeiten

Die Regressionsanalyse lässt sich in vier wesentliche Arbeitsschritte unterteilen:

Im ersten Arbeitsschritt muss zunächst dass zu untersuchende Modell bestimmt werden, insbesondere sind die abhängige und die unabhängige(n) Variable(n) festzulegen, wobei hier fachliche Überlegungen im Vordergrund stehen müssen. Außerdem sind verschiedene Grundvoraussetzungen bezüglich des Skalenniveaus und des vermuteten Kausalgeflechts zu überprüfen. Im zweiten Schritt werden dann die Regressionskoeffizienten anhand der Methode der kleinsten Quadrate berechnet, anschließend kann dann mit den Regressionskoeffizienten die Regressionsfunktion – das eigentliche Ergebnis der Regressionsanalyse – aufgestellt werden.

Bevor man die Regressionskoeffizienten und die Regressionsfunktion inhaltlich interpretieren kann, ist im dritten Schritt zu prüfen, ob (a) die gefundene Funktion als Ganzes die abhängige Variable gut erklären kann und (b) welchen Beitrag die einzelnen unabhängigen Variablen zum Gesamtmodell leisten. Im vierten Schritt ist dann noch zu prüfen, inwieweit die Modellprämissen eingehalten wurden, insbesondere ob keine Autokorrelation der Residuen und keine Multikollinearität vorliegt. Ist das gefundene Modell valide, kann es inhaltlich interpretiert werden, sind dagegen die Voraussetzungen grob verletzt worden, so kann es auch in diesem letzten Schritt noch zu einem Abbruch der Regressionsanalyse bzw. zu einer Verwerfung der bisherigen Erkenntnisse kommen.

Die Arbeitsschritte der Regressionsanalyse nach Ablauf geordnet und im Detail:

Regressionsanalyse.jpg

Quellen Bearbeiten

C. Reinboth: Multivariate Analyseverfahren in der Marktforschung, LuLu-Verlagsgruppe, Morrisville, 2006.

Brosius, F. (2002). SPSS 11. Bonn: mitp-Verlag.

Götze, W., Deutschmann, C. & Link, H. (2002). Statistik. München: Oldenbourg.

Hair, J.F., Anderson, R.E., Tatham, R.L. & Black, W.C. (1998). Multivariate data analysis (5th ed.). Upper Saddle River, NJ: Prentice Hall.

Störung durch Adblocker erkannt!


Wikia ist eine gebührenfreie Seite, die sich durch Werbung finanziert. Benutzer, die Adblocker einsetzen, haben eine modifizierte Ansicht der Seite.

Wikia ist nicht verfügbar, wenn du weitere Modifikationen in dem Adblocker-Programm gemacht hast. Wenn du sie entfernst, dann wird die Seite ohne Probleme geladen.

Auch bei Fandom

Zufälliges Wiki