Fandom

Marktforschungs-Wiki

Schätzung der Regressionsfunktion

93Seiten in
diesem Wiki
Seite hinzufügen
Diskussion0 Teilen

Grundprinzip Bearbeiten

Das Grundprinzip dieser Schätzung, die das Herzstück der Regressionsanalyse darstellt, sei hier der Übersichtlichkeit halber am Beispiel der einfachen linearen Regression mit einer abhängigen und einer unabhängigen Variablen beschrieben.

Linearer-zusammenhang.jpg

Der im Beispieldiagramm dargestellte Zusammenhang zwischen den beiden Variablen ist keineswegs perfekt, ein linearer Trend ist jedoch klar zu erkennen. Es kommen nun theoretisch mehrere Regressionsgeraden in Frage, mit denen sich dieser Zusammenhang mathematisch beschreiben ließe.

Moegliche-regressionsgeraden.jpg

Die entscheidende Frage lautet nun: Welche dieser möglichen Geraden beschreibt den linearen Zusammenhang zwischen beiden Variablen am besten? Mit bloßem Auge ist dies ganz offensichtlich nicht zu erkennen, wobei es zudem sehr viel mehr mögliche Geradenverläufe gäbe. Es muss also ein mathematischer Ansatz gefunden werden, mit dem sich die bestmögliche Regressionsgerade ermitteln lässt.

Methode der kleinsten Quadrate Bearbeiten

Die Methode der kleinsten Quadrate oder auch Methode zur Minimierung der Summe der Abweichungsquadrate, ist bereits aus der in der Statistik I besprochenen linearen Regressionsanalyse bekannt, die nichts anderes als den einfachst möglichen Fall der Regressionsanalyse darstellt, nämlich die Regression mit einer abhängigen und einer unabhängigen Variablen.

Wie bereits oben erwähnt, arbeitet auch diese Methode mit den senkrechten Abständen der real erhobenen Werte von der Regressionsgeraden. Die Abstände werden jedoch quadriert, so dass sämtliche negativen Vorzeichen wegfallen. Auf diese Weise wird eine Kompensation der negativen und der positiven Abstände vermieden, wodurch eine ähnliche Problematik wie bei der oben diskutierten Methode umgangen wird. Gesucht wird nun nach derjenigen Regressionsgeraden, bei der die Summe der quadrierten Abweichungen minimal ist.

Die Gleichung der Regressionsgraden im Einfaktoren-Fall lautet:

Regressionsgerade-einfaktoren.jpg

Die Gleichung der Regressionsgraden im Mehrfaktoren-Fall lautet dementsprechend:

Regressionsgerade-mehrfaktoren.jpg

Die Berechnung der Regressionsparameter erfolgt analog zum Einfaktoren-Fall.

Aufstellung der Regressionsgleichung Bearbeiten

Mit der Methode der kleinsten Quadrate lassen sich die Konstante und die Regressionskoeffizienten der Regressionsgleichung berechnen. Diese Arbeitsschritte nimmt SPSS dem Marktforscher ab und gibt die Regressionsgleichung mehr oder weniger direkt aus. Bei der Arbeit mit SPSS ist unbedingt zu beachten, dass immer eine Regressionsgleichung berechnet wird, unabhängig davon, ob die Vorbedingungen für die Regressionsanalyse erfüllt sind.

Koeffiziententabelle.jpg

Die Regressionsgleichung lässt sich aus der Spalte „nicht standardisierte Koeffizienten“ in der Koeffizienten-Tabelle ablesen. Im Beispielfall ergibt sich die Regressionsgleichung:

Y (Verkaufsmenge) = 311,219 + 9,513 * Besuchszahl + 0,55 * Werbeausgaben

Regressions- und Beta-Koeffizienten Bearbeiten

Häufig ist es interessant festzustellen, welchen Einfluss die einzelnen unabhängigen Variablen auf die abhängige Variable ausüben. Welche der Variablen beeinflusst Y also am stärksten, welche am geringsten.

Zur Beantwortung dieser Frage ist der einfache Vergleich der Korrelationskoeffizienten nicht ausreichend. Da die erklärenden Variablen in unterschiedlichen Dimensionen (wie z.B. Werbeausgaben in Euro und absolute Anzahl der Kundenbesuche im Beispielfall) vorliegen können, werden auch die Koeffizienten in unterschiedlichen Dimensionen ausgegeben. Eine Änderung der Dimensionen (beispielsweise Prozent- statt Absolutwerte) hat demnach einen unmittelbaren Einfluss auf den Koeffizienten – aber natürlich keinen Einfluss auf den Erklärungsgehalt der Variablen an sich. Aus diesem Grund ist der direkte Vergleich der Regressionskoeffizienten zur Klärung der Frage nach der Bedeutung der Variablen unzulässig.

Die Lösung besteht in der Berechnung der standardisierten Beta-Koeffizienten, die in SPSS unmittelbar in der Spalte neben den standardisierten Koeffizienten in der Koeffizienten-Tabelle ausgegeben werden. Die Beta-Koeffizienten werden berechnet, indem vor dem Beginn der Regressionsanalyse alle Variablen einer Z-Transformation unterzogen werden.

Quellen Bearbeiten

C. Reinboth: Multivariate Analyseverfahren in der Marktforschung, LuLu-Verlagsgruppe, Morrisville, 2006.

Fahrmeir, L., Künstler, R., Pigeot, I. & Tutz, G. (1999). Statistik. Der Weg zur Datenanalyse (2. Aufl.). Berlin: Springer.

Brosius, F. (2002). SPSS 11. Bonn: mitp-Verlag.

Störung durch Adblocker erkannt!


Wikia ist eine gebührenfreie Seite, die sich durch Werbung finanziert. Benutzer, die Adblocker einsetzen, haben eine modifizierte Ansicht der Seite.

Wikia ist nicht verfügbar, wenn du weitere Modifikationen in dem Adblocker-Programm gemacht hast. Wenn du sie entfernst, dann wird die Seite ohne Probleme geladen.

Auch bei Fandom

Zufälliges Wiki