02_multiple_regression

Download Report

Transcript 02_multiple_regression

Multiple Regression
Gliederung
• Strukturgleichung
• Regressionskoeffizienten
• Der F-Test
– Quadratsummen
– Determinationskoeffizient
•
•
•
•
Selektion der Prädiktoren
Voraussetzungen der Multiplen Regressionsanalyse
Die Multiple Regression in SPSS
Mediator- und Moderatoranalysen mit der Multiplen Regression
02_multiple_regression
1
Ziel der Multiplen Korrelation
Ziel der Multiplen Regression
• Vorhersage eines Merkmals (Kriterium)
• durch mehrere andere Merkmale (Prädiktoren)
Beispiel
• Vorhersage der Klausurnote durch mathematischen Fähigkeiten Anzahl der
Vorlesungs- und Tutoratsbesuche, Anzahl der Arbeitsstunden zu Hause,
Motivation, Interesse, …
• Vorhersage der Psychischen Gesundheit durch Optimismus, Qualität des
„sozialen Netzes“, Stressoren, …
02_multiple_regression
2
Beispiel
Beispiel: Vorhersage der Psychischen Gesundheit durch Optimismus,
Qualität des „sozialen Netzes“, Stressoren
Vp
Optimismus (x1)
Soz. Netz (x2)
Stressoren (x3)
Psy. Gesund. (y)
1
18
8
45
56
2
18
4
57
36
3
13
4
44
41
4
23
1
47
36
5
25
8
52
63
Frage: Wie kann die psychische Gesundheit durch die drei
Prädiktoren vorhergesagt werden?
02_multiple_regression
3
Graphische Darstellung der multiplen Regression
Optimismus
β1
soziales Netz
β2
β3
Psychische Gesundheit
Stressoren
…
02_multiple_regression
4
Die Strukturgleichung
Die Vorhersage erfolgt, wie bei der binären Regression, durch eine
einfache Strukturgleichung:
• Die bivariate Regression:
yˆ i  b  x i  a
• Die multivariate (multiple) Regression:
yˆ i  b1  x1, i  b 2  x 2 , i  b3  x 3 , i    a

 b1  opt i  b 2  sn i  b3  str i  a
pg i
02_multiple_regression
5
b-Gewichte
• Ziel der Regressionsanalyse ist also die Bestimmung der
Parameter der Regressionsgleichung:
– b1, b2, b3, a
• Interpretation der b-Gewichte:
– Das Vorzeichen gibt die Richtung des Effekts an.
– Der Betrag gibt an, wie stark ein Prädiktor gewichtet wird.
– Aber: Das Gewicht häng von der Skalierung (dem Wertebereich)
von x und y ab.
– Einfacher zu interpretieren sind die standardisierten Gewichte (β).
– Die β-Gewichte haben einen Wertebereich von -1 bis +1
– Sie entsprechen den b-Gewichten wenn alle Variablen vor der Analyse
z-standardisiert werden.
– b-Gewichte (und β) sind abhängig von der Auswahl der Prädiktoren!
02_multiple_regression
6
Methode der kleinsten Quadrate
Bestimmung der Parameter
• Die Parameter (b1, … , bk, a) werden so bestimmt, dass der
Vorhersagefehler minimal ist:
– yˆ  y
• Dazu wird die „Methode der kleinsten Quadrate“ verwendet:
–   yˆ  y   min
– Vorteile:
2
i
i
(a) das Vorzeichen der Differenz fällt weg
(b) große Abweichungen werden stärker berücksichtigt als kleine
Abweichungen.
02_multiple_regression
7
Methode der kleinsten Quadrate
02_multiple_regression
8
Methode der kleinsten Quadrate
02_multiple_regression
9
Signifikanztests
Signifikanztests der multiplen Regression
(1) Wird ein statistisch bedeutsamer Anteil der Varianz des Kriteriums durch alle
Prädiktoren gemeinsam aufgeklärt?
 F-Test
(2) Leisten die einzelnen Prädiktoren einen bedeutsamen Beitrag?
 t-Tests für alle Prädiktoren
02_multiple_regression
10
Quadratsummen
• Der F-Test beruht auf einer Zerlegung der Varianz des Kriteriums
in einen erklärten und einen nicht erklärten Teil.
• Als Maß für die Varianz werden die sogenannten
„Quadratsummen“ verwendet.
• „Quadratsumme“ = „Sum of Squares“ = SS
• Die Quadratsumme ist ein unstandardisiertes Maß für die Varianz
• Es gilt:
SS total  SS reg  SS res
Aufgeklärte
Varianz
02_multiple_regression
nicht-erklärbare
Varianz
11
Quadratsummen
standardisiert:
„Mean Sums of Squares“
unstandardisiert:
„Sums of Squares“
n
SS total 
 (y
i
 y )²
i 1
n
 ( yˆ
SS reg 
i
 y )²
MS
i 1
reg
n
SS res 
 (y
i 1
02_multiple_regression
i
 yˆ i )²
MS
res

SS reg
K

df1
SS res
N  K 1
K: Anzahl der
Prädiktoren
N: Anzahl der
Probanden
df2
12
Der F-Test der Multiplen Regression
Berechnung des empirischen F-Wertes:
Femp 
SS reg / df 1
SS res / df 2

MS
reg
MS
res
; mit df 1  k und df 2  N  k  1
• Um dem empirische F-Wert zu interpretieren, wird dieser mit
einem kritischen F-Wert verglichen.
• Der kritische F-Wert wird aus einer Tabelle abgelesen
(berücksichtigt werden df1, df2, α)
• Femp > Fkrit bedeutet:
– Ein bedeutsamer Teil der Kriteriumsvarianz wird aufgeklärt
– Die Prädiktoren sind geeignet, um das Kriterium vorherzusagen
02_multiple_regression
13
02_multiple_regression
14
Der F-Test der Multiplen Regression
Berechnung des empirischen F-Wertes aus R²
F emp 
R 
2
SS reg / df 1
SS res / df 2
SS reg
SS
total
Auflösen nach SSreg:
Auflösen nach SSres:
SS reg  R  SS
2
total
SS total  SS reg  SS res
SS res  SS total  SS reg
SS res  SS total  R  SS total
2

SS res  1  R
02_multiple_regression
2
  SS
total
15
Der F-Test der Multiplen Regression
Berechnung des empirischen F-Wertes aus R²
F emp 
SS reg / df 1
SS res / df 2
R  SS total / df 1
2
F emp 
(1  R )  SS total / df 2
2
2

R / df 1
(1  R ) / df 2
2
 Eine Multiple Regression / Korrelation kann auf Signifikanz
geprüft werden, wenn man R² kennt.
02_multiple_regression
16
Der F-Test der Multiplen Regression
y
Beispiel 1: Gewichtsverlust
• Kann der Gewichtsverlust durch Training und
Kalorienaufnahme vorhergesagt werden?
y
• Berechnung der Multiplen Korrelation
x2
R y . x1 x 2 

r
2
x1 y
r
2
x2 y
x1
x1
x2
1.0 .43
-.51
1.0
.41
1.0
 2  r x1 x 2  rx1 y  r x 2 y
1  r x1 x 2
2
. 18  . 26  2  . 41  . 43    . 51 
1  . 17

. 62
 . 86
. 83
R y . x1 x 2  . 86  75
2
02_multiple_regression
2
17
Der F-Test der Multiplen Regression
Der F-Test (für N=18)
y
2
Femp 
R / df 1
1  R  / df

2
Fkrit  2 ,15   3 . 68
2
. 75 / 2
. 25 / 15
 22 . 50
y
x1
x2
1.0 .43
-.51
1.0
.41
x1
x2
1.0
Weil Femp > Fkrit gilt:
• Ein bedeutsamer Teil der Varianz von y wird aufgeklärt
• x1 und x2 können y vorhersagen
02_multiple_regression
18
Der F-Test der Multiplen Regression
Beispiel 2: Psychische Gesundheit
• Kann die psychische Gesundheit Optimismus, Qualität des
„sozialen Netzes“ und der Stressbelastung vorhergesagt werden?
• Berechnung der Multiplen Korrelation
– R = .73
– R² = .54
– N = 60
Femp 
. 53 / 3
 21 . 05
. 47 / 56
Fkrit 3,56   2 . 77
• Weil Femp > Fkrit gilt:
– Ein bedeutsamer Teil der Varianz von y wird aufgeklärt
– x1 und x2 können y vorhersagen
02_multiple_regression
19
t-Tests für die Parameter
t-Tests für die Parameter
• Wenn die Regressionsanalyse insgesamt einen statistisch
bedeutsamen Zusammenhang aufdeckt ist noch nichts darüber
bekannt, welche Prädiktoren wichtig für die Varianzaufklärung
sind.
• Dazu werden die einzelnen b-Gewichte separat auf Signifikanz
geprüft.
• Dies geschiet mit t-Tests für alle Parameter (zur Berechnung: vgl.
Bortz, S. 450)
– Es wird jeweils die Nullhypothese geprüft, dass sich das jeweilige
b-Gewicht nicht von 0 unterscheidet.
– Bei einem nicht-Signifikanten Ergebnis kann der entsprechende Prädiktor
also weggelassen werden.
– Auch für die additive Konstante ird ein t-Test durchgeführt
• Diese Tests gelten nur im Kontext der verendeten Prädiktoren!
02_multiple_regression
20
Korrigiertes R²
R² überschätzt Populationszusammenhang
• Die Vorhersage in einer Stichprobe überschätzt Vorhersage in
anderen Stichproben bzw. in der Population
• Je kleiner die Stichprobe und je größer die Anzahl der Prädiktoren
desto größer die Überschätzung von R²
• Bei einem Nullzusammenhang in Population ergibt sich
ein Erwartungswert für R² von
E(R²) = (k-1)/(N-1)
– Beispiel: k=3; N=10: E(R²) = 2/9 = .22
• Empfehlung: Verhältnis N/K von mind. 20, besser 30
• Beispiel: k=2, N=40: E(R²) = 1/39 = .03
k=2, N=60: E(R²) = 1/59 = .02
02_multiple_regression
21
Korrigiertes R²
Lösung: Korrigiertes R²
• Schrumpfungskorrektur nach Olkin & Pratt:
2 
 N 3  

2
2 
Rˆ  1  


(
1

R
²)


(
1

R
²)

 


 N K 2 
N K 

• Beispiel: k=3; N=20; R² = .50
 17
2
Rˆ  1  
 15
02_multiple_regression
 
 2 
2 

(.
50
)


(.
50
)
  . 40
 


 
 17 

22
Auswahl der Prädiktoren
• In der Praxis stellt sich das Problem, welche und wie viele
Prädiktoren für die Vorhersage ausgewählt werden sollten.
• Dabei sollte immer ein „sparsames“ Vorgehen gewählt werden,
weil eine große Prädiktormenge eine Überschätzung von R²
fördert.
• Mögliche Strategien
– Hypothesengeleitetes Vorgehen:
• „Einschluss“
– Hierarchische Regressionsanalysen:
• Vorwärts Selektion
• Rückwärts Eliminierung
• Schrittweises Vorgehen
02_multiple_regression
23
Auswahl der Prädiktoren
Einschluss - Strategie
• A priori Auswahl der aufzunehmenden Prädiktoren (aufgrund von
Vorwissen oder Theorie)
• Vorteile:
– Hypothesengeleitetes Vorgehen
• Nachteile:
– Möglicherweise Aufnahme von mehr Prädiktoren als erforderlich
(Prädiktoren, die keinen signifikanten Beitrag leisten)
– Dies kann zu einer Verringerung des F-Wertes führen (wegen der größeren
Anzahl der Zähler-Freiheitsgrade), und damit die Teststärke verringern.
– Möglicherweise werden wichtige Prädiktoren „vergessen“
02_multiple_regression
24
Auswahl der Prädiktoren
Hierarchisches Regressionsanalysen
• Die am besten passenden Prädiktoren werden post-hoc
(empirisch) bestimmt.
• Vorteile:
– Minimum an Prädiktoren
– Exploratives Vorgehen möglich
• Nachteile:
– „Capitalization of Chance“ wegen der Bevorzugung hoch korrelierender
Prädiktoren
– Kein hypothesengeleitetes Vorgehen
02_multiple_regression
25
Auswahl der Prädiktoren
Vorwärts - Selektion
• Aus einer Menge möglicher Prädiktoren wird der Prädiktor mit
der höchsten Validität zuerst aufgenommen.
• Unter den verbleibenden Prädiktoren wird immer derjenige
ausgewählt, der den größten Teil der verbleibenden Varianz
aufklärt (=höchste inkrementelle Validität).
• Wenn kein Prädiktor die aufgeklärte Varianz signifikant erhöht,
ist die endgültige Auswahl gefunden.
02_multiple_regression
26
Auswahl der Prädiktoren
Rückwärts - Eliminierung
• Zunächst werden alle Prädiktoren eingeschlossen.
• Dann wird immer der Prädiktor weglassen, der am wenigsten zur
Vorhersage beiträgt.
• Wenn der Ausschluss eines Prädiktors zu einer signifikanten
Reduktion der aufgeklärten Varianz führen würde, wird der
Selektionsprozess abgebrochen.
02_multiple_regression
27
Auswahl der Prädiktoren
Schrittweise Selektion:
• Es wird abwechseln ein Vorwärts- und ein Rückwärtsschritt
durchgeführt.
• Dadurch werden Variablen, die im Kontext neu aufgenommener
Prädiktoren keine Varianz mehr aufklären, im Nachhinein wieder
entfernt.
• Diese Schritte werden so lange wiederholt, bis keine weiteren
Variablen ein- oder ausgeschlossen werden können.
02_multiple_regression
28
Voraussetzungen
Voraussetzungen der Multiplen Regression
• Multivariate Normalverteilung aller Variablen
(schwer zu überprüfen)
• Aber: bei großen Stichproben (mindestens 20 Probanden pro
Prädiktor) ist die Regressionsanalyse robust gegenüber
Verletzungen dieser Annahme.
• Weitere Einschränkung:
Es werden nur lineare Zusammenhänge gefunden.
02_multiple_regression
29
Die Multiple Regressionsanalyse in SPSS
regression
/dependent pg
/method enter opt, sn, str
02_multiple_regression
30
SPSS
Modellzusammenfassung
Korrigiertes
Standardfehler
R-Quadrat
des Schätzers
Modell
R
R-Quadrat
1
,730a
,532
,507
10,866
a. Einflußvariablen : (Konstante), str, opt, sn
ANOVAb
Modell
1
Regression
Quadratsumme
7521,869
Residuen
Gesamt
6611,329
14133,198
a. Einflußvariablen : (Konstante), str, opt, sn
Mittel der
Quadrate
df
F
Signifikanz
3
2507,290 21,238
,000a
56
118,059
59
b. Abhängige Variable: pg
02_multiple_regression
31
SPSS
Koeffizientena
Nicht standardisierte
Standard.
Koeffizienten
Koeffizienten
Standardfehler
Modell
B
Beta
T
1
(Konstante)
61,327
9,815
6,248
opt
1,156
,318
,343 3,635
sn
2,424
,684
,336 3,542
str
-,851
,145
-,540 -5,883
a. Abhängige Variable: pg
Sig.
,000
,001
,001
,000

 1 . 16  opt i  2 . 42  sn i  0 . 85  str i  61 . 33
pg i
02_multiple_regression
32
Weitere Regressionsanalysen
Weitere Regressionsanalysen
• Mediatoranalyse
– Wird der Zusammenhang von X und Y durch M vermittelt?
• Moderatoranalyse
– Wird der Zusammenhang von X und Y durch M beeinflusst?
02_multiple_regression
33
Mediatoranalyse
Mediatoranalyse
• Fragestellung: „Wird der Zusammenhang von X und Y durch M
vermittelt?“
• Beispiel: „Wird der Zusammenhang von Motivation und Note
durch Lernaufwand vermittelt?“
• Es wird also eine Annahme zur Kausalität gemacht
• Es wird untersucht, wie die Motivation wirkt.
• Literatur:
– Baron, R. M., & Kenny, D. A. (1986). The moderator-mediator distinction in
social psychological research: Conceptual, strategic, and statistical
considerations. Journal of Personality and Social Psychology, 51(6), 11731182.
02_multiple_regression
34
Mediatoranalyse
Prädiktor
Kriterium
Motivation
Note
Lerndauer
Mediator
02_multiple_regression
35
Mediatoranalyse
Schritt 1
• Regression von Y auf X.
(Regression der Note auf die Motivation)
Y=bX+a
• Nur wenn sich ein signifikanter Zusammenhang zwischen Y und X zeigt (b ≠ 0),
kann eine Mediation vorliegen.
Motivation
bY,X≠0
Note
Lerndauer
02_multiple_regression
36
Mediatoranalyse
Schritt 2
• Regression von M auf X.
(Regression der Lerndauer auf die Motivation)
M=bX+a
• Nur wenn sich ein signifikanter Zusammenhang zwischen M und X zeigt (b ≠ 0),
kann eine Mediation vorliegen.
Motivation
Note
bM,X≠0
Lerndauer
02_multiple_regression
37
Mediatoranalyse
Schritt 3
• Regression von Y auf M.
(Regression der Note auf die Lerndauer)
Y=bM+a
• Nur wenn sich ein signifikanter Zusammenhang zwischen Y und M zeigt (b ≠ 0),
kann eine Mediation vorliegen.
Motivation
Note
bY,M≠0
Lerndauer
02_multiple_regression
38
Mediatoranalyse
Schritt 4
• Regression von Y auf X und M.
(Regression der Note auf die Lerndauer und die Motivation)
Y = b1 X + b 2 M + a
• Ergebnis:
– bX,M = 0: „Vollständige Mediation“
– |bX,M|> 0 ,aber kleiner als in Schritt 1: „partielle Mediation“
– bX,M gleich wie in Schritt 1: Keine Mediation
Motivation
bX,M=0
Note
bY,M≠0
Lerndauer
02_multiple_regression
39
Mediatoranalyse in SPSS
*** step 1.
reg
/dependent note
/method enter mot.
*** step 2.
reg
/dependent lern
/method enter mot.
*** step 3.
reg
/dependent note
/method enter lern.
*** step 4.
reg
/dependent note
/method enter mot
lern.
02_multiple_regression
Koeffizienten
Nicht s tandardisierte
Koeffizienten
Modell
1
B
Standardf
ehler
(Konstante)
5.816
1.047
mot
-.059
.021
a
Standardis ie
rte
Koeffizienten
Beta
T
-.448
Signifikanz
5.554
.000
-2.875
.007
a. Abhängige Variable: note
• b≠0, (sig.) d.h. Die Note kann durch die
Motivation vorhergesagt werden.
• Hinweis: Das b-Gewicht ist negativ, da es bei
hoher Motivation zu geringen (guten) Noten
kommt.
40
Mediatoranalyse in SPSS
*** step 1.
reg
/dependent note
/method enter mot.
*** step 2.
reg
/dependent lern
/method enter mot.
Koeffizienten
Nicht s tandardisierte
Koeffizienten
Modell
1
Standardf
ehler
B
(Konstante)
mot
-4.632
9.205
.728
.181
a
Standardis ie
rte
Koeffizienten
Beta
T
.574
Signifikanz
-.503
.618
4.024
.000
a. Abhängige Variable: lern
*** step 3.
reg
/dependent note
/method enter lern.
*** step 4.
reg
/dependent note
/method enter mot
lern.
02_multiple_regression
• b≠0, (sig.) d.h. die Lerndauer kann durch die
Motivation vorhergesagt werden.
41
Mediatoranalyse in SPSS
*** step 1.
reg
/dependent note
/method enter mot.
*** step 2.
reg
/dependent lern
/method enter mot.
Koeffizienten
Nicht s tandardisierte
Koeffizienten
Modell
1
B
Standardf
ehler
(Konstante)
5.018
.466
lern
-.068
.014
a
Standardis ie
rte
Koeffizienten
Beta
T
-.653
Signifikanz
10.760
.000
-4.951
.000
a. Abhängige Variable: note
*** step 3.
reg
/dependent note
/method enter lern.
*** step 4.
reg
/dependent note
/method enter mot
lern.
02_multiple_regression
• b≠0, (sig.) d.h. die Note kann durch die
Lerndauer vorhergesagt werden.
42
Mediatoranalyse in SPSS
*** step 1.
reg
/dependent note
/method enter mot.
*** step 2.
reg
/dependent lern
/method enter mot.
*** step 3.
reg
/dependent note
/method enter lern.
*** step 4.
reg
/dependent note
/method enter mot lern.
02_multiple_regression
Koeffizienten
Nicht s tandardisierte
Koeffizienten
Modell
1
B
Standardf
ehler
(Konstante)
5.531
.898
mot
-.014
.021
lern
-.062
.017
a
Standardis ie
rte
Koeffizienten
Beta
T
Signifikanz
6.159
.000
-.109
-.670
.508
-.590
-3.637
.001
a. Abhängige Variable: note
• b≈0, (n.s.), d.h. die Motivation leistet über die
Lerndauer hinaus keinen Beitrag mehr zur
Vorhersage der Note
 „Vollständige Mediation“
43
Moderatoranalyse
Moderatoranalyse
• Fragestellung: „Wird der Zusammenhang von X und Y durch M
beeinflusst?“
• Beispiel: „Wird der Zusammenhang von Lerndauer und Note
durch mathematische Intelligenz beeinflusst?“
– Hypothese: Die gleiche Lernzeit wirkt sich bei Probanden mit hoher
mathematischer Fähigkeit stärker aus als bei Probanden mit geringer
mathematischer Fähigkeit.
– Im Gegensatz zur Mediatiorvariablen (M) wird nicht angenommen, dass
die Moderatorvariable durch die UV (X) beeinflusst wird.
02_multiple_regression
44
Moderatoranalyse
Prädiktor
Kriterium
Lerndauer
Note
math. IQ
Moderator
Die Moderatorvariable wirkt nicht direkt auf die
Note, sondern auf den Zusammenhang, d.h. auf
das b-Gewicht der Regression
02_multiple_regression
45
Moderatoranalyse
Note
math. IQ +
Hinweise:
• Für jede Ausprägung von M
müsste eine eigene Regressionsgerade gezeigt werden
• Oft erden nur 2 Geraden
gezeigt, z.B. für Probanden
die eine Standardabeichung
über bzw. unter dem
Mittelwert liegen.
math. IQ -
Lerndauer
02_multiple_regression
46
Moderatoranalyse
Grundüberlegung:
• Wie wird die Regressionsgerade der Regression von Y auf X durch M
beeinflusst?
– Y = b 1 X + a1
(1)
• Es wird angenommen, dass b1 und a1 von M abhängen, d.h. dass beide
Koeffizienten durch eine Regression auf M vorhergesagt werden können:
– b1 = b2 M + a 2
(2)
– a1 = b3 M + a 3
(3)
• Jetzt werden die Gleichungen (2) und (3) in (1) eingesetzt…
02_multiple_regression
47
Moderatoranalyse
Y  b1  X  a 1
Y  ( b 2  M  a 2 )  X  ( b3  M  a 3 )
b1  b 2  M  a 2
 b 2  MX  a 2  X  b3  M  a 3
a1  b3  M  a 3
Y  b1  MX  b 2  X  b3  M  a
'
Prädiktoren
(UV‘s)
02_multiple_regression
'
'
RegressionsKoeffizienten
'
• Es wird nun eine Regression mit
den drei Prädiktoren X, M und MX
berechnet.
• Das Regressionsgewicht von MX
(b1‘ = b2) gibt an, ob und wie stark
die Steigung der ursprünglichen
Regression von M abhängt!
48
Moderatoranalyse
• 1. Schritt: z-Transformation von X und M (dies ist aus mathematischen Gründen empfehlenswert, auf die hier nicht weiter
eingegangen wird).
• 2. Schritt: Berechnung eines neuen Prädiktors: P = z(X) ∙ z(M).
• 3. Schritt: Berechnung einer Regression von Y auf z(X), z(Y) und P
• Interpretation des Regressionsgewichts von P:
– b > 0 (sig): Je größer M, desto höher (positiver) die Steigung der
ursprünglichen Regressionsgeraden
– b < 0 (sig) : Je größer M, desto geringer (negativer) die Steigung der
ursprünglichen Regressionsgeraden
– b≈0 (n.s.): Keine Moderation des Zusammenhangs von X und Y durch M.
02_multiple_regression
49
Moderatoranalyse in SPSS
*** step 1.
desc lern, mIQ
/save.
*** step 2.
compute P = Zlern*ZmIQ.
*** step 3.
reg
/dependent note
/method enter Zlern ZmIQ P.
• Mit dem Befehl „descriptives /save“
werden Variablen z-transformiert.
• Es entstehen neue Spalten im
Datenfenster, bei denen ein „Z“ vor
den ursprünglichen Variablennamen
gehängt wurde.
• Mit „compute“ wird eine neue
Variable P als Produkt von Zlern und
ZmIQ berechnet.
02_multiple_regression
50
Moderatoranalyse in SPSS
02_multiple_regression
51
Moderatoranalyse in SPSS
*** step 1.
desc lern, mIQ
/save.
*** step 2.
compute P = Zlern*ZmIQ.
*** step 3.
reg
/dependent note
/method enter Zlern ZmIQ P.
Koeffizienten
Nicht s tandardisierte
Koeffizienten
Modell
1
Standardf
ehler
(Konstante)
3.551
.222
Z-Wert(lern)
-1.295
.227
Z-Wert(mIQ)
-.535
P
-.478
Standardis ie
rte
Koeffizienten
Beta
T
Signifikanz
15.971
.000
-.694
-5.703
.000
.234
-.287
-2.287
.029
.223
-.269
-2.148
.040
a. Abhängige Variable: note
•
•
•
02_multiple_regression
B
a
neg. Koeffizient für lern: je mehr Lernaufwand, desto kleiner (besser) die Note.
neg. Koeffizient für mIQ: je höher die math.
Fertigkeiten, desto kleiner (besser) die Note
neg. Koeffizient für P: je höher mIQ, desto
negativer (also stärker) der Zusammenhang
von Lernaufwand und Note.
52
Zusammenfassung
• Die multiple Regression dient der Vorhersage eines Kriteriums
durch mehrere Prädiktoren.
• Mit einem F-Test wird überprüft, ob die Prädiktoren geeignet
sind, das Kriterium vorherzusagen.
• Mit t-Tests wird geprüft, ob die einzelnen Prädiktoren einen
bedeutsamen Anteil leisten.
• Es sollten nicht zu viele Prädiktoren ausgewählt werden, da sonst
die Gefahr besteht, dass Zusammenhänge überschätzt werden.
• Mediatoranalyse untersuchen, ob der Zusammenhang von X und
Y durch M vermittelt wird.
• Moderatoranalyse untersuchen, ob der Zusammenhang von X
und Y durch M beeinflusst wird?
02_multiple_regression
53