Multiple lineaire regressie

Download Report

Transcript Multiple lineaire regressie

Introductie tot de lineaire regressie





Twee gemiddelden
Meer gemiddelden
Nog meer gemiddelden:
Enkelvoudige regressie en correlatie
Multiple lineaire regressie
RECAP: twee gemiddelden: t-test
m
ra
g
ia
sd
g
in
id
re
p
S
5
0
2
0
0
2
5
9
1
0
9
1
LENGTE
5
8
1
0
8
1
5
7
1
0
7
1
5
6
1
0
6
1
rg
u
b
im
L
d
n
sla
rie
F
IE
C
IN
V
O
R
P
RECAP: twee gemiddelden: t-test
E
T
G
N
E
t:L
lo
rP
iske
h
x&W
o
B
6
8
1
4
8
1
2
8
1
LENGTE
0
8
1
8
7
1
6
7
1
4
7
1
rr.
.E
td
S
*
6
.9
1
±
rr.
.E
td
S
*
0
.0
1
±
2
7
1
d
n
sla
rie
F
IE
C
IN
V
O
R
P
rg
u
b
im
L
n
a
e
M
S
RECAP: twee gemiddelden: t-test
t
E
e
N
e
e
G
a
L
F
0
L
2
S
s
T
u
f
a
V
o
n
a
l
e
r
e
E
a
e
o
e
2
p
d
F
i
t
r
w
g
r
p
f
e
e
L
E
0
3
1
2
5
3
7
6
2
a
E
7
6
8
3
2
7
4
n
RECAP: meerdere gemiddelden:
variantie analyse (AN O VA)
G
e
w
ic
h
ts
v
e
rlie
sp
e
rg
ro
e
p
1
4
1
2
1
0
VERLIES
8
6
4
2
0
-2
A
B
G
R
O
E
P
C
RECAP: meerdere gemiddelden:
variantie analyse (AN O VA)
B
o
x&
W
h
is
k
e
rP
lo
t:g
e
w
ic
h
ts
v
e
rlie
sp
e
rg
ro
e
p
1
2
1
0
8
VERLIES
6
4
2
0
-2
A
B
G
R
O
E
P
C
±
S
td
.D
e
v.
±
S
td
.E
rr.
M
e
a
n
RECAP: meerdere gemiddelden:
variantie analyse (AN O VA)
i
p
V
n
c
e
a
e
N
r
e
i
i
m
E
m
a
B
B
v
1
0
0
9
5
5
0
0
2
0
9
5
6
4
0
0
3
0
5
4
0
0
0
0
T
0
4
1
7
3
0
0
9
O
8
V
Mean of VERLIES
m
7
d
F
S
a
i
f
g
B
2
4
7
1
6
W
7
5
T
9
5
4
3
2
1,00
VAR5
2,00
3,00
Introductie tot de lineaire regressie

Inleiding
Doel: bestuderen van de relatie tussen twee continue variabelen X en Y
statistisch verband: associatie (# causaal verband); positief vs negatief
wanneer het doel is te weten of twee variabelen geassocieerd zijn:
correlatie onderzoek
wanneer het doel is de ene variabele uit de andere te voorspellen:
regressie onderzoek
Introductie tot de lineaire regressie

Correlatie-onderzoek
Stap 1: spreidingsdiagramma (scatterplot)
Zijn DNA-index en proliferatieindex geassocieerd?
3
5
3
0
2
5
PROLIND
2
0
1
5
1
0
5
0
-5
0
,2
0
,8
1
,4
2
,0
D
N
A
IN
D
2
,6
3
,2
Introductie tot de lineaire regressie

Correlatie-onderzoek
nummer
systolische bloeddruk
diastolische bloeddruk
lichaamsgewicht
1
122.5
82.5
45
2
125
82.5
55
3
125
75
43
4
110
65
55
5
137.5
90
44
6
122.5
82.5
47
7
110
75
47
8
112.5
80
33
9
135
85
41
10
130
90
60
11
120
75
39
12
130
80
45
13
110
67.5
37
14
100
75
33
15
105
70
47
16
102.5
72.5
43
Gemiddelde
118.6
78
44.6
Stand. Dev.
11.7
7.4
7.5
Introductie tot de lineaire regressie
Correlatie-onderzoek
Spreidingsdiagram SBD tegen DBD
Correlation: r = ,78177
145
135
125
SBD

115
105
95
62
68
74
80
DBD
86
92
Introductie tot de lineaire regressie
Correlatie-onderzoek
Spreidingsdiagram SBD tegen lichaamsgewicht
Correlation: r = ,30653
145
135
125
SBD

115
105
95
30
34
38
42
46
Lichaamsgewicht
50
54
58
62
Introductie tot de lineaire regressie

Correlatie-onderzoek
Stap 2: berekenen van een correlatiecoëfficiënt
Pearson
Spearman
Kendall
Waarde: -1 tot +1
-1 en +1 geven perfect verband aan
Meest gebruikt: Pearson (productmoment-correlatiecoëfficiënt), r
Toets en betrouwbaarheidsinterval
Populatie correlatiecoëfficiënt:

Introductie tot de lineaire regressie

Pearson productmoment-correlatiecoëfficiënt
r
 ( xi  x )( yi  y )
 ( xi  x )2  ( yi  y )2
Introductie tot de lineaire regressie

Correlatie-onderzoek
y(SBD
122,5
125
125
110
137,5
122,5
110
112,5
135
130
120
130
110
100
105
102,5
x(DBP) y-gem(y) x-gem(x) (y-gem(y))² (x-gem(x))² (y-gem(y))(x-gem(x))
82,5
3,9
4,5
15,21
20,25
17,55
82,5
6,4
4,5
40,96
20,25
28,8
75
6,4
-3
40,96
9
-19,2
65
-8,6
-13
73,96
169
111,8
90
18,9
12
357,21
144
226,8
82,5
3,9
4,5
15,21
20,25
17,55
75
-8,6
-3
73,96
9
25,8
80
-6,1
2
37,21
4
-12,2
85
16,4
7
268,96
49
114,8
90
11,4
12
129,96
144
136,8
75
1,4
-3
1,96
9
-4,2
80
11,4
2
129,96
4
22,8
67,5
-8,6
-10,5
73,96
110,25
90,3
75
-18,6
-3
345,96
9
55,8
70
-13,6
-8
184,96
64
108,8
72,5
-16,1
-5,5
259,21
30,25
88,55
1897,5
1247,5
0
0
2049,6
815,25
110,55
Introductie tot de lineaire regressie

Pearson productmoment-correlatiecoëfficiënt
r
 ( xi  x )( yi  y )
 ( xi  x )2  ( yi  y )2
r
1010.55
 0.78
(2049.6)(815.25)
Introductie tot de lineaire regressie

Pearson productmoment-correlatiecoëfficiënt
r
 ( xi  x )( yi  y )
 ( xi  x )2  ( yi  y )2
Deel teller en noemer door n-1, dan is
r
S XY
S X SY
waarin SX en SY de steekproefstandaardafwijkingen zijn van X en Y en
SXY is de zgn steekproefcovariantie van X en Y
S XY  
( xi  x )( yi  y )
n 1
Introductie tot de lineaire regressie
Covariantie: gevoelig voor mate van associatie
L
E
E
F
T
IJD
vs.P
O
L
S
C
o
rre
la
tio
n
:r=,1
7
5
9
4
1
0
0
Gemiddelde leeftijd
9
5
9
0
( xi  x )( yi  y )  0
( xi  x )( yi  y )  0
8
5
8
0
POLS

Gemiddelde pols
7
5
7
0
6
5
( xi  x )( yi  y )  0
( xi  x )( yi  y )  0
6
0
5
5
1
5
2
0
2
5
3
0
3
5
4
0
4
5
L
E
E
F
T
IJD
5
0
5
5
6
0
6
5
7
0
7
5
Introductie tot de lineaire regressie
Covariantie: gevoelig voor mate van associatie
Spreidingsdiagram SBD tegen DBD
Correlation: r = ,78177
145
135
( xi  x )( yi  y )  0
( xi  x )( yi  y )  0
125
SBD

115
( xi  x )( yi  y )  0
105
( xi  x )( yi  y )  0
95
62
68
74
80
DBD
86
92
Introductie tot de lineaire regressie

Pearson productmoment-correlatiecoëfficiënt
r
 ( xi  x )( yi  y )
 ( xi  x )2  ( yi  y )2
Test: Nul hypothese: correlatiecoëfficiënt is 0
Betrouwbaarheidsinterval
Introductie tot de lineaire regressie

Correlatiematrix
Correlations
SRR
SRR
DRR
GEWICHT
Pearson Correlation
Sig . (2-tailed)
N
Pearson Correlation
Sig . (2-tailed)
N
Pearson Correlation
Sig . (2-tailed)
N
1
.
16
,782**
,000
16
,307
,248
16
DRR
GEWICHT
,782**
,307
,000
,248
16
16
1
,208
.
,440
16
16
,208
1
,440
.
16
16
**. Correlation is sig nificant at the 0.01 level (2-tailed).
Introductie tot de lineaire regressie

Correlatiematrix
Correlations (GEWICH~2.STA 3v *16c)
SRR
DRR
GEWICHT
Introductie tot de lineaire regressie

Drie-dimensioneel:
Quadratic Surf ace
SRR v s. DRR v s. GEWICHT
(Casewise deletion of missing data)
32,939
35,877
38,816
41,755
44,694
47,632
50,571
53,51
56,449
59,387
abov e
Introductie tot de lineaire regressie
Correlatie-onderzoek
D
N
A
IN
Dv
s
.P
R
O
L
IN
D
(P
R
O
L
IN
D=,3
0
6
8
1+8
,3
6
2
4* D
N
A
IN
D
)
C
o
rre
la
tio
n
: r=
,4
8
8
5
6
3
5
3
0
2
5
2
0
PROLIND

1
5
1
0
5
0
-5
0
,2
0
,8
1
,4
2
,0
D
N
A
IN
D
2
,6
3
,2
R
e
g
re
s
s
io
n
9
5
%
c
o
n
fid
.
Introductie tot de lineaire regressie
Correlatie-onderzoek
D
IA
M
v
s
.D
N
A
IN
D(C
a
s
e
w
s
i
eM
Dd
e
e
l
ti
o
n
)
D
N
A
IN
D=
-1
,1
8
9+
,3
4
6
2
7*D
IA
M
C
o
rre
a
l
ti
o
n
: r=
,7
1
8
0
6
3
,2
2
,6
2
,0
DNAIND

1
,4
0
,8
0
,2
5
6
7
8
D
IA
M
9
1
0
R
e
g
re
s
s
o
i
n
9
5
%
c
o
n
fi
d
.
Introductie tot de lineaire regressie
Correlatie-onderzoek
D
IA
M
v
s
.D
IA
M
2(C
a
s
e
w
s
ieM
Dd
e
e
l
ti
o
n
)
D
IA
M
2=
0
,0
0
0
0+
2
,0
0
0
0*D
IA
M
C
o
rre
a
l
ti
o
n
: r=
1
,0
0
0
0
2
0
1
8
1
6
DIAM2

1
4
1
2
1
0
5
6
7
8
D
IA
M
9
1
0
R
e
g
re
s
s
o
i
n
9
5
%
c
o
n
fi
d
.
Introductie tot de lineaire regressie
Correlatie-onderzoek
Contraindicaties, voorwaarden
1
2
0
1
0
0
8
0
6
0
4
0
PLOIDBAL
X en Y: bivariate normaalverdeling
Lineariteit
Uitbijters
2
0
0
-2
0
-4
0
-6
0
0
,2
0
,8
1
,4
2
,0
2
,6
3
,2
2
,0
2
,6
3
,2
D
N
A
IN
D
1
2
0
1
0
0
8
0
6
0
4
0
PLOIDBAL

2
0
0
-2
0
-4
0
-6
0
0
,2
0
,8
1
,4
D
N
A
IN
D
Introductie tot de lineaire regressie

Correlatie-onderzoek
Voorwaarden niet voldaan
Niet parametrische equivalent:
SPEARMAN Correlatiecoëfficiënt
Introductie tot de lineaire regressie

Enkelvoudige lineaire regressie (simple linear regression)
X en Y: spelen verschillende rol
Y (afhankelijke variabele) wordt verklaard door X (onafhankelijke variabele)
X-en moeten geen aselecte steekproef zijn
Er mag evenwel niet geselecteerd worden voor Y.
Eerste stap: spreidingsdiagramma
Y heeft voor elke waarde van X een kansverdeling met als gemiddelde µ(x)
Doel regressie-analyse: het maken van een schatting van µ(x) voor elke
waarde van x
µ(x) = alfa + beta.x
alfa en beta worden geschat (a en b).
Introductie tot de lineaire regressie
Enkelvoudige lineaire regressie
Stap 1: spreidingsdiagramma (scatterplot)
3
5
3
0
2
5
2
0
PROLIND

1
5
1
0
5
0
-5
0
,2
0
,8
1
,4
2
,0
D
N
A
IN
D
2
,6
3
,2
Introductie tot de lineaire regressie
Enkelvoudige lineaire regressie
D
N
A
IN
Dv
s
.P
R
O
L
IN
D(C
a
s
e
w
is
eM
Dd
e
le
tio
n
)
P
R
O
L
IN
D=0
,3
0
6
8
1+8
,3
6
2
4*D
N
A
IN
D
(C
o
rre
la
tio
n
: r =,4
8
8
5
6
)
3
5
3
0
2
5
2
0
PROLIND

1
5
1
0
5
0
-5
0
,2
0
,8
1
,4
2
,0
D
N
A
IN
D
2
,6
3
,2
R
e
g
re
s
s
io
n
9
5
%
c
o
n
fid
.
Introductie tot de lineaire regressie

Enkelvoudige lineaire regressie
Yi    X i  ei
Voor elke observatie is Y e (het residu) verwijderd van de verwachte waarde
Yi    X i  ei
    X
ei
Introductie tot de lineaire regressie

Enkelvoudige lineaire regressie
Yi    X i  ei
Verwachte waarde van residu (e) = 0
Criterium: ‘kleinste kwadratencriterium’ (least squares)
d.w.z. dat de som van de gekwadrateerde geschatte residuen minimaal is:
n
n
i 1
i 1
SSE ( ,  )   (Yi  Yi )²   (Yi     . X i )²
Berekening van de richtingscoëfficient wordt dan:
( x  x)( y  y )

b
 ( x  x)
i
i
2
i
(de covariantie tussen X en Y gedeelt door de steekproefvariantie van X)
Introductie tot de lineaire regressie
Enkelvoudige lineaire regressie
S
p
re
id
in
g
sd
ia
g
ra
m
L
e
e
ftijdvsb
lo
e
d
d
ru
k
2
0V
ro
u
w
e
n
1
8
0
1
6
0
1
4
0
Systolischebloeddruk

1
2
0
1
0
0
8
0
1
5
2
5
3
5
4
5
L
E
E
F
T
IJD
5
5
6
5
7
5
Introductie tot de lineaire regressie

Enkelvoudige lineaire regressie
Nummer
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
Som
x(lft)
20
23
25
28
31
35
37
39
40
43
45
47
50
52
54
54
60
62
65
70
880
y(SBD)
x-gem
y-gem
(x-gem)² (y-gem)² (x-gem)(y-gem)
105
-24
-17,25
576 297,5625
414
105
-21
-17,25
441 297,5625
362,25
125
-19
2,75
361
7,5625
-52,25
107,5
-16
-14,75
256 217,5625
236
137,5
-13
15,25
169 232,5625
-198,25
127,5
-9
5,25
81 27,5625
-47,25
105
-7
-17,25
49 297,5625
120,75
120
-5
-2,25
25
5,0625
11,25
112,5
-4
-9,75
16 95,0625
39
120
-1
-2,25
1
5,0625
2,25
120
1
-2,25
1
5,0625
-2,25
120
3
-2,25
9
5,0625
-6,75
147,5
6
25,25
36 637,5625
151,5
95
8
-27,25
64 742,5625
-218
127,5
10
5,25
100 27,5625
52,5
130
10
7,75
100 60,0625
77,5
132,5
16
10,25
256 105,0625
164
117,5
18
-4,75
324 22,5625
-85,5
120
21
-2,25
441
5,0625
-47,25
170
26
47,75
676 2280,063
1241,5
2445
0
0
3982
5373,75
2215
Introductie tot de lineaire regressie

Enkelvoudige lineaire regressie
b
 ( xi  x)( yi  y )
 ( xi  x) 2
b
2215
 0,556
3982
a  y  bx
a  122,25  0,556  44
a  97,8
Introductie tot de lineaire regressie

Relatie correlatie & lineaire regressie
b
 ( xi  x)( yi  y )  s XY
s X2
 ( xi  x) 2
r
 ( xi  x )( yi  y )  s XY
2
2
 ( xi  x )  ( yi  y ) s X sY
r b
sX
sY
Als r nul is, is ook b nul
Introductie tot de lineaire regressie

Verklaarde variantie
n 1
(1  r 2 ) sY2
n2
 (1  r 2 ) sY2
sY2. x 
sY2. x
Hoe goed men Y kan voorspellen op basis van gemiddelde:
hangt af van variabiliteit
Bij gebruik X hangt de variabiliteit af van de variabiliteit van Y voor
een gegeven waarde van X
r² kan geïnterpreteerd worden als de relatieve reductie van de
variabiliteit van Y door gebruik te maken van de regressie van Y
op X
r² x 100% is het percentage door X ‘verklaarde variantie’
Introductie tot de lineaire regressie
Enkelvoudige lineaire regressie
L
E
E
F
T
IJDvs.S
B
D
S
B
D=9
7
,7
7
5+,5
5
6
2
5*L
E
E
F
T
IJD
C
o
rre
la
tio
n
:r=,4
7
8
8
3
1
8
0
1
6
0
1
4
0
SBD

1
2
0
1
0
0
8
0
1
5
2
5
3
5
4
5
L
E
E
F
T
IJD
5
5
6
5
7
5
R
e
g
re
ssio
n
9
5
%
co
n
fid
.
Introductie tot de lineaire regressie

Enkelvoudige lineaire regressie
Voorwaarden:
Lineariteit: de relatie tussen Y en X is lineair (som residuen 0)
Gelijke varianties: de standaardafwijking van Y is voor alle waarden van X
gelijk (variantie van e constant)
Normaliteit: voor elke waarde van X volgt Y een normale verdeling (e
normaal)
Evaluatie:
op basis van spreidingsdiagramma
op basis van residuenplot
Multiple lineaire regressie

Inleiding: multiple regressie
Meerdere onafhankelijke variabelen:
Multiple of multivariate regressie ?
Voorspellen Y of wegwerken verstoring ?
Typeverdeling Y
Regressiemodel
normaal
dichotoom
Poisson
overlevingsduurgegevens
multiple lineaire regressie
multiple logistische regressie
Poisson regressie
Cox proportionele hazard regressie
Multiple lineaire regressie

Multiple lineaire regressie
Veronderstelling:
Y normaal verdeeld met gemiddelde:
  1.X1  2 .X 2  ...  p .X p
Verdeling X-en: geen eisen
aselect, select, gestratificeerd…
Y is wel aselect getrokken gegeven de waarden van de verschillende X-en
Regressiecoëfficiënten: gemiddelde toename van Y bij de toename van
één eenheid X.
geeft de invloed van X weer, gecorrigeerd voor de andere X-en.
Multiple lineaire regressie

Multiple lineaire regressie
Alternatieve formulering:
Y    1. X 1   2 . X 2  ...   p . X p  e
waarbij e een normaal verdeling volgt met als gemiddelde 0 en
onbekende standaardafwijking sigma, die niet van de Xi’s afhangt.
De regressiecoëfficiënten worden opnieuw geschat door gebruik te
maken van het kleinste kwadratencriterium
n
 (Yi   1. X 1i   2 . X 2i  ...   p . X pi )²
i 1
moet minimaal zijn.
Schattingen (+ se (p-waarde) en betrouwbaarheidsintervallen):
computerprogramma nodig
Multiple lineaire regressie

Voorbeeld
Medisch onderzoeker heeft in een ontwikkelingsland uit enkele
plattelandsdorpen 31 mensen willekeurig geselecteerd.
Bij hen werd de systolische bloeddruk, het lichaamsgewicht, de leeftijd en
de polsfrequentie gemeten.
Aan de hand van een multiple regrssie wordt nagegaan hoe de
systolische bloeddruk afhangt van gewicht, leeftijd en polsslag.
afhankelijke variabele :
onafhankelijke variabelen :
Y (systolische bloeddruk in mm Hg)
X1 (gewicht in kg)
X2 (leeftijd in jaren)
X3 (polsfrequentie in slagen/minuut)
Multiple lineaire regressie

Analyse:
– Eerst enkelvoudige regressies
– Onderlinge correlaties tussen X-en?
– Multiple lineaire regressie
» Schatten van de intercept en van de regressiecoëfficiënten



kleinste kwadratencriterium
computerprogramma nodig
standaardfouten voor de coëfficiënten en p-waarde voor toetsing nulhypothese (regressiecoëfficiënt = 0)
» Interpretatie

cave: causaliteit?
Multiple lineaire regressie
Voorbeeld
G
E
W
IC
H
Tvs.S
Y
S
T
B
L
D
R
S
Y
S
T
B
L
D
R
=8
7
,0
8
4+,6
3
2
6
7*G
E
W
IC
H
T
C
o
rre
la
tio
n
:r=,4
9
9
4
4
1
7
0
1
6
0
1
5
0
1
4
0
SYSTBLDR

1
3
0
1
2
0
1
1
0
1
0
0
9
0
2
5
3
5
4
5
5
5
6
5
G
E
W
IC
H
T
7
5
8
5
9
5
R
e
g
re
ssio
n
9
5
%
co
n
fid
.
Multiple lineaire regressie
Voorbeeld
L
E
E
F
T
IJD
vs.S
Y
S
T
B
L
D
R
S
Y
S
T
B
L
D
R
=1
0
7
,6
9+,3
8
9
7
5*L
E
E
F
T
IJD
C
o
rre
la
tio
n
:r=,3
4
4
1
5
1
7
0
1
6
0
1
5
0
1
4
0
SYSTBLDR

1
3
0
1
2
0
1
1
0
1
0
0
9
0
1
5
2
5
3
5
4
5
L
E
E
F
T
IJD
5
5
6
5
7
5
R
e
g
re
ssio
n
9
5
%
co
n
fid
.
Multiple lineaire regressie
Voorbeeld
P
O
L
S
vs.S
Y
S
T
B
L
D
R
S
Y
S
T
B
L
D
R
=6
7
,4
2
3+,6
8
6
9
0*P
O
L
S
C
o
rre
la
tio
n
:r=,4
2
6
3
2
1
7
0
1
6
0
1
5
0
1
4
0
SYSTBLDR

1
3
0
1
2
0
1
1
0
1
0
0
9
0
5
5
6
0
6
5
7
0
7
5
8
0
P
O
L
S
8
5
9
0
9
5
1
0
0
R
e
g
re
ssio
n
9
5
%
co
n
fid
.
Multiple lineaire regressie
Voorbeeld
G
E
W
IC
H
Tvs.P
O
L
S
C
o
rre
la
tio
n
:r=,1
7
6
5
7
1
0
0
9
5
9
0
8
5
8
0
POLS

7
5
7
0
6
5
6
0
5
5
2
5
3
5
4
5
5
5
G
E
W
IC
H
T
6
5
7
5
8
5
9
5
Multiple lineaire regressie
Voorbeeld
L
E
E
F
T
IJD
vs.P
O
L
S
C
o
rre
la
tio
n
:r=,1
7
5
9
4
1
0
0
9
5
9
0
8
5
8
0
POLS

7
5
7
0
6
5
6
0
5
5
1
5
2
5
3
5
4
5
L
E
E
F
T
IJD
5
5
6
5
7
5
Multiple lineaire regressie
Voorbeeld
L
E
E
F
T
IJD
vs.G
E
W
IC
H
T
C
o
rre
la
tio
n
:r=,3
6
5
4
6
9
5
8
5
7
5
6
5
GEWICHT

5
5
4
5
3
5
2
5
1
5
2
5
3
5
4
5
L
E
E
F
T
IJD
5
5
6
5
7
5
Multiple lineaire regressie

Analyse:
– Variantieanalyse tabel
» afwijking yi t.o.v. gemiddelde y is de regressiecomponent + de
residuele component
yi  y  ( yˆi  y)  ( yi  yˆi )
» kwadratensommen
n
n
n
 ( yi  y )  ( yˆi  y )   ( yi  yˆi ) 2
i 1
» F-toets
2
2
i 1
MS reg
F
MS res
» R²
SS reg
R 
SStot
2
i 1
Multiple lineaire regressie

Voorbeeld
i
a
c
n
d
e
d
f
d
f i
a
c
t
c
s
i
B
e
M
t
i
E
g
t
1
(
C
8
3
6
5
G
2
7
8
6
5
L
3
5
4
0
6
P
6
9
2
2
0
a
D
b
O
u
m
E
u
r
d
F
S
a
M
i
f
g
q
q
R
s
M
a
a
1
R
1
7
3
9
6
4
1
5
7
4
R
4
7
8
a
P
T
1
0
a
P
b
D
Multiple lineaire regressie
Voorbeeld: diagnose van streptococcen keelontsteking gebaseerd op klinische
bevindingen
Streptococcen infectie
inspectie +
inspectie -
Ja
Neen
totaal
hoge koorts
104
45
149
geen hoge koorts
270
330
600
hoge koorts
177
435
612
3
72
75
554
882
1436
geen hoge koorts
totaal
100
Prevalentie als een functie van het diagnostisch profiel
80
60
40
Prev= 0.04 + 0.25(koorts) + 0.41(inspectie)
multiple lineaire regressie
20
0
Inspectie -
Inspectie +
Geen hoge koorts
Hoge koorts
Multiple lineaire regressie
Voorbeeld: diagnose van streptococcen keelontsteking gebaseerd op klinische
bevindingen
100
Streptococcen infectie
inspectie +
inspectie -
Ja
Neen
totaal
hoge koorts
134
15
149
geen hoge koorts
270
330
600
hoge koorts
177
435
612
3
72
75
554
882
1436
80
60
40
20
geen hoge koorts
totaal
0
Inspectie -
Prevalentie als een functie van het diagnostisch profiel
Prev= 0.04 + 0.25(koorts) + 0.41(inspectie) + 0.20(inspectie)(koorts)
interactieterm
Inspectie +
Geen hoge koorts
Hoge koorts
Multiple lineaire regressie

Voorbeeld
Multiple lineaire regressie

Voorbeeld
http://faculty.vassar.edu/lowry/webtext.html