KUKLA DEĞİŞKENLER

Download Report

Transcript KUKLA DEĞİŞKENLER

KUKLA DEĞİŞKENLER
Mehmet Vedat PAZARLIOĞLU
Kukla Değişken Nedir?
Cinsiyet, eğitim seviyesi, meslek, din, ırk,
bölge, tabiiyet, savaşlar, grevler, siyasi
karışıklıklar (=darbeler), iktisat politikasındaki
değişiklikler, depremler, yangın ve benzeri nitel
değişkenlerin ekonometrik bir modelde ifade
edilme şeklidir.
Kukla Değişkenlerin Modelde Kullanımı
 Kukla Değişken/lerin Modelde bağımsız
değişken olarak yer alması
 Kukla Değişkenin Modelde Bağımlı
Değişken olarak yer alması
Bağımsız Kukla Değişkenler
• Bir kukla değişkenli modeller (Varyans Analiz Modelleri)
• Kukla değişkenlerin ve Sayısal değişkenlerin Birlikte yer aldığı
Modeller (Kovaryans Analizi Modeller)
• Kukla değişkenlerin karşılıklı olarak birbirini etkilemeleri
• Mevsim dalgalanmalarının ölçülmesinde kukla değişkenler
• Parçalı Doğrusal Regresyon
Bir kukla değişkenli modeller
Yi = a + b Di +ui
Yi = Öğretim Üyelerinin Yıllık Maaşları
Di = 1 Öğretim Üyesi Erkekse
= 0 Diğer Durumlar (yani Kadın Öğretim Üyesi)
Varyans Analiz Modelleri (ANOVA)
Kadın Öğretim Üyelerinin Ortalama Maaşları: E( Yi|Di = 0 ) = a
Erkek Öğretim Üyelerinin Ortalama Maaşları : E ( Yi|Di = 1) = a + b
Bir kukla değişkenli modeller
Maaş Cinsiyet
22
1
19
0
18
21.7
18.5
21
0
1
0
1
20.5
17
17.5
1
0
0
21.2
1
Yi = 18 + 3.28 Di
(0.32) (0.44)
t (57.74)(7.44) , R2=0.8737
Bir kukla değişkenli modeller
Yi = 18 + 3.28 Di
(0.32) (0.44)
t (57.74)(7.44) , R2=0.8737
Kadın Öğretim Üyelerinin Ortalama Maaşları:
E( Yi|Di = 0 ) = 18
Erkek Öğretim Üyelerinin Ortalama Maaşları :
E ( Yi|Di = 1) = 18 + 3.28 = 21.28
Erkek ve Kadın Öğretim Üyelerinin Ortalama Maaş Farkı :
3.28
Bir kukla değişkenli modeller
24
22
20
3.28
21.28
18
18.00
16
0
Maaş
1
Yi = 18 + 3.28 Di
(0.32) (0.44)
t (57.74)(7.44) , R2=0.8737
Kukla değişken ve Sayısal Değişkenli Model
Yi = a1 + a2 Di + b Xi + ui
Yi = Öğretim Üyelerinin Yıllık Maaşları
Xi = Öğretim Üyesinin Yıl olarak Tecrübesi
Di = 1 Öğretim Üyesi Erkekse
= 0 Diğer Durumlar (yani Kadın Öğretim Üyesi)
Kadın Öğretim Üyelerinin Ortalama Maaşları :
E( Yi|Xi,Di = 0 ) = a1+bXi
Erkek Öğretim Üyelerinin Ortalama Maaşları :
E ( Yi|Xi,Di = 1) = (a1 + a2 )+bXi
Kukla değişken ve Sayısal Değişkenli Model
Maaş Cinsiyet Tecrübe
22
1
16
19
0
12
18
0
12
21.7
18.5
21
1
0
1
15
10
11
20.5
17
17.5
21.2
1
0
0
1
13
8
9
14
Yi = 15.051 + 2.239 Di + 0.289 Xi
s(b) (0.95)
(0.44)
(0.09)
(t) (15.843) (5.088)
(3.211)
p
(0.020)
(0.000) (0.002)
R2=0.949
Kukla değişken ve Sayısal Değişkenli Model
Yi = 15.051 + 2.239 Di + 0.289 Xi
(t) (15.843) (5.088)
(3.211)
p
(0.020)
(0.000) (0.002)
Kadın Öğretim Üyelerinin Maaş Fonksiyonu:
E( Yi|Di = 0 ) = 15.051 + 0.289 Xi
Erkek Öğretim Üyelerinin Maaş Fonksiyonu:
E( Yi|Di = 1 ) = 15.051 + 2.239 + 0.289 Xi
= 17.29 + 0.289 Xi
Erkek ve Kadın Öğretim Üyelerinin Ortalama Maaş Farkı :
2.239
Kukla değişken ve Sayısal Değişkenli Model
24
22
20
18
2.239
16
14
17.29
15.051
12
10
0
5
10
Kadın
15
20
Erkek
E( Yi|Di = 0 ) = 15.051 + 0.289 Xi
E( Yi|Di = 1 ) = 15.051 + 2.239 + 0.289 Xi
= 17.29 + 0.289 Xi
Birden Fazla Kukla Değişkenli Modeller
Yi= b1 + b2D2 + b3D3 + b4Xi + ui
Yi = Sigara Tüketimi
D2 = 1 Sigara Tüketen Erkek
D3 = 1 Şehirde oturanların sigara tüketimi
= 0 Sigara Tüketen Kadın = 0 Kırsalda oturanların sigara tüketimi
Xi = Gelir
Kırdaki Kadınların Sigara Tüketimi:
E( Yi|D2=0,Yi|D3=0) = b1 + b4Xi
Kırdaki Erkeklerin Sigara Tüketimi :
E (Yi|D2=1,Yi|D3=0) = b1 + b2D2 + b4Xi
Kentteki Kadınların Sigara Tüketimi:
E( Yi|D2=0,Yi|D3=1 ) = b1 + b3D3 + b4Xi
Kentteki Erkeklerin Sigara Tüketimi:
E( Yi|D2=1,Yi|D3=1 ) = b1 + b2D2 + b3D3 + b4Xi
Birden Fazla Kukla Değişkenli Modeller
Yıllık
Sigara Tüketimi
Yi (100 TL)
Cinsiyet(D3)
Şehir(D3)
Yıllık Gelir
(Xi)(100 TL)
25
1
1
400
20
0
0
260
19
0
0
270
24
1
1
360
20
0
1
240
22
1
0
310
21
1
1
280
18
0
0
200
19
0
0
260
22
1
1
320
Birden Fazla Kukla Değişkenli Modeller
Yi= b1 + b2D2 + b3D3 + b4Xi + ui
Yi = Sigara Tüketimi
D2 = 1 Sigara Tüketen Erkek
D3 = 1 Şehirde oturanların sigara tüketimi
= 0 Sigara Tüketen Kadın = 0 Kırsalda oturanların sigara tüketimi
Xi = Gelir
Dependent Variable: Y
Variable
C
D2
D3
X
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Durbin-Watson stat
Coefficient
11.87863
0.626208
0.671321
0.029216
0.955074
0.932611
0.586884
2.066595
2.222562
Std. Error
1.354977
0.640824
0.467992
0.00544
F-statistic
Prob(F-statistic)
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
t-Statistic
8.766663
0.977193
1.434473
5.370281
42.51767
0.000195
2.061194
2.182228
1.92842
Prob.
0.0001
0.3662
0.2014
0.0017
1.Sabit Terimlerin Farklı Eğimlerin Eşit olması
Yi= a1 + a2Di + bXi + ui
Yi = Sigara Tüketimi
Di = 1 Sigara Tüketen Erkek
=0
Xi = Gelir
E( Yi|Xi,Di = 0 ) = a1+bXi
E ( Yi|Xi,Di = 1) = (a1 + a2 )+bXi
Kukla değişken ve Sayısal Değişkenli Model
Yi= a1 + a2Di + b2Xi + ui
24
22
20
18
a2
16
14
a1
12
a1+a2
10
0
5
10
15
20
2. Sabit Terimlerin Eşit, Eğimlerin Farklı Olması Hali
Yi= a1 + b1Di Xi+ b2Xi + ui
Yi = Sigara Tüketimi
Di = 1 Sigara Tüketen Erkek
=0
Xi = Gelir
E( Yi|Xi,Di = 0 ) = a1+b2Xi
E ( Yi|Xi,Di = 1) = a1 + (b1+b2)X i
2. Sabit Terimlerin Eşit, Eğimlerin Farklı Olması Hali
Yi= a1 + b1Di Xi+ b2Xi + ui
Yi
E ( Yi|Xi,Di = 1) = a1 + (b1+b2)X i
)
b1 + b2
)
b2
E( Yi|Xi,Di = 0 ) = a1+b2Xi
a1
Xi
19
3. Sabit Terim ve Eğimin İki Sınıf İçin Farklı Olması
Yi= a1 + a2 Di+ b1Di Xi+ b2Xi + ui
Yi = Sigara Tüketimi
Di = 1 Sigara Tüketen Erkek
=0
Xi = Gelir
E( Yi|Xi,Di = 0 ) = a1+b2Xi
E ( Yi|Xi,Di = 1) = (a1+a1 ) + (b1+b2)X i
3. Sabit Terim ve Eğimin İki Sınıf İçin Farklı Olması
Yi= a1 + a2 Di+ b1Di Xi+ b2Xi + ui
Yi
E ( Yi|Xi,Di = 1) = (a1+a1 ) + (b1+b2)X i
E( Yi|Xi,Di = 0 ) = a1+b2Xi
a1+a2
) b2
) b1+b2
a1
Xi
21
Modelin t İstatistiklerinin Değerlendirilmesi
Yi= a1 + a2 Di+ b1Di Xi+ b2Xi + ui
1. a2 ve b1’ün t istatistikleri anlamsızsa iki sınıf sigara tüketim
fonksiyonları aynı
2.a2 ve b1’ün t istatistikleri anlamlıysa iki sınıf sigara tüketim
fonksiyonları farklı (3.durum)
3. a2 ve b1’ün t istatistiklerinden a2 anlamsız ve b1 anlamlıysa
sabit terim aynı eğim farklıdır. (2. durum)
4. a2 ve b1’ün t istatistiklerinden a2 anlamlı ve b1 anlamsızsa
sabit terim farklı eğim aynıdır. (1. durum)
22
İki Sınıf Modellerinin Farklılığının Kukla Değişken Yöntemi İle Testi
Yıllık
Sigara
Tüketimi
Cinsiyet (Di)
(Erkek = 1, Kadın = 0)
Yıllık Gelir
(Xi)
25
1
400
20
0
260
19
0
270
24
1
360
20
0
240
22
1
310
21
1
280
18
0
200
19
0
260
22
1
320
Yi= a1 + a2 Di+ b1Di Xi+ b2Xi + ui
23
İki Sınıf Modellerinin Farklılığının Kukla Değişken Yöntemi İle Testi
Yi= a1 + a2 Di+ b1Di Xi+ b2Xi + ui
Dependent Variable: Y
Variable
C
D2
D2*X
X
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Durbin-Watson stat
Dependent Variable: Y
Variable
C
X
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Durbin-Watson stat
Coefficient
14.94231
-3.786344
0.017555
0.017308
0.95506
0.932591
0.586972
2.067219
1.943502
Std. Error
2.598383
3.35085
0.012245
0.010508
F-statistic
Prob(F-statistic)
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Coefficient
10.3109
0.036859
0.921474
0.911659
0.671954
3.612179
2.034514
Std. Error
1.123493
0.003804
F-statistic
Prob(F-statistic)
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
t-Statistic
5.750619
-1.129965
1.433624
1.64702
42.50422
0.000195
2.061496
2.18253
1.928722
Prob.
0.0012
0.3016
0.2017
0.1507
t-Statistic
9.177535
9.689043
93.87755
0.000011
2.219603
2.28012
2.153216
Prob.
0.0000
0.0000
24
2. CHOW testi ile tüketim fonksiyonlarının farklılığının
araştırılması
Üç grup tüketim fonksiyonu tahmin edilir:
H0: Erkek ve kadınlar için tüketim fonk. aynıdır.
H1: Erkek ve kadınlar için tüketim fonk. farklıdır.
1. Erkek-kadın tüm tüketiciler için tüketim fonksiyonu:
HKT=3.162
2. Erkekler için tüketim fonksiyonu: HKT=0.2018
3. Kadınlar için tüketim fonksiyonu: HKT=1.865
Ftest = 2.243 Ftab= 5.14 (a=0.05 f1=2
f2=6 sd. lerinde)
H0 kabul
25
Birden Fazla Kukla Değişkenli Modeller
Yıllık
Sigara Tüketimi
Yi (100 TL)
Cinsiyet(D3)
Şehir(D3)
Yıllık Gelir
(Xi)(100 TL)
25
1
1
400
20
0
0
260
19
0
0
270
24
1
1
360
20
0
1
240
22
1
0
310
21
1
1
280
18
0
0
200
19
0
0
260
22
1
1
320
Birden Fazla Kukla Değişkenli Modeller
Yi= b1 + b2D2 + b3D3 + b4Xi + ui
Dependent Variable: Y
Variable
C
D2
D3
X
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Durbin-Watson stat
Dependent Variable: Y
Variable
C
D3
X
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Durbin-Watson stat
Coefficient
11.87863
0.626208
0.671321
0.029216
0.955074
0.932611
0.586884
2.066595
2.222562
Coefficient
11.05045
0.827027
0.032883
0.947924
0.933045
0.58499
2.395495
2.339918
Std. Error
1.354977
0.640824
0.467992
0.00544
F-statistic
Prob(F-statistic)
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Std. Error
1.053802
0.438611
0.003926
F-statistic
Prob(F-statistic)
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
t-Statistic
8.766663
0.977193
1.434473
5.370281
42.51767
0.000195
2.061194
2.182228
1.92842
t-Statistic
10.48627
1.885559
8.375249
63.70948
0.000032
2.008882
2.099658
1.909302
Prob.
0.0001
0.3662
0.2014
0.0017
Prob.
0.0000
0.1013
0.0001
BİR MODELDE KUKLA DEĞİŞKENLERİN KARŞILIKLI
OLARAK BİRBİRİNİ ETKİLEMELERİ PROBLEMİ
Yi  b1 + b2D2 + b3D3 + b4Xi + ui
Yi : Tüketim, Xi : Gelir
1, Erkek
1, Şehirde Oturanlar
D2  
D3  
0, Kadın
0, Kırsal Kesimde Oturanlar
Yi  b1 + b2D2 + b3D3 + b4  D2D3 ) + b5Xi + ui
E  Yi | D2  0,D3  0,Xi )  b1 + b5Xi
E  Yi | D2  1,D3  1,Xi )   b1 + b2 + b3 + b4 ) + b5Xi
Erkeğin Tüketim Farkı
Şehirde Oturanların
Tüketim Farkı
Şehirde Oturan bir
28
Erkeğin Tüketim Farkı
Birden Fazla Kukla Değişkenli Modeller
Yi= b1 + b2D2 + b3D3 + b4D2D3 + b5Xi + ui
Yi= b1 + b5Xi
Yi= b1 + b2D2 + b5Xi
Yi= b1 + b3D3 + b5Xi
Yi= b1 + b2D2 + b3D3 + b4D2D3 + b5Xi
Dependent Variable: Y
Variable
C
D2
D3
D2*D3
X
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Durbin-Watson stat
Coefficient
11.40181
1.081264
1.230248
-1.151242
0.0307
0.966042
0.938875
0.558941
1.562077
2.778543
Std. Error
1.343907
0.707609
0.626184
0.905929
0.005311
F-statistic
Prob(F-statistic)
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
t-Statistic
8.484076
1.528053
1.964677
-1.270786
5.780173
35.55997
0.000726
1.981308
2.132601
1.815341
Prob.
0.0004
0.187
0.1066
0.2597
0.0022
MEVSİM DALGALANMALARININ ETKİSİNİN ARINDIRILMASINDA KUKLA DEĞİŞKENLERDEN
AYDALANMA
Üçer
Aylar
1965-I
II
III
IV
1966-I
II
III
IV
Karlar
(Milyon
Dolar)
10503
12092
10834
12201
12245
14001
12213
12820
Satışlar
(Milyon Dolar)
114862
123968
121454
131917
129911
140976
137828
145465
D2
0
1
0
0
0
1
0
0
D3 D4
0 0
0 0
1 0
0 1
0 0
0 0
1 0
0 1
1, Üçüncü Üç Aylık Dönem
1, İkinci Üç Aylık Dönem
D3  
D2  
0, Diğer Dönemler
0, Diğer Dönemler
1, Dördüncü Üç Aylık Dönem
30
D4  
0, Diğer Dönemler
MEVSİM DALGALANMALARININ ETKİSİNİN ARINDIRILMASINDA KUKLA
DEĞİŞKENLERDEN FAYDALANMA
 Kar )t  b1 + b2D2 + b3D3 + b4D4 + b5 (Satış)t + ut
Dependent Variable: Kar
Variable Coefficient
Std. Error
C
6688.363
1711.366 3.90820
D2
1322.892
638.4745
2.071957 0.0521
D3
-217.8054
632.2552
-0.344490
0.7343
D4
183.8564
654.2925
0.281000
0.7817
Satış
0.038246
0.011481
3.331281
0.0035
R2=0.525494
t-Statistic Prob.
İstatistiki olarak
anlamsız
0.0009
31
MEVSİM DALGALANMALARININ ETKİSİNİN
ARINDIRILMASINDA KUKLA DEĞİŞKENLERDEN FAYDALANMA
Dependent Variable: Kar
Sample: 1965:1 1970:4
VariableCoefficient
Std. Error t-Statistic
C
6515.581
1623.083
4.014323
0.0006
D2
1331.352
493.0214
2.700395
0.0134
Satış 0.0393100.010575
R2 = 0.515460
Prob.
3.717315 0.0013
Mevsim dalgalanmalarının
etkisinde
32
Parçalı Doğrusal Regresyon
Satış Komisyonları
Y
• •
•
•
•
•
•• •
• ••
•
II
• •• • •
• ••
• •
• •
•
•
I
• •• • • •
• • • •
•
X*
Bir sigorta şirketi satış temsilcilerinin
belli bir satış hacmini geçmesi
durumunda çalışanlarına komisyon
ödemektedir.
Şirket
içerisinde
gerçekleştirilen satış komisyon ücretleri
belli bir satış hacmi(X*) eşik düzeyine
kadar doğrusal artmakta ve bu eşik
düzeyinden sonra ise daha dik bir oranla
satışlarla
doğrusal
olarak
arttığı
varsayılmaktadır. Bu durumda I ve II
olarak numaralandırılmış iki parçadan
oluşan parçalı doğrusal regresyona ve
eşik düzeyinde
eğimin değiştiği
komisyon fonksiyonuna sahip olmuş
X oluruz.
33
Parçalı Doğrusal Regresyon
Satış Komisyonları
Y
• •
•
•
•
•
•• •
• ••
•
• •• • •
• ••
• •
•
• • •
• •• • • •
• • • •
•
X*
Yi= a1 + b1Xi + b2 (Xi-X*)Di+ui
Yi= Satış Komisyonları
Xi= Satış Miktarı
X*= Satışlarda Prim Eşik
Değeri
D= 1 Eğer Xi > X*
X
= 0 Eğer Xi < X*
Satışlar
E(Yi| Di =0,Xi, X*) = a1 +b1 Xi
E(Yi| Di =1,Xi, X*) = a1 - b2X* +(b1+ b34
2)Xi
Parçalı Doğrusal Regresyon
Satış Komisyonları
Y
b1+b2
1
1
b1
a1
a1-b2
X*
X
X*
Satışlar
35
Örnek
Bir şirket satış temsilcilerinin belli bir satış hacmini geçmesi durumunda çalışanlarına
prim ödemektedir.
Output( Di
units)
Q
Dependent Variable: TC
Variable
Coefficient Std. Error t-Statistic Prob.
256
1000
0
C
-145.7167
176.7341
-0.824496 0.4368
414
2000
0
Q
0.279126
0.046008
6.066877 0.0005
634
3000
0
(Q-5500)*DI
0.094500
0.082552
1.144727 0.2899
778
4000
0
R2=0.973706
F-statistic= 129.6078 [0.000003]
1003
5000
0
1839
6000
1
2081
7000
1
2423
8000
1
2734
9000
1
Total
Cost($)
TC
Included observations: 10
İstatistiki olarak
anlamsız
H0: Satışlardaki artışlar prim değerini
arttırmamaktadır. H1: Satışlardaki artışlar prim
değerini arttırmaktadır.
2914
10000
1
Satışlardaki artışlar prim
değerini arttırmamaktadır.
36
ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA
DEĞİŞKENLERİN KULLANIMI
UYGULAMA: 1935-1954 yıllarına arasında General Motor, Westinghouse ve General
Electric firmalarına ait yatırım (Y), firmanın değeri (X2 ) ve sermaye stoğu (X3) verilerine
ait tablo aşağıda verilmiştir.
37
ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA
DEĞİŞKENLERİN KULLANIMI
Firmaların yatırımları arasında fark olup olmadığını inceleyebilmek için de kukla
değişkenlerden yararlanabiliriz. Firmaların ilk üç yılına ait veriler ile oluşturulan yeni tablo
aşağıdaki gibidir.
Yıllar
1935
1936
1937
1935
1936
1937
1935
1936
1937
Y
317.6
391.8
410.6
12.93
25.90
35.05
33.1
45.0
77.2
X2
X3
3078.5 2.8
4661.7 52.6
5387.1 156.9
191.5
1.8
516.0
0.8
729.0
7.4
1170.6 97.8
2015.8 104.4
2803.3 118.0
Di
1
1
1
0
0
0
0
0
0
Firma
GM
GM
GM
WE
WE
WE
GE
GE
GE
General Motor(GM), Westinghouse(WE) ve General Electric (GE)
yatırım (Y), firmanın değeri (X2 ) ve sermaye stoğu (X3)
38
ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA
GETİRİLMESİNDE KUKLA DEĞİŞKENLERİN KULLANIMI
1, G.M gözlemleri için
D2  
0, Diğerleri için
Yi  b1 + b2 X 2 + b3 X3 + b4 Di + u i
GM yatırımlarının diğer firma
yatırımlarından sabit terim kadar
farklı olduğunu ifade etmektedir.
39
ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA
DEĞİŞKENLERİN KULLANIMI
Dependent Variable: Y
Method: Least Squares
Included observations: 60
Variable
C
X2
X3
DI
Coefficient
Std. Errort-Statistic Prob.
-61.80754
23.79039 -2.598004
0.038311 0.016752 2.286884 0.0260
0.347303 0.032048 10.83683 0.0000
278.5911 51.74338 5.384091 0.0000
0.0120
R-squared
0.924866 Mean dependent var
251.067
Adjusted R-squared0.920841 S.D. dependent var
311.6501
S.E. of regression
87.68352 Akaike info criterion
11.84969
Sum squared resid 430550.4 Schwarz criterion
11.9893
Log likelihood
-351.4906
F-statistic
229.7778
Durbin-Watson stat 0.502776 Prob(F-statistic) 0.000000
İstatistiksel
olarak anlamlı
40
ÖRNEKLER
41
DATA7-19
1960-1988 yılları arasında Türkiye’deki Sigara Tüketimi
Q
Yetişkinlerin sigara tüketim miktarı(kg), Range 1.86 - 2.723.
Y
GNP(1968) TL, Range 2560 - 5723.
P
Türkiye’deki sigara fiyatları
ED1
Kayıtlı ortaokul ve lise mezunu nüfus oranı(12-17 yaş)
Range 0.112 - 0.451.
ED2
Kayıtlı üniversite mezunu oranı (20-24) Range 0.026 - 0.095.
D82
= 1 , 1982 ve sonrası
D86
= 1 , 1986 ve sonrası
Range 1.361 - 3.968.
42
Dependent Variable: Q
Sample: 1960 1988
Included observations: 29
Variable Coefficient
Std. Error
t-Statistic Prob.
P
-0.097291
0.079389
-1.225493
ED2
-5.547295
2.679248 -2.07046
0.0509
ED1
-2.994166
2.708828 -1.105336
0.2815
D86
-0.262700
0.090825
-2.89238
D82
-0.288739
0.083649 -3.451774
0.0024
Y
0.0007620.000190 4.009205
0.0006
C
5.1139345
0.34132
0.101585 0.9200
Katsayılar istatistiksel olarak
anlamsız
0.2340
0.0087
43
Dependent Variable: Q
Method: Least Squares
Sample: 1960 1988
Included observations: 29
Variable
Coefficient Std. Error t-Statistic
Prob.
ED2
-6.455259
2.724204
-2.369595
0.0266
D86
-0.351822
0.078985
-4.454297
0.0002
D82
-0.269429
0.084743
-3.179385
0.0042
Y
0.000672
0.000170
3.945228
0.0006
C
58.18878
33.26618
1.749187
0.0936
44
DATA7-2
Belirli bir şirkette çalışan 49 kişinin istihdam durumu ve ücretleri
WAGE = Aylık Ücret (Range 981 - 3833)
EDUC = 8 yıllık eğitimden sonraki sahip olunan eğitim seviyesi(Range 1 - 11)
EXPER =Şirkette çalışma süresi(Range 1 - 23)
AGE = Yaş (25 - 64)
GENDER = 1, Erkek ise; 0 kadın ise
RACE = 1, beyaz ise; 0 diğerleri
CLERICAL = 1 büro memuru ise, 0 diğerleri
MAINT = 1 bakım işlerinde çalışıyor ise; 0 diğerleri
CRAFTS =1,usta ise; 0 diğerleri
Temel sınıf Profesyonel meslek grupları.
45
Dependent Variable: WAGE
Method: Least Squares
Included observations: 49
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
1637.202
263.6726
6.209224
0.0000
EDUC
49.33178
27.99678
1.762052
0.0855
EXPER
27.29509
9.488883
2.876533
0.0064
GENDER
473.6966
152.4818
3.106578
0.0034
RACE
207.0888
130.4491
1.587506
0.1201
CLERICAL-946.7380
174.6505
-5.420758
0.0000
MAINT
-1053.424
203.4297
-5.178320
0.0000
CRAFTS
-708.8822
176.0507
-4.026580
0.0002
R-squared
0.737516
Mean dependent var
1820.204
Adjusted R-squared
0.692702
S.D. dependent var
648.2687
S.E. of regression
359.3643
Akaike info criterion
14.75483
Sum squared resid
5294850.
Schwarz criterion
15.06370
Log likelihood
-353.4934
F-statistic
Durbin-Watson stat
2.107977
Prob(F-statistic)
16.45717
0.000000
46
DATA 7-9
1985 yılında koleje giriş yapan öğrencilerin ilk yıl başarılarını göstermekte
colgpa = 1986 sonbaharındaki ortalamaları (Range 0.85 - 3.97)
hsgpa = Lise GPA (Range 2.29 - 4.5)
vsat = Sözel derecesi (Range 200 - 700)
msat = Sayısal derecesi (Range 330 - 770)
dsci = 1 Bilim dalı için, 0 diğerleri
dsoc = 1 Sosyal bilim dallı için, 0 diğerleri
dhum = 1 Beşeri bilimdalı için 0 diğerleri
darts = 1 Sanat dalı için, 0 diğerleri
dcam = 1 Öğrenci kampüste yaşıyorsa, 0 diğerleri
dpub = 1 Genel lise mezunu ise, 0 diğerleri
47
Dependent Variable: COLGPA
Method: Least Squares
Sample: 1 427
Included observations: 427
Variable
Coefficient
Std. Errort-Statistic Prob.
C
HSGPA
VSAT
MSAT
DSCI
DSOC
DHUM
DARTS
DCAM
DPUB
0.367296 0.224302 1.637506 0.1023
0.405914 0.063418 6.400630 0.0000
0.000726 0.000290 2.503907 0.0127
0.001086 0.000303 3.586609 0.0004
-0.027323
0.057319 -0.476673
0.056148 0.072778 0.771494 0.4409
-0.004059
0.141771 -0.028632
0.228650 0.188921 1.210294 0.2269
-0.040705
0.052162 -0.780362
0.029403 0.063040 0.466416
0.6412
Katsayılar istatistiki olarak
anlamsız
0.6338
0.9772
0.4356
48
Dependent Variable: COLGPA
Variable
C
HSGPA
VSAT
MSAT
Coefficient
0.423249
0.398349
0.000737
0.001015
Std. Error
0.219749
0.060586
0.000281
0.000294
t-Statistic
1.926053
6.574882
2.627361
3.457749
Prob.
0.0548
0.0000
0.0089
0.0006
49
Bağımlı Kukla Değişkenler
Bağımlı değişken özünde iki değer alabiliyorsa yani bir özelliğin
varlığı ya da yokluğu söz konusu ise bu durumda bağımlı kukla
değişkenler söz konusudur.
•Bu durumdaki modelleri tahmin etmek için dört yaklaşım vardır:
-Doğrusal Olasılık Modeli
-Logit Modeli
-Probit Modeli
-Tobit Modeli
Doğrusal Olasılık Modeli
Yi = b1 + b2Xi +ui
Yi= 1
0
Eğer i. Birey istenen özelliğe sahipse
Diğer Durumlarda
Xi= Bağımsız değişken
Bu modele olasılıklı model denmesinin nedeni, Y’nin X için şartlı
beklenen değerinin, Y’nin X için şartlı olasılığına eşit olmasıdır.
E(Yi|Xi)= Pr(Yi=1| Xi)
Doğrusal Olasılık Modeli
Yi = b1 + b2Xi +ui
E(ui) = 0
E(Yi |Xi)= b1 + b2Xi
Yi değişkeninin olasılık dağılımı:
Yi
Olasılık
0
1-Pi
1
Pi
Toplam
1
E(Yi |Xi) = SYiPi = 0.(1-Pi) + 1.(Pi) = Pi
E(Yi |Xi)= b1 + b2Xi
0  E(Yi |Xi)  1
Doğrusal Olasılık Modeli
Di = b1 + b2Medenii +b3 Egitimi +ui
Di= 1 Eğer i. Kadının bir işi varsa ya da iş arıyorsa
0 Diğer Durumlarda
Medenii= 1 Eğer i. Kadın evliyse
diğer durumlarda 0
Eğitimi = i.kadının yıl olarak aldığı eğitim
Yaşi
= i. Kadının Yaşı
Di
Mi
Ai
Si
Di
Mi
Ai
Si
1
0
31
16
1
0
35
10
1
1
34
14
1
1
40
14
1
1
41
16
0
1
43
10
0
0
67
9
0
1
37
12
1
0
25
12
1
0
27
13
0
1
58
12
1
0
28
14
1
0
45
14
1
1
48
12
1
0
55
10
0
1
66
7
0
0
43
12
0
1
44
11
1
0
55
8
0
1
21
12
1
0
25
11
1
1
40
10
1
0
41
14
1
0
41
15
0
1
62
12
0
1
23
10
1
1
51
13
0
1
31
11
0
1
39
9
1
1
44
12
Kadının İşgücüne Katılımı Modeli
Di = b1 + b2Medenii +b3 Egitimi
Dependent Variable: DI
Included observations: 30
Variable
C
MEDENI
EGITIM
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Durbin-Watson stat
Coefficient
-0.284
-0.382
0.093
0.363
0.316
0.412
4.583
2.551
Std. Error
0.436
0.153
0.035
F-statistic
Prob(F-statistic)
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
t-Statistic
-0.652
-2.494
2.688
7.708
0.002
1.159
1.299
1.204
Prob.
0.520
0.019
0.012
Farklı Varyans Testi
Heteroskedasticity Test: Breusch-Pagan-Godfrey
F-statistic
0.961929 Prob. F(2,27)
Obs*R-squared
1.995437 Prob. Chi-Square(2)
Test Equation:
Dependent Variable: RESID^2
Variable
Coefficient
Std. Error
C
0.332565
0.171349
MEDENI
0.029802
0.060186
EGITIM
-0.016621
0.013605
R-squared
0.066515
Mean dependent var
Adjusted R-squared
-0.002633
S.D. dependent var
S.E. of regression
0.162013
Akaike info criterion
Sum squared resid
0.708701
Schwarz criterion
F-statistic
0.961929
Hannan-Quinn criter.
Prob(F-statistic)
0.394868
Durbin-Watson stat
0.3949
0.3687
t-Statistic Prob.
1.940866 0.063
0.495163 0.625
-1.221692 0.232
0.153
0.162
-0.708
-0.568
-0.663
2.085
Di Tahmin Değerleri
Di
1
1
1
0
1
0
1
1
0
1
1
1
0
1
0
Di-tah
1.204
0.636
0.822
0.553
0.832
0.450
1.018
0.646
0.832
0.460
0.739
1.018
0.450
0.543
0.171
Di
1
1
0
0
1
1
1
0
0
0
1
1
0
0
1
Di-tah
0.646
0.636
0.264
0.450
0.925
1.018
0.450
-0.015
0.357
0.450
0.264
1.111
0.264
0.357
0.450
DOM Tahminindeki Sorunlar
ui hata teriminin normal dağılmaması
ui hata teriminin Binom Dağılımlı Olması
ui hata teriminin değişen varyanslı olması
0  E(Yi |Xi)  1 varsayımının yerine gelmeyişi
ui hata teriminin normal dağılmaması
•Normallik varsayımının sağlanmaması durumunda tahmin
ediciler sapmasızlıklarını korurlar.
•Nokta tahminde normallik varsayımı gözardı edilir.
•Örnek hacmi sonsuza giderken EKK tahmincileri çoğunlukla
normal dağılıma uyarlar.
•DOM ile yapılan istatistiksel çıkarsamalar normallik varsayımı
altındaki EKK sürecine uyarlar.
ui hata teriminin Binom Dağılımlı Olması
DOM’de u’lar normal dağılmaz, binom dağılımı gösterir:
Yi  b1 + b2 X + ui
ui  Yi  b1  b2 X
Y
1 ve 0 değerini aldığında
Yi =1 için
Yi =0 için
ui  1  b1  b2 X i
ui  b1  b2 X i
u’lar normal değildir. İki değerli binom dağılımlıdır. Ancak
büyük örneklerde DOM güven aralıkları ve hipotez testleri
geçerlidir ve EKKY normal dağılım varsayımının sağlandığı
kabul edilmektedir.
ui hata teriminin değişen varyanslı olması
Var(Y )  (Yi  Y )2.P(Yi )
kesikli bir Y değişkeni varyansından hareketle Y yerine u alınarak
Var(u)  (u  u )2.P(u)  (ui )2.P(ui )
Yi
0
ui
-b1-b2X
İhtimal=P(ui)
(1-Pi)
1
1-b1-b2X
Pi
Var(ui )  (b1  b2X)2 (1  Pi ) + (1  b1  b2X)2 (Pi )
Var(ui )  (b1 + b2X)(1  b1  b2X)
Var(ui )  E(Y | Xi )[1  E(Y | Xi )]  Pi (1  Pi )
u’nun varyansı farklıdır. u’nun varyansı Y’nin X için şartlı
beklenen değerine bağlıdır ve sonuçta u’nun varyansı X’in
değerine bağlı olacak ve eşit olmayacaktır.
ui hata teriminin değişen varyanslı olması
Var(ui) = Pi(1-Pi)
DOM’nin EKKY ile tahmininde ortaya çıkan farklı varyans
problemine aşağıdaki dönüşümlü modeli tahmin ederek çözüm
getirmek mümkündür:
b1
b 2 Xi
ui
Y

+
+
vi
vi
vi
vi
vi  E(Y | Xi )[1  E(Y | Xi )]  Pi (1  Pi )
E(Y | Xi )
ler bilinmediğinden bunun yerine örnek tahmini
değerleri hesaplanarak
konarak
vˆ
ˆ (1  Y
ˆ)
vi  Y
i
i
ler kullanılır.
Yˆi
ifadesinde yerine
0  E(Yi |Xi)  1 varsayımının yerine gelmeyişi
DOM’de Y’nin şartlı olasılığını gösteren E(Y|X) nın 0 ila 1
arasında bulunması şarttır. Y; 0 ve 1 değerini almaktadır.Bu şart
anakütle için geçerlidir. Anakütlenin tahmincisi Yˆi için geçerli
olmayabilir.
Tahmini şartlı olasılıklar 0 ile 1 olmayabilir:
0  E(Yi |Xi)  1
0 ile 1 arasında mıdır? DOM”, EKKY ile elde edildikten sonra
Bunlardan bir kısmı 0 dan küçük, negatif değerli ise, bunlar için
0 değerini alır. 1’den büyük değerli ise bunlar için
Yˆi nin 1’e
eşit olduğu kabul edilir.
Dönüştürmeden sonra EKKY tekrar uygulanır ve farklı varyansın kalktığı görülebilir.
u
v
eşit varyanslıdır. Bu yöntem TEKKY’dir.
Yˆi
DOM’de Farklı Varyansı Önleme
v  b1
Di
Dependent Variable:
v + b2Mi
v + b3 Si
v + ui
v
D/ v
Included observations: 30
Variable
Coefficient
Std. Error
t-Statistic
Prob.
1/ v
M/ v
-0.184154
0.316834
-0.581231
0.5659
-0.362893
0.135229
-2.683551
0.0123
S/ v
0.081678
0.022231
3.674022
0.0010
R-squared
0.872710
Mean dependent var
2.190469
Adjusted R-squared
0.863281
S.D. dependent var
2.514662
S.E. of regression
0.929809
Akaike info criterion
2.786965
Sum squared resid
23.34273
Schwarz criterion
2.927085
Log likelihood
-38.80448 F-statistic
92.55700
Durbin-Watson stat
2.583787
0.000000
Prob(F-statistic)
DOM’e Alternatif Model Arama
•DOM ile ilgili sayılan sorunların hepsi bir şekilde aşılabilir
•Ancak, DOM, Pi=E(Y=1|X) olasılığının X’le doğrusal olarak arttığını varsayar. Yani
X’deki marjinal veya küçük bir artış hep sabittir. Gerçek hayatta ise bu beklenen
bir durum değildir.
•DOM ile ilgili sorunlar şu iki özellik sayesinde aşılabilir:
1.Xi arttıkça Pi=E(Y=1|X)’de artar ancak 0 ile 1 aralığının dışına çıkmaması
gerekmektedir.
2.Pi ile Xi arasındaki ilişkinin doğrusal olmaması gerekmektedir.
66
DOM’e Alternatif Model Arama
Yukarıdaki iki özelliği taşıyan modelin şekli aşağıda verilmiştir:
P
1
KDF
-
0
X
+
•Yukarıdaki eğri kümülatif dağılım fonksiyonuna benzemektedir.
•Bu fonksiyon kukla bağımlı değişkenli regresyon modellerinde kullanılabilir.
67
Logit Model
Logistik Dağılım Fonksiyonu
Pi =E(Y=1|X) 
1
1 + e  (b1 + b2Xi
)
1

1 + e  Zi
Zi  b1 + b2 X i
kümülatif lojistik dağılım fonksiyonudur.
1
1 + e  Zi  1
e  Zi
1 P  1


 Zi
 Zi
1+ e
1+ e
1 + e  Zi
Pi
1
1 + e z
z
Bahis yada olabilirlik oranı

.

e
1-Pi 1 + e z e z
Bu orana ev sahibi olma lehine fark oranı denir. Lojistik modelin her iki tarafının doğal log.
alındığında
Pi
Li  ln(
)  ln e e zi
1  Pi
Li fark oranı logaritması olup hem X, hem parametrelere göre doğrusaldır.Z değişkeni +
a değişirken, P 0 ile 1 arasında değişir.

68

dan
Logit Model
Logit modelde olasılık
Pi =E(Y=1|X) 
1
1+ e
 (b1 + b 2 Xi )
1

 Zi
1+ e
DOM’de
Pi =E(Y=1|X)  b1 + b2 X i
69
şeklindedir.
iken.
Logit Model
•Zi, - ile + arasında değerler alırken Pi’nin aldığı
değerler ise 0 ile 1 arasında değişmektedir.
•Zi ile Pi arasındaki ilişki doğrusal değildir.
70
Logit Modelin Özellikleri
1. Pi, 0’dan 1’e kadar değer aldığında, Logitte -ile + arasında değer alır.
Pi=1
Pi=0
 Pi 
 1 
1 
ln 
 ln  
  ln 

1  1
0
1  Pi 
 Pi 
 0 
0
ln 
 ln  
  ln 

1  0 
1 
1  Pi 
= +
= -
2. Logit, X’e göre doğrusal iken olasılıklara göre değildir.
3. Logit modelin b2 katsayısı şu şekilde yorumlanır: Bağımsız değişkendeki bir birimlik
değişme karşısında logitteki değişmeyi gösterir.
4. Logit model tahmin edildikten sonra, X bağımsız değişkeninin belirli bir değeri için logitin
gerçekleşme olasılığı hesaplanabilir.
71
Logit Modelin EKKY İle Tahmini
1.Adım: İhtimalleri hesaplanır.
Pi  n i Ni
2.Adım: fark oranı logaritmaları hesaplanır.
Li  ln(Pi 1  Pi )
Li  ln[ni (Ni  ni )]
3.Adım: Orijinal lojistik modeli tahminlenir.
Li  b1 + b2Xi + ui
Farklı varyans durumu söz konusu ise; orijinal lojistik modelin her
iki tarafı da vi ile çarpılarak dönüşümlü lojistik model elde edilir.
Li  b1 + b2Xi + ui
vi  Ni Pi (1  Pi )
Logit Modelin EKKY İle Tahmini
Farklı varyans durumu söz konusu ise; orijinal lojistik modelin her iki tarafı da
çarpılarak dönüşümlü lojistik model elde edilir.
vi
vi Li  b1 vi + b2 vi Xi + vi u i
L  b1 vi + b2 X + w i
*
vi  Ni Pi (1  Pi )
w i  u i vi
73
*
i
Dönüşümlü veya Tartılı EKK
Lojistik Modeli
ile
Logistik Model Uygulaması
300 aileden oluşan küçük bir kasabada ailelerin, yıllık gelirleri (Xi) ve ev sahibi olanların
sayısı (ni) aşağıdaki tabloda gösterilmiştir.
X
Aile Sayısı=
Ev Sahibi
Nispi
Milyon TL)
Ni
Olan Aile
Frekanslar
Sayısı=ni
Pi=ni/Ni
74
12
20
5
0.25
16
25
6
0.24
20
35
10
0.28
26
45
15
0.33
30
50
25
0.50
40
34
18
0.53
50
30
20
0.66
60
26
16
0.61
70
20
15
0.75
80
15
10
0.67
SNi = 300
Sni = 140
Logistik Model Uygulaması
Xi
1
12
16
20
26
30
40
50
60
70
75
80
Ni
2
20
25
35
45
50
34
30
26
20
15
ni
3
5
6
10
15
25
18
20
16
15
10
1-Pi Pi /1- Pi
Pi
4=3/2 5=1-4 6=4/5
0.25 0.75
0.33
0.24 0.76
0.31
0.28 0.72
0.39
0.33 0.67
0.49
0.50 0.50
1.00
0.53 0.47
1.13
0.66 0.34
1.94
0.61 0.39
1.56
0.75 0.25
3.00
0.67 0.33
2.03
Li
7=ln(6)
-1.1086
-1.1712
-0.9416
-0.7133
0.0000
0.1222
0.6626
0.4446
1.0986
0.7080
Logistik Model Uygulaması
Dependent Variable: L
Method: Least Squares
Included observations: 10
76
Variable Coefficient
Std. Error
t-Statistic
Prob.
C
-1.409706
0.215776
-6.533192
0.0002
X
0.032669
0.004667
7.000011
0.0001
R-squared
0.859649
Mean dependent var
-0.089870
Adjusted R-squared
0.842106
S.D. dependent var
0.835010
S.E. of regression
0.331799
Akaike info criterion
0.808280
Sum squared resid
0.880723
Schwarz criterion
0.868797
Log likelihood
-2.041402 F-statistic
49.00015
Durbin-Watson stat 1
.582165
0.000113
Prob(F-statistic)
Logistik Model Uygulaması
v=N.P.(1-P)
8=2.4.5
3.75
4.56
7.05
9.95
12.50
8.47
6.73
6.18
3.75
77
3.31
vi
9= 8
1.9365
2.1354
2.6552
3.1543
3.5355
2.9103
2.5942
2.4859
1.9365
1.8193
L*
10=7.9
-2.1468
-2.5009
-2.5001
-2.4999
0.0000
0.3556
1.7189
1.1052
2.1274
1.2880
X*
11=1.9
23.2379
34.1666
53.1036
82.0134
106.0660
116.4130
129.7112
149.1576
135.5544
145.5472
Logistik Model Uygulaması
Li*= -1.38056 vi + 0.03363 Xi*, s= 0.8421
s(bi): (0.2315)
(0.00556) ,
t=
(6.0424) ,
(-5.9617)
R2= 0.80
d= 1.649,
F= 36.95
Gelir bir birim arttığında, ev sahibi olma lehine fark oranının logaritması 0.033
artmaktadır. Bu fark oranına göre belli bir gelir seviyesinde ev sahibi olma olasılığı
hesaplanabilir:
X=40 iken
vi  2.9103
X   116.4130
değerleri yukarıdaki denklemde yerine konduğunda
L*=-0.10288 bulunur.
 Pˆ 
*
ˆ
Anti log L  Anti log 
  Anti log(0.10288)  0.9022
ˆ
 1 P 
Pˆ
 0.9022
ˆ
781  P
olabilirlik oranı
Pˆ  0.4743
40 birim gelirli bir ailenin ev sahibi olma olasılığı %47.43’dür.
Lojistik modelden, belli bir gelir seviyesinde gelirdeki bir birimlik artışın ev sahibi olma
olasılığını ne ölçüde arttıracağı tahmin edilebilir:
bˆ2 (1  Pˆ ) Pˆ
formülünden yararlanılır. X=40 iken gelir 1 birim arttığında ev sahibi olma
olasılığı
[0.03363(1-0.4743)0.4743]=0.00838(%0.8)
79
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.4
0.3
0.2
0.1
0.0
0
1
2
3
4
5
6
7
8
m
0
1
2
3
4
5
6
7
8
m
L
0.06
0.04
0.02
0.00
This sequence introduces the principle of maximum likelihood estimation and illustrates it
with some simple examples.
1
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.4
0.3
0.2
0.1
0.0
0
1
2
3
4
5
6
7
8
m
0
1
2
3
4
5
6
7
8
m
L
0.06
0.04
0.02
0.00
Suppose that you have a normally-distributed random variable X with unknown population
mean m and standard deviation s, and that you have a sample of two observations, 4 and 6.
For the time being, we will assume that s is equal to 1.
2
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.4
0.3521
0.3
0.2
m
0.1
3.5
0.0175
p(4)
p(6)
0.3521 0.0175
0.0
0
1
2
3
4
5
6
7
8
m
0
1
2
3
4
5
6
7
8
m
L
0.06
0.04
0.02
0.00
Suppose initially you consider the hypothesis m = 3.5. Under this hypothesis the probability
density at 4 would be 0.3521 and that at 6 would be 0.0175.
3
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.4
0.3521
0.3
0.2
m
0.1
3.5
0.0175
p(4)
p(6)
L
0.3521 0.0175 0.0062
0.0
0
1
2
3
4
5
6
7
8
m
0
1
2
3
4
5
6
7
8
m
L
0.06
0.04
0.02
0.00
The joint probability density, shown in the bottom chart, is the product of these, 0.0062.
4
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.3989
0.4
0.3
0.2
m
0.1
0.0540
0.0
0
1
2
3
4
5
6
7
8
m
0
1
2
3
4
5
6
7
8
m
p(4)
p(6)
L
3.5
0.3521 0.0175 0.0062
4.0
0.3989 0.0540 0.0215
L
0.06
0.04
0.02
0.00
Next consider the hypothesis m = 4.0. Under this hypothesis the probability densities
associated with the two observations are 0.3989 and 0.0540, and the joint probability
density is 0.0215.
5
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.4
0.3521
0.3
0.2
m
0.1295
0.1
0.0
0
1
2
3
4
5
6
7
8
m
0
1
2
3
4
5
6
7
8
m
L
p(4)
p(6)
L
3.5
0.3521 0.0175 0.0062
4.0
0.3989 0.0540 0.0215
4.5
0.3521 0.1295 0.0456
0.06
0.04
0.02
0.00
Under the hypothesis m = 4.5, the probability densities are 0.3521 and 0.1295, and the joint
probability density is 0.0456.
6
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.4
0.3
0.2420
0.2420
0.2
m
0.1
0.0
0
1
2
3
4
5
6
7
8
m
L
0.06
p(4)
p(6)
L
3.5
0.3521 0.0175 0.0062
4.0
0.3989 0.0540 0.0215
4.5
0.3521 0.1295 0.0456
5.0
0.2420 0.2420 0.0585
0.04
0.02
0.00
0
1
2
3
4
5
6
7
8
m
Under the hypothesis m = 5.0, the probability densities are both 0.2420 and the joint
probability density is 0.0585.
7
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.4
0.3521
0.3
0.2
m
0.1295
0.1
0.0
0
1
2
3
4
5
6
7
8
m
L
0.06
p(4)
p(6)
L
3.5
0.3521 0.0175 0.0062
4.0
0.3989 0.0540 0.0215
4.5
0.3521 0.1295 0.0456
5.0
0.2420 0.2420 0.0585
5.5
0.1295 0.3521 0.0456
0.04
0.02
0.00
0
1
2
3
4
5
6
7
8
m
Under the hypothesis m = 5.5, the probability densities are 0.1295 and 0.3521 and the joint
probability density is 0.0456.
8
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.4
0.3521
0.3
0.2
m
0.1295
0.1
0.0
0
1
2
3
4
5
6
7
8
m
L
0.06
p(4)
p(6)
L
3.5
0.3521 0.0175 0.0062
4.0
0.3989 0.0540 0.0215
4.5
0.3521 0.1295 0.0456
5.0
0.2420 0.2420 0.0585
5.5
0.1295 0.3521 0.0456
0.04
0.02
0.00
0
1
2
3
4
5
6
7
8
m
The complete joint density function for all values of m has now been plotted in the lower
diagram. We see that it peaks at m = 5.
9
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
f (X ) 
e
s 2
1 X  m  2
 

2 s 
Now we will look at the mathematics of the example. If X is normally distributed with mean
m and standard deviation s, its density function is as shown.
10
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
f (X ) 
e
s 2
f (X ) 
1
e
2
1 X  m  2
 

2 s 
2
1
  X m )
2
For the time being, we are assuming s is equal to 1, so the density function simplifies to the
second expression.
11
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
f (X ) 
e
s 2
f (X ) 
f ( 4) 
1
e
2
2
1
  4 m )
2
1
e
2
1 X  m  2
 

2 s 
2
1
  X m )
2
f ( 6) 
1
e
2
2
1
  6 m )
2
Hence we obtain the probability densities for the observations where X = 4 and X = 6.
12
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
f (X ) 
e
s 2
f (X ) 
f ( 4) 
1
e
2
2
1
  4 m )
2
1
e
2
1 X  m  2
 

2 s 
2
1
  X m )
2
f ( 6) 
1
e
2
2
1
  6 m )
2
 1  14m )2  1  16m )2 


joint density  
e 2
e 2
 2
 2




The joint probability density for the two observations in the sample is just the product of
their individual densities.
13
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
f (X ) 
e
s 2
f (X ) 
f ( 4) 
1
e
2
2
1
  4 m )
2
1
e
2
1 X  m  2
 

2 s 
2
1
  X m )
2
f ( 6) 
1
e
2
2
1
  6 m )
2
 1  14m )2  1  16m )2 


joint density  
e 2
e 2
 2
 2




In maximum likelihood estimation we choose as our estimate of m the value that gives us the
greatest joint density for the observations in our sample. This value is associated with the
greatest probability, or maximum likelihood, of obtaining the observations in the sample.
14
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.4
0.3521
0.3
0.2
m
0.1295
0.1
0.0
0
1
2
3
4
5
6
7
8
m
L
0.06
p(4)
p(6)
L
3.5
0.3521 0.0175 0.0062
4.0
0.3989 0.0540 0.0215
4.5
0.3521 0.1295 0.0456
5.0
0.2420 0.2420 0.0585
5.5
0.1295 0.3521 0.0456
0.04
0.02
0.00
0
1
2
3
4
5
6
7
8
m
In the graphical treatment we saw that this occurs when m is equal to 5. We will prove this
must be the case mathematically.
15
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
 1  14m )2  1  16m )2 


L( m | 4,6)  
e 2
e 2
 2
 2




To do this, we treat the sample values X = 4 and X = 6 as given and we use the calculus to
determine the value of m that maximizes the expression.
16
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
 1  14m )2  1  16m )2 


L( m | 4,6)  
e 2
e 2
 2
 2




When it is regarded in this way, the expression is called the likelihood function for m, given
the sample observations 4 and 6. This is the meaning of L(m | 4,6).
17
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
 1  14m )2  1  16m )2 


L( m | 4,6)  
e 2
e 2
 2
 2




To maximize the expression, we could differentiate with respect to m and set the result equal
to 0. This would be a little laborious. Fortunately, we can simplify the problem with a trick.
18
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
 1  14m )2  1  16m )2 


L( m | 4,6)  
e 2
e 2
 2
 2




 1  1  4 m ) 2  1  1  6  m ) 2  


e 2
e 2
log L  log 

 2
 2


 1  1  6 m ) 2 
 1  1  4 m ) 2 

 + log 
e 2
e 2
 log 

 2

 2




2
2
1
1




)

)

m

6

m

4

 1 
 1 
2
2




+ log e
+ log 
 log 

 + log  e




2


 2 




1
2
2
 1  1
 2 log 
  4  m )  6  m )
2
 2  2
log L is a monotonically increasing function of L (meaning that log L increases if L
increases and decreases if L decreases).
19
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
 1  14m )2  1  16m )2 


L( m | 4,6)  
e 2
e 2
 2
 2




 1  1  4 m ) 2  1  1  6  m ) 2  


e 2
e 2
log L  log 

 2
 2


 1  1  6 m ) 2 
 1  1  4 m ) 2 

 + log 
e 2
e 2
 log 

 2

 2




2
2
1
1




)

)

m

6

m

4

 1 
 1 
2
2




+ log e
+ log 
 log 

 + log  e




2


 2 




1
2
2
 1  1
 2 log 
  4  m )  6  m )
2
 2  2
It follows that the value of m which maximizes log L is the same as the one that maximizes
L. As it so happens, it is easier to maximize log L with respect to m than it is to maximize L.
20
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
 1  14m )2  1  16m )2 


L( m | 4,6)  
e 2
e 2
 2
 2




 1  1  4 m ) 2  1  1  6  m ) 2  


e 2
e 2
log L  log 

 2
 2


 1  1  6 m ) 2 
 1  1  4 m ) 2 

 + log 
e 2
e 2
 log 

 2

 2




2
2
1
1




)

)

m

6

m

4

 1 
 1 
2
2




+ log e
+ log 
 log 

 + log  e




2


 2 




1
2
2
 1  1
 2 log 
  4  m )  6  m )
2
 2  2
The logarithm of the product of the density functions can be decomposed as the sum of
their logarithms.
21
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
 1  14m )2  1  16m )2 


L( m | 4,6)  
e 2
e 2
 2
 2




 1  1  4 m ) 2  1  1  6  m ) 2  


e 2
e 2
log L  log 

 2
 2


 1  1  6 m ) 2 
 1  1  4 m ) 2 

 + log 
e 2
e 2
 log 

 2

 2




2
2
1
1




)

)

m

6

m

4

 1 
 1 
2
2




+ log e
+ log 
 log 

 + log  e




2


 2 




1
2
2
 1  1
 2 log 
  4  m )  6  m )
2
 2  2
Using the product rule a second time, we can decompose each term as shown.
22
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
 1  14m )2  1b  16m )2 
2
 a eb log
log
a 
L( m | 4,6)  
e 2
 2
 2




1
 ( 1X 4 )2 2
1
1 2 2 
 log
2  4 m ) 
) e

 1( X  246) mlog
1e 2


e
e
log L  log 
2

 2
 2

 1
2
  ( X  4)
2
1
 1   4 m )  2  1  1  6 m ) 2 

 + log 
e 2
e 2
 log 

 2

 2




2
2
1
1




)

)

m

6

m

4

 1 
 1 
2
2




+ log e
+ log 
 log 

 + log  e




2


 2 




1
2
2
 1  1
 2 log 
  4  m )  6  m )
2
 2  2
Now one of the basic rules for manipulating logarithms allows us to rewrite the second term
as shown.
23
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
 1  14m )2  1b  16m )2 
2
 a eb log
log
a 
L( m | 4,6)  
e 2
 2
 2




1
 ( 1X 4 )2 2
1
1 2 2 
 log
2  4 m ) 
) e

 1( X  246) mlog
1e 2


e
e
log L  log 
2

 2
 2

 1
2
  ( X  4)
2
1
 1   4 m )  2  1  1  6 m ) 2 

 + log 
e 2
e 2
 log 

 2

 2




2
2
1
1




)

)

m

6

m

4

 1 
 1 
2
2




+ log e
+ log 
 log 

 + log  e




2


 2 




1
2
2
 1  1
 2 log 
  4  m )  6  m )
2
 2  2
log e is equal to 1, another basic logarithm result. (Remember, as always, we are using
natural logarithms, that is, logarithms to base e.)
24
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
 1  14m )2  1b  16m )2 
2
 a eb log
log
a 
L( m | 4,6)  
e 2
 2
 2




1
 ( 1X 4 )2 2
1
1 2 2 
 log
2  4 m ) 
) e

 1( X  246) mlog
1e 2


e
e
log L  log 
2

 2
 2

 1
2
  ( X  4)
2
1
 1   4 m )  2  1  1  6 m ) 2 

 + log 
e 2
e 2
 log 

 2

 2




2
2
1
1




)

)

m

6

m

4

 1 
 1 
2
2




+ log e
+ log 
 log 

 + log  e




2


 2 




1
2
2
 1  1
 2 log 
  4  m )  6  m )
2
 2  2
Hence the second term reduces to a simple quadratic in X. And so does the fourth.
25
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
 1  14m )2  1  16m )2 


L( m | 4,6)  
e 2
e 2
 2
 2




 1  1  4 m ) 2  1  1  6  m ) 2  


e 2
e 2
log L  log 

 2
 2


 1  1  6 m ) 2 
 1  1  4 m ) 2 

 + log 
e 2
e 2
 log 

 2

 2




2
2
1
1




)

)

m

6

m

4

 1 
 1 
2
2




+ log e
+ log 
 log 

 + log  e




2


 2 




1
2
2
 1  1
 2 log 
  4  m )  6  m )
2
 2  2
We will now choose m so as to maximize this expression.
26
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
 1  1

)

)
log L  2 log 

4

m

6

m

2

2

 2
1
1 2
1 2
1 2
2
2
 a  m )   a  2am + m )   a + am  m
2
2
2
2
Quadratic terms of the type in the expression can be expanded as shown.
27
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
 1  1

)

)
log L  2 log 

4

m

6

m

2

2

 2
1
1 2
1 2
1 2
2
2
 a  m )   a  2am + m )   a + am  m
2
2
2
2
d  1
2

)

a

m

am
dm  2

Thus we obtain the differential of the quadratic term.
28
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
 1  1

)

)
log L  2 log 

4

m

6

m

2

2

 2
1
1 2
1 2
1 2
2
2
 a  m )   a  2am + m )   a + am  m
2
2
2
2
d  1
2

)

a

m

am
dm  2

d log L
 (4  m ) + (6  m )
dm
Applying this result, we obtain the differential of log L with respect to m. (The first term in
the expression for log L disappears completely since it is not a function of m.)
29
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
 1  1

)

)
log L  2 log 

4

m

6

m

2

2

 2
1
1 2
1 2
1 2
2
2
 a  m )   a  2am + m )   a + am  m
2
2
2
2
d  1
2

)

a

m

am
dm  2

d log L
 (4  m ) + (6  m )
dm
d log L
 0  mˆ  5
dm
Thus from the first order condition we confirm that 5 is the value of
log-likelihood function, and hence the likelihood function.
m that maximizes the
30
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
 1  1

)

)
log L  2 log 

4

m

6

m

2

2

 2
1
1 2
1 2
1 2
2
2
 a  m )   a  2am + m )   a + am  m
2
2
2
2
d  1
2

)

a

m

am
dm  2

d log L
 (4  m ) + (6  m )
dm
d log L
 0  mˆ  5
dm
Note that a caret mark has been placed over
estimate of m, not its true value.
m, because we are now talking about an
31
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
 1  1

)

)
log L  2 log 

4

m

6

m

2

2

 2
1
1 2
1 2
1 2
2
2
 a  m )   a  2am + m )   a + am  m
2
2
2
2
d  1
2

)

a

m

am
dm  2

d log L
 (4  m ) + (6  m )
dm
d log L
 0  mˆ  5
dm
Note also that the second differential of log L with respect to m is -2. Since this is negative,
we have found a maximum, not a minimum.
32
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
f (Xi ) 
1
e
2
2
1
  X i m )
2
We will generalize this result to a sample of n observations X1,...,Xn. The probability density
for Xi is given by the first line.
33
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
f (Xi ) 
1
e
2
2
1
  X i m )
2
 1  1  X1  m )2 
 1  1  X n  m )2 

  ...  

e 2
e 2
 2

 2





The joint density function for a sample of n observations is the product of their individual
densities.
34
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
f (Xi ) 
1
e
2
2
1
  X i m )
2
 1  1  X1  m )2 
 1  1  X n  m )2 
  ...  

L( m | X 1 ,..., X n )  
e 2
e 2
 2

 2





Now treating the sample values as fixed, we can re-interpret the joint density function as the
likelihood function for m, given this sample. We will find the value of m that maximizes it.
35
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
f (Xi ) 
1
e
2
2
1
  X i m )
2
 1  1  X1  m )2 
 1  1  X n  m )2 
  ...  

L( m | X 1 ,..., X n )  
e 2
e 2
 2

 2





 1  1  X 1  m ) 2 
 1  1  X n  m )2  
  ...  

log L  log 
e 2
e 2

 2

 2



 1  1  X 1  m )2 
 1  1  X n  m )2 
 + ... + log 

 log 
e 2
e 2
 2

 2





1
2
2
 1  1

)

)
 n log 

X

m

...

X

m

1
n
2
 2  2
We will do this indirectly, as before, by maximizing log L with respect to m. The logarithm
decomposes as shown.
36
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
 1  1

)

)
log L  n log 

X

m

...

X

m

1
n
2
 2  2
d log L
 ( X 1  m ) + ... + ( X n  m )
dm
We differentiate log L with respect to m.
37
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
 1  1

)

)
log L  n log 

X

m

...

X

m

1
n
2
 2  2
d log L
 ( X 1  m ) + ... + ( X n  m )
dm
d log L
0 
dm
X
i
 nmˆ  0
The first order condition for a minimum is that the differential be equal to zero.
38
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
 1  1

)

)
log L  n log 

X

m

...

X

m

1
n
2
 2  2
d log L
 ( X 1  m ) + ... + ( X n  m )
dm
d log L
0 
dm
 mˆ 
X
i
 nmˆ  0
1
Xi  X

n
Thus we have demonstrated that the maximum likelihood estimator of m is the sample
mean. The second differential, -n, is negative, confirming that we have maximized log L.
39
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
f (Xi ) 
e
s 2
1 X  m  2
  i

2 s 
So far we have assumed that s, the standard deviation of the distribution of X, is equal to 1.
We will now relax this assumption and find the maximum likelihood estimator of it.
40
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.8
0.6
0.4
0.2
0.0
0
1
2
3
4
5
6
7
8
9
m
L
0.06
0.04
0.02
0
s
0
1
2
3
4
We will illustrate the process graphically with the two-observation example, keeping m fixed
at 5. We will start with s equal to 2.
41
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.8
0.6
0.4
s
0.2
2.0
0.0
0
1
2
3
4
5
6
7
8
9
p(4)
p(6)
L
0.1760 0.1760 0.0310
m
L
0.06
0.04
0.02
0
s
0
1
2
3
4
With s equal to 2, the probability density is 0.1760 for both x = 4 and x = 6, and the joint
density is 0.0310.
42
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.8
0.6
0.4
s
0.2
0.0
0
1
2
3
4
5
6
7
8
9
m
p(4)
p(6)
L
2.0
0.1760 0.1760 0.0310
1.0
0.2420 0.2420 0.0586
L
0.06
0.04
0.02
0
s
0
1
2
3
4
Now try s equal to 1. The individual densities are 0.2420 and so the joint density, 0.0586,
has increased.
43
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.8
0.6
0.4
s
0.2
0.0
0
L
0.06
1
2
3
4
5
6
7
8
9
m
p(4)
p(6)
L
2.0
0.1760 0.1760 0.0310
1.0
0.2420 0.2420 0.0586
0.5
0.1080 0.1080 0.0117
0.04
0.02
0
s
0
1
2
3
4
Now try putting s equal to 0.5. The individual densities have fallen and the joint density is
only 0.0117.
44
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p
0.8
0.6
0.4
s
0.2
0.0
0
L
0.06
1
2
3
4
5
6
7
8
9
m
p(4)
p(6)
L
2.0
0.1760 0.1760 0.0310
1.0
0.2420 0.2420 0.0586
0.5
0.1080 0.1080 0.0117
0.04
0.02
0
s
0
1
2
3
4
The joint density has now been plotted as a function of s in the lower diagram. You can see
that in this example it is greatest for s equal to 1.
45
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
f (Xi ) 
e
s 2
1 X  m  2
  i

2 s 
We will now look at this mathematically, starting with the probability density function for x
given m and s.
46
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
f (Xi ) 
e
s 2
1 X  m  2
  i

2 s 
1 X  m  2 
 1  1 X1  m  2 
 1
  n

2 s  
2 s  


e
 ... 
e
 2

 s 2





The joint density function for the sample of n observations is given by the second line.
47
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
f (Xi ) 
e
s 2
1 X  m  2
  i

2 s 
1 X  m  2 
 1  1 X1  m  2 
 1
  n

2 s  
2 s  


L( m ,s | X 1 ,..., X n ) 
e
 ... 
e
 2

 s 2





As before, we can re-interpret this function as the likelihood function for m and s, given the
sample of observations.
48
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
f (Xi ) 
e
s 2
1 X  m  2
  i

2 s 
1 X  m  2 
 1  1 X1  m  2 
 1
  n

2 s  
2 s  


L( m ,s | X 1 ,..., X n ) 
e
 ... 
e
 2

 s 2





1 X1  m  2 
1 X n  m  2  
 1

 
 


1
2 s  
2 s  



log L  log 
e
 ... 
e

 s 2

 s 2




We will find the values of m and s that maximize this function. We will do this indirectly by
maximizing log L.
49
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1 X1  m  2 
1 X n  m  2  
 1

 
 


1
2 s  
2 s  



log L  log 
e
 ... 
e

 s 2

 s 2




1 X1  m  2 
1 X n  m  2 
 1

 
 


1
2 s  
2 s  


 log
e
+ ... + log
e
 s 2

 s 2





1 Xn  m 
 1  1  X1  m 
 n log 

 
  ...  
2 s 
 s 2  2  s 
1
2
2
1
 1  1  1

)

)
 n log   + n log 
+

X

m

...

X

m


1
n
2
s
2

s
2
2
 




2
2
We can decompose the logarithm as shown. To maximize it, we will set the partial
derivatives with respect to m and s equal to zero.
50
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
1
 1  1  1

)

)
log L  n log   + n log 
+

x

m

...

x

m


1
n
2 
2
s 
 2  s  2

2
1
s
2



)
 n
log
s
+
n
log

x

m
 log L 1   21 2 2 i 1
2

)

)
 2

X

m

...

X

m


1
n
m
s m  2
2



1
s
2
1
s
2
( X 1  m ) + ... + ( X n  m )
 X
i
 nm )
When differentiating with respect to m, the first two terms disappear. We have already seen
how to differentiate the other terms.
51
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
1
 1  1  1

)

)
log L  n log   + n log 
+

X

m

...

X

m


1
n
2
2
s 
 2  s  2

2
1
s
2



)
  nlog
s
+
n
log

X

m
log L 1  2 1 2  2 i
1
2

)

)
 2

X

m

...

X

m


1
n
m
s m  2
2



1
s
2
1
s
2
( X 1  m ) + ... + ( X n  m )
 X
i
 nm )
 log L
 0  mˆ  X
m
Setting the first differential equal to 0, the maximum likelihood estimate of
mean, as before.
m is the sample
52
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
1
 1  1  1

)

)
log L  n log   + n log 
+

X

m

...

X

m


1
n
2
2
s 
 2  s  2

2
1
s
2



)
  n log s + n log 

X

m


i
2

2


Next, we take the partial differential of the log-likelihood function with respect to s.
53
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
1
 1  1  1

)

)
log L  n log   + n log 
+

X

m

...

X

m


1
n
2
2
s 
 2  s  2

2
1
s
2



)
  n log s + n log 

X

m


i
2

2


log a b  b log a
log
1
s
 log s 1  ( 1) log s   log s
Before doing so, it is convenient to rewrite the equation.
54
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
1
 1  1  1

)

)
log L  n log   + n log 
+

X

m

...

X

m


1
n
2
2
s 
 2  s  2

2
1
s
2



)
  n log s + n log 

X

m


i
2

2


 log L
n
  + s 3  ( X i  m )2
s
s
The derivative of log s with respect to s is 1/s. The derivative of s--2 is -2s--3.
55
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
1
 1  1  1

)

)
log L  n log   + n log 
+

X

m

...

X

m


1
n
2
2
s 
 2  s  2

2
1
s
2



)
  n log s + n log 

X

m


i
2

2


 log L
n
  + s 3  ( X i  m )2
s
s
 log L
n
 0   + sˆ 3  ( X i  mˆ ) 2  0
s
sˆ
Setting the first derivative of log L to zero gives us a condition that must be satisfied by the
maximum likelihood estimator.
56
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
1
 1  1  1

)

)
log L  n log   + n log 
+

X

m

...

X

m


1
n
2
2
s 
 2  s  2

2
1
s
2



)
  n log s + n log 

X

m


i
2

2


 log L
n
  + s 3  ( X i  m )2
s
s
 log L
n
 0   + sˆ 3  ( X i  mˆ ) 2  0
s
sˆ
 nsˆ 2 +  ( X i  X )2  0
We have already demonstrated that the maximum likelihood estimator of
mean.
m is the sample
57
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
1
 1  1  1

)

)
log L  n log   + n log 
+

X

m

...

X

m


1
n
2
2
s 
 2  s  2

2
1
s
2



)
  n log s + n log 

X

m


i
2

2


 log L
n
  + s 3  ( X i  m )2
s
s
 log L
n
 0   + sˆ 3  ( X i  mˆ ) 2  0
s
sˆ
 nsˆ 2 +  ( X i  X )2  0
1
sˆ   ( X i  X ) 2  Var( X )
n
2
Hence the maximum likelihood estimator of the population variance is the sample variance.
58
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
1
 1  1  1

)

)
log L  n log   + n log 
+

X

m

...

X

m


1
n
2
2
s 
 2  s  2

2
1
s
2



)
  n log s + n log 

X

m


i
2

2


 log L
n
  + s 3  ( X i  m )2
s
s
 log L
n
 0   + sˆ 3  ( X i  mˆ ) 2  0
s
sˆ
 nsˆ 2 +  ( X i  X )2  0
1
sˆ   ( X i  X ) 2  Var( X )
n
2
Note that it is biased. The unbiased estimator is obtained by dividing by (n - 1), not n.
59
INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
1
2
2
1
 1  1  1

)

)
log L  n log   + n log 
+

X

m

...

X

m


1
n
2
2
s 
 2  s  2

2
1
s
2



)
  n log s + n log 

X

m


i
2

2


 log L
n
  + s 3  ( X i  m )2
s
s
 log L
n
 0   + sˆ 3  ( X i  mˆ ) 2  0
s
sˆ
 nsˆ 2 +  ( X i  X )2  0
1
sˆ   ( X i  X ) 2  Var( X )
n
2
However it can be shown that the maximum likelihood estimator is asymptotically efficient,
in the sense of having a smaller mean square error than the unbiased estimator in large
samples.
60
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y
b1 + b2Xi
b1
Xi
X
We will now apply the maximum likelihood principle to regression analysis, using the simple linear
model Y = b1 + b 2X + u.
1
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y
b1 + b2Xi
b1
Xi
X
The black marker shows the value that Y would have if X were equal to Xi and if there were no
disturbance term.
2
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y
b1 + b2Xi
b1
Xi
X
However we will assume that there is a disturbance term in the model and that it has a normal
distribution as shown.
3
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y
b1 + b2Xi
b1
Xi
X
Relative to the black marker, the curve represents the ex ante distribution for u, that is, its potential
distribution before the observation is generated. Ex post, of course, it is fixed at some specific value.
4
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y
b1 + b2Xi
b1
Xi
X
Relative to the horizontal axis, the curve also represents the ex ante distribution for Y for that
observation, that is, conditional on X = Xi.
5
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y
b1 + b2Xi
b1
Xi
X
Potential values of Y close to b1 + b2Xi will have relatively large densities ...
6
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y
b1 + b2Xi
b1
Xi
X
... while potential values of Y relatively far from b1 + b2Xi will have small ones.
7
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y
b1 + b2Xi
b1
Xi
X
The mean value of the distribution of Yi is b1 + b2Xi. Its standard deviation is s, the standard
deviation of the disturbance term.
8
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y
1
f (Yi ) 
e
s 2
1 Y  b  b X
  i 1 2 i
2
s



2
b1 + b2Xi
b1
Xi
X
Hence the density function for the ex ante distribution of Yi is as shown.
9
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
1
f (Yi ) 
e
s 2
1
f (Y1 )  ...  f (Yn ) 
e
s 2
1 Y  b  b X
  i 1 2 i
2
s
1  Y1  b1  b 2 X1  2
 

2
s




2
1
 ... 
e
s 2
1  Yn  b1  b 2 X n  2
 

2
s

The joint density function for the observations on Y is the product of their individual densities.
10
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
1
f (Yi ) 
e
s 2
1
f (Y1 )  ...  f (Yn ) 
e
s 2
1 Y  b  b X
  i 1 2 i
2
s
1  Y1  b1  b 2 X1  2
 

2
s

1
Lb 1 , b 2 ,s | Y1 ,..., Yn ) 
e
s 2



2
1
 ... 
e
s 2
1 Y  b  b X  2
  1 1 2 1
2
s

1  Yn  b1  b 2 X n  2
 

2
s

1
 ... 
e
s 2
1 Y  b  b X  2
  n 1 2 n
2
s

Now , taking b1, b2 and s as our choice variables, and taking the data on Y and X as given, we can reinterpret this function as the likelihood function for b1, b2, and s.
11
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
1
f (Yi ) 
e
s 2
1
f (Y1 )  ...  f (Yn ) 
e
s 2
1 Y  b  b X
  i 1 2 i
2
s
1  Y1  b1  b 2 X1  2
 

2
s

1
Lb 1 , b 2 ,s | Y1 ,..., Yn ) 
e
s 2



2
1
 ... 
e
s 2
1 Y  b  b X  2
  1 1 2 1
2
s

1  Yn  b1  b 2 X n  2
 

2
s

1
 ... 
e
s 2
1 Y  b  b X  2
  n 1 2 n
2
s

1  Y1  b1  b 2 X 1  2
1  Yn  b1  b 2 X n  2 
 1
 
 


1
2
s
2
s


 
log L  log
e
 ... 
e
 s 2

s 2


We will choose b1, b2, and s so as to maximize the likelihood, given the data on Y and X. As usual, it is
easier to do this indirectly, maximizing the log-likelihood instead.
12
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS

log L  log 
s


 log 
s

1
e
2
1
e
2
1 Y  b  b X  2
  1 1 2 1
2
s

1  Y1  b1  b 2 X 1  2
 

2
s

1
 ... 
e
s 2
1 Y  b  b X  2
  n 1 2 n
2
s





1  Yn  b1  b 2 X n  2 

 1
 

2
s
 + ... + log 
 
e

 s 2




1  Yn  b 1  b 2 X n 
 1  1  Y1  b 1  b 2 X 1 
 n log 

 
  ...  
s
2
s
 s 2  2 


2
 1  s
 n log 
Z

 s 2  2
2
2
As usual, the first step is to decompose the expression as the sum of the logarithms of the factors.
13
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS

log L  log 
s


 log 
s

1
e
2
1
e
2
1 Y  b  b X  2
  1 1 2 1
2
s

1  Y1  b1  b 2 X 1  2
 

2
s

1
 ... 
e
s 2
1 Y  b  b X  2
  n 1 2 n
2
s





1  Yn  b1  b 2 X n  2 

 1
 

2
s
 + ... + log 
 
e

 s 2




1  Yn  b 1  b 2 X n 
 1  1  Y1  b 1  b 2 X 1 
 n log 

 
  ...  
s
2
s
 s 2  2 


2
 1  s
 n log 
Z

 s 2  2
2
2
Then we split the logarithm of each factor into two components. The first component is the same in
each case.
14
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS

log L  log 
s


 log 
s

1
e
2
1
e
2
1 Y  b  b X  2
  1 1 2 1
2
s

1  Y1  b1  b 2 X 1  2
 

2
s

1
 ... 
e
s 2
1 Y  b  b X  2
  n 1 2 n
2
s





1  Yn  b1  b 2 X n  2 

 1
 

2
s
 + ... + log 
 
e

 s 2




1  Yn  b 1  b 2 X n 
 1  1  Y1  b 1  b 2 X 1 
 n log 

 
  ...  
s
2
s
 s 2  2 


2
 1  s
 n log 
Z

 s 2  2
2
2
where Z  (Y1  b 1  b 2 X 1 )2 + ... + (Yn  b 1  b 2 X n )2 
Hence the log-likelihood simplifies as shown.
15
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS

log L  log 
s


 log 
s

1
e
2
1
e
2
1 Y  b  b X  2
  1 1 2 1
2
s

1  Y1  b1  b 2 X 1  2
 

2
s

1
 ... 
e
s 2
1 Y  b  b X  2
  n 1 2 n
2
s





1  Yn  b1  b 2 X n  2 

 1
 

2
s
 + ... + log 
 
e

 s 2




1  Yn  b 1  b 2 X n 
 1  1  Y1  b 1  b 2 X 1 
 n log 

 
  ...  
s
2
s
 s 2  2 


2
 1  s
 n log 
Z

 s 2  2
2
2
where Z  (Y1  b 1  b 2 X 1 )2 + ... + (Yn  b 1  b 2 X n )2 
To maximize the log-likelihood, we need to minimize Z. But choosing estimators of b1 and b2 to
minimize Z is exactly what we did when we derived the least squares regression coefficients.
16
MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS

log L  log 
s


 log 
s

1
e
2
1
e
2
1 Y  b  b X  2
  1 1 2 1
2
s

1  Y1  b1  b 2 X 1  2
 

2
s

1
 ... 
e
s 2
1 Y  b  b X  2
  n 1 2 n
2
s





1  Yn  b1  b 2 X n  2 

 1
 

2
s
 + ... + log 
 
e

 s 2




1  Yn  b 1  b 2 X n 
 1  1  Y1  b 1  b 2 X 1 
 n log 

 
  ...  
s
2
s
 s 2  2 


2
 1  s
 n log 
Z

 s 2  2
2
2
where Z  (Y1  b 1  b 2 X 1 )2 + ... + (Yn  b 1  b 2 X n )2 
Thus, for this regression model, the maximum likelihood estimators are identical to the least squares
estimators. The estimator of s will, however, be slightly different.
17
Copyright Christopher Dougherty 2000-2002. This slideshow may be freely copied for personal use.
22.02.02
Probit Model
Bağımlı kukla değişkenli modellerden kümülatif lojistik fonksiyonundan farklı olarak,
normal kümülatif dağılım fonksiyonunu kullanan PROBİT(NORMAL) vardır.
F(z)=
Z0

1
2s
e
 ( Z m z ) 2 / 2 s 2
P R O B İ T (NORMAL) MODEL
Probit modeli şu şekilde tanımlayabiliriz:
Herhangi bir i hanesinin ev sahibi olma veya olmama kararının gözlenemeyen
bir fayda indeksi Ii’ye bağlı olduğunu varsayalım.
158
Ii, bağımsız değişkenlere bağlıdır. Örneğin Xi (gelir)değişkeni.
Ii= b1 + b2 Xi
Y=1 hane ev sahibi
(1)
Y=0 hane ev sahibi değil.
Her hane için Ii’nın belli bir değerinden itibaren ev sahibi olma durumu söz konusudur.Ii
değeri, Ii* değerini aştığı zaman hane, ev sahibi olacak aksi durumda olmayacaktır.
Ii*  Ii  ifadesi faydanın belli bir eşik değerinden sonra söz konusu olabileceğini gösterir.
Ii* başlangıç değeri de Ii gibi gözlenemez. Ancak, aynı ortalama ve varyanslı normal
dağıldığı varsayılarak Ii değerleri yukarıdaki regresyon denkleminden tahmin edilir.
Tahminciler bulunur.
Normal dağılım varsayımıyla Ii* ın Ii den küçük veya eşit olma olasılığı aşağıdaki
standartlaştırılmış normal KDF ile hesaplanabilir:
159
Pi=Pr(Y=1)=Pr(Ii* Ii)=F(Ii)
1 Ii  t 2 / 2
e
dt 

2  
1
2
b1 + b2 Xi  t 2 / 2
e
dt

=Standartlaştırılmış Normal KDF
t  N (0,1)
=standartlaştırılmış normal değişken
Pi=Bir ev sahibi olma olasılığı.
160
(2)
Probit Model
Pi=F(Ii)
1
Pi
Ii* <=Ii verilmişken ev sahibi olma olasılığı Pi
ordinatta bulunur
0
-
Ii= b1 + b2 Xi
+
Pi=F(Ii)
1
Pi
Pi verilmişken, absiste Ii bulunur.
0
161
-
Ii=F-1(Pi )
+
Ii’yı bulabilmek için 2 no’lu ifadenin tersi alınmalıdır.
1
F
Ii = F (Ii)= (Pi)=b1+b2Xi
1
=Probit model
F 1: normal kümülatif dağılım fonksiyonunun tersi.
162
Probit Modelin Tahmin Aşamaları
1.
Pi= ni/Ni hesaplanır.
2.
Ii =
3.
Ii = b1 + b2 Xi + ui EKK ile tahmin edilir.
4.
İstenirse, Ii yerine, (Ii + 5)=probit değerleri alınarak, EKKY ile (13.19) tahmin edilir.
5.
modelinin hata terimi ui farklı varyanslıdır. Bu sebepten dönüşümlü değerler alınarak
TEKKY uygulanabilir:=
163
F 1 (Pi)= normal eşdeğer sapma bulunur.
s 
2
u
Pi (1 Pi )
N i fi
1
fi= F (Pi) ifadesine eşit standart normal yoğunluk
fonksiyonudur.
6.
Büyük örnekler için bi'lerin güven aralıkları ve hipotez testleri uygulanarak, anakütlede
durumun geçerliliği araştırılabilir.
7.
Belirlilik katsayısı R2, modelin fonksiyonel biçiminin iyi seçilip seçilmediği konusunda
bize fikir vermez.
164
Probit Model Uygulaması
Pi
0.25
0.24
0.28
0.33
0.50
0.53
0.66
0.61
0.75
0.67
165
Ii=F-1(Pi)
-0.6745
-0.7063
-0.5828
-0.4399
0.0000
0.0752
Probitler=Zi=(Ii+5)
4.3255
4.2937
Xi
12
16
4.4172
4.5601
5.0000
20
26
30
40
0.4124
0.2793
0.6745
5.0752
5.4124
5.2793
5.6745
0.4399
5.4399
50
60
70
80
Probit Model Uygulaması
Ii= -0.8587 + 0.0200 Xi , r2= 0.8628
s(bi)
(0.0028) s= 0.2
t=
(7.094)
d= 1.59
Zi= 4.1324 + 0.0201 Xi , r2= 0.8621
s(bi)
(0.0028) s= 0.2
t=
(7.071)
166
r= 0.9289
d= 1.5637
r= 0.9285
Wooldridge Example 17.1
inlf
kidslt6 kidsge6 age
educ exper
nwifeinc
Obs: 753
1. inlf
2. kidslt6
3. kidsge6
4. age
5. educ
6. exper
7. nwifeinc
8. expersq
167
=1 işgücüne katılıyorsa
6 < yaşında küçük çocuk sayısı
6-18 yaşları arasındaki çocuk sayısı
kadının yaşı
eğitim yılı
deneyim
(ailegeliri – ücret*saat)/1000
deneyimkare
expersq
Wooldridge Example 17.1-DİM
Dependent Variable: INLF
Method: Least Squares
Included observations: 753
Variable
Coefficient
Std. Error
t-Statistic
Prob.
NWIFEINC
-0.003405
0.001448
-2.350840
0.0190
EDUC
0.037995
0.007376
5.151194
0.0000
EXPER
0.039492
0.005673
6.961866
0.0000
EXPERSQ
-0.000596
0.000185
-3.226959
0.0013
AGE
-0.016091
0.002485
-6.476014
0.0000
KIDSLT6
-0.261810
0.033506
-7.813888
0.0000
KIDSGE6
0.013012
0.013196
0.986077
0.3244
C
0.585519
0.154178
3.797683
0.0002
R-squared
0.264216
Mean dependent var
0.568393
Adjusted R-squared
0.257303
S.D. dependent var
0.495630
S.E. of regression
0.427133
Akaike info criterion
1.147124
Sum squared resid
135.9197
Schwarz criterion
1.196251
Log likelihood
-423.8923
F-statistic
38.21795
0.493840
Prob(F-statistic)
0.000000
168
Durbin-Watson stat
Wooldridge Example 17.1-LOGİT
Dependent Variable: INLF
Method: ML - Binary Logit Included observations: 753
Variable
Coefficient
Std. Error
z-Statistic
Prob.
NWIFEINC
-0.021345
0.008421
-2.534621
0.0113
EDUC
0.221170
0.043440
5.091443
0.0000
EXPER
0.205870
0.032057
6.422002
0.0000
EXPERSQ
-0.003154
0.001016
-3.104093
0.0019
AGE
-0.088024
0.014573
-6.040235
0.0000
KIDSLT6
-1.443354
0.203585
-7.089695
0.0000
KIDSGE6
0.060112
0.074790
0.803750
0.4215
C
0.425452
0.860369
0.494500
0.6210
Mean dependent var
0.568393
S.D. dependent var
0.495630
S.E. of regression
0.425963
Akaike info criterion
1.088354
Sum squared resid
135.1762
Schwarz criterion
1.137481
Log likelihood
-401.7652
Hannan-Quinn criter.
1.107280
Restr. log likelihood
-514.8732
Avg. log likelihood
-0.533553
LR statistic (7 df)
226.2161
McFadden R-squared
0.219681
Probability(LR stat)
0.000000
Obs with Dep=0
325
169
Obs with Dep=1
428
Total obs
753
Wooldridge Example 17.1-PROBİT
Dependent Variable: INLF
Method: ML - Binary Probit Included observations: 753
Variable
Coefficient
Std. Error
z-Statistic
Prob.
NWIFEINC
-0.012024
0.004840
-2.484327
0.0130
EDUC
0.130905
0.025254
5.183485
0.0000
EXPER
0.123348
0.018716
6.590348
0.0000
EXPERSQ
-0.001887
0.000600
-3.145205
0.0017
AGE
-0.052853
0.008477
-6.234656
0.0000
KIDSLT6
-0.868329
0.118522
-7.326288
0.0000
KIDSGE6
0.036005
0.043477
0.828142
0.4076
C
0.270077
0.508593
0.531027
0.5954
Mean dependent var
0.568393
S.D. dependent var
0.495630
S.E. of regression
0.425945
Akaike info criterion
1.087124
Sum squared resid
135.1646
Schwarz criterion
1.136251
Log likelihood
-401.3022
Hannan-Quinn criter.
1.106050
Restr. log likelihood
-514.8732
Avg. log likelihood
-0.532938
LR statistic (7 df)
227.1420
McFadden R-squared
0.220581
Probability(LR stat)
0.000000
Obs with Dep=0
170
Obs with Dep=1
325
428
Total obs
753
UYGULAMA: Aşağıda bir okulun eğitimi ile ilgili verileri kullanarak Probit denklemini
çıkartınız.
GRADE: Yeni bir tekniğin uygulanması sonucu öğrencilerin başarısı
PSI: Yeni Bir Ekonomi Öğretme Yöntemi
GPA: Ortalama Derece
TUCE: Sınav Öncesi Konu ile ilgili Bilgi SKoru
171
Dependent Variable: GRADE
Method: ML - Binary Probit
Included observations: 32
Convergence achieved after 5 iterations
Variable Coefficient
Std. Errorz-Statistic
Prob.
C
-7.452320
2.542472 -2.931131
GPA
1.625810 0.693882 2.343063 0.0191
PSI
1.426332 0.595038 2.397045 0.0165
TUCE
0.051729 0.083890 0.616626 0.5375
172
0.0034
Dependent Variable: GRADE
Method: ML - Binary Logit
Sample: 1 32
Variable Coefficient
Std. Errorz-Statistic
Prob.
C
-13.02135
4.931317 -2.640541
GPA
2.826113 1.262940 2.237726 0.0252
PSI
2.378688 1.064563 2.234426 0.0255
TUCE
0.095158 0.141554 0.672235 0.5014
173
0.0083
Di
174
Mi
Si
Di
Mi
Si
1
0
16
1
0
10
1
1
14
1
1
14
1
1
16
0
1
10
0
0
9
0
1
12
1
0
12
1
0
13
0
1
12
1
0
14
1
0
14
1
1
12
1
0
10
0
1
7
0
0
12
0
1
11
1
0
8
0
1
12
1
0
11
1
1
10
1
0
14
1
0
15
0
1
12
0
1
10
1
1
13
0
1
11
0
1
9
1
1
12
Kadının İşgücüne
Katılımı Modeli:
Di= 1 i.Kadının bir işi varsa
ya da iş arıyorsa
0 Diğer Durumlarda
Mi= 1 i. Kadın evliyse
0 diğer durumlarda
Si = i.kadının yıl olarak
aldığı eğitim
Logit Model Tahminleri
Dependent Variable: DI
Method: ML - Binary Logit
Included observations: 30
Convergence achieved after 5 iterations
Covariance matrix computed using second derivatives
175
Variable
Coefficient Std. Error z-Statistic Prob.
C
-5.895933
3.324731
-1.773356
0.0762
MI
-2.586110
1.180162
-2.191318
0.0284
SI
0.690368
0.315828
2.185899
0.0288
Mean dependent var
0.600000
S.D. dependent var
0.498273
S.E. of regression
0.399177
Akaike info criterion
1.085128
Sum squared resid
4.302237
Schwarz criterion
1.225248
Log likelihood
-13.27693
Hannan-Quinn criter.1.129954
Restr. log likelihood
-20.19035
Avg. log likelihood
-0.442564
LR statistic (2 df)
13.82685
McFadden R-squared
0.342412
Probability(LR stat)
0.000994
Obs with Dep=0
12
Obs with Dep=1
18
Total obs
30