econometrie_p13

Download Report

Transcript econometrie_p13

Econométrie P13
Test de Fisher, test de Chow, variables
indicatrice, hétéroscédasticité,
autocorrélation des erreurs
De nombreux éléments sont empruntés aux ouvrages
de Régis Bourbonnais, Econométrie
Brigitte Dormont INTRODUCTION A L'ECONOMETRIE.
ainsi que Walter Enders Applied Econometric Time Series, 3rd Edition
Je n’invente pas l’économétrie, je l’utilise et tente de vous transmettre cette
pratique. Il est possible que des erreurs subsistent. Veuillez me les indiquer
Comme j’ai mis en ligne les calculs du nombre de vecteurs de cointégration, je
considère que ceci est acquis et pourra faire l’objet d’une évaluation.
Mickaël Clévenot
Calcul de Fisher empirique
à partir du R²
•
•
•
•
•
•
•
•
F* = (R²/k)/[(1-R²)/(n-k-1)]
n : nombre de période en série temporelle
k : nombre de variable explicative
Si le R² = 0,8 ; n = 30, k = 4 que vaut le Fisher ?
(0,8/4)/(1-0,8)/(30-4-1) = 25
Fisher théorique v1 = k = 4; v2 = n = 30
à 5 % = 2,69 à 1 % =4,02
25 > 4,02 les coefficients de cette régression sont
globalement significatif. Tout les coefficient ne
sont pas non significativement différent de 0.
Sur ce type d’exercice pour vérifier que vous maîtrisez le test on peut inversé la problématique
Il manque l’une des données du problème, il faut la définir.
Par exemple le Fisher tabulé vaut 4,48 pour une probabilité de 1 % avec 4 variable explicative
quel est le nombre de pas de la série ?
Dans ce cas, quelle serait la valeur minimale du R² pour que la régression
soit globalement significative ?
Dans le même esprit on pourra donner des infos sur SCT et SCR ou SCE. En fonction de infos
Fournies il faudra alors retrouver le R². Les indications sur le nombre de variables explicative et
Sur le nombre de pas seront également fournies.
Avec le test de Fisher on pouvoir identifier quelle est la meilleur spécification d’un modèle c’est
À dire voir quel est le nombre de variable à retenir.
Pour réaliser ce test qui correspond à un test de Fisher on va vérifier que l’écart entre un modèle
Avec n variable et un modèle avec n + .
On prend pour cela la différences de la somme des carrées résiduels ou la somme
des carrés expliqués En fonction des indications données dans l’exercice.
Ici encore, on pourrait vérifier que vous maîtriser les relations
entre les R² et le calcul SCT; SCE et SCR.
Les deux formulations possibles du test de Fisher :
F* = [(SCE – SCE’)/(k-k’)]/(SCR/(n-k-1))
Avec R² = 0,8 si SCT = 100, cela implique que SCE = 80 et SCR = 20.
On rappelle n= 30 et k = 4
On veut comparer au modèle avec seulement 3 variables :
Dont le R² vaudrait 0,6 et la SCR 14.
Trouver la somme des SCE ou passer directement par le calcul avec SCR.
SCE => (SCT – SCR)/SCT = 0,6  (SCT -14)/SCT = 0,6 => SCT = 35 et donc SCE = 35-14=21
Ici k = 3, une variable de moins
F*=[(SCR’-SCR)/(k’-k)]/[(SCR/(n-k-1)] = [(20-14)/1]/[14/(30-4-1)]= 10,71
Ft v1 = 1 v2 = 25, p = 0,05 => 4,24
F* > Ft la différence est significative, la variable
supplémentaire apporte une information significative.
Test de Chow de rupture structurelle
Il n’est pas rare de voir des comportements se transformer à
travers le temps.
Il est d’ailleurs utile de pouvoir dater c’est changement.
C’est l’objet des tests de rupture de Chow.
Y a –t-il une différence significative entre la SCR sur
l’ensemble de l’échantillon par rapport à l’addition de la SCR
de 2 sous échantillons?
Autrement dit le fait d’estimer un modèle sur 2 périodes
permet-il de réduire la SCR ?
Ceci aurait donc tendance à indiquer une changement de
comportement.
Y a –t-il égalité entre les paramètres sur l’ensemble de la période et sur les sous périodes ?
Pour le vérifier il faut réaliser un test de Fisher à partir de la SCR des différents modèles
F* = ([SCR – (SCR1 + SCR2)]/ddl_n)/[(SCR1+SCR2)/ddl_d] ddl_n = k +1 et ddl_d= n-2*(k+1)
F* = ([67,45-(27,31+20,73)]/4)/(27,31+20,73)/6 = 4,852/8 = 0,606 < F(4,6;0,05)=4,53
Il n’y a pas de rupture H0 acceptée.
L’autocorrélation des erreurs ou la
remise en cause de H5 : E(εtεt’)=0 si t≠t
Si H5 n’est pas vérifiée, la matrice des variances covariances des erreurs n’est plus une
matrice diagonale, les erreurs ne sont pas indépendantes.
Cette situation remet en cause les tests d’inférences car la variance des erreurs n’est pas
minimale.
En effet, les tests repose sur la détermination d’intervalle de confiance liés à la variance
des erreurs. On pourrait donc croire à tord qu’une variable est significative alors qu’elle
ne l’est pas.
Ωε = E(εε’) =
Les estimateurs obtenus restent sans biais mais ne sont à variance minimum.
Les causes possibles de
l’autocorrélation des erreurs
Cette situation n’est pas rare. Elle peut avoir plusieurs
causes :
•
une mauvaise spécification du modèle, on lie une variables à
évolution quadratique à une variable à progression arithmétique
• des variables manquantes
• des erreurs de mesure systématiques dans les variables. Ici le non
respect de H5 proviendrait du non respect de H2
• des variables avec tendance temporelle. Un dernier élément, les
variables peuvent être non-stationnaires. On verra plus loin.
Comment établir la présence d’une
autocorrélation des erreurs ?
• Le test de Durbin-Watson (1950-51)
• Le test de Breusch-Godfrey
• La première détection peut être réalisée visuellement en
essayant d’identifier une phénomène de mémoire, les
erreurs ont souvent le même signe (autocorrélation
positive), leur signe change de systématiquement de
manière alternative (autocorrélation négative)
Construction de résidus autocorrélés à partir de la
régression d’une variable linéaire et d’une variable
quadratique
0.7
0.6
y = 0.7839x - 0.1209
R² = 0.9806
0.5
0.4
0.3
Series1
0.2
Linear (Series1)
0.1
0
0
-0.1
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Le DW ne peut se calculer que pour une séries temporelle avec au moins 15 pas et avec une
constante.
Les résidus obtenus dans la régression précédente on a un DW nettement inférieur à 2
et proche de 0, on identifie donc une autocorrélation positive.
0.4
0.3
0.2
0.1
0
-0.1
-0.2
-0.3
-0.4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
autocorrelation positive
autocorrelation négative
Afin de générer une autocorrélation négative, j’ai pris les résidus et les ai multiplié
alternativement par 1 et -1. Dans ce cas, le graphique décrit bien une autocorrélation
négative. Le DW est proche de 4.
Tel qu’il est écrit le test de DW permet de détecter uniquement autocorrélation d’ordre 1.
D’un point de vue théorique le DW peut être analysé en fonction de
la tabulation de la distribution de cet indicateur.
D’un point de vue opérationnel, si DW est nettement ≠ 2 on rejette
l’indépendance des erreurs.
Si DW <<2 on est en présence d’une autocorrélation positive.
Si DW >> 2 on est en présence d’une autocorrélation négative.
Si on suit la règle, il faut comparer le DW à d1 et d2 qui sont
fonction du nb de période et du nb de variables.
Pour un modèle qui serait estimé sur 40 période avec 4 variables,
on lit dans la table DW : d1 =1,29 d2 =1,72
Si le DW empirique < d1 autocorrélation +,
Si d2 >DW empirique >4-d2 indépendance,
Si 4- d2 < DW empirique < 4 autocorrélation –
Entre d1 et d2 zone d’incertitude entre 4-d2 et 4-d1 incertitude
Pour détecter une autocorrélation d’ordre supérieur on
peut recourir au teste de Breush-Godfrey
celui-ci peut-être réalisé suivant 2 méthodes, un test de
Fisher pour lequel on va vérifier que les coefficients des
erreurs retard sont tous non différents de 0.
Où à travers le multiplicateur de Lagrange qui est
distribué comme un χ²
Dans les 2 cas puisqu’on ne connait pas les erreurs, il
nécessaire de réaliser l’estimation des MCO et
d’extraire les résidus.
On ne revient pas sur le test de Fisher vu précédemment, il porte
sur la même équation que le test de Breusch-Godfrey.
On estime les MCO puis on retire les résidus pour estimer cette
nouvelle équation:
et = a1.x1t + a2.x2t + a3.x3t + a0+ ρ1.et(-1) + ρ2.et(-2) + ρ3.et(-3)
A chaque retard on perd une période. Sur un petit échantillon pour
éviter de perdre des degrés de liberté, on peut remplacer le résidu
par 0 pour éviter cette déperdition.
Le test consiste à vérifier si n.R² > χ² (p)
Les tests économétriques de la parité des pouvoirs d'achat
La PPA constitue la théorie de détermination des taux de change d'équilibre la plus
couramment utilisée du fait de sa simplicité. La version absolue de la PPA repose sur la loi
du prix unique. Un même produit doit être vendu au même prix sur le marché domestique
et sur les marchés étrangers par les effets de la concurrence internationale.
Si une voiture coûte 5000 euros en France et le même modèle coûte 10000 dollars aux
États-Unis, selon la loi de prix unique, le prix du taux de change PPA devrait être 5000
euros = 10000 dollars ⇒ 0,50 euro pour 1 dollar.
Supposons que le taux de change soit plus élevé, à 0,60 euro = 1 dollar.
Dans cette situation ce serait intéressent pour le résident des États-Unis d'acheter une
voiture en France en économisant 1666,67 dollars pour un achat comparable aux ÉtatsUnis.
Selon loi du prix unique, les résidents des États-Unis exploiteraient cette possibilité
d'arbitrage en achetant des euros et en vendant des dollars.
En change flottant, l'euro devrait s'apprécier jusqu'à ce que plus aucune possibilité
d'arbitrage soit possible soit un euro équivalent à 2 dollars.
Soient P le niveau des prix domestiques d'un panier de biens et P ∗ le niveau des prix étrangers
du même panier de biens (i = 1,2...N), la PPA absolue conduit à l'égalité suivante :
avec S taux de change nominal côté à l'incertain du point de vue de la monnaie nationale (1
dollar pour 0,77 euro, ↑ S ⇒ dépréciation nominal)
La PPA lie donc le taux de change nominal entre deux monnaies au rapport des prix des deux
économies considérées. L'évolution du taux de change nominal doit donc exactement
correspondre au rapport des prix dans les 2 pays. A partir de loi du prix unique il vient :
250
0,75
-1,25
1
0,075
-3,5
15
2,5
0,005
5
0,015
-0,025
0,02
0,2
-0,07
0,3
0,05
0,03
0,075
-3,5
2,5
0,005
Dependent Variable: S
Method: Least Squares
Date: 11/21/14 Time: 00:14
Sample: 1980Q1 2004Q4
Included observations: 100
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
P
PE
-0.048431
0.976876
-0.927310
0.084220
0.018272
0.024342
-0.575060
53.46259
-38.09512
0.5666
0.0000
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)
0.968006
0.967347
0.255668
6.340537
-3.983517
1467.428
0.000000
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat
-4.281073
1.414861
0.139670
0.217825
0.171301
0.860015
-1
Residual
Actual
Fitted
-2
-3
-4
-5
.8
-6
.4
-7
.0
-.4
-.8
80
82
84
86
88
90
92
94
96
98
00
02
04
Null Hypothesis: RESID01 has a unit root
Exogenous: None
Lag Length: 0 (Automatic - based on SIC, maxlag=12)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
t-Statistic
Prob.*
-5.174899
-2.588530
-1.944105
-1.614596
0.0000
*MacKinnon (1996) one-sided p-values.
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(RESID01)
Method: Least Squares
Date: 11/21/14 Time: 00:16
Sample (adjusted): 1980Q2 2004Q4
Included observations: 99 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
RESID01(-1)
-0.443011
0.085608
-5.174899
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.212944
0.212944
0.209047
4.282671
14.98197
1.674053
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
0.010813
0.235636
-0.282464
-0.256251
-0.271858
Null Hypothesis: S has a unit root
Exogenous: Constant
Lag Length: 0 (Automatic - based on SIC, maxlag=12)
Null Hypothesis: S has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic - based on SIC, maxlag=12)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
t-Statistic
Prob.*
0.060283
-4.053392
-3.455842
-3.153710
0.9965
-0.832486
-3.497727
-2.890926
-2.582514
0.8052
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(S)
Method: Least Squares
Date: 11/21/14 Time: 00:07
Sample (adjusted): 1980Q2 2004Q4
Included observations: 99 after adjustments
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(S)
Method: Least Squares
Date: 11/21/14 Time: 00:06
Sample (adjusted): 1980Q2 2004Q4
Included observations: 99 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
S(-1)
C
@TREND("1980Q1")
0.001460
-0.159570
0.003428
0.024211
0.107935
0.001170
0.060283
-1.478385
2.929499
0.9521
0.1426
0.0042
0.088572
0.069583
0.317243
9.661756
-25.29117
4.664585
0.011660
Prob.*
*MacKinnon (1996) one-sided p-values.
*MacKinnon (1996) one-sided p-values.
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
t-Statistic
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat
0.005559
0.328892
0.571539
0.650179
0.603357
2.418768
Variable
Coefficient
Std. Error
t-Statistic
Prob.
S(-1)
C
-0.019952
-0.080468
0.023967
0.108511
-0.832486
-0.741566
0.4072
0.4601
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)
0.007094
-0.003142
0.329409
10.52547
-29.52950
0.693033
0.407180
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat
0.005559
0.328892
0.636960
0.689386
0.658172
2.174083
S as stationnaire en niveau
Null Hypothesis: S has a unit root
Exogenous: None
Lag Length: 0 (Automatic - based on SIC, maxlag=12)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
t-Statistic
Prob.*
-0.414843
-2.588530
-1.944105
-1.614596
0.5315
*MacKinnon (1996) one-sided p-values.
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(S)
Method: Least Squares
Date: 11/21/14 Time: 00:08
Sample (adjusted): 1980Q2 2004Q4
Included observations: 99 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
S(-1)
-0.003026
0.007295
-0.414843
0.6792
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.001465
0.001465
0.328651
10.58515
-29.80934
2.198534
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
0.005559
0.328892
0.622411
0.648624
0.633017
S stationnaire en différence avec
constante et trend modèle 3
Null Hypothes is : D(S) has a unit root
Exogenous : Cons tant, Linear Trend
Lag Length: 0 (Autom atic - bas ed on SIC, m axlag=12)
Augm ented Dickey-Fuller tes t s tatis tic
1% level
Tes t critical values :
5% level
10% level
t-Statis tic
Prob.*
-12.21524
-4.054393
-3.456319
-3.153989
0.0000
*MacKinnon (1996) one-s ided p-values .
Augm ented Dickey-Fuller Tes t Equation
Dependent Variable: D(S,2)
Method: Leas t Squares
Date: 11/21/14 Tim e: 00:09
Sam ple (adjus ted): 1980Q3 2004Q4
Included obs ervations : 98 after adjus tm ents
Variable
Coefficient
Std. Error
t-Statis tic
D(S(-1))
C
@TREND("1980Q1")
-1.227201
-0.187950
0.003925
0.100465
0.065846
0.001148
-12.21524
-2.854382
3.419975
R-s quared
Adjus ted R-s quared
S.E. of regres s ion
Sum s quared res id
Log likelihood
F-s tatis tic
Prob(F-s tatis tic)
0.611002
0.602813
0.309079
9.075346
-22.46509
74.60872
0.000000
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Wats on s tat
Prob.
0.0000
0.0053
0.0009
0.010982
0.490425
0.519696
0.598827
0.551703
1.989661
Null Hypothesis: P has a unit root
Exogenous: Constant
Lag Length: 0 (Automatic - based on SIC, maxlag=12)
Null Hypothesis: P has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 1 (Automatic - based on SIC, maxlag=12)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
t-Statistic
Prob.*
0.717250
-4.054393
-3.456319
-3.153989
0.9996
*MacKinnon (1996) one-sided p-values.
Variable
Coefficient
Std. Error
t-Statistic
Prob.
P(-1)
D(P(-1))
C
@TREND("1980Q1")
0.026262
-0.256571
-0.164883
0.005736
0.036614
0.105164
0.132896
0.003112
0.717250
-2.439726
-1.240689
1.843331
0.4750
0.0166
0.2178
0.0684
0.096776
0.067949
0.425974
17.05665
-53.38303
3.357194
0.022109
Prob.*
-1.907811
-3.497727
-2.890926
-2.582514
0.3276
*MacKinnon (1996) one-sided p-values.
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(P)
Method: Least Squares
Date: 11/21/14 Time: 00:10
Sample (adjusted): 1980Q3 2004Q4
Included observations: 98 after adjustments
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
t-Statistic
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat
-0.032627
0.441228
1.171082
1.276591
1.213758
1.957291
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(P)
Method: Least Squares
Date: 11/21/14 Time: 00:11
Sample (adjusted): 1980Q2 2004Q4
Included observations: 99 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
P(-1)
C
-0.035014
-0.261301
0.018353
0.124967
-1.907811
-2.090968
0.0594
0.0391
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)
0.036166
0.026230
0.436446
18.47704
-57.38466
3.639743
0.059373
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat
-0.038058
0.442285
1.199690
1.252117
1.220902
2.335880
P stationnaire en difference avec
trend et constante
Null Hypothesis: D(P) has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic - based on SIC, maxlag=12)
Null Hypothesis: P has a unit root
Exogenous: None
Lag Length: 0 (Automatic - based on SIC, maxlag=12)
t-Statistic
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
0.140373
-2.588530
-1.944105
-1.614596
t-Statistic
Prob.*
-12.35143
-4.054393
-3.456319
-3.153989
0.0000
Prob.*
0.7245
Augmented Dickey-Fuller test statistic
Test critical values:
1% level
5% level
10% level
*MacKinnon (1996) one-sided p-values.
*MacKinnon (1996) one-sided p-values.
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(P,2)
Method: Least Squares
Date: 11/21/14 Time: 00:12
Sample (adjusted): 1980Q3 2004Q4
Included observations: 98 after adjustments
Augmented Dickey-Fuller Test Equation
Dependent Variable: D(P)
Method: Least Squares
Date: 11/21/14 Time: 00:12
Sample (adjusted): 1980Q2 2004Q4
Included observations: 99 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
P(-1)
0.000920
0.006552
0.140373
0.8887
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
-0.007277
-0.007277
0.443891
19.30987
-59.56699
2.317181
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
-0.038058
0.442285
1.223576
1.249789
1.234182
Variable
Coefficient
Std. Error
t-Statistic
Prob.
D(P(-1))
C
@TREND("1980Q1")
-1.233498
-0.234845
0.003801
0.099867
0.090029
0.001548
-12.35143
-2.608555
2.456072
0.0000
0.0106
0.0159
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
F-statistic
Prob(F-statistic)
0.616252
0.608173
0.424884
17.15000
-53.65047
76.27907
0.000000
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
Durbin-Watson stat
0.011313
0.678770
1.156132
1.235264
1.188139
1.942642
Dans ce cadre on se trouve
typiquement dans la situation
d’une régression fallacieuse
Les résidus de l’équation sont stationnaires,
Mais le ADF est mauvais et finalement les
variables ne sont pas stationnaires.
Il faut donc traiter cette non stationnarité avec
l’intuition qu’il pourrait s’agir de la présence
d’une cointégration.
Dependent Variable: D(S)
Method: Least Squares
Date: 11/21/14 Time: 00:32
Sample (adjusted): 1980Q2 2004Q4
Included observations: 99 after adjustments
Variable
Coefficient
Std. Error
t-Statistic
Prob.
D(P)
D(PE)
RESID01(-1)
0.796868
-0.573505
-0.415627
0.056035
0.066150
0.076906
14.22101
-8.669792
-5.404387
0.0000
0.0000
0.0000
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.689044
0.682566
0.185302
3.296345
27.93921
1.837931
Mean dependent var
S.D. dependent var
Akaike info criterion
Schwarz criterion
Hannan-Quinn criter.
0.005559
0.328892
-0.503823
-0.425183
-0.472005
Cette technique n’est possible que
lorsqu’on a un modèle seulement 2
variables explicatives.
Car elle ne retient qu’un vecteur de
cointégration.
Au-delà on doit recourir à la méthode
Johansen et vérifier s’il existe
plusieurs vecteurs de cointégration.
VECM
Théorème de représentation de Granger si des variables
sont cointégrées on peut représenter leur dynamique :
Pour qu’on puisse envisager le présence d’une cointégration, il est nécessaire que tous les
éléments de la matrice A ne soit pas nulle.
Si c’est le cas, le problème de la cointégratoin ne se pose pas.
Si le rang de la matrice A est égal au nombre de variable, chaque variable à une
dynamique propre et l’écriture du modèle VAR contraint ne se justifie pas non plus.
Dans ce cas on doit passer à un modèle VAR en différence.
La cointégration sera justifiée si on a un nombre de vecteur de cointégration supérieur à 0
mais inférieur au nombre totale de variables du modèle.
C’est le test de la trace qui permet de déterminer le nombre de vecteur de cointégration.
Le test de Johansen
Rang 0 => -28*(LN(1-0,6)+LN(1-0,2293)+LN(1-0,1385)) = 37,12
Rang 1 => =-28*(LN(1-0,2293)+LN(1-0,1385)) = 11,46
Rang 2 => =-28*(LN(1-0,1385)) = 4,17
Test de cointégration
Date: 11/21/14 Time: 00:48
Sample (adjusted): 3 30
Included observations: 28 after adjustments
Trend assumption: Linear deterministic trend
Series: Y1 Y2 Y3
Lags interval (in first differences): 1 to 1
Unrestricted Cointegration Rank Test (Trace)
Hypothesized
No. of CE(s)
None *
At most 1
At most 2 *
Eigenvalue
Trace
Statistic
0.05
Critical Value
Prob.**
0.603749
0.229311
0.138550
37.38888
11.46904
4.175870
29.79707
15.49471
3.841466
0.0055
0.1842
0.0410
Trace test indicates 1 cointegrating eqn(s) at the 0.05 level
* denotes rejection of the hypothesis at the 0.05 level
**MacKinnon-Haug-Michelis (1999) p-values
Unrestricted Cointegration Rank Test (Maximum Eigenvalue)
Hypothesized
No. of CE(s)
None *
At most 1
At most 2 *
Eigenvalue
Max-Eigen
Statistic
0.05
Critical Value
Prob.**
0.603749
0.229311
0.138550
25.91984
7.293174
4.175870
21.13162
14.26460
3.841466
0.0098
0.4550
0.0410
Max-eigenvalue test indicates 1 cointegrating eqn(s) at the 0.05 level
* denotes rejection of the hypothesis at the 0.05 level
**MacKinnon-Haug-Michelis (1999) p-values
Fisher à 5 %
Fisher à 1 %
je reviens vers vous suite au dernier cours d'économétrie où nous
butions sur la covariance. Après relecture il s'avère que :
Esp[(X'X)^-1 X'Y(Mx*u)']
en remplaçant Y par X*b + u nous obtenons
(X'X)^-1X'(X*b+u)(u'*Mx)
[b+(X'X)^-1X'u](u'Mx)
b*u'MX+(X'X)^-1X'uu'Mx
b, X, X' et Mx sont des constantes et peuvent donc être sorties de
l'espérance
D'après les hypothèses du modèle :
E(u') = 0 (attention vous avez, il me semble mis 1 dans votre
présentation)
E(uu')= sigma^2 * It (identité)
la partie de gauche est bien égale à 0 reste l'autre partie :
(X'X)^-1X' It Mx
par construction Mx = It - X(X'X)^-1 X'
X' It = X'
(X'X)^-1 X' [It - X(X'X)^-1 X']=(X'X)^-1X' - (X'X)^-1 X' X(X'X)^-1 X'
or X' X(X'X)^-1 =It
=> (X'X)^-1 X' - (X'X)^-1 X' = 0
Correction Clément, merci!