Transcript Lecture_8

МУЛЬТИКОЛЛИНЕАРНОСТЬ
МК – это название проблемы, которая
возникает, когда в уравнении регрессии
две или более объясняющих переменных
либо связаны между собой точной
линейной зависимостью, либо сильно
коррелированны.
При наличии в уравнении регрессии МК:
 оценки коэффициентов становятся
ненадежными,
 их интерпретация оказывается
проблематичной.
Коэффициент при любом регрессоре модели
множественной регрессии представляет
«чистое» влияние данного регрессора на
зависимую переменную.
«Чистое» - означает «при неизменности
других регрессоров модели».
Но при МК два или более регрессоров
действуют «в унисон». При изменении
одного коррелированного регрессора,
другой коррелированный регрессор не
может оставаться неизменным.
Поэтому становится почти невозможно
выделить «чистое» воздействие на
зависимую переменную каждого из этих
регрессоров. Поэтому оценки
коэффициентов оказываются очень
неточными.
МК возникает в силу разных причин. Она
особенно вероятна при оценке регрессии:
 по малым выборкам
 или по временным рядам.
А. СОВЕРШЕННАЯ МК
Объясняющие переменные связаны строгой
линейной зависимостью.
В этом случае определить коэффициенты
уравнения регрессии становится
невозможно.
Пример
Y = 1+ 2*X2 + 3*X3 + u
Пусть X3 = * X2, где  = const, например,
X3 = 3* X2.
Тогда
Y = 1 + 2*X2 + 3*3*X3 + u =
= 1 + (2 + 3*3)*X2 + u = 1 + /2*X2 + u.
Для коэффициентов 1 и /2 можно по
выборке получить МНК-оценки b и b/2.
Но
b/2 = b2 + 3* b3
- это одно уравнение с двумя неизвестными
b2 и b3, которое имеет бесконечно много
решений.
Б. НЕСОВЕРШЕННАЯ МК
В уравнении регрессии два или более
регрессоров связаны линейно
(коррелированны) не строго, но так
сильно, что это сказывается на оценках
коэффициентов при коррелированных
переменных.
Следствия МК
1. МНК-оценки коэффициентов регрессии
по-прежнему остаются наилучшими
линейными несмещенными оценками.
2. Дисперсии, а значит с.о. коэффициентов
при коррелированных регрессорах
увеличиваются, их t-статистики
уменьшаются, оценки коэффициентов
становятся незначимыми.
Это легко видеть из формул:
с.о.b2  
s
2
n * Var X2 
u
*
1
1 r2
и
tстат = (bi - H0) / с.о.(bi)
X 2, X3
.
Величина
VIFb2  
1
2
1 r
X 2, X3
(variance inflating factor) показывает, как
увеличивается дисперсия оценки
коэффициента из-за МК.
VIF
(во сколько раз дисперсия оценки при данном
Значение rX2, X3
rX2, X3 превосходит дисперсию оценки при
rX2, X3 =0)
0,00
1,00
0,50
1,33
0,70
1,96
0,80
2,78
0,90
5,76
0,95
10,26
0,97
16,92
0,99
50,25
0,995
100,00
0,999
500,00
3. Оценки коэффициентов при коррелированных
регрессорах получают неправильные с точки
зрения теории знаки или неоправданно большие
значения.
4. Оценки коэффициентов при коррелированных
регрессорах становятся очень чувствительны к
конкретной выборке и к спецификации
уравнения . При самом небольшом изменении
выборки значения коэффициентов могут очень
сильно меняться. То же при добавлении новых
переменных в уравнение
5. Общая значимость модели практически
не затрагивается. Т. е. значения R2 или
R2adj и соответствующей F–статистики
или вообще не изменяются или
изменяются мало.
Благодаря этому уравнения, подверженные
МК, могут быть использованы для
прогноза (если коллинеарность
регрессоров сохраняется такой же и для
периода прогноза).
6. Оценки коэффициентов при
некоррелированных регрессорах МК не
затрагивает.
Ci - среднегодовые потребительские расходы i–го
студента;
Yi - годовой располагаемый доход i–го студента;
LAi - ликвидные активы семьи i–го студента.
Cˆ
i
Cˆ
= -367,83 + 0,5113*Yi + 0,0427*LAi; R2adj = 0,835
(1,0307)
(0,0942)
i = -471,43 +0,9714*Yi;
(0,157)
rY,LA = 0,986
R2adj = 0,861
Функция Кобба-Дугласа, оцененная для США
1899-1922 гг.
lnˆ Y
= -0,18 + 0,23*lnK + 0,81*lnL; R2 = 0,96
(0,43) (0,06)
(0,15)
lnˆ Y
= 2,81 – 0,53*lnK + 0,91*lnL +0,047*t;
(1,38) (0,34)
(0,14)
(0,021)
R2 = 0,97
rlnK,t = 0,997
Свободный член
P
цена детали в рублях
МНКоценка
с.о.
t-статистика
19,52
0,75
26,01
-0,14
82992,1
0,000002
1,45
1037400,7
0,0000014
-0,51
0,587
-0,8649
-0,022
0,012
-1,845
Т
торговая надбавка в
рублях
W
вес детали в кг
S
размер детали в см
R2
Fстат
dof
0,749
11,12
15
Матрица корреляций
P
T
W
P
1
T
1
1
W
0,9683143
0,9683143
S
-0,0454408 -0,0454408 0,0117022
S
1
1
Выявление МК
1. Классический признак МК. Сочетание
в уравнении нескольких (или всех) мало
значимых коэффициентов с высокой
значимостью всей модели (высокие
значения R2 и F–статистики) указывает на
возможность МК.
2. Неожиданные знаки или значения
коэффициентов указывают на
возможность МК.
3. Если для каких-то пар регрессоров
коэффициенты корреляции окажутся
высокими – МК возможна.
4. Возможно, что взаимосвязаны сразу
несколько регрессоров, но попарной
связи между ними нет. Тогда проводят
анализ вспомогательных регрессий, т.е.
регрессий каждой из объясняющих
переменных на все остальные
объясняющие переменные.
Пусть, например,
Y = 1+ 2*X2 + 3*X3 + 4*X4 + u и
ˆ = b1+ b2*X2 +b3*X3 +b4*X4.
Y
Для обнаружения МК строят и оценивают
три вспомогательные регрессии:
/ +b/ *X + b/ *X ;
2
ˆ
=
b
R
2
X2 1 3 3 4 4
// + b// *X + b// *X ;
ˆ
=
b
X 1
2
2
4
4
ˆ = b1/// + b///2*X2 + b///3*X3;
X
3
4
R23
R24
Если какие-то из R2i, i =2, 3, 4, имеют высокие
значения, проблема МК возможна.
5. Расчет коэффициентов увеличения дисперсии
– VIF.
После расчета вспомогательных регрессий
рассчитывают
VIF (bi) = 1 / (1- R2i),
i=2,3,4 (в общем случае до k).
Чем больше VIF (bi) для какого-то bi, тем
вероятнее проблема МК.
Большими считаются VIF > 5, хотя иногда
МК возможна и при VIF < 5.
Что Делать В Случае МК?
1. Не делать ничего.
Все кардинальные методы борьбы с МК
имеют свои недостатки.
Поэтому иногда бывает лучше не принимать
никаких мер против МК.
Особенно, когда из-за МК t-статистики хотя
и уменьшаются, но коэффициенты всетаки остаются значимыми.
2. Отбросить одну или более из
коррелированных переменных.
Это самый радикальный способ борьбы с
МК.
Ясно, что в этом случае МК и ее последствия
пропадают, но коэффициент при
оставшейся переменной получает
смещение, т.к. теперь измеряет не только
свое «чистое» влияние на Y, но и влияние
на Y всех отброшенных переменных.
3. Преобразование коррелированных
переменных.
a.
Образовать линейную комбинацию
коррелированных переменных.
Пусть Y = 1 + 2*X2 + 3* X3 + u
и X2 и X3 сильно коррелированны.
Тогда вместо X2 и X3 можно ввести
Z = 2*X2 + 3*X3, но надо хорошо
обосновать выбор 2 и 3.
b. Переход к первым разностям.
Применяется в уравнениях, построенных
по временным рядам.
Например, для модели
Yt = 1+ 2*X2t + 3*X3t + u
вместо переменных Yt, X2t и X3t рассматривают
Yt = Yt – Yt-1, Xjt = Xjt-Xjt-1, j=2, 3,
т. е. переходят к модели:
Yt = 2*  X2t + 3*  X3t + u/.
c. Иногда помогает переход к другим
функциональным формам.
При использовании метода 3 надо иметь в
виду, что при преобразовании
переменных может измениться
теоретический смысл модели.
4. Использование внешней информации.
a.
Теоретические ограничения – допущения
о величине коэффициента или связи
между коэффициентами.
Например, в примере с функцией КоббаДугласа можно устранить последствия
МК , если допустить, что  +  = 1. Тогда:
lnˆ (Y/L) = -0,11 + 0,11* ln(K/L) + 0,006 *t
(0,03) (0,03)
(0,006)
R2 = 0,65
Оценки для коэффициентов при ln(K/L) и t
теперь более реалистичны.
b. Внешние эмпирические оценки.
Пусть модель
Y = 1 + 2*X2 + 3* X3 + u (*)
оценивается по выборке
(Yi, X2i, X3i), i = 1,…,n :
ˆ = b1 + b2*X2 +b3*X3
Y
причем rX2,X3 высокий и проявляется
сильная МК.
Однако из другого (корректного) исследования
соотношения Y и X по другой выборке Вы имеете
оценку:
/ + b/ *X .
ˆ
=
b
Y 1 2 2
Тогда вместо (*) рассматривается модель:
Y = 1 + b/2*X2 + 3*X3 + u,
или
~ = (Y – b/ *X ) =  +  *X + u,
Y
2
2
3
3
которая оценивается по выборке
(Yi – b/2*X2i, X3i), i = 1 ,…, n :
~ˆ = b1+ b3*X3 (**).
Y
Т. е. для 1 и 3 из (*) получаются оценки b1
и b3 из (**), а для 2 используется внешняя
эмпирическая оценка b/2 .
5. Методы, связанные с уменьшением с.о.
коэффициентов.
с.о.b2  
s
2
n * Var X2 
u
*
1
1 r2
X 2, X3
.
a. Увеличить размер выборки n.
b. Максимизировать дисперсию регрессоров
(Var(Xi)) в выборке.
c. Поискать выборку, в которой rX2,X3 был бы
как можно меньше.
d. Сократить σu2. Например, если опущена
существенная переменная, то ее введение
в уравнение сократит σu2 и может помочь
с проблемой МК.
Все сказанное для моделей с 2-я или 3-я
регрессорами переносится на случай
моделей с k-1 регрессором X2, …, Xk.
Замечания:
 Сильная коррелированность факторов
иногда не дает никаких плохих
последствий для оценки модели.
В этом случае учитывать МК и бороться с
ней не надо.
 МНК и при МК дает наилучшие
возможные оценки модели регрессии.
Только из-за МК это наилучшее
оказывается плохим.
МК – это порок данных, но не порок метода.
 Следует помнить, что незначимость
какого-то фактора – это не всегда
следствие МК.
Может быть, данный фактор действительно
не влияет на зависимую переменную.
 МК в моделях с ФП, принимающими более двух
значений.
Пример с производством электроэнергии в РФ.
Y=β1+β2*t+β3*Весна+β4*Лето+β5*Осень+β6*Зима+ u
=β1*X1+β2*t+β3*Весна+β4*Лето+β5*Осень+β6*Зима+ u
где Х1≡1 для всех наблюдений выборки.
В такой модели присутствует совершенная МК, т.к.
для любого объекта (месяца) выборки выполняется:
Х1= Весна + Лето + Осень + Зима (≡1)