Transcript лек-8

Автокорреляция или
сериальная корреляция
(патология МНК)
Опр. Автокорреляция - нарушение условия Гаусса-Маркова
Cov(ui,uj)=0
• Последствия автокорреляции
– оценки коэффициентов становятся неэффективными
– стандартные ошибки коэффициентов оцениваются
неправильно
• Причина автокорреляции
– постоянная направленность воздействия не включенных в
уравнение переменных
Обнаружение автокорреляции
первого порядка
• Авторегрессионная схема первого порядка
u t  r u t 1  e t ,
• Предположение: случайная величина et в каждом
наблюдении не зависит от ее значений в предыдущих
наблюдениях.
• Проблема: как оценить r ?
• Решение: будем оценивать регрессионную зависимость
остатков еt от et-1. Тогда
rˆ 
Cov ( e t , e t 1 )
Var ( e t 1 )

e e
e
t 1 t
2
t
Критерий Дарбина-Уотсона
Статистика критерия
T

d 
( e t  e t 1 )
2
t2
T

2
et
t 1
Теорема
d  2  2r
при
T 
• Гипотеза H0: r  0
• Границы критического значения dкрит
– dL - нижняя граница
– dU - верхняя граница
• Алгоритм проверки гипотезы H0:
• а) при проверке на положительную автокорреляцию
– если d<dL, то гипотеза H0 отклоняется;
– если d>dU, то гипотеза H0 не отклоняется;
– если dL<d<dU, то мы не можем ни отклонить ни
принять гипотезу H0.
• б) при проверке на отрицательную автокорреляцию
– если d>4-dL, то гипотеза H0 отклоняется;
– если d<4-dU, то гипотеза H0 не отклоняется;
– если 4-dU<d<4-dL, то мы не можем ни отклонить ни
принять гипотезу H0.
Методы устранения автокорреляции
• Пусть модель задаётся соотношениями (r считаем известным)
yt    xt  u t ,
• тогда и
u t  r u t 1  e t .
y t  1     x t  1  u t 1 .

y t  r y t 1   (1  r )   ( x t  r x t 1 )  u t  r u t 1 .
• Обозначим
~
y t  y t  r y t 1 ,
~
x t  x t  r x t 1 ,
q~t  1  r .

~
y t   q~t   ~
x t  u t  r u t 1   q~t   ~
xt  e t
Поправка Прайса-Уинстена (ПУ)
• Проблема для малых выборок: при переходе к новым
переменным ~
теряется первое наблюдение, т.е.
y,~
x , q~
число степеней свободы уменьшается на 1.
• Решение: т.к. e2,e3,..., eT не зависят от u1, то не требуется
преобразовывать первое наблюдение: мы полагаем
~
y1 
1  r  y1 ,
2
q~1 
• Проблема: неизвестно r.
~
x1 
1  r q1 .
2
1  r x1 ,
2
Метод Кокрана-Оркатта
• 1) Оценивается регрессия y t     x t  u t
с исходными непреобразованными переменными.
• 2) Вычисляются остатки.
• 3) Оценивается регрессионная зависимость et от et-1,
коэффициент при et-1 представляет оценку r .
• 4) Находим оценки  и  из преобразованного
уравнения.
• 5) Повторно вычисляем остатки возвращаемся к п. 3).
• Момент остановки: абсолютная величина разности
между оценками в последнем и предпоследнем циклах
стала меньше заданной точности.
Пример Двумя методами построена логарифмическая
регрессия между расходами на питание y, личным доходом
x и ценой p.
Сравнительный анализ МНК, метода
Кокрана-Оркатта (КО) и КокранаОркатта с поправкой Прайса-Уинстена
(КО-ПУ)
• 1) Выигрыш в эффективности при использовании метода КО или
КО-ПУ значителен при наличии неярко выраженного тренда и
высоком значении r.
• 2) Если данные подвержены сильному тренду, то метод КО
значительно менее эффективен, чем КО-ПУ.
Если данные не подвержены тренду, КО и КО-ПУ работают
одинаково.
• Вывод: всегда использовать КО-ПУ