Нарушение предпосылок теоремы Гаусса-Маркова
Автор: Simry007 • Декабрь 13, 2022 • Лекция • 1,008 Слов (5 Страниц) • 251 Просмотры
ЛЕКЦИЯ 12
НАРУШЕНИЯ ПРЕДПОСЫЛОК ТЕОРЕМЫ ГАУССА-МАРКОВА:
Ч. I. МУЛЬТИКОЛЛИНЕАРНОСТЬ
- Что такое мультиколлинеарность? Причины ее возникновения
- Проявления и последствия мультиколлинеарности
- «Измерители» мультиколлинеарности
- Что же с ней в итоге делать?!
Вспомним основные предположения теоремы Гаусса- Маркова:
Если:
- Модель
Y = Xβ + u
специфицирована верно;
- Х – детерминированная матрица, причем
rank(X ) = k ;
3) E(u) = 0
и Var(u) =
E(u′u) = σ
2 In ,
4) E(uiu j )= 0, при
i ≠ j ,
то оценка МНК
b = βˆ = (X ′X
)−1 X ′Y
является наиболее
эффективной оценкой в классе линейных несмещенных оценок (BLUE).
К чему приводят ошибки спецификации модели, мы посмотрели в предыдущей лекции.
Нарушение предположения (2) приводит к мультиколлинеарности;
нарушение (3) – к гетероскедастичности,
а нарушение (4) ведет к автокорреляции случайного возмущения.
Сегодня проанализируем влияние мультиколлинеарности на качество построенной модели.
Что такое мультиколлинеарность? Причины ее возникновения
Находя МНК-оценки параметров модели, мы предполагали, что Х – детерминированная матрица полного ранга, т.е.
rank(X ) = k
, где k – количество столбцов матрицы Х
(объясняющие переменные линейно независимы).
Что будет, если это условие нарушено?
Тогда
rank(X ) <
k , следовательно,
det(X ′X ) =
0 , и мы не
сможем обратить матрицу (X ′X ), а значит, не сможем
найти оценки параметров регрессии.
Такая ситуация называется точной (полной, совершенной) мультиколлинеарностью (perfect collinearity).
Рассмотрим на примере:
Пусть оценивается модель
Y = β1 + β2 X2 + β3X3 + β4 X4
- u , причем мы знаем, что
X4 =
X2 +
X3 , тогда получим:
Y = β1
+ (β2
+ β4 )X2
+ (β3
+ β4 )X3 + u
То есть невозможно отделить влияние Х4 от Х2 и Х3.
В такой ситуации, как мы рассмотрели, проблему
мультиколлинеарности можно решить, просто исключив из модели Х4.
Однако чаще встречается ситуация, когда между регрессорами существует не функциональная, а стохастическая, и притом довольно тесная связь.
...