Essays.club - Получите бесплатные рефераты, курсовые работы и научные статьи
Поиск

Нарушение предпосылок теоремы Гаусса-Маркова

Автор:   •  Декабрь 13, 2022  •  Лекция  •  1,008 Слов (5 Страниц)  •  244 Просмотры

Страница 1 из 5

ЛЕКЦИЯ 12

НАРУШЕНИЯ ПРЕДПОСЫЛОК ТЕОРЕМЫ ГАУССА-МАРКОВА:

Ч. I. МУЛЬТИКОЛЛИНЕАРНОСТЬ

  1. Что такое мультиколлинеарность? Причины ее возникновения
  2. Проявления и последствия мультиколлинеарности
  3. «Измерители» мультиколлинеарности
  4. Что же с ней в итоге делать?!

Вспомним основные предположения теоремы Гаусса- Маркова:

Если:

  1. Модель

Y = Xβ + u


специфицирована верно;

  1. Х – детерминированная матрица, причем

rank(X ) = k ;

3)        E(u) = 0


и        Var(u) =


E(uu) = σ


2 In ,

4)        E(uiu j )= 0, при


i  j ,

то оценка МНК


b = βˆ = (X X


)1 X Y


является наиболее

эффективной        оценкой        в        классе        линейных        несмещенных оценок (BLUE).

К чему приводят ошибки спецификации модели, мы посмотрели в предыдущей лекции.

Нарушение предположения (2) приводит к мультиколлинеарности;

нарушение (3) – к гетероскедастичности,

а нарушение (4) ведет к автокорреляции случайного возмущения.

Сегодня проанализируем влияние мультиколлинеарности на качество построенной модели.

Что такое мультиколлинеарность? Причины ее возникновения

Находя МНК-оценки параметров модели, мы предполагали, что Х – детерминированная матрица полного ранга, т.е.

rank(X ) = k


, где k – количество столбцов матрицы Х

(объясняющие переменные линейно независимы).

Что будет, если это условие нарушено?

Тогда


rank(X ) <


k , следовательно,


det(X X ) =


0 , и мы не

сможем обратить матрицу (X X ), а значит, не сможем

найти оценки параметров регрессии.

Такая ситуация называется точной (полной, совершенной) мультиколлинеарностью (perfect collinearity).

Рассмотрим на примере:

Пусть оценивается модель

Y = β1 + β2 X2 + β3X3 + β4 X4


  • u , причем мы знаем, что

X4 =


X2 +


X3 , тогда получим:

Y = β1


+ (β2


+ β4 )X2


+ (β3


+ β4 )X3  + u

То есть невозможно отделить влияние Х4 от Х2 и Х3.

В такой ситуации, как мы рассмотрели, проблему

мультиколлинеарности можно решить, просто исключив из модели Х4.

Однако чаще встречается ситуация, когда между регрессорами существует не функциональная, а стохастическая, и притом довольно тесная связь.

...

Скачать:   txt (15.7 Kb)   pdf (241.6 Kb)   docx (226.7 Kb)  
Продолжить читать еще 4 страниц(ы) »
Доступно только на Essays.club