Мультиколлинеарность
Автор: Krut_pt • Апрель 25, 2018 • Реферат • 1,660 Слов (7 Страниц) • 830 Просмотры
Мультиколлинеарность
Общие сведения о мультиколлинеарности
Одним из условий Гаусса -- Маркова является условие об отсутствии строгой (сильной) линейной зависимости между экзогенными переменными. Это условие предполагает, что столбцы матрицы регрессоров Х являются независимыми и матрица [pic 1] имеет ранг [pic 2], где [pic 3] – количество экзогенных факторов. При нарушении данного предположения говорят, что в регрессионной модели присутствует мультиколлинеарность.
Проблема мультиколлинеарности является обычной для регрессий временных рядов, так как данные состоят из ряда наблюдений в течение какого-либо периода времени. Так, объясняющие переменные могут иметь общий временной тренд, относительно которого они совершают малые колебания. Значение одних независимых переменных являются лагированными значениями других. Под совершенной (явной, полной) мультиколлинеарностью понимается существование между некоторыми из факторов линейной функциональной связи. Несовершенная (частичная, неявная) мультиколлинеарность возникает в случаях существования достаточно тесных линейных статистических связей между объясняющими переменными. Важно выявлять те ситуации, когда мультиколлинеарность является следствием неправильной спецификации регрессионной модели.
Последствия мультиколлинеарности:
- Оценки параметров регрессии смещены, возможно получение неверного знака у коэффициентов регрессии.
- Дисперсии оценок вычисляются со смещением в сторону увеличения, поэтому t-статистка уменьшается и вывод о значимости коэффициентов ненадежен.
- Оценки коэффициентов по МНК и стандартные ошибки становятся чувствительными к малейшим изменениям данных.
- Затрудняется определение вклада каждой из объясняющих переменных в изменения эндогенной переменной.
Методы выявления мультиколлинеарности:
- Если коэффициент детерминации [pic 4] достаточно высок, но некоторые из коэффициентов регрессии незначимы, т. е. они имеют низкие t-статистики, то можно говорить о присутствии в модели мультиколлинеарности по формальным признакам.
- Для выявления мультиколлинеарности в регрессионных моделях возможно использовать коэффициенты корреляции: парные в случае парной линейной регрессии и частные в случае множественной линейной регрессии.
Парная корреляция между малозначимыми факторами [pic 5] достаточно высока. Однако данное предположение будет выполняться лишь в случае двух объясняющих переменных. При большом их количестве надежнее использовать частные коэффициенты корреляции. Коэффициент корреляции определяется выражением.
[pic 6], (2.30)
где: [pic 7] – ковариация случайных величин [pic 8] и [pic 9]; [pic 10] и [pic 11]стандартные отклонения случайных величин [pic 12] и [pic 13].
Коэффициент корреляции является безразмерной величиной и показывает степень линейной связи двух переменных: [pic 14] при положительной связи и [pic 15] при строгой положительной линейной связи; [pic 16] при отрицательной связи и [pic 17] при строгой отрицательной линейной связи; [pic 18] при отсутствии линейной связи.
Случайные величины [pic 19] и [pic 20] называются некоррелированными, если [pic 21], и коррелированными, если [pic 22]. Независимые случайные величины [pic 23] и [pic 24] всегда некоррелированные (т. е. [pic 25]), но из некоррелированности их не следует их независимость. Некоррелированность указывает лишь на отсутствие линейной связи между переменными, но не на отсутствие связи между ними вообще. Считается, что две переменные явно коллинеарны, если [pic 26] В этом случае факторы дублируют друг друга, и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдаётся фактору, который при достаточно тесной связи с результатом имеет наименьшую взаимосвязь с другими факторами.
...