Мультиколінеарність
Автор: Ygasss • Июль 31, 2023 • Статья • 789 Слов (4 Страниц) • 118 Просмотры
Мультиколінеарність
Аналіз на мультиколінеарність є важливим етапом при дослідженні взаємозв'язків між змінними у моделі. В контексті наших даних: обсяг виробленої будівельної продукції, обсяг капітальних інвестицій у будівництво за регіонами, чисельність населення по регіонах, обсяг реалізованих послуг. Проведення аналізу на мультиколінеарність має наступні цілі: має наступні цілі:
1) Виявлення проблеми: Аналіз на мультиколінеарність допомагає виявити наявність сильно корельованих змінних в наборі даних. У цьому випадку, можливо, що змінні, такі як обсяг виробленої будівельної продукції (Х1) та обсяг капітальних інвестицій у будівництво (Х2), можуть бути сильно залежними одна від одної. Це може вказувати на проблему мультиколінеарності.
2) Вплив на оцінки параметрів: Мультиколінеарність може призводити до невизначеності і неточності оцінок параметрів моделі. Наприклад, у розглянутій моделі, мультиколінеарність між Х1 і Х2 може ускладнити визначення, яка з цих змінних має більший вплив на динаміку загальної площі житлових будівель (У). Аналіз на мультиколінеарність дозволяє оцінити, як це впливає на точність та надійність результатів.
3) Інтерпретація результатів: Мультиколінеарність може ускладнити інтерпретацію взаємозв'язків між змінними. Якщо виявлена мультиколінеарність, необхідно розробити стратегію управління цією проблемою, наприклад, шляхом виключення однієї з корельованих змінних або використання альтернативних методів моделювання.
Розглянемо приклад регресійної моделі. Модель має наступний вигляд:
Y = 57168,87 - 4,47x1 + 0,17x2 - 0,0477x3 + 22,34x4
У рамках алгоритму Феррара-Глобера спершу виконується стандартизація (нормалізація) змінних. Вектори незалежних змінних моделі позначаються як Х1, Х2 та Х3. Після цього використовується формула або функція STANDARDIZE для подальшого аналізу:
[pic 1]
Де, 𝑥̅𝑘 – середнє арифметичне k-ї пояснювальної змінної; 𝑟𝜎𝑥𝑘 2 – дисперсія k-ї пояснювальної змінної.
Наступним кроком знаходиться кореляційна матриця r:
1 | 0,5237 | 0,6287 | 0,9078 |
0,5237 | 1 | 0,1710 | 0,4308 |
0,6287 | 0,1710 | 1 | 0,6357 |
0,9078 | 0,4308 | 0,6357 | 1 |
Після цього розраховується критерій Пірсона 𝜒2 за формулою:
[pic 2]
Значення критерію порівнюємо з табличним при ½*𝑚(𝑚 − 1) ступенях свободи і рівні значущості α. Якщо 𝜒факт 2 > 𝜒табл 2 , то в масиві пояснювальних змінних існує мультиколінеарність. В нашому випадку мультиколеніарність присутня. Отримані результати:
[pic 3]
Для визначення кількості ступенів свободи необхідно розрахувати матрицю С:
[pic 4]
Наступним кроком є обчислення F – критерію за відповідною формулою:
[pic 5]
За наданими обчисленими значеннями F-критерію мультиколінеарності можна зробити такі висновки:
[pic 6]
Для змінної, яка відповідає F1, обчислене значення (38,91) перевищує критичне значення F (26,68). Це свідчить про статистично значущу мультиколінеарність між цією змінною та іншими змінними в моделі. Для змінної, яка відповідає F2, обчислене значення (3,14) менше критичного значення F (26,68). Це означає, що між цією змінною та іншими змінними в моделі немає статистично значущої мультиколінеарності. Для змінної, яка відповідає F3, обчислене значення (5,39) також менше критичного значення F (26,68). Це означає, що між цією змінною та іншими змінними в моделі немає статистично значущої мультиколінеарності. Для змінної, яка відповідає F4, обчислене значення (33,05) перевищує критичне значення F (26,68). Це свідчить про статистично значущу мультиколінеарність між цією змінною та іншими змінними в моделі.
...