Лекции по "Эконометрике"
Автор: Laorantikys • Декабрь 2, 2020 • Курс лекций • 7,904 Слов (32 Страниц) • 272 Просмотры
1.Парный регрессионный анализ
Сутью регрессионного анализа является описание "технологии" влияния признаков-факторов на признак-результат, который в конкретных практических задачах выступает объектом управления.
Регрессионный анализ предполагает теоретический анализ природы изучаемого явления с целью определения круга факторов, оказывающих влияние на поведение результативного признака. На базе корреляционного анализа выявляется наличие статистически значимых связей в конкретных условиях места и времени. Затем строится уравнение регрессии, которое при определенных условиях может быть признано статистической моделью связи между признаками.
Пусть имеется 2 ряда эмпирич-х данных Х (х1, х2, …) и У (у1, у2, ...), соответствующие им точки изобразим с координатами (хi, yi), где i=1,2,…n, отобразим на координатной плоскости. Такое изображение наз полем корреляции. Пусть по расположению эмпир-х точек можно предположить наличие лин-ой кор зав-ти между Х и У.
Теорет-ая лин-я парная регрессия модель – модель вида: ух=β0+β1хi+Ɛ, где Ɛ-случ отклонение; β0,i- теоретич параметры (числовые коэффициенты) регрессии, подлежащие оцениванию, х - объясняющая переменная; у - объясняемая переменная. Для поиска b1 исп-тся метод наим. квадратов, идея которого состоит в след-м: сумма квадратов отклонений выборочных значений от расчетных д б минимальной.
S (b0,b1) = ∑ei2=∑(yi-^yi)2=∑(yi-b0-b1xi)2 – min.
Функция S явл. квадратной функцией 2 параметров b0и b1. (S>0)
Система нормальных уравнений для определения параметров линейной регрессии:
nb0+b1∑xi=∑yi b0∑xi+ b1∑xi2=∑xiyi
Из полученной системы находим коэф-ты b0, b1 и записывают эмпирии-е (выборочное) уравнение регрессии. y^=b0+b1х. b1 называют коэфф-м регрессии или выборочным коэф-м регрессии У и Х. Он показывает на сколько единиц в среднем измен-ся переменная У при увеличении переменной Х на одну единицу. Для оценки влияния факторного признака Х на результ-йц У примен-ся коэф-т эластичности. Коэф-т эластичности показывает на сколько процентов в среднем измен-ся рез-ый признак У при изменении факторного Х на 1%.
Предпосылки МНК:
1.Зависимая переменная yi есть величина случайная, а объясняющая переменная xi величина неслучайная
2.Матем. ожидание случ-го отклонения равно 0: ( i)=0.
3.Дисперсия i постоянна для любого i: D ( i)=σ2
4.Отклонение i и j не связаны: М( i)=0 при i≠j М( i) ≠М( j) 5.Отклонение i это нормально распределенная СВ.
2.Основные положения регрессионного анализа
Метод наим. квадр. обеспечивает оптимальные свойства оценок лишь при выполнении следующих классических предположений.
Предпосылки МНК (условия Гаусса – Маркова) для парной линейной регрессии:
1.Зависимая переменная yi есть величина случайная, а объясняющая переменная xi величина неслучайная
2.Матем. ожидание случ-го отклонения равно 0: ( i)=0.
3.Дисперсия iпостоянна для любого i: D ( i)=σ^2
4.Отклонение i и j не связаны: М( i)=0 при i≠jМ( i) ≠М( j)
5.Отклонение i это нормально распределенная СВ.
t-критерий Стьюдента — общее название для класса методов статистической проверки гипотез (статистических критериев), основанных на распределении Стьюдента. Наиболее частые случаи применения t-критерия связаны с проверкой равенства средних значений в двух выборках.
Критерий Стьюдента для проверки гипотез о статистической значимости коэффициентов регрессии: Н – гипотеза, b-проверяемый параметр.
H : b = 0; H : b ≠ 0,
используется t-статистика:
[pic 1]
которая, при выполнении исходных предпосылок модели, имеет распределение Стьюдента с числом степеней свободы γ = n – k – 1,
[pic 2]
где Se – стандартная ошибка регрессии.
Гипотеза Н0 отклоняется, если [pic 3]
Выборочная остаточная дисперсия определяется по формуле:
[pic 4]
Корень квадратный из выборочной остаточной дисперсии называется стандартной ошибкой регрессии (стандартной ошибкой оценки).
...