РУБРИКИ

Шпора: Эконометрика

   РЕКЛАМА

Главная

Логика

Логистика

Маркетинг

Масс-медиа и реклама

Математика

Медицина

Международное публичное право

Международное частное право

Международные отношения

История

Искусство

Биология

Медицина

Педагогика

Психология

Авиация и космонавтика

Административное право

Арбитражный процесс

Архитектура

Экологическое право

Экология

Экономика

Экономико-мат. моделирование

Экономическая география

Экономическая теория

Эргономика

Этика

Языковедение

ПОДПИСАТЬСЯ

Рассылка E-mail

ПОИСК

Шпора: Эконометрика

Шпора: Эконометрика

Вопросы к экзамену по дисциплине «ЭКОНОМЕТРИКА»:
  1. Этапы построения эконометрических моделей
  2. Построение парной линейной регрессии методом наименьших квадратов
  3. Парная нелинейная регрессия. Оценка параметров
  4. Построение линейной регрессии в MS EXCEL. Входные и выходные параметры функции ЛИНЕЙН
  5. Оценка существенности (значимости) параметров уравнения регрессии
  6. Интервалы прогноза по линейному уравнению регрессии. Построение доверительных интервалов
  7. Множественная регрессия. Отбор факторов при построении множественной регрессии
  8. Матрица парных корреляций. Мультиколлинеарность
  9. Оценка параметров уравнения множественной регрессии
  10. Построение производственной функции Кобба-Дугласа в MS EXCEL
  11. Уравнение множественной регрессии в стандартизованном масштабе. Оценка коэффициентов Bi
  12. Переход от уравнения множественной регрессии в натуральном масштабе к уравнению в стандартизованном масштабе и обратно
  13. Частные уравнения регрессии
  14. Множественная корреляция
  15. Частные коэффициенты корреляции
  16. Оценка надежности результатов множественной регрессии и корреляции. Частный Fxi
  17. Сравнение двух регрессий. Тест Чоу
  18. Фиктивные переменные в уравнении множественной регрессии
  19. Система одновременных уравнений. Структурная и приведенная форма модели
  20. Проблемы идентификации между СФМ и ПФМ. Достаточное и необходимое условие идентификации
  21. Косвенный МНК
  22. Двухшаговый МНК
  23. Предпосылки применения метода наименьших квадратов
  24. Тест ранговой корреляции Спирмена о наличии гетероскедатичности
  25. Тест Годфелда-Квандта о наличии гетероскедатичности
  26. Модели с распределенными лагами. Модель Койка
  27. Модели Ш.Алмон
1. Этапы построения эконометрических моделей. Э – наука, занимающаяся измерениями в экономике и построением моделей. Э – раздел экономики, занимающийся разработкой и применением стат методов для измерения взаимосвязи между эконом переменными. Объединяет совокупность методов и моделей, позволяющих на базе стат методов и ЭММ-вания придавать колич выражение кач зависимостям. Этапы: *постановочный (формул-ся цель иссл-я, отбор переменных, вход-х в будущую модель. Цель – анализ исслед-го эк явл, прогноз поведения эк переменных, имитация развития объекта при разл значениях экзогенных переменных, выработка управл решений. Экзоген пер – задаются извне (Х), эндоген пер – задаются внутри (У). Н-р: Yi=a0+a1xi+ui, где ui – вектор отклонений, а0 и а1 – коэф-ты модели.), *априорный (анализ информации известной до начала моделирования), *параметризация (выбор вида функции: линейная, степенная, логарифмическая.), *информационный (сбор стат данных, выбор программного ср-ва: MS EXCEL, STATISTIKA, GPSS, EVIEWS), *идентификация модели (находятся значения коэф-тов, входящих в модель: а0, а1.), *верификация модели (сопоставления реальных и модельных данных, проверка истинности и адекватности модели). 2. Построение парной линейной регрессии методом наименьших квадратов. Регрессионный анализ - установление форм корреляционных связей (вида функции регрессии). Наиболее часто функции регрессии оказываются линейными. Для имеющейся зависимости Y от x построение линейной регрессии сводится к нахождению уравнения вида Y теор (Xi) = A+ + B+*Xi + епсилон i, где A+ - это а со звездочкой. Это Ур-е позволяет по заданным значениям фактора x получить теорит-кое знач-е результативного признака (у). На графике линию регрессии представляют теорит знач-я. Согласно методу наим квадратов (МНК) неизвестные параметры А* и В* выбираются (соответственно, и линия проводится) таким образом, чтобы отклонение теорит знач-ий от реальных было мин-ным. Выразим из Ур-я регрессии ошибки (эпсилон) и возведем обе стороны в квадрат. Получим. Шпора: Эконометрика Суть метода наименьших квадратов заключается в поиске таких значений параметров (Шпора: Эконометрика ,Шпора: Эконометрика ) , которые минимизируют сумму квадратов регрессионных ошибок: Шпора: Эконометрика Эта функция явл гладкой, выпуклой, значит производная любого порядка у нее сущ-ет и непрерывна. Неизвестными явл а и b. Найдем их. Согласно необходимому ус-ю минимума функции приравняем ее частные производные к нулю, получим систему из двух Ур-ний: Шпора: Эконометрика Отсюда после преобразований получим систему нормальных ур-ний для опр-я параметров регрессии: a*n + b*Сум(xi)=cум(yi) a*Сум(xi) + b*Сум(xi) в квадрате=cум(xi*yi), Теперь, разделив обе части уравнений на n, получим систему нормальных Ур-ний в виде: а + b*x средн = y средн а*x средн + b* x cредн в квадрате = x*y средн, где соответствующие средние определяются по формулам x ср = [Сум от i до n (xi)]/n , аналогично для каждого. Из последнего Ур-я выразим b: b= (x*y средн – y ср* x ср)/ (x в квадрате ср – x ср в квадрате). Коэф-т b наз-ся выборочным коэф-том регрессии (или просто коэф-том регрессии) Y по Х, он показ-ет, на сколько ед-ц в среднем измен-ся перем-я Y при увеличении перем Х на одну единицу. а= y ср – b* x средн Параметр а может не иметь экономического содержания. Интерпретировать можно знак при параметре а. Если а > 0, то относит измен-е рез-та происходит медленнее, чем измен-е фактора. 4. Построение линейной регрессии в MS Exсel. Входные и выходные параметры функции ЛИНЕЙН. 1. с помощью функции ЛИНЕЙН: рассчитывает статистику для ряда с применением метода наименьших квадратов, чтобы вычислить прямую линию, которая наилучшим образом аппроксимирует имеющиеся данные. Функция возвращает массив, который описывает полученную прямую. Поскольку возвращается массив значений, функция должна задаваться в виде формулы массива. ЛИНЕЙН(известные_значения_y;известные_значения_x;конст;статистика) Входные данные: -Известные_значения_y — множество значений y, которые уже известны для соотношения y = mx + b. -Известные_значения_x — необязательное множество значений x, которые уже известны для соотношения y = mx + b. -Конст — логическое значение, которое указывает, требуется ли, чтобы константа b была равна 0. -Статистика — логическое значение, которое указывает, требуется ли вернуть дополнительную статистику по регрессии. Выходные данные (в виде таблицы):
(значение b)(значение а)
SEn (Стандартные значения ошибок для коэффициентов m1,m2,...,mn.)SEn-1
R2 (Коэффициент детерминации.)SEу (Стандартная ошибка для оценки y.)
F (критерий Фишера)Df (Степени свободы.)
SSper (Регрессионная сумма квадратов.)SSост (Остаточная сумма квадратов.)
-выделяем 5 строк и 2 столбца -Fx – мастер функций, статистич., ЛИНЕЙН. известные знач-я Y – (#С2:С8). Известные знач-я Х – (#В2:В8). Const – (1-истина/0-ложь) Статистика (1/0) Ок. -F2 CTRL+SHIFT+ENTER 2. сервис, анализ данных, регрессия. а) активизируем пакет стат анализа: сервис, надстройки, пакет анализа, Ок. б) сервис, анализ данных, регрессия: Вх интервал Y Вх интервал Х Ок. 5. Оценка существенности параметров уравнения регрессии. Когда найдено Ур-е лин регрессии, то пров-ся оценка знач-ти Ур-я в целом и отд-х его параметров. Оценка знач-ти Ур-я в целом дается с помощью F-критерия Фишера: выдвигается гипотеза, что коэф-нт регрессии =0 (b=0) след-но Xне оказ-т влияние на Y. Расч F-критерия предшест-т анализ дисперсии. Дел-ся разд-е общей ∑ квадратов откл-й перем-й Y от средн знач Y на 2 части – «объясненную и необъясненную»: ∑(Yi-Yср)2= ∑(Yтеор(X1)-Yср)2 +∑(Yтеор(Xi)-Yi)2, те общей ∑ квадратов откл-й=∑ квадратов отклонений(объясненная регрессия)+остаточная ∑квадратов отклонений. Общ ∑ квадратов отклонений инд-х знач от ср знач вызвана влиянием множества причин. Если нет влияния рассматриваемого фактора, то линия регрессии парал-на оси OX, остаточная ∑квадратов отклонений озн-т проч и неучт-е фак-ры. ∑ квадратов откл-й связана с числом степеней свободы(Degrees of freedom) – это число независимо варьирующих признаков, влияющих на соотв ∑ квадратов откл-й. Общ ∑ квадратов откл-й имеет число степеней свободы (n-1). Yср=(Y1+Yn)/n. Для остаточн ∑квадратов отклонений число степеней свободы= (n-2). Если соотв ∑квадратов отклонений разделить на соотв ∑ степеней свободы, то получится дисперсия(D) на 1 степень свободы. ∑квадратов отклонений объясн регрессии - число степеней свободы=1. Dобщ=∑(Y-Yср)2/( n-1), Dфакт=∑(Yтеор(X1)-Yср)2/1, Dостат=∑(Yтеор(Xi)-Yi)2 /(n-2). Fкритерий Фишера F=Dфакт/Dост. Если гипотеза справедлива, то Dфакторн=Dост, но для гипот-зы необх опроверж этого, те Dфакт>Dост. Есть таблицы крит-х знач Fкритерий-это макс вел-на отношения дисперсии для дан уровня вероят-ти. Если Fфакт> Fтабл, то Ур-е регрессии явл-ся значимым (гипотеза отклоняется) и наоборот(гипотеза не может отклониться без существенного риска). Можно говорить о значимости не только Ур-я вцелом, но и его параметров. Для этого опр-ся их станд-я ошибка. Yтеор=a(альфа)+b(бетта)*xi. Ma- ср квадр откл-е а от альфы и Mb-соотв. Tфактор=a/Mа>табл, то явл-ся знач-м. Ma=корень квадратный из ∑(Yтеор(Xi)-Yi)2/(n-2)* ∑x2/[n*∑(x-xср)2]; Mb=корень квадратный из ∑(Yтеор(Xi)-Yi)2/(n-2)*1/ ∑(x-xср)2 ∑(Yтеор(Xi)-Yi)2=Sост в квадрате Коэф-т Мb* определяет наклон прямой регрессии. 6. Интервалы прогноза по линейному уравнению регрессии. Построение доверительных интервалов. yтеор (хр)=a*+(b*)*хр (1) Для каждой точки на линии регрессии можно построить доверит интервалы с вероятностью р=1-a=0,95, так, что они будут лежать в этих интервалах. yтеор (хср)=a*+(b*)*хср (2) Линия регрессии проходит точно через т. (хср;yср). a*= yср - (b*)*xср (3) Подставляем в (1): yтеор (хр)= yср + (b*)* (хр- xср). Цель: выяснить дисперсию этого значения m2 yтеор (хр)=D yтеор (хр)= D yср + D((b*)*(хр- xср)) - cov(yср + (b*)* (хр- xср)), где m – среднеквадратич отклонение. Если переменные неизменны, cov=0. cov (x;y)=(åi от 1 до n (xi-xср)*(yi-yср))/n. m2 yтеор (хр)= D yср+(xр-xср)2*Db*= m2 ycр+ (m2 b*)*((xр-xср)2 m2 ycр @ d2yср/n @ S2ост/((n-2)*n) ------- оценка m2 b*@d2yср*1/(åi от 1 до n (xi-xср)2)@ S2ост/((n-2)*(åi от 1 до n (xi-xср)2) myтеор (хср)=Корень квадр из (S2ост/(n-2))*корень квадр из (1/n+(xр-xср)2/(åi от 1 до n (xi-xср)2)). Для среднеквадратич отклонения точки, лежащей на линии регрессии на оси абсцисс т.х прогнозное. txp = (yтеор (хр)-a-b*xp)/ myтеор (хр) – распределена по закону Стьюдента g(число степеней свободы для парной линейной регрессии)=n-2. a=0,05, 1-a=0,95
Шпора: Эконометрика
1
Шпора: Эконометрика
0,95
0 Шпора: Эконометрика tкрит(табл) Р(½(yтеор (хр)-a-b*xp)/ myтеор (хр)½ < ta/2,n-2)=1- a Распределение Стьюдента симметрично
Шпора: Эконометрика
Шпора: Эконометрика Шпора: Эконометрика плотность распределения f(x)=F1(x) a/2 a/2 Шпора: Эконометрика Шпора: Эконометрика
0 хср Площадь под интервалом равна 1. Р(½yтеор (хр)-a-b*xp½£ ta/2,n -2* myтеор (хр))=1- a, где ta/2,n-2 * myтеор (хр) – радиус интервала. ½y - центр½<радиуса yÎ(центр –R, центр +R) yтеор (хр) - ta/2,n-2* myтеор (хр) < a+b*xp < yтеор (хр) + ta/2,n-2* myтеор (хр) a*+(b*)*хр - ta/2,n-2* Корень квадр из (S2ост/(n-2)*корень квадр из (1/n+(xр-xср)2 /(åi от 1 до n (xi-xср)2)) < a+b*xp < a*+(b*)*хр + t a/2,n-2* Корень квадр из (S2 ост/(n-2)*корень квадр из (1/n+(xр-xср)2/(åi от 1 до n (xi-xср) 2)), где самая левая часть нижняя доверит граница, а самая правая – верхняя доверит граница. Замечание 1: хр=хср – самый узкий коридор, чем дальше хр удаляется от хср, тем интервал будет шире (это плохо). Замечание 2: это нер-во записано для точек, лежащих на линии регрессии, такое же нер-во можно записать для факт точек, расположенных от линии регрессии на g2y=S2ост/(n-2). То же самое нер-во только в середине yиндив(хр) и под вторым корнем будет 1+1/n. 3. Парная нелинейная регрессия. Оценка параметров. Для оценки параметров нелинейных моделей используются два подхода. Первый подход основан на линеаризации модели и заключается в том, что с помощью подходящих преобразований исходных переменных исследуемую зависимость представляют в виде линейного соотношения между преобразованными переменными. Для линеаризации модели в рамках первого подхода могут использ-ся как модели, нелинейные по переменным, так и нелинейные по параметрам. Если модель нелинейна по переменным (по объясняющим переменным х), то введением новых переменных ее можно свести к линейной модели, для оценки параметров которой можно использовать обычный метод наименьших квадратов. Н-р: полиномиальная, обратная. Более сложной проблемой является нелинейность модели по параметрам (по оцениваемым коэф-там), т.к. непосредственное применение метода наименьших квадратов для их оценивания невозможно. К числу таких моделей можно отнести, н-р, мультипликативную модель, экспоненциальную модель. В ряде случаев путем подходящих преобразований эти модели удается привести к линейной форме, н-р логарифмированием. Второй подход обычно применяется в случае, когда подобрать соответствующее линеаризующее преобразование не удается. В этом случае применяются методы нелинейной оптимизации на основе исходных переменных. 7. Множественная регрессия. Отбор факторов при построении множественной регрессии. Множественная регрессия(МР) широко исп-ся в решении проблем спроса, доходности акций, издержек пр-ва и других вопросах. Основная цель МР- построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также их совокупное воздействие на моделируемый показатель. Yi=Yteor(x1i;x2i )+ei Yteor(x1i;x2i )=a* +b1x1*+b2*x2i (+...bp*xpi) S(a* b1* b2*)=n i=1 ∑( yi-a- b1x1- b2x2i )2→min a, b1,b2. a a*,b 1*,b2*-решение задачи. Решение задачи следует из нбх условия минимума функций многих переменных. Производная в точке минимума д.б. равна 0. (1)∂s/∂a(a*;b1*;b2* )=2∑(ayi-a*-b1*x1i- b2* x2i)(-1)=0; (x2)=2x; (-x)1=-1; (c)1 =0 (2)∂s/∂b1(a*;b1*;b2*)=2∑(yi-a*-b1*x1i-b2*x2i)(-x1i)=0; (cx)1=c (3)∂s/∂b2(a*;b1*;b2*)=2∑(yi-a*-b1*x1i-b2*x2i)(-x2i)=0; *(-1) (1);(2);(3)-система нормальных уравнений. ∑Yi= a*(∑1)+ b1*(∑x1i)+ b2*(∑x2 i); (∑1)=n ∑(Yix1i)= a*∑x1i+ b1*∑x1i2+ b2*∑(x2ix1i) ∑(Yix2i)= a*∑x2i+ b1*∑(x1i x2 i)+ b2*∑x2 i2 ∑Yi d=∑(Yix1i) ∑(Yix2i) n; ∑x1i; ∑x2 i; A=∑x1i; ∑x1i2; ∑x2ix1i; ∑x2i; ∑x1i x2 i; ∑x2 i2; a* x=b1* b2* d=A*x; A-1; A-1d=x х и d – векторы, причем х- вектор неизвестных коэф-тов # 1 шаг: сформировать матрицуА, сформировать столбец d, 2 шаг:сделать обратную матрицу, 3 шаг: полученную матр умножаем на матр умножаем на d, получаем х. 4 шаг: проверяем с помощью сервиса ан-з данных регрессия. Замечание: также как в парной регрессии коэффициент ур-ия множественной регрессии м. вычислять 2-мя способами: 1.ч/з линейную ф-ю. 2.Сервис→ан данных→регрессия(более предпочтительный способ) коэффициенты вычисл-ся и располагаются более естественно. Правило получения хорошей модели: 1) Fфакт> Fтабл. 2) вероятность или значение д.б.<0,05. Yтеор(Xi;X2i)=a*+b*Xi+b2*X2i+b3*X3i – наиболее точная. Факторы, включ-ые во МР, д отвечать след треб-ям: 1 д.б. количественно измеримы. Если нбх-мо включить в модель качественный фактор, не имеющий кол-го измерения, то ему нужно придать кол-ную определенность(#в модели стоимости объектов недвижимости учитывается место нахождения недвижимости, и районы м.б. проранжированы) 2. Факторы не д.б. интеркоррелированы и находиться в точной функциональной связи. Система нормальных ур-ий м. оказаться плохо обусловленной и повлечет неустойчивость и ненадежность оценок коэффициентов регрессии если включаются в модель факторы с высокой интеркорреляцией , когда Ryx 1<Rx1x2 для зависимости y=a+b1x1+b2x2+e. Если м/у факторами существует высокая корреляция, то нельзя определить их изолированное влияние на результат-й показатель и параметры ур-ия регрессии оказыв-ся неинтерпретируемыми. Так в ур-ии y=a+b1x1+b2x 2+e. предполаг-я , что факторы x1, x2 незав-мы др. от др-га, т.е. rx1x2=0. Тогда м. говорить, что параметр b1 измеряет силу влияния фактора x1 на результат у при неизменном значении фактора x2. Если же rx 1x2=1, то с изменением фактора x1 фактор x2 не может оставаться неизменным. Отсюда b1 и b2 нельзя интерпретировать как показатели раздельного влияния x1 и x 2 и на y, 8. Матрица парных корреляций. Мультиколлинеарность. По величине парных коэфф-тов корреляции обнаружи­вается явная коллинеарность факторов. Наибольшие труд­ности в использовании множественной регрессии - при наличии мультиколлинеарности факторов, когда бо­лее чем 2 фактора связаны между собой линейной зависимос­тью, т. е. имеет место совокупное воздействие факторов друг на друга. В результате вариация в исходных данных перестает быть полно­стью независимой, и нельзя оценить воздействие каждого факто­ра в отдельности. Включение в модель мультиколлинеарных факторов нежелательно в силу последствий: • затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы коррелированы; параметры линейной регрессии теряют экономический смысл; • оценки параметров ненадежны, обнаруживают большие стан­дартные ошибки и меняются с изменением объема наблюде­ний (не только по величине, но и по знаку), что делает модель непригодной для анализа и прогнозирования. Для оценки мультиколлинеарности факторов может исполь­зоваться определитель матрицы парных коэффициентов корреля­ции между факторами. Если бы факторы не коррелировали между собой, то матрица парных коэффициентов корреляции между факторами была бы единичной матрицей, поскольку все недиагональные элементы были бы равны нулю. Если же, наоборот, между факторами существует полная ли­нейная зависимость и все коэффициенты корреляции равны еди­нице, то определитель такой матрицы равен нулю. Чем ближе к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии, и наоборот. Через коэффициенты множественной детерминации можно найти переменные, ответственные за мультиколлинеарность факторов. Для этого в качестве зависимой переменной рассмат­ривается каждый из факторов. Чем ближе значение коэффициен­та множественной детерминации к единице, тем сильнее прояв­ляется мультиколлинеарность факторов. Сравнивая между собой коэффициенты множественной детерминации факторов можно выделить переменные, ответственные за мультиколлине­арность, следовательно, можно решать проблему отбора факто­ров, оставляя в уравнении факторы с минимальной величиной коэффициента множественной детерминации. Существует ряд подходов преодоления сильной межфакторной корреляции. Самый простой путь устранения мультиколли­неарности состоит в исключении из модели одного или несколь­ких факторов. Другой подход связан с преобразованием факто­ров, при котором уменьшается корреляция между ними. Одним из путей учета внутренней корреляции факторов является переход к совмещенным уравнениям регрессии, т. е. к уравнениям, которые отражают не только влияние факторов, но и их взаимодействие. Так, если у =f(x1, х2, х3), то возможно пост­роение следующего совмещенного уравнения: у = а+b1*x1+b2*x2+b3*x3+b12*x1*x2+b13*x1*x3+b23*x2*x3+e Решению проблемы устранения мультиколлинеарности факторов может помочь и переход к уравнениям приведенной фор­мы. Отбор факторов, включаемых в регрессию, является одним из важнейших этапов практического использования методов рег­рессии. Подходы к отбору факторов на основе показателей корреляции могут быть разные. Каждый из этих методов по- своему решает проблему отбора факторов, давая в целом близкие результаты — отсев факторов из полного его набора (метод исключения), дополнительное введе­ние фактора (метод включения), исключение ранее введенного фактора (шаговый регрессионный анализ)'. На первый взгляд может показаться, что матрица парных ко­эффициентов корреляции играет главную роль в отборе факто­ров. Вместе с тем вследствие взаимодействия факторов парные коэффициенты корреляции не могут в полной мере решать во­прос о целесообразности включения в модель того или иного фактора. Эту роль выполняют показатели частной корреляции, оценивающие в чистом виде тесноту связи фактора с результа­том. Матрица частных коэффициентов корреляции наиболее широко используется в процедуре отсева факторов. 10. Построение производственной функции Кобба-Дугласа в MS EXCEL. - у нас имеются исходные данные: годы (или что-либо другое), У, К, L - строим еще столбцы: lnYi, ln Ki, ln Li, Утеор - Yтеор(Ki,Li)=A*Ki в степени альфа 1*Li в степени альфа 2 у теор(х1i,x2i)=а со звезд + b1 со звезд*х1i+b2 со звезд*х2i(1) ln Yi=lnA+lnKi в степени альфа1+lnLi в степени альфа2 ln Yi=lnA+альфа1*lnKi+альфа2*lnLi(2) Сравним (1) и (2): обозначим через а и b и получим уравнение множественной регрессии. -сервис-анализ данных-регрессия: находим а со звезд =lnA, b1 со звезд=альфа1, b2 со звезд=альфа2 -подставляем и находим Утеор Чтобы построить диаграмму нужно построить таблицу вида.
Ki /Li

5

25

45

10

5,25184766

19,25641

30,94933

40

7,254780778

26,60036

42,75269

70

8,265424355

30,30599

48,70845

100

8,981845819

32,93282

52,93035

130

9,548177635

35,00933

56,26777

-затем мастер диаграмм-поверхность-1 9. Оценка параметров уравнения множественной регрессии (МР). Оцениваются, как и в парной регрессии, методом наименьших квадратов (МНК). При его применении строится система нормальных уравнений, решение которой и позволяет получить оценки параметров регрессии. Так, для уравнения y=a+b1*x1+b2*x2+.+bp*xp+E система нормальных уравнений составит: ∑y=n*a+b1*∑x1+b2*∑x2+.+bp*∑xp, ∑y*x1=a*∑x1+b1*∑x1^2+b2*∑x1*x2+.+bp*∑xp*x1, .................. ∑y*xp=a*∑xp+b1*∑x1*xp+b2*∑x2*xp+.+bp*∑xp^2. Ее решение может быть осуществлено методом определителей: a=∆a/∆, b1=∆b1/∆, .bp=∆bp/∆. Где ∆ - определитель системы; ∆a, ∆b1,. ∆bp - частные определители При этом: n ∑x1 ∑x2 .. ∑xp ∑x1 ∑x1^2 ∑x2*x1. ∑xp*x1 ∆= ∑x2 ∑x1*x2 ∑x2^2 . ∑xp*x2 ............ ∑xp ∑x1*xp ∑x2*xp ..∑xp^2 a ∆a, ∆b1.∆bp получаются путем замены соответствующего столбца матрицы определителя системы данными левой части системы. Возможен иной подход к определению параметров, когда на основе матрицы парных коэффициентов корреляции строится уравнение регрессии в стандартизованном масштабе: ty=B1*tx1+B2*tx2+.+bp*txp+E Где ty, tx1.txp -стандартизованные переменные: ty=(y-y cp)/σy , tx1=(xi-xi cp)/σx 1, для которых среднее значение равно нулю: ty cp = txi =0, a ср. квадратическое отклонение равно единице: σty= σtx =1; β - стандартизованные коэффициенты регрессии. Применяя МНК к уравнению МР в стандартизованном масштабе, после соответствующих преобразований получим систему нормальных уравнений вида Ryx1=B1+B2*Rx2x1+B3*Rx3x1+.+Bp*Rxpx1, Ryx2=B1*Rx2x1+B2+B3*Rx3x2+.+Bp*Rxpx2, ........................ Ryxp=B1*Rxpx1+B2*Rxpx2+B3*Rx3xp+.+Bp. Решая ее методом определителей, найдем параметры – стандартизованные коэффициенты регрессии (В-коэффициенты). Они показывают, на сколько сигм изменится в среднем результат, если соответствующий фактор хi изменится на одну сигму при неизменном среднем уровне других факторов. В силу того, что все переменные заданы как центрированные и нормированные, стандартизованные коэффициенты регрессии Вi сравнимы между собой. Сравнивая их друг с другом, можно ранжировать факторы по силе их воздействия на результат. В этом основное достоинство стандартизованных коэффициентов регрессии в отличие от коэффициентов «чистой» регрессии, которые несравнимы между собой. Рассмотренный смысл стандартизованных коэффициентов регрессии позволяет их использовать при отсеве факторов - из модели исключаются факторы с наименьшим значением Вj 11. Уравнение множественной регрессии в стандартизованном масштабе. Оценка коэффициентов вi (бэтта). № Х1i X2i X3i Yi tx1i =(X1i-X1cp)/σx1 tx2i tyi tyteor .. Среднее =0 Ср кв отклонение (сигма)=1 Сигма i =Корень из (Сумм(X1i – X1 cp)^2) / (n-1) C пом преобразований tx1i среднее перешло в 0. По правилу 3х сигм почти вся выборка находится в интервале (a-3σ; a+3σ) Случайная величина, у которой a =0, σ =1, называется стандартизованной. Переменные отличаются формой графика. Т.е. для каждой стандартной переменной существует график, но они отл-ся формой. Можно построить МР: в кач У берем tу. Столбцы: tx1i, tx2i, tx3i Пар-ры Ур-я множественной регрессии оценив-ся с пом МНК. При его примен-нии строится система нормальных ур-ний, реш-е кот-го позволяет получить оценки параметров регрессии. Иной подход к определению параметров множеств регрессии – на основе матрицы парных коэф-тов корреляции строится ур-е регрессии в стандартизованном масштабе: ty = B1*tx1 + B2*tx2 + B3*tx3 + 0, Где t – стандартизованные переменные, например tx =( xi – xi ср)/ сигма хi, для кот-ых средн знач-е (tx средн) равно нулю (поэтому свободный член = 0), а среднее квадратическое отклонение (сигма) =1; B – стандартизованные коэф-ты регрессии. Применяя МНК к ур-ю множеств регрессии в стандартизов-ом масштабе, после преобразований получим систему вида ry,x1 = B1 + B2*rx1,x2 + B3*rx1,x3 ry,x2 = B1*rx2,x1 + B2 + B3*rx2,x3 ry,x3 = B1*rx3,x1 + B2*rx3,x2 + B3 Из этой системы можно найти коэф-ты B . Они показ-ют на сколько сигм изменится в среднем рез-тат, если соотв-щий фактор xi изменится на одну сигму при неизменном среднем уровне др факторов. В силу того, что все перем-ые B сравнимы между собой (в отличие от коэф-тов «чистой» регрессии), после этого сравнения можно ранжировать факторы по силе их воздействия на результат. 12. Переход от уравнения множественной регрессии в натуральном масштабе к уравнению в стандартизованном масштабе и обратно. На основе матрицы парных коэффициентов корреляции строится уравнение регрессии в стандартизованном масштабе: ty=B1*tx1+B2*tx2+.+bp*txp+E Где ty, tx1.txp -стандартизованные переменные: ty=(y-y cp)/σy , tx1=(xi-xi cp)/σx 1, для которых среднее значение равно нулю: ty cp = txi =0, a ср. квадратическое отклонение равно единице: σty= σtx =1; β - стандартизованные коэффициенты регрессии. Применяя МНК к уравнению МР в стандартизованном масштабе, после соответствующих преобразований получим систему нормальных уравнений вида Ryx1=B1+B2*Rx2x1+B3*Rx3x1+.+Bp*Rxpx1, Ryx2=B1*Rx2x1+B2+B3*Rx3x2+.+Bp*Rxpx2, ........................ Ryxp=B1*Rxpx1+B2*Rxpx2+B3*Rx3xp+.+Bp. Решая ее методом определителей, найдем параметры – стандартизованные коэффициенты регрессии (В-коэффициенты). Для этого: сервис-анализ данных- корреляция, получаем матрицу парных корреляций А. Для трех ур-й с тремя неизвестными получ-ся матрица 4*4. Последний столбей – d-столбец свободных членов. Для нахождения коэф-тов бета умножаем d-столбец на подматрицу А (3*3) с пом ф-и МУМНОЖ. Выделяем ячейки для получения вектора коэф-тов и заполняем их с пом F2+CTRL+SHIFT+ENTER. Полученные коэф-ты вставляем в модель и получаем ур-е регрессии в стандартизованном масштабе. В парной зависимости стандартизованный коэффициент регрессии есть ни что иное, как линейный коэффициент корреляции ryx. Подобно тому, как в парной зависимости коэффициенты регрессии и корреляции связаны между собой, так и во множественной регрессии коэффициенты «чистой» регрессии bi связаны со стандартизованными коэффициентами регрессии Bi , а именно: bi=Bi*(σy/σxi) Это позволяет от уравнения регрессии в стандартизованном масштабе ty=B1*tx1+B2*tx2+.+Bp*txp Переходить к уравнению регрессии в натуральном масштабе переменных: y=a+b1*x1+b2*x2+.+bp*xp Параметр а определяется как а=у-b1*x1-b2*x2-.-bp*xp 13. Частные уравнения регрессии На основе линейного уравнения множественной регрессии: y = a + b1*x1 + b2*x2+.+bp*xp+e, могут быть найдены частные уравнения регрессии: yx1.x2,x3,.,xp = f(x1), yx2.x1,x3,.,xp = f(x2), ......... yxp.x1,x2,.,xp-1 = f(xp), т.е. уравнения регрессии, которые связывают результативный признак с соответствующими факторами х при закреплении других учитываемых во множественной регрессии факторов на среднем уровне. Частные уравнения регрессии имеют следующий вид: yx1.x2,x3,.,xp = a + b1*x1 + b2*x2 с чертой наверху + b3*x3 с чертой .+bp*xp с чертой+e, yx2.x1,x3,.,xp = a + b1*x1 с чертой + b2*x2 + b3*x3 с чертой .+bp*xp с чертой+e, ....................................... yxp.x1,x2,.,xp-1 = a + b1*x1 с чертой + b2*x2с чертой +.+bp-1*xp -1 с чертой + bp*xp +e, При подстановке в эти уравнения средних значений соответствующих факторов они принимают вид парных уравнений линейной регрессии, т.е. имеем: y с домиком (^) наверху x1..x2x3..xp = A1+b1*x1; y с домиком (^) наверху x2..x1x3..xp = A2+b2*21; .................... y с домиком (^) наверху xp..x1x2..xp-1 = Ap+bp*xp; где A1= a + b2*x2 с чертой наверху + b3*x3 с чертой .+bp*xp с чертой, A2= a + b1*x1 с чертой наверху + b3*x3 с чертой .+bp*xp с чертой, ............................... Ap= a + b1*x1 с чертой наверху + b2*x2 с чертой .+bp-1*xp-1 с чертой. В отличие от парной регрессии частные уравнения регрессии характеризуют изолированное влияние фактора на результат, ибо другие факторы закреплены на неизменном уровне. Эффект влияния других факторов присоединены в них к свободному члену уравнения множественной регрессии. Это позволяет на основе частных уравнений регрессии определять частные коэффициенты эластичности: Эyxi=bi*(xi/y c^ наверху xi.x1x2.xi-1xi+1.xp), где bi – коэффициент регрессии для фактора xi в уравнении множественной регрессии; y c^ наверху xi.x1x2.xi-1xi+1.xp – частное уравнение регрессии. 15. Частные коэффициенты корреляции. Ранжирование факторов линейной МР м.б. – через стандартизованные к-ты регрессии (В-к-ты); для лин связей – частные коэф-ты корреляции. При нелинейной вз/св - частные индексы детерминации. Частные показатели корреляции широко используются при решении проблемы отбора факторов: целесообразность включения того или иного фактора в модель доказывается величиной показателя частной корреляции. Частные коэффициенты (индексы) корреляции характеризуют тесноту связи между результатом и соответствующим фактором при устранении влияния других факторов, включенных в уравнение регрессии, в основном их используют на стадии формирования модели. Показатели частной корреляции представляют собой отношение сокращения остаточной дисперсии за счет дополнительного включения в анализ нового фактора к остаточной дисперсии, имевшей место до введения его в модель. Пример: предположим. Что зависимость объема продукции от затрат труда х1 характеризуется уравнением: Yx1= 27,5 + 3,5*х1, парный коэф-т корреляции ryx1 =0,58, Подставив в это уравнение факт значение х1, найдем теоретич величины объема продукции Yx1 и величину остаточной дисперсии S2 : S2yx1=å(yi-yxi)2/n, Включив в уравнение регрессии доп фактор х2 – технич оснащенность производства, получим ур-ие регрессии вида: Yx1x2=20,2 + 2,8*х1+ 0,2*х2. Предположим, что S2yx1х2 = 3,7, а S2yx1=6. чем большее число факторов включено в модель, тем меньше величина остаточной дисперсии. Сокращение остат дисперсии за счет доп включения фактора х2 составит 6-3,7=2,3. Чем больше доля этого сокращения в остаточной вариации до введения доп фактора, т.е. в S2yx1, тем теснее связь между y и х2 при постоянном действии фактора х1. Корень квадратный из этой величины и есть индекс частной корреляции, показывающий в чистом виде тесноту связи y и х2. Следовательно влияние фактора х2 на рез-т y определяется по формуле: ryx2.x1=корень квадр из (( S2yx1 - S2yx1х2)/S2yx1), а чистое влияние х1: ryx1.x2=корень квадр из (( S2yx2 - S2yx1х2)/S2yx2), Если выразить остат дисперсию через показатель детерминации S2остат=d 2y*(1-r2). Соответственно формула примет вид: ryx1.x2=корень квадр из (( S2yx2 - S2yx1х2)/S2 yx2)= корень квадр из (1 - S2yx1х2/S2yx2)= корень квадр из(1-(1-R2yx1x2)/(1-r2yx2), для х1: ryx2.x1= корень квадр из(1-(1-R2yx1x2)/(1-r2yx1), Рассмотренные показатели частной корреляции принято называть коэффициентами (индексами) частной корреляции 1-го порядка, ибо они фиксируют тесноту связи двух переменных при закреплении одного фактора. Если рассматривается регрессия с числом факторов р, то возможно частные коэффициенты корреляции не только 1-го, но и 2-го, 3-го и .. (р-1) порядка, т.е. влияние фактора х1 можно оценить при разных условиях независимости действия других факторов: ryx1.x2 - при постоянном действии фактора х2; ryx1.x2х3 - . факторов х2,х3; ryx1.x2.хр - . всех факторов. В практических исследованиях предпочтение отдают показателям частной корреляции самого высокого порядка, т.к. они являются дополнением к уравнению множественной регрессии. 16. Оценка надежности результатов множественной регрессии и корреляции. Частный Fxi. С помощью F-критерия Фишера опред значимость уравнения множеств регрессии в целом, как и в парной регрессии. (1) Fфакт=Dфакт/Dостат=(R2/1-R2 )*((n-m-1)/m); D-дисперсия факторная и остаточная. Dфакт-факторная сумма квадратов на одну степень свободы, Dостат-остаточная сумма квадратов на одну степень свободы. R2 -коэф-т множественной детермин-ии. m-число параметров при переменных х (в линейной регрессии совпадает с числом включенных в модель факторов). n-число наблюдений. С помощью F-критерия Фишера опред-ся значимость уравнения множеств регрессии в целом. Формула частного критерия Фишера: Fxi=(R2yx 1...xm-R2yx1...xi-1; xi +1...xm)/(1- R2yx1...xm)*((n-m-1)/1); R 2yx1...xm-коэффициент множественной детерминации для регрессии с полным набором факторов. R2yx1...xi -1; xi+1...xm-для ур-ия множеств-й регрессии без включения в модель фактора xi. Частный F критерий построен на сравнении прироста факторной дисперсии, обусловленного влиянием дополнительно включенного фактора, с остаточной дисперсией на одну степень свободы по регрессионной модели в целом. Если Fxi>Fтабл при α=0,05 (заданном) ν1=n-m-1; ν2=1, то включение i-го фактора статистически оправдано. Если Fxi<Fтабл –то не оправдано. С помощью частного Fкритерия м. проверить значимость всех коэф-ов регрессии предлагая, что каждый соотв-щий фактор xi вводился в ур-ие множ-й регр последним. 14. Множественная корреляция Множественная корреляция оценивает Ур-е множеств-й регрессии. Хар-т тесноту связи рассматриваемого набора факторов с исследуемым признаком (влияние факторов на результат). Показатель множественной корреляции Мб найден как индекс множественной корреляции: Ryx1..xp=корень из (1- σ2ост/ σ2у), σ2y- общ дисперсия результативного признака, σ2 ост- остат дисп для Ур-я y=f(x1.xp). Ryx1..xp Мб от 0 до 1, чем ближе к 1 тем теснее связь. Можно польз-ся след формулой индекса множественной корреляции при линейн зав-ти: Ryx1..xp=корень из(∑βxi*ryxi). βxi-стандатизированные коэф-ты регрессии, ryxi- парные к-ты корреляции рез-та с кажд фак-ром. Формула индекса множественной корреляции для линейн регр-и получ назв-е линейн к-та множеств корреляции (совокуп-го коэф-та корреляции), кот можно опр-ть ч/з матрицу парных к-тов коррел-ции. Ryx1..xp=корень из (1- ∆К/ ∆К11). ∆К-опр-ль матрицы парных к-тов корреляции, ∆К11- опред-ль матрицы межфакт-й корреляции. Для Ур-я y=a+b1*x1+b2*x2 ∆К= 1 rx1х2 rх1x3 rx1у ∆К11= 1 rx1х2 rх1x3 rх2x1 1 rx2х3 rx2у rх2x1 1 rx2х3 rх3x1 rx3x2 1 rx3у rх3x1 rx3x2 1 ryx1 rуx2 rуx3 1 Множественный коэф-т корреляции(rx1,x2 =[∑(х1i-х1ср)*(х2i-х2ср)]/[корень из ∑(х1i-х1ср)^2*корень из ∑(х2i-х2ср)^2] 17. Сравнение 2-х регрессий. Тест Чоу. Пусть момент (период) времени t* сопровождается значительными изменениями ряда факторов, оказывающих сильное воздействие на изучаемый показатель уt. Чаще всего эти изменения вызваны изменениями в общеэкономической ситуации. Если исследуемый временной ряд вклю­чает в себя соответствующий момент (период) времени, то одной из задач его изучения становится выяснение вопроса о том, зна­чимо ли повлияли общие структурные изменения на характер этой тенденции. Если это влияние значимо; то для моделирования тенденции данного временного ряда следует использовать кусочно-линейные модели регрессий, т. е. разделить исходную совокупность на две подсовокупности (до момента времени t* и после) и построить отдельно по каждой подсовокупности уравнения линейной регрессии (на рис. этим уравнениям соответствуют прямые (1) и (2)). Если структурные изменения незначительно повлияли на характер тенденции ряда yt, то ее можно описать с помощью единого для всей совокупности данных уравнения тренда (прямая (3)). Шпора: Эконометрика Каждый из описанных выше подходов имеет свои положи­тельные и отрицательные стороны. При построении кусочно-ли­нейной модели происходит снижение остаточной суммы квадра­тов по сравнению с единым для всей совокупности уравнением тренда. Однако разделение исходной совокупности на две части ведет к потере числа наблюдений и, следовательно, к снижению числа степеней свободы в каждом уравнении кусочно-линейной модели. Очевидно, что выбор одной из двух моделей (кусочно-линейной или единого уравнения тренда) будет зависеть от соот­ношения между снижением остаточной дисперсии и потерей числа степеней свободы при переходе от единого уравнения рег­рессии к кусочно-линейной модели. Условные обозначения для алгоритма теста Чоу
№ уравне­нияВид урав­ненияЧисло наблюдений в совокуп­ностиОстаточная сумма квадратовЧисло пара­метров в уравненииЧисло степе­ней свободы остаточной дисперсии
Кусочно-линейная модель
(1)Y=a1+b1*tn1C1остk1n1 – k1
(2)Y=a2+b2*tn2С2остk2n2-k2
Уравнение тренда по всей совокупности
(3)Y=a3+b3*tnС3остk3n-k3=(n1+n2)-k3
Тест ЧОУ предполагает расчет параметров уравнений трендов, графики ко­торых изображены на рис. прямыми (1), (2) и (3). Выдвинем гипотезу о структурной стабильности тенден­ции изучаемого временного ряда. Остаточную сумму квадратов по кусочно-линейной модели (Cкл ост) можно найти как сумму С1ост и С2ост: Соответствующее ей число степеней свободы составит: (n1-k1)+(n2-k2)=(n-k1-k2) Тогда сокращение остаточной дисперсии при переходе от единого уравнения тренда к кусочно-линейной модели можно определить следующим образом: изм Сост=С3ост-Скл ост Число степеней свободы, соответствующее изм Сост, будет равно: n-k3-(n-k1-k2)=k1+k2-k3 Далее опре­деляется фактическое значение F-критерия по следующим дис­персиям на одну степень свободы вариации: F факт=ДизмС/Дкл=(измСост:(k1+k2-k3))/(Скл ост:(n-k1-k2) Если Fфакт>Fтабл, то гипотеза о структурной стабильности тенденции отклоняется, а влияние структурных изменений на динамику изучаемого показателя признают значимым. Выбираем кусочно-линейную модель. Если Fфакт<Fтабл, то нет оснований отклонять гипотезу о струк­турной стабильности тенденции. Ее моделирование следует осу­ществлять с помощью единого для всей совокупности уравнения тренда. Особенности применения теста Чоу: 1. Если число параметров во всех уравнениях (1), (2), (3) (см. рис. и табл. 5) одинаково и равно, то формула упро­щается: Fфакт=(измСост:k)/(Cкл ост:(n- 2k)) 2. Тест Чоу позволяет сделать вывод о наличии или отсутст­вии структурной стабильности в изучаемом временном ряде. Если Fфакт<Fтабл это означает, что уравнения (1) и (2) описыва­ют одну и ту же тенденцию, а различия численных оценок их па­раметров а1 и а2, а также b1 и b2 соответственно статистически не­значимы. Если Fфакт>Fтабл гипотеза о структурной ста­бильности отклоняется, что означает статистическую значимость различий оценок параметров уравнений (1) и (2). 3. Применение теста Чоу предполагает соблюдение предпо­сылок о нормальном распределении остатков в уравнениях (1) и (2) и независимость их распределений. 18. Фиктивные переменные (ФП) в уравнении множественной регрессии (МР). Иногда необходимо включить в модель фактор, имеющий качественную характеристику (пол, профессия). Т.к. эти пер-е не поддаются колич оценке им нужно присвоить им цифровые метки, т.е. преобразовать качественные переменные в количественные = «Фиктивные переменные», или «структурные переменные».
ABCDE
1iX1i возраст машиныX2i маркаY к-во дней работы без ремонтаYteor
211Москвич10
322Жигули150
....
212010Тойота1000
Если (С2= «Москвич»;1; если (С2= «Жигули»;2;.()))). В новом столбце названия заменяются цифрами. Сервис/анализ данных/регрессия – Находим У теор. У теор (x1i,x2i) = a*+b1**x1i+b2**x2i. Можно улучшить качество уравнения за счет введения дополнительных фиктивных переменных. Количество переменных = число градаций -1. Т.е. пусть марок машин 4. Тогда вводим 4-1 = 3 фиктивные переменные. Х22i = 1,если марка=2 = 0, в противном случае; Х23i=1,если марка = 3, =0, в противном случае Х24i = 1, если марка =4, = 0, в противном случае. Т.е. вместо столбца «С» вводим три новых столбца Х22i Х23i Х24i. Т.е. вместо второй переменной вводим три фиктивные переменные. Y teor = a*+b1**x1i+b22**x22i+b23**x23i+b24**x24i. Чтобы модель была хорошая, нужно, чтобы Fфакт был больше Fтабл, при £=0,05 и 1-£=0,95 при v1=m, v2=n-m-1 Если в регрессии получаются такие данные: Р значения У пересечение a* 0,02 Переменная 1 b1* 0,54 Переменная 2 b2* 0,06 Переменная 3 b3* 0,08 Переменная 4 b4* То 1му коэффициенту можно верить с вероятностью 1-0,02= 0,98, 2й коэффициент незначим, т.к. вероятность очень низкая 1-0,54 = 0,46. Если все коэффициенты меньше 0,05, то модель хорошая. Также для улучшения модели включаем логарифмы: вместо У теор находим ln У теор по той же формуле. Еще более точное значение можно получить: ln У теор = a*+b1**x1i+b2**x2i+b3**x3+b4*x2i^2 Модель улучшается, когда значение Rквадрат (из таблицы регрессии) улучшается (приближается к 1), При этом значения У теор при фиктивных переменных приближены к реальным значениям. Среди моделей с ФП наибольшими прогностическими возможностями обладают модели, в которых зависимая переменная у рассматривается как функция ряда экономических факторов xi и фиктивных переменных zi (отражают различия в формировании результативного признака по отдельным группам единиц совокупности, т.е. в результате неоднородной структуры пространственного или временного характера.) 19. Системы одновременных (взаимозависимых, совместных) уравнений. Структурная и приведенная форма модели. Структурная форма модели = система одновременных уравнений: одни и те же зависимые пер-е в одних ур-ях входят в левую часть, а в др – в правую часть системы, т.е. одни и те же пре-е (у) одновременно рассм-ся как зависимые в одних ур-ях, и как независимые в др. СФМ содержит эндогенные (у-зависимые пер-е, их число = числу ур-й в системе) и экзогенные пер-е (х-предопределенные пер-е, влияющие на эндогенные, но независящие от них). Простейшая СФМ имеет вид: система ур-й: у1=b12y2+a11x1+эпсилон1 и y2=b21y1+a22x2+эпсилон2. СФМ позволяет увидеть влияние изм-й любой экзогенной пер-й на знач-я эндогенной. СФМ в правой части содержит коэф-ты: при у – bi, при х – aj, которые наз-ся структурными коэф-ми модели. Все пер-е выражены в отклонениях от среднего уровня, т.е. под х и у подразумевается, соответственно, х=х-хср, у=у-уср. Следовательно, нет свободных членов. Т.к. исп-е МНК для оценивания стр-х коэф-тов невозможно (смещенные и несостоятельные оценки), СФМ преобразуется в ПФМ. ПФМ представляет собой систему линейных функций эндогенных пер-х от экзогенных. Коэф-ты ПФМ представляют собой нелинейные функции коэф-тов СФМ. Для СФМ вида: система Ур-й: у1=b12y2+a11x1 и y2=b21y1+a22x2; ПФМ имеет вид: система Ур-й: у1=сигма11*х1+сигма12*x2 и y2=сигма21*х1+сигма22x2, где сигмаij выражена из aj и bi. Для примера найдем первое Ур-е из ПФМ. Выразим из первого Ур-я СФМ у2. у2=(у1-а11х1)/b12. Подставим значение у2 во второе Ур-е СФМ и получим: (у1-а11х1)/b12=b21у1+а22х2. Из данного равенства выражаем у1=[а11/(1-b12*b21)]*х1+[а22*b12/(1-b12*b21)]*х2. Пусть [а11/(1- b12*b21)]=сигма1, а [а22*b12/(1-b12*b21)]=сигма2, тогда получим Ур-е ПФМ вида у1=сигма11*х1+сигма12*x2 (первое Ур-е системы ПФМ). Аналогично находится второе Ур-е системы ПФМ. ПФМ хотя и позволяет получить знач-я эндогенных пер-х через знач-я экзогенных, аналитически уступает СФМ, т.к. в ней отсутствуют оценки взаимосвязей между эндогенными пер-ми. 20. Проблемы идентификации м/у СФМ и ПФМ. Достаточное и необходимое условие идентификации. При переходе от ПФМ к СФМ сталкиваются с проблемой идентификации. Идентификация - это единственность соответствия м/у приведенной и структурной формами модели. В шир смысле - это соотв-е нек модели реальн об-ту. n(n-1)+n*m=n(n-1+m).В общем сл кол-во переменных 1 больше чем 2. Проблема восстановления коэффициентов 1 модели по коэфф-там 2й. = проблема спецификации. Коэф-ты приведенной формы модели всегда известны, их м найти МНК. Если кол-во перем-ых в СФМ > чем в ПФМ, то модель неидентифицируема, если их кол-во равн, то однозначно идентифицируема, если кол-во перем-ых в СФМ < чем в ПФМ, то имеет место неоднозначность, т.е. мы можем найти коэф-ты СФМ разными способами. Для опр-я коэф-тов просто идентиф-мых ур-ний примен-ся косв метод наим квадратов, для опр-я коэф-тов сверхидентифицир-мых ур-ний примен-ся двухшаговый метод МНК. 1. Необходимое ус-е - счетное правило идентификации. Рассм-ся кажд ур-е. Обознач-ся через Н кол-во эндогенных переменных, вход-щих в дан ур-е; D кол-во экзогенных перем-ых, вход-щих в дан ур-е. Если D+1<H, то ур-е неидентифицируемо. Если D+1=H, ур-е явл подозрительным на то, что оно точно идентифицируемо. Если D+1>H, ур-е явл сверхидентифицируемым. Пример (система из 3-х ур-ний). y1 = b12*y2 + b13*y3 + a11*x1 + a12*x2 здесь H=3 D=4-2=2 y2 = b21*y1 + a21*x1 + a22*x2 + a23*x3 здесь H=2 D=1 y3 = b31*y1 + b32*y2 + a33*x3 + a34*x4 здесь H=3 D=2 Если в в системе ур-ний все ур-я явл просто идентиф-ми, то система наз-ся просто идентифицир-мой. Если хотя бы одно сверхидентифицируемо вся система сверхидентифиц-ма, если хотя бы одно неидентиф-мо вся система неидентиф-ма. 2. Достаточное ус-е идентификации системы (модели). Рассм-ся кадж ур-е и для него составл-ся матрица, состоящая из коэф-тов при переменных, отсут-щих в дан ур-нии. Определитель этой матрицы не д.б. равен нулю и ее ранг д.б. равен кол-ву эндогенных перем-ых, входящих в систему ур-ний за вычетом 1-цы. Тогда данное ур-е просто идентиф-мо. Например, для 1-го ур-я из вышеприведенной системы: |A|= | a23 0 | | A33 a34| = a23*a34-0*a33 это скорее всего не равно нулю Ранг матрицы это максимальное кол-во линейно независимых строк/ столбцов, значит ранг А=2. Кол-во эндогенных перем-ых = 3 (3-1=2), значит ур-е явл точно идентиф-мым. 21. Косвенный МНК КМНК прим-ся в случае точно идентифицир-й структур-ой модели. Этапы примен-я: 1. По структур-й форме модели формальным образом выписывается приведенная форма модели. 2. Для каждого урав-я привед-й формы модели обычным МНК оцен-ся приведенный коэф-ты. 3. Коэф-ты прив-ой формы модели транс-ся в параметры структурной модели. Пример: Y1=b12y2+a11x1+e1, Y2=b21y1+a22x2+e2.
Y1Y2X1X2
12513
23621
34732
45825
56546
Среднее46,22,43,4
Приведенная форма модели составит: Y1=d11x1+d12x2+u1, Y2=d21x1+d22x2+u2. Где u1, u2 – случ-е ошибки приведенной формы модели Для каждого ур-я привед-й формы модели прим-ем традиционный МНК и опр-ем коэф-ты d (которые становятся числами). Т.о. приведенная форма модели имеет вид: у1=0,852х1+0,373х2+u1 у2= -0,072х1-0,00557х2+u2 Далее переходим от приведенной формы модели к структур-й. Для этого из первого ур-я приведенной формы модели надо искл-ть х2, выразив его из второго ур-я привед-й формы и подставив в первое: Х2=(у2-сигма20-сигма21*х1)/сигма22 Подставляем в уравнение первое ПФМ и получаем: у1=сигма10+сигма11*х1+сигма12*[ Х2=(у2-сигма20-сигма21*х1)/сигма22]. После преобразований получаем: у1=[сигма10-сигма12(сигма20/сигма22)]+[сигма12/сигма22]*у2+[сигма11- сигма12*(сигма21/сигма22)]*х1 [сигма10-сигма12(сигма20/сигма22)]=с1 [сигма12/сигма22]=сигма12 [сигма11-сигма12*(сигма21/сигма22)]=а11 Аналогично получаем у2, и соответственно коэф-ты при втором уравнении. 22. Двухшаговый метод наименьших квадратов. Если система сверхидентифицируема, то КосвМНК не использ, т.к. не дает однозначных оценок для параметров структурной модели. Тогда ДМНК: на основе приведенной формы модели получить для сверхидентифицируемого уравнения теор значения эндогенных переменных, содержащихся в правой части уравнения. Далее, подставив их вместо фактических значений можно исп обычный МНК к структурной форме сверхиден уравнения. Т.е. дважды используется МНК Pt=σ20+σ21*Rt+σ22*Yt+σ23*Yt-1+Vt Qt= σ10+σ11*Rt+σ12*Yt+σ13*Yt-1+Ut 2. Для определения к-тов простоиден ур-ний – косвенный метод 3. Для определения к-тов сверхиден уравнений: в каждом ур-нии выявляем эндогенные переменные, нах-ся в правой части уравнения и заменяем теоретическим значением, вычисленным по приведенной форме. Так со всеми эндогенными переменными правой части. 4. Компануем все переменные, включая экзогенные, входящие в правую часть - они будут векторами иксов. Переменная в левой части = У. Применяем МНК для определения а1, а2, а3. Qt=a1+a2*Pt+a3*Pt+e1t сверх Pt=b1+b2*Qt+b3*Yt+b4*Yt-1+e2t просто Выражаем: Pt=( Qt-σ10-σ2*Yt-σ13*Yt-1-Ut)/ σ11 23. Предпосылки применения метода наименьших квадратов (МНК). При оценке параметров Ур-я регрессии - МНК. при этом делаются предпосылки отн-но случ сост-щей «E». В модели y=a+b1*x1+b2*x2+.+bp*xp+e е= ненаблюдаемая величина. Делается предположение о поведение остатков еi-это независимые случ-е величины и их ср знач =0 они имеют одинаковую дисперсию и подчиняются норм-му распределению. Оценки параметров регрессии при МНК должны отв-ть след треб-м: дБ несмещенными (матем ожидание остатков =0), дБ эффективными (хар-ся наименьшей дисперсией), дБ состоятельными (увеличение их точности с увеличением выборки). МНК строит оценки регрессии на основе минимизации суммы квадратов остатков. Важно ислед поведение остаточных величин регрессии ei. Условия, необх для получения несмещ, эфф, сост оценок = предпосылки МНК, соблюдение которых желательно для получения достоверного результата регрессии. Исследование остатков ei предп-т проверку наличия след предпосылок МНК: -случ-й характер остатков -нулевая средняя величина остатков, не зависящая от xi -гомоскедастичность - те дисперсия каждого отклонения ei одинакова для всех знач х -отсутствие автокорреляции остатков, те распределены независимо др от друга -остатки подчиняются нормальному распределению. Если не исполн-ся хотя бы 1 предп-ка, то нужно корректировать модель. 1 предпосылка: строим график зависимости остатков ei от теор знач результативного признака. Если на графике горизонт-я полоса, то ост-ки = случайные величины и МНК оправдан. 2 означает, что ∑(y-yтеор)=0. Это выполнимо для линейных моделей, затем строится график анал-но. График зависимости сл остатков от факторов х. Если горизонтальная полоса – независимы, модель адекватна. Для 5 позволяет проводить проверку параметров регрессии и корреляции с помощью критерия F. 3 если это условие не собл-ся то имеет место гетероскедантичность (дисперсия остатков растет по мере увелич х , дисперсия остатков достиг-т макс величины при ср знач перем х и уменш при мин и макс знач). Ведет к смещенности оценок. Чтобы оценить нарушение гомоскед-ти можно сделать параметрический тест, шаги: 1Упорядочение n наблюдений по мере возрастания переменной х 2Исключение из рассм-я С центральных наблюдений, при этом (n-С):2>p, где р - число оцениваемых параметров 3Разд-е совок-ти из (n-С) набл-й на 2 группы (с малым и большим знач фактора х) и определение по каждой из групп уравнений регрессии 4Опр-е остаточной суммы квадратов для 1-й (S1) и 2-й (S2) групп и нахождение их отношения: R=S1/S2. Чем больше величина R превышает табл знач F-критерия тем более нарушена предпосылка о равенстве дисперсий остаточных величин. 4. автокорреляция = наличие корреляции между остатками текущих и предыдущих (последующих) наблюдений. К корреляции между ei и ej, где ej -остатки предыдущих наблюдений j=i-1 может быть определен как reiej= cov(ei,ej)/σei*σej Т.е. по обычной формуле линейного коэффициента корреляции. Если он окажется существенно отличен от нуля, то остатки автокоррелированы и функция плотности вероятности зависит от житой точки наблюдения и от распределения остатков в других точках наблюдения. Отсутствие автокорреляции остаточных величин обеспечивает состоятельность и эфф-ть оценок коэф-тов регрессии. 24. Коэффициент ранговой корреляции Спирмена (КРКС). Иногда нужно установить связь не только между 2мя колич. Переменными, но между ординальными (порядковыми) переменными – качество жилья, оценки экз. Тогда объекты анализа ранжируют по степени выраженности измеряемых переменных. Каждому объекту присваивается № (ранг).Напр, объекту с наименьшим проявлением признака – ранг 1, следующему – ранг 2. Если объекты ранжированы по 2м признакам, то можно оценить тесноту связи, основываясь на рангах (тесноту ранговой корреляции). КРКС находится по формуле p=1-[(6∑ i от 1 до n (ri-si)^2)/n^3-n)] Где ri, si - ранги i-го объекта по переменным Х и У; n-число пар наблюдений. Если ранги всех объектов равны (ri=si, i=1,2,.,n), то p=1. Т.е. при полной прямой связи p =1. При полной обратной связи, когда ранги объектов по двум переменным расположены в обратном порядке, можно показать, что p=-1. Во всех остальных случаях |p|<1. При ранжировании иногда невозможно найти существенные различия между объектами по величине проявления рассматриваемого признака: объекты оказываются связанными. Им приписывают одинаковые средние ранги так, чтобы сумма всех рангов оставалась такой же, как при отсутствии связанных рангов. Например, если 4 объекта оказались равнозначными в отношении рассматриваемого признака и невозможно определить, какие из 4х рангов (4,5,6,7) приписать этим объектам, то каждому приписывается средний ранг, равный (4+5+6+7)/4=5,5. В модификациях формула на связанные ранги вводятся поправки. При проверке значимости p исходят из того, что в случае справедливости нулевой гипотезы об отсутствии корреляционной связи между переменными при n>10 статистика t=(p*корень из (n-2))/(корень из (1-p^2)) имеет t-распределение Стьюдента с (n-2) степенями своды. Поэтому p значим на уровне а при числе степеней свободы (n-2) Ранговый коэфф корреляции ρ может быть использован и для оценки тесноты связи между обычными колич переменными. Достоинство ρ здесь - его нахождение не требует нормального распределения переменных, линейной связи между ними. Но нужно учитывать, что при переходе от первоначальных значений переменных к их рангам происходит определенная потеря информации. Чем теснее связь, тем чем меньше корр зависимость между переменными отличается от линейной, тем ближе КРКС ρ к коэффициенту парной корреляции r. 25. Тест Голфелда-Квандта о наличии гетероскедастичности. Гетероскедастичность – это свойство стохастической компоненты регрессии, выражающееся в том, что их дисперсия (а, следовательно, разброс значений ошибок) не является постоянной. Следствие гетероскедастичности – найденные оценки коэффициентов регрессии больше не представляют собой наилучшие оценки с наименьшей дисперсией. В результате значение критерия проверки значимости коэффициентов будет искажено: при отрицательном смещении дисперсий он будет неосновательно завышен, при положительном – занижен, что повлечет за собой неверные выводы о значимости оценок коэффициентов регрессии. Тест Голдфелда-Квандта применяют, если есть предположение о прямой зависимости дисперсии ошибки от величины некоторой независимой переменной модели. Для этого надо действовать по следующему алгоритму: 1) все наблюдения упорядочиваются по величине независимой переменной, относительно которой есть подозрение на гетероскедастичность; 2) остатки в этой упорядоченной совокупности делят на две равных группы, при чем находящиеся посредине между ними d наблюдений исключаются из рассмотрения (d обычно равно около четверти от общего количества наблюдений); 3) рассчитывается две независимых регрессии по первой и второй группе, количество наблюдений в которых составляет n/2–d/2 (при этом должно быть n/2 – d/2 > k + 1, где k – число независимых переменных), и находятся соответствующие остатки для первой и для второй регрессии е1 и е2; 4) если предположение о прямой зависимости дисперсии ошибки от величины данной независимой переменной верно, то в первой группе сумма квадратов остатков (а значит и их дисперсия) будет меньше, чем во второй; затем рассчитывают критерий Голдфелда-Квандта: в случае предположения прямой пропорциональности между величиной дисперсии отклонений и значением независимой переменной сумму квадратов остатков во второй группе делят на сумму квадратов остатков в первой. Рассчитанный критерий имеет F- распределение с (n/2–d/2–k) и (n/2–d/2–k) степенями свободы. В случае обратной пропорциональности дисперсии отклонений значению независимой переменной сумму квадратов остатков в первой группе делят на сумму квадратов остатков во второй, распределение критерия также имеет вид F-распределения с теми же степенями свободы. В случае, когда в модели имеет место гетероскедастичность остатков, требуется изучить взаимосвязь между значениями остатков и переменными модели, после чего скорректировать регрессионную модель таким образом, чтобы она учитывала эту взаимосвязь. 26. Модели с распределёнными лагами. Модель Койка. Можно выделить два основных типа динамических эконометрических моделей. К моделям первого типа относятся модели ав­торегрессии или модели с распределенным лагом, в которых значе­ния переменной за прошлые периоды времени (лаговые пере­менные) непосредственно включены в модель. Модели второго типа учитывают динамическую информацию в неявном виде. В эти модели включены переменные, характеризующие ожидае­мый или желаемый уровень результата, или одного из факторов в момент времени t. При исследовании экономических процессов нередко прихо­дится моделировать ситуации, когда значение результативного признака в текущий момент времени t формируется под воздей­ствием ряда факторов, действовавших в прошлые моменты вре­мени t-1,t-2...,t-l. Величину, характеризующую запаздывание в воздействии фактора на результат, называют в эконометрике лагом, а времен­ные ряды самих факторных переменных, сдвинутые на один или более моментов времени, — лаговыми переменными. Эконометрическое моделирование осуществляется с применением моделей, содержа­щих не только текущие, но и лаговые значения факторных пере­менных. Эти модели называются моделями с распределенным лагом. Модель вида уt=а + bo*xt+b1*xt-1+b2*xt-2+et является примером модели с распределенным лагом. Наряду с лаговыми значениями независимых, или фактор­ных, переменных на величину зависимой переменной текущего периода могут оказывать влияние ее значения в прошлые момен­ты или периоды времени. Эти процессы обыч­но описывают с помощью моделей регрессии, содержащих в ка­честве факторов лаговые значения зависимой переменной, кото­рые называются моделями авторегрессии. Модель вида уt=а + bo*xt+c1*yt-1+et относится к моделям авторегрессии. Очевидно, что параметры такой модели обычным МНК или с помощью иных стандартных статистических методов определить нельзя. Впервые подход к оценке параме­тров моделей с распределенным лагом был предложен Л.М. Койком. Койк предположил, что существует некоторый постоянный темп l (0 < l < 1) уменьшения во времени лаговых воздействий фактора на результат. Если, например, в период t ре­зультат изменялся под воздействием изменения фактора в этот же период времени на bo ед., то под воздействием изменения фак­тора, имевшего место в период (t — 1), результат изменится на bo • l ед.; в период (t — 2) — на bo • l• l ед., и т. д. В более общем виде можно записать: Bj=bo*l; j=0,1,2,..., 0<l< I Ограничение на значения l > О обеспечивает одинаковые зна­ки для всех коэффициентов bj > 0, а ограничение l < 1 означает, что с увеличением лага значения параметров модели убы­вают в геометрической прогрессии. Чем ближе l к 0, тем выше темп снижения воздействия фактора на результат во времени и тем большая доля воздействия на результат приходится на теку­щие значения фактора хt. Выразим все коэффициенты bj, в модели через bo и l: Тогда для периода (t— 1) модель можно записать следу­ющим образом: Уt- 1=a+bo•xt-1+bo•l•xt-2+bo•l•xt-3+ ... + l*et-1 Умножим обе части модели на l. Преобразования приводят, нас к получению модели Койка: уt=а •(1 - l) +bo*хt,+ (1 - l) •уt-1 + ut, где ut=et-l*et-1 Полученная модель есть модель двухфакторной линейной ре­грессии (точнее — авторегрессии). Определив ее параметры, мы найдем l и оценки параметров а и bo исходной модели. Далее с помощью соотношений несложно определить параметры, b1,b2... модели. Отметим, что применение обычного МНК к оценке параметров модели приведет к получению сме­шенных оценок ее параметров ввиду наличия в этой модели в ка­честве фактора лаговой результативной переменной yt-1 Описанный выше алгоритм получил название преобразова­ния Койка. Это преобразование позволяет перейти от модели с бесконечными распределенными лагами к модели авторегрес­сии, содержащей две независимые переменные хt и yt-1 27. Модели Ш. Алмон. Модели с распределенным лагом. Общий вид: Yt=a+b0*xt+b1*xt-1+.+bp*xt-p+Er Эта модель показывает, что если в некоторый момент времени t происходит изменение независимой переменной х, то это изменение будет влиять на значение переменной у в течение l следующих моментов времени. Лаги, структуру которых можно описать с помощью полиномов , называют лагами Алмон. Предположим, что в модели – полиноминальная структура лага, т.е. зависимость коэффициентов регрессии bi от величины лага описывается полиномом k–той степени. Формально модель зависимости коэффициентов bj от величины лага j в форме полинома можно записать так: Для полинома 1й степени bj=c0+c1j Для полинома 2й степени bj=c0+c1j+c2j^2 Для полинома 3й степени bj=c0+c1j+c2j^2+c3j^3 В наиболее общем виде для полинома k-й степени имеем: bj=c0+c1j+c2j^2+.+ckj^k Тогда каждый из коэффициентов модели можно выразить: (1) b0=c0; b1=c0+c1+.+ck; b2=c0+2c1+4c2+.+2^k*ck; b3=c0+3c1+9c2+.+3^k*ck; .bl=c0+lc1+l^2c2+.+c^k*ck Подставляем в общим вид модели найденные соотношения, перегруппировываем слагаемые и обозначаем слагаемые в скобках перед Ci как новые переменные: (2) z0=xt+x t-1+x t-2+ .+x t-l=∑(от j=o до l) x t-j z1=xt-1+2x t-2+3x t-3+ .+l*x t-l=∑(от j=1 до l) j*x t-j z2=xt-1+4x t-2+9x t-3+ .+l^2*x t-l=∑(от j=1 до l) j^2*x t-j .... zk=xt-1+2^k*x t-2+3^k*x t-3+ .+l^k*x t-l=∑(от j=1 до l) j^k*x t-j Перепишем модель с учетом полученных соотношений: (3) yt=a+c0*z0+c1*z1+c2*z2+.+ck*zk+Er Процедура применения для расчетов параметров модели с распределенным лагом: 1. Определяется максимальная величина лага 2. Определяется степень полинома k, описывающего структуру лага 3. по соотношениям (2) рассчитываются значения переменных 4. определяются параметры уравнения линейной регрессии (3) 5. по (1) рассчитываются параметры исходной модели с распределенным лагом. Проблемы: 1. величина лага l должна быть известна заранее. Если выбрать меньший лаг, чем реальный, то в модели регрессии не будет учтен фактор, оказывающий значительное влияние на результат . Если выбрать больший, то в модель включится статистически незначимый фактор. Величина лага определяется измерением тесноты связи между результатом и лаговым значением фактора. 2. Необходимо установить степень полинома k. Она должна быть на единицу больше числа экстремумов в структуре лага. Определяется сравнением моделей, построенных для различных значений К, выбирается наилучшая модель. 3. переменные зет будут коррелировать между собой, когда наблюдается высокая связь между самими исходными переменными. Преимущества: 1. универсален, может быть применен для моделирования процессов, которые характеризуются разнообразными структурами лагов. 2. При относительно небольшом кол-ве переменных в (3) (обычно выбирают к=2 или к=3), которое не приводит к потере значительного числа степеней свободы, с помощью метода Алмон можно построить модели с распределенным лагом любой длины.


© 2007
Использовании материалов
запрещено.