Основы эконометрического анализа
Ознакомление с основами модели простой регрессии. Рассмотрение основных элементов эконометрической модели. Характеристика оценок коэффициентов уравнения регрессии. Построение доверительных интервалов. Автокорреляция и гетероскедастичность остатков.
Рубрика | Экономико-математическое моделирование |
Вид | лекция |
Язык | русский |
Дата добавления | 23.12.2014 |
Размер файла | 347,3 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
В случае если основная гипотеза окажется неверной, мы принимаем альтернативную. Для проверки этой гипотезы используется t-критерий Стьюдента.
Найденное по данным наблюдений значение t-критерия (его еще называют наблюдаемым или фактическим) сравнивается с табличным (критическим) значением, определяемым по таблицам распределения Стьюдента (которые обычно приводятся в конце учебников и практикумов по статистике или эконометрике).
Табличное значение определяется в зависимости от уровня значимости (б) и числа степеней свободы, которое в случае линейной парной регрессии равно (n-2), n-число наблюдений.
Если фактическое значение t-критерия больше табличного (по модулю), то основную гипотезу отвергают и считают, что с вероятностью (1-б) параметр или статистическая характеристика в генеральной совокупности значимо отличается от нуля.
Если фактическое значение t-критерия меньше табличного (по модулю), то нет оснований отвергать основную гипотезу, т.е. параметр или статистическая характеристика в генеральной совокупности незначимо отличается от нуля при уровне значимости б.
tкрит (n-m-1;б/2) = (97;0.025) = 1.984
EQ t = \f(b;S)
EQ t = \f(3.84;0.7) = 5.53
Отметим значения на числовой оси.
Отклонение H0, принятие H1 |
Принятие H0 |
Отклонение H0, принятие H1 |
|
2.5% |
95% |
2.5% |
|
-1.984 1.984 |
5.53 |
Поскольку 5.53 > 1.984, то статистическая значимость коэффициента регрессии b подтверждается (отвергаем гипотезу о равенстве нулю этого коэффициента).
EQ t = \f(a;S)
EQ t = \f(-42.1;11.31) = 3.72
Поскольку 3.72 > 1.984, то статистическая значимость коэффициента регрессии a подтверждается (отвергаем гипотезу о равенстве нулю этого коэффициента).
Доверительный интервал для коэффициентов уравнения регрессии.
Определим доверительные интервалы коэффициентов регрессии, которые с надежность 95% будут следующими:
(b - tкрит Sb; b + tкрит Sb)
(3.84 - 1.984 * 0.7; 3.84 + 1.984 * 0.7)
(2.462;5.221)
С вероятностью 95% можно утверждать, что значение данного параметра будут лежать в найденном интервале.
(a - tкрит Sa; a + tкрит Sa)
(-42.102 - 1.984 * 11.31; -42.102 + 1.984 * 11.31) (-64.538;-19.667)
С вероятностью 95% можно утверждать, что значение данного параметра будут лежать в найденном интервале.
2) F-статистика. Критерий Фишера.
Коэффициент детерминации R2 используется для проверки существенности уравнения линейной регрессии в целом.
Проверка значимости модели регрессии проводится с использованием F-критерия Фишера, расчетное значение которого находится как отношение дисперсии исходного ряда наблюдений изучаемого показателя и несмещенной оценки дисперсии остаточной последовательности для данной модели.
Если расчетное значение с k1=(m) и k2=(n-m-1) степенями свободы больше табличного при заданном уровне значимости, то модель считается значимой.
EQ R = 1 - \f(?ix2; ?i2) = 1 - \f(174252.81;229104.81) = 0.2394
где m - число факторов в модели.
Оценка статистической значимости парной линейной регрессии производится по следующему алгоритму:
1. Выдвигается нулевая гипотеза о том, что уравнение в целом статистически незначимо: H0: R2=0 на уровне значимости б.
2. Далее определяют фактическое значение F-критерия:
EQ F = \f(R;1 - R)\f((n - m -1);m)
EQ F = \f(0.2394;1 - 0.2394)\f((99-1-1);1) = 30.53
Где
m=1 для парной регрессии.
3. Табличное значение определяется по таблицам распределения Фишера для заданного уровня значимости, принимая во внимание, что число степеней свободы для общей суммы квадратов (большей дисперсии) равно 1 и число степеней свободы остаточной суммы квадратов (меньшей дисперсии) при линейной регрессии равно n-2.
Fтабл - это максимально возможное значение критерия под влиянием случайных факторов при данных степенях свободы и уровне значимости б. Уровень значимости б - вероятность отвергнуть правильную гипотезу при условии, что она верна.
Обычно б принимается равной 0,05 или 0,01.
4. Если фактическое значение F-критерия меньше табличного, то говорят, что нет основания отклонять нулевую гипотезу.
В противном случае, нулевая гипотеза отклоняется и с вероятностью (1-б) принимается альтернативная гипотеза о статистической значимости уравнения в целом.
Табличное значение критерия со степенями свободы k1=1 и k2=97, Fтабл = 3.92
Отметим значения на числовой оси.
Принятие H0 |
Отклонение H0, принятие H1 |
|
95% |
5% |
|
3.92 |
30.53 |
Поскольку фактическое значение F > Fтабл, то коэффициент детерминации статистически значим (найденная оценка уравнения регрессии статистически надежна).
Связь между F-критерием Фишера и t-статистикой Стьюдента выражается равенством:
EQ t = t = \r(F) = \r(30.53) = 5.53
Показатели качества уравнения регрессии.
Показатель |
Значение |
|
Коэффициент детерминации |
0.24 |
|
Средний коэффициент эластичности |
3.67 |
|
Средняя ошибка аппроксимации |
92.83 |
2.2 Задание 2
Имеются данные о продаже трехкомнатных квартир на рынке жилья в Кемерово на 24 августа 2004 года (табл. 12)
1. Постройте матрицу парных коэффициентов корреляции.
2. Постройте парные уравнения регрессии, оцените их статистическую значимость и их параметров с помощью критериев Фишера и Стьюдента.
3. Постройте модель формирования цены квартиры за счет значимых факторов.
4. Существует ли разница в ценах квартир, расположенных в Центральном районе и в периферийных районах Кемерово?
N - номер по порядку; price- цена квартиры (тыс. руб.);
totsp - общая площадь квартиры (м2);
ivesp - жилая площадь квартиры (м2);
kitsp - площадь кухни (m2);
flоог - этаж: 1 - крайний этаж.
0 - средний этаж;
balk - наличие балкона/лоджии:
1 - квартира с балконом/лоджией,
0 - квартира без балкона/лоджии,
raion - квартира расположена в:
1 - Центральном р-не,
2 - Ленинском р-не,
3 - Заводском р-не.
Уравнение множественной регрессии может быть представлено в виде:
Y = f(в, X) + е
где X = X(X1, X2, ..., Xm) - вектор независимых (объясняющих) переменных; в - вектор параметров (подлежащих определению); е - случайная ошибка (отклонение); Y - зависимая (объясняемая) переменная.
Теоретическое линейное уравнение множественной регрессии имеет вид:
Y = в0 + в1X1 + в2X2 + ... + вmXm + е
в0 - свободный член, определяющий значение Y, в случае, когда все объясняющие переменные Xj равны 0.
Прежде чем перейти к определению нахождения оценок коэффициентов регрессии, необходимо проверить ряд предпосылок МНК.
Предпосылки МНК.
1. Математическое ожидание случайного отклонения еi равно 0 для всех наблюдений (M(еi) = 0).
2. Гомоскедастичность (постоянство дисперсий отклонений). Дисперсия случайных отклонений еi постоянна: D(еi) = D(еj) = S2 для любых i и j.
3. отсутствие автокорреляции.
4. Случайное отклонение должно быть независимо от объясняющих переменных: Yeixi = 0.
5. Модель является линейное относительно параметров.
6. отсутствие мультиколлинеарности. Между объясняющими переменными отсутствует строгая (сильная) линейная зависимость.
7. Ошибки еi имеют нормальное распределение. Выполнимость данной предпосылки важна для проверки статистических гипотез и построения доверительных интервалов.
Эмпирическое уравнение множественной регрессии представим в виде:
Y = b0 + b1X1 + b1X1 + ... + bmXm + e
Здесь b0, b1, ..., bm - оценки теоретических значений в0, в1, в2, ..., вm коэффициентов регрессии (эмпирические коэффициенты регрессии); e - оценка отклонения е.
При выполнении предпосылок МНК относительно ошибок еi, оценки b0, b1, ..., bm параметров в0, в1, в2, ..., вm множественной линейной регрессии по МНК являются несмещенными, эффективными и состоятельными (т.е. BLUE-оценками).
Для оценки параметров уравнения множественной регрессии применяют МНК.
1. Оценка уравнения регрессии.
Определим вектор оценок коэффициентов регрессии. Согласно методу наименьших квадратов, вектор s получается из выражения: s = (XTX)-1XTY
К матрице с переменными Xj добавляем единичный столбец:
1 |
62 |
41 |
6 |
0 |
1 |
1 |
|
1 |
86 |
54 |
10 |
0 |
1 |
1 |
|
1 |
60 |
45 |
6 |
1 |
0 |
1 |
|
1 |
58 |
44 |
6 |
1 |
0 |
1 |
|
1 |
59 |
43 |
6 |
1 |
0 |
1 |
|
1 |
57 |
43 |
6 |
0 |
1 |
1 |
|
1 |
60 |
42 |
6 |
0 |
0 |
1 |
|
1 |
80 |
50 |
9 |
1 |
0 |
1 |
|
1 |
60 |
42 |
6 |
0 |
0 |
1 |
|
1 |
57 |
39 |
6 |
1 |
1 |
1 |
|
1 |
64 |
39 |
9 |
0 |
1 |
1 |
|
1 |
61 |
43 |
6 |
1 |
0 |
1 |
|
1 |
58 |
43 |
6 |
1 |
0 |
1 |
|
1 |
58 |
43 |
6 |
1 |
0 |
1 |
|
1 |
60 |
51 |
7 |
0 |
0 |
1 |
|
1 |
88 |
54 |
10 |
1 |
1 |
1 |
|
1 |
78 |
54 |
12 |
0 |
1 |
1 |
|
1 |
87 |
57 |
12 |
1 |
0 |
1 |
|
1 |
80 |
52 |
9 |
1 |
0 |
1 |
|
1 |
55 |
40 |
6 |
1 |
0 |
1 |
|
1 |
47 |
34 |
6 |
1 |
1 |
1 |
|
1 |
47 |
34 |
6 |
1 |
1 |
1 |
|
1 |
47 |
34 |
6 |
1 |
0 |
1 |
|
1 |
47 |
34 |
6 |
1 |
1 |
1 |
|
1 |
48 |
34 |
6 |
1 |
0 |
1 |
|
1 |
62 |
45 |
6 |
1 |
0 |
1 |
|
1 |
58 |
40 |
6 |
1 |
1 |
1 |
|
1 |
56 |
40 |
6 |
1 |
0 |
1 |
|
1 |
54 |
40 |
6 |
1 |
0 |
1 |
|
1 |
57 |
41 |
6 |
0 |
1 |
1 |
|
1 |
74 |
48 |
9 |
1 |
1 |
2 |
|
1 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
47 |
33 |
6 |
0 |
1 |
2 |
|
1 |
38 |
27 |
6 |
0 |
1 |
2 |
|
1 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
60 |
45 |
6 |
1 |
0 |
2 |
|
1 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
61 |
45 |
6 |
1 |
0 |
2 |
|
1 |
62 |
45 |
6 |
1 |
1 |
2 |
|
1 |
62 |
43 |
7 |
0 |
1 |
2 |
|
1 |
69 |
47 |
9 |
0 |
1 |
1 |
|
1 |
61 |
43 |
7 |
1 |
0 |
2 |
|
1 |
64 |
43 |
7 |
0 |
0 |
2 |
|
1 |
70 |
48 |
9 |
0 |
1 |
2 |
|
1 |
95 |
51 |
1 |
0 |
0 |
2 |
|
1 |
62 |
43 |
8 |
0 |
1 |
2 |
|
1 |
63 |
43 |
7 |
0 |
1 |
2 |
|
1 |
63 |
39 |
9 |
0 |
1 |
2 |
|
1 |
74 |
48 |
7 |
1 |
0 |
2 |
|
1 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
80 |
50 |
12 |
0 |
1 |
2 |
|
1 |
63 |
39 |
9 |
1 |
1 |
2 |
|
1 |
62 |
39 |
9 |
1 |
0 |
2 |
|
1 |
62 |
39 |
9 |
0 |
0 |
2 |
|
1 |
65 |
40 |
9 |
0 |
0 |
2 |
|
1 |
66 |
39 |
9 |
1 |
1 |
3 |
|
1 |
85 |
59 |
9 |
0 |
1 |
3 |
|
1 |
82 |
50 |
11 |
0 |
0 |
3 |
|
1 |
65 |
47 |
10 |
0 |
1 |
3 |
|
1 |
64 |
47 |
8 |
0 |
1 |
3 |
|
1 |
100 |
66 |
9 |
0 |
1 |
3 |
|
1 |
80 |
52 |
10 |
0 |
1 |
3 |
|
1 |
47 |
34 |
6 |
1 |
0 |
3 |
|
1 |
48 |
33 |
6 |
1 |
0 |
3 |
|
1 |
67 |
43 |
6 |
0 |
1 |
3 |
|
1 |
57 |
41 |
7 |
0 |
1 |
3 |
|
1 |
61 |
38 |
9 |
0 |
1 |
3 |
|
1 |
53 |
35 |
6 |
1 |
0 |
3 |
|
1 |
66 |
44 |
9 |
1 |
0 |
3 |
|
1 |
57 |
43 |
6 |
1 |
0 |
3 |
|
1 |
65 |
39 |
9 |
0 |
0 |
3 |
|
1 |
90 |
60 |
7 |
0 |
1 |
3 |
|
1 |
65 |
45 |
6 |
0 |
1 |
3 |
|
1 |
74 |
36 |
9 |
1 |
0 |
3 |
|
1 |
760 |
56 |
6 |
1 |
0 |
3 |
|
1 |
60 |
43 |
6 |
1 |
0 |
3 |
|
1 |
74 |
45 |
7 |
1 |
0 |
3 |
|
1 |
80 |
50 |
9 |
1 |
0 |
3 |
|
1 |
59 |
46 |
6 |
0 |
1 |
3 |
|
1 |
59 |
37 |
8 |
1 |
0 |
3 |
|
1 |
59 |
37 |
9 |
1 |
0 |
3 |
|
1 |
45 |
33 |
6 |
1 |
0 |
3 |
Матрица Y
820 |
|
2310 |
|
1550 |
|
1530 |
|
1600 |
|
870 |
|
870 |
|
1440 |
|
1100 |
|
730 |
|
1020 |
|
800 |
|
800 |
|
750 |
|
850 |
|
1350 |
|
1350 |
|
1350 |
|
2460 |
|
1000 |
|
830 |
|
820 |
|
820 |
|
930 |
|
820 |
|
1100 |
|
870 |
|
800 |
|
980 |
|
870 |
|
870 |
|
800 |
|
790 |
|
700 |
|
740 |
|
820 |
|
830 |
|
870 |
|
850 |
|
790 |
|
990 |
|
820 |
|
980 |
|
980 |
|
1200 |
|
1130 |
|
1070 |
|
3960 |
|
860 |
|
1100 |
|
1250 |
|
910 |
|
850 |
|
900 |
|
1400 |
|
950 |
|
960 |
|
1600 |
|
1300 |
|
1150 |
|
980 |
|
1000 |
|
820 |
|
800 |
|
1250 |
|
1120 |
|
660 |
|
680 |
|
790 |
|
800 |
|
920 |
|
630 |
|
800 |
|
720 |
|
900 |
|
970 |
|
780 |
|
850 |
|
79 |
|
1200 |
|
610 |
|
670 |
|
630 |
|
700 |
|
710 |
|
520 |
Делаем матрицу XT, а затем перемножаем матрицы, (XTX)
86 |
6192 |
3751 |
625 |
51 |
36 |
168 |
|
6192 |
936314 |
284459 |
45032 |
3828 |
2360 |
12952 |
|
3751 |
284459 |
167493 |
27630 |
2165 |
1595 |
7358 |
|
625 |
45032 |
27630 |
4827 |
351 |
282 |
1240 |
|
51 |
3828 |
2165 |
351 |
51 |
10 |
95 |
|
36 |
2360 |
1595 |
282 |
10 |
36 |
71 |
|
168 |
12952 |
7358 |
1240 |
95 |
71 |
386 |
В матрице, (XTX) число 86, лежащее на пересечении 1-й строки и 1-го столбца, получено как сумма произведений элементов 1-й строки матрицы XT и 1-го столбца матрицы X
Умножаем матрицы, (XTY)
86399 |
|
5812150 |
|
3854104 |
|
630254 |
|
47509 |
|
35500 |
|
160167 |
Находим обратную матрицу (XTX)-1
0.77 |
0.000291 |
-0.0123 |
-0.0112 |
-0.11 |
-0.0512 |
-0.0363 |
|
0.000291 |
2.0E-6 |
-1.1E-5 |
1.3E-5 |
-4.2E-5 |
6.0E-6 |
-3.8E-5 |
|
-0.0123 |
-1.1E-5 |
0.000347 |
-0.000425 |
0.000918 |
0.000377 |
0.000183 |
|
-0.0112 |
1.3E-5 |
-0.000425 |
0.00444 |
0.000859 |
-0.00316 |
-0.00132 |
|
-0.11 |
-4.2E-5 |
0.000918 |
0.000859 |
0.0735 |
0.0373 |
0.0053 |
|
-0.0512 |
6.0E-6 |
0.000377 |
-0.00316 |
0.0373 |
0.0706 |
0.00292 |
|
-0.0363 |
-3.8E-5 |
0.000183 |
-0.00132 |
0.0053 |
0.00292 |
0.0186 |
Вектор оценок коэффициентов регрессии равен
Y(X) = (XTX)-1XTY =
569.36 |
|
-1.39 |
|
27.81 |
|
-20.91 |
|
-246.78 |
|
-188.75 |
|
-153.7 |
Уравнение регрессии (оценка уравнения регрессии)
Y = 569.36-1.39X1 + 27.81X2-20.91X3-246.78X4-188.75X5-153.7X6
2. Матрица парных коэффициентов корреляции R.
Число наблюдений n = 86.
Число независимых переменных в модели равно 6, а число регрессоров с учетом единичного вектора равно числу неизвестных коэффициентов.
С учетом признака Y, размерность матрицы становится равным 8.
Матрица, независимых переменных Х имеет размерность (86 х 8).
Матрица, составленная из Y и X
1 |
820 |
62 |
41 |
6 |
0 |
1 |
1 |
|
1 |
2310 |
86 |
54 |
10 |
0 |
1 |
1 |
|
1 |
1550 |
60 |
45 |
6 |
1 |
0 |
1 |
|
1 |
1530 |
58 |
44 |
6 |
1 |
0 |
1 |
|
1 |
1600 |
59 |
43 |
6 |
1 |
0 |
1 |
|
1 |
870 |
57 |
43 |
6 |
0 |
1 |
1 |
|
1 |
870 |
60 |
42 |
6 |
0 |
0 |
1 |
|
1 |
1440 |
80 |
50 |
9 |
1 |
0 |
1 |
|
1 |
1100 |
60 |
42 |
6 |
0 |
0 |
1 |
|
1 |
730 |
57 |
39 |
6 |
1 |
1 |
1 |
|
1 |
1020 |
64 |
39 |
9 |
0 |
1 |
1 |
|
1 |
800 |
61 |
43 |
6 |
1 |
0 |
1 |
|
1 |
800 |
58 |
43 |
6 |
1 |
0 |
1 |
|
1 |
750 |
58 |
43 |
6 |
1 |
0 |
1 |
|
1 |
850 |
60 |
51 |
7 |
0 |
0 |
1 |
|
1 |
1350 |
88 |
54 |
10 |
1 |
1 |
1 |
|
1 |
1350 |
78 |
54 |
12 |
0 |
1 |
1 |
|
1 |
1350 |
87 |
57 |
12 |
1 |
0 |
1 |
|
1 |
2460 |
80 |
52 |
9 |
1 |
0 |
1 |
|
1 |
1000 |
55 |
40 |
6 |
1 |
0 |
1 |
|
1 |
830 |
47 |
34 |
6 |
1 |
1 |
1 |
|
1 |
820 |
47 |
34 |
6 |
1 |
1 |
1 |
|
1 |
820 |
47 |
34 |
6 |
1 |
0 |
1 |
|
1 |
930 |
47 |
34 |
6 |
1 |
1 |
1 |
|
1 |
820 |
48 |
34 |
6 |
1 |
0 |
1 |
|
1 |
1100 |
62 |
45 |
6 |
1 |
0 |
1 |
|
1 |
870 |
58 |
40 |
6 |
1 |
1 |
1 |
|
1 |
800 |
56 |
40 |
6 |
1 |
0 |
1 |
|
1 |
980 |
54 |
40 |
6 |
1 |
0 |
1 |
|
1 |
870 |
57 |
41 |
6 |
0 |
1 |
1 |
|
1 |
870 |
74 |
48 |
9 |
1 |
1 |
2 |
|
1 |
800 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
790 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
700 |
47 |
33 |
6 |
0 |
1 |
2 |
|
1 |
740 |
38 |
27 |
6 |
0 |
1 |
2 |
|
1 |
820 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
830 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
870 |
60 |
45 |
6 |
1 |
0 |
2 |
|
1 |
850 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
790 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
990 |
61 |
45 |
6 |
1 |
0 |
2 |
|
1 |
820 |
62 |
45 |
6 |
1 |
1 |
2 |
|
1 |
980 |
62 |
43 |
7 |
0 |
1 |
2 |
|
1 |
980 |
69 |
47 |
9 |
0 |
1 |
1 |
|
1 |
1200 |
61 |
43 |
7 |
1 |
0 |
2 |
|
1 |
1130 |
64 |
43 |
7 |
0 |
0 |
2 |
|
1 |
1070 |
70 |
48 |
9 |
0 |
1 |
2 |
|
1 |
3960 |
95 |
51 |
1 |
0 |
0 |
2 |
|
1 |
860 |
62 |
43 |
8 |
0 |
1 |
2 |
|
1 |
1100 |
63 |
43 |
7 |
0 |
1 |
2 |
|
1 |
1250 |
63 |
39 |
9 |
0 |
1 |
2 |
|
1 |
910 |
74 |
48 |
7 |
1 |
0 |
2 |
|
1 |
850 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
900 |
62 |
45 |
6 |
1 |
0 |
2 |
|
1 |
1400 |
80 |
50 |
12 |
0 |
1 |
2 |
|
1 |
950 |
63 |
39 |
9 |
1 |
1 |
2 |
|
1 |
960 |
62 |
39 |
9 |
1 |
0 |
2 |
|
1 |
1600 |
62 |
39 |
9 |
0 |
0 |
2 |
|
1 |
1300 |
65 |
40 |
9 |
0 |
0 |
2 |
|
1 |
1150 |
66 |
39 |
9 |
1 |
1 |
3 |
|
1 |
980 |
85 |
59 |
9 |
0 |
1 |
3 |
|
1 |
1000 |
82 |
50 |
11 |
0 |
0 |
3 |
|
1 |
820 |
65 |
47 |
10 |
0 |
1 |
3 |
|
1 |
800 |
64 |
47 |
8 |
0 |
1 |
3 |
|
1 |
1250 |
100 |
66 |
9 |
0 |
1 |
3 |
|
1 |
1120 |
80 |
52 |
10 |
0 |
1 |
3 |
|
1 |
660 |
47 |
34 |
6 |
1 |
0 |
3 |
|
1 |
680 |
48 |
33 |
6 |
1 |
0 |
3 |
|
1 |
790 |
67 |
43 |
6 |
0 |
1 |
3 |
|
1 |
800 |
57 |
41 |
7 |
0 |
1 |
3 |
|
1 |
920 |
61 |
38 |
9 |
0 |
1 |
3 |
|
1 |
630 |
53 |
35 |
6 |
1 |
0 |
3 |
|
1 |
800 |
66 |
44 |
9 |
1 |
0 |
3 |
|
1 |
720 |
57 |
43 |
6 |
1 |
0 |
3 |
|
1 |
900 |
65 |
39 |
9 |
0 |
0 |
3 |
|
1 |
970 |
90 |
60 |
7 |
0 |
1 |
3 |
|
1 |
780 |
65 |
45 |
6 |
0 |
1 |
3 |
|
1 |
850 |
74 |
36 |
9 |
1 |
0 |
3 |
|
1 |
79 |
760 |
56 |
6 |
1 |
0 |
3 |
|
1 |
1200 |
60 |
43 |
6 |
1 |
0 |
3 |
|
1 |
610 |
74 |
45 |
7 |
1 |
0 |
3 |
|
1 |
670 |
80 |
50 |
9 |
1 |
0 |
3 |
|
1 |
630 |
59 |
46 |
6 |
0 |
1 |
3 |
|
1 |
700 |
59 |
37 |
8 |
1 |
0 |
3 |
|
1 |
710 |
59 |
37 |
9 |
1 |
0 |
3 |
|
1 |
520 |
45 |
33 |
6 |
1 |
0 |
3 |
Транспонированная матрица (приведена частично)
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
|
820 |
2310 |
1550 |
1530 |
1600 |
870 |
870 |
1440 |
1100 |
730 |
1020 |
800 |
800 |
750 |
850 |
1350 |
1350 |
1350 |
2460 |
1000 |
830 |
820 |
820 |
930 |
820 |
1100 |
|
62 |
86 |
60 |
58 |
59 |
57 |
60 |
80 |
60 |
57 |
64 |
61 |
58 |
58 |
60 |
88 |
78 |
87 |
80 |
55 |
47 |
47 |
47 |
47 |
48 |
62 |
|
41 |
54 |
45 |
44 |
43 |
43 |
42 |
50 |
42 |
39 |
39 |
43 |
43 |
43 |
51 |
54 |
54 |
57 |
52 |
40 |
34 |
34 |
34 |
34 |
34 |
45 |
|
6 |
10 |
6 |
6 |
6 |
6 |
6 |
9 |
6 |
6 |
9 |
6 |
6 |
6 |
7 |
10 |
12 |
12 |
9 |
6 |
6 |
6 |
6 |
6 |
6 |
6 |
|
0 |
0 |
1 |
1 |
1 |
0 |
0 |
1 |
0 |
1 |
0 |
1 |
1 |
1 |
0 |
1 |
0 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
|
1 |
1 |
0 |
0 |
0 |
1 |
0 |
0 |
0 |
1 |
1 |
0 |
0 |
0 |
0 |
1 |
1 |
0 |
0 |
0 |
1 |
1 |
0 |
1 |
0 |
0 |
|
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
1 |
Матрица ATA
86 |
86399 |
6192 |
3751 |
625 |
51 |
36 |
168 |
|
86399 |
105195241 |
5812150 |
3854104 |
630254 |
47509 |
35500 |
160167 |
|
6192 |
5812150 |
936314 |
284459 |
45032 |
3828 |
2360 |
12952 |
|
3751 |
3854104 |
284459 |
167493 |
27630 |
2165 |
1595 |
7358 |
|
625 |
630254 |
45032 |
27630 |
4827 |
351 |
282 |
1240 |
|
51 |
47509 |
3828 |
2165 |
351 |
51 |
10 |
95 |
|
36 |
35500 |
2360 |
1595 |
282 |
10 |
36 |
71 |
|
168 |
160167 |
12952 |
7358 |
1240 |
95 |
71 |
386 |
Полученная матрица имеет следующее соответствие:
?n |
?y |
?x1 |
?x2 |
?x3 |
?x4 |
?x5 |
?x6 |
|
?y |
?y2 |
?x1 y |
?x2 y |
?x3 y |
?x4 y |
?x5 y |
?x6 y |
|
?x1 |
?yx1 |
?x1 2 |
?x2 x1 |
?x3 x1 |
?x4 x1 |
?x5 x1 |
?x6 x1 |
|
?x2 |
?yx2 |
?x1 x2 |
?x2 2 |
?x3 x2 |
?x4 x2 |
?x5 x2 |
?x6 x2 |
|
?x3 |
?yx3 |
?x1 x3 |
?x2 x3 |
?x3 2 |
?x4 x3 |
?x5 x3 |
?x6 x3 |
|
?x4 |
?yx4 |
?x1 x4 |
?x2 x4 |
?x3 x4 |
?x4 2 |
?x5 x4 |
?x6 x4 |
|
?x5 |
?yx5 |
?x1 x5 |
?x2 x5 |
?x3 x5 |
?x4 x5 |
?x5 2 |
?x6 x5 |
|
?x6 |
?yx6 |
?x1 x6 |
?x2 x6 |
?x3 x6 |
?x4 x6 |
?x5 x6 |
?x6 2 |
Найдем парные коэффициенты корреляции.
EQ rxy = \f(\x\to(x * y) -\x\to(x) * \x\to(y) ;s(x) * s(y))
EQ ryx1 = \f(67583.14 - 72 * 1004.64;75.52 * 462.49) = -0.136
EQ ryx2 = \f(44815.16 - 43.62 * 1004.64;6.72 * 462.49) = 0.32
EQ ryx3 = \f(7328.53 - 7.27 * 1004.64;1.82 * 462.49) = 0.0325
EQ ryx4 = \f(552.43 - 0.59 * 1004.64;0.49 * 462.49) = -0.191
EQ ryx5 = \f(412.79 - 0.42 * 1004.64;0.49 * 462.49) = -0.034
EQ ryx6 = \f(1862.41 - 1.95 * 1004.64;0.82 * 462.49) = -0.264
EQ rx1 x2 = \f(3307.66 - 43.62 * 72;6.72 * 75.52) = 0.329
EQ rx1 x3 = \f(523.63 - 7.27 * 72;1.82 * 75.52) = 0.00271
EQ rx1 x4 = \f(44.51 - 0.59 * 72;0.49 * 75.52) = 0.0489
EQ rx1 x5 = \f(27.44 - 0.42 * 72;0.49 * 75.52) = -0.0724
EQ rx1 x6 = \f(150.6 - 1.95 * 72;0.82 * 75.52) = 0.161
EQ rx2 x3 = \f(321.28 - 7.27 * 43.62;1.82 * 6.72) = 0.351
EQ rx2 x4 = \f(25.17 - 0.59 * 43.62;0.49 * 6.72) = -0.209
EQ rx2 x5 = \f(18.55 - 0.42 * 43.62;0.49 * 6.72) = 0.087
EQ rx2 x6 = \f(85.56 - 1.95 * 43.62;0.82 * 6.72) = 0.0643
EQ rx3 x4 = \f(4.08 - 0.59 * 7.27;0.49 * 1.82) = -0.255
EQ rx3 x5 = \f(3.28 - 0.42 * 7.27;0.49 * 1.82) = 0.264
EQ rx3 x6 = \f(14.42 - 1.95 * 7.27;0.82 * 1.82) = 0.149
EQ rx4 x5 = \f(0.12 - 0.42 * 0.59;0.49 * 0.49) = -0.544
EQ rx4 x6 = \f(1.1 - 1.95 * 0.59;0.82 * 0.49) = -0.134
EQ rx5 x6 = \f(0.83 - 1.95 * 0.42;0.82 * 0.49) = 0.0194
Признаки x и y |
?xi |
EQ \x\to(x) = \f(?xi;n) |
?yi |
EQ \x\to(y) = \f(?yi;n) |
?xiyi |
EQ \x\to(xy) = \f(?xi yi;n) |
|
Для y и x1 |
6192 |
72 |
86399 |
1004.64 |
5812150 |
67583.14 |
|
Для y и x2 |
3751 |
43.616 |
86399 |
1004.64 |
3854104 |
44815.163 |
|
Для y и x3 |
625 |
7.267 |
86399 |
1004.64 |
630254 |
7328.535 |
|
Для y и x4 |
51 |
0.593 |
86399 |
1004.64 |
47509 |
552.43 |
|
Для y и x5 |
36 |
0.419 |
86399 |
1004.64 |
35500 |
412.791 |
|
Для y и x6 |
168 |
1.953 |
86399 |
1004.64 |
160167 |
1862.407 |
|
Для x1 и x2 |
3751 |
43.616 |
6192 |
72 |
284459 |
3307.663 |
|
Для x1 и x3 |
625 |
7.267 |
6192 |
72 |
45032 |
523.628 |
|
Для x1 и x4 |
51 |
0.593 |
6192 |
72 |
3828 |
44.512 |
|
Для x1 и x5 |
36 |
0.419 |
6192 |
72 |
2360 |
27.442 |
|
Для x1 и x6 |
168 |
1.953 |
6192 |
72 |
12952 |
150.605 |
|
Для x2 и x3 |
625 |
7.267 |
3751 |
43.616 |
27630 |
321.279 |
|
Для x2 и x4 |
51 |
0.593 |
3751 |
43.616 |
2165 |
25.174 |
|
Для x2 и x5 |
36 |
0.419 |
3751 |
43.616 |
1595 |
18.547 |
|
Для x2 и x6 |
168 |
1.953 |
3751 |
43.616 |
7358 |
85.558 |
|
Для x3 и x4 |
51 |
0.593 |
625 |
7.267 |
351 |
4.081 |
|
Для x3 и x5 |
36 |
0.419 |
625 |
7.267 |
282 |
3.279 |
|
Для x3 и x6 |
168 |
1.953 |
625 |
7.267 |
1240 |
14.419 |
|
Для x4 и x5 |
36 |
0.419 |
51 |
0.593 |
10 |
0.116 |
|
Для x4 и x6 |
168 |
1.953 |
51 |
0.593 |
95 |
1.105 |
|
Для x5 и x6 |
168 |
1.953 |
36 |
0.419 |
71 |
0.826 |
Признаки x и y |
EQ D(x) = \f(?x2i;n) - \x\to(x)2 |
EQ D(y) = \f(?y2i;n) - \x\to(x)2 |
EQ s(x) = \r(D(x)) |
EQ s(y) = \r(D(y)) |
|
Для y и x1 |
5703.372 |
213899.882 |
75.521 |
462.493 |
|
Для y и x2 |
45.213 |
213899.882 |
6.724 |
462.493 |
|
Для y и x3 |
3.312 |
213899.882 |
1.82 |
462.493 |
|
Для y и x4 |
0.241 |
213899.882 |
0.491 |
462.493 |
|
Для y и x5 |
0.243 |
213899.882 |
0.493 |
462.493 |
|
Для y и x6 |
0.672 |
213899.882 |
0.82 |
462.493 |
|
Для x1 и x2 |
45.213 |
5703.372 |
6.724 |
75.521 |
|
Для x1 и x3 |
3.312 |
5703.372 |
1.82 |
75.521 |
|
Для x1 и x4 |
0.241 |
5703.372 |
0.491 |
75.521 |
|
Для x1 и x5 |
0.243 |
5703.372 |
0.493 |
75.521 |
|
Для x1 и x6 |
0.672 |
5703.372 |
0.82 |
75.521 |
|
Для x2 и x3 |
3.312 |
45.213 |
1.82 |
6.724 |
|
Для x2 и x4 |
0.241 |
45.213 |
0.491 |
6.724 |
|
Для x2 и x5 |
0.243 |
45.213 |
0.493 |
6.724 |
|
Для x2 и x6 |
0.672 |
45.213 |
0.82 |
6.724 |
|
Для x3 и x4 |
0.241 |
3.312 |
0.491 |
1.82 |
|
Для x3 и x5 |
0.243 |
3.312 |
0.493 |
1.82 |
|
Для x3 и x6 |
0.672 |
3.312 |
0.82 |
1.82 |
|
Для x4 и x5 |
0.243 |
0.241 |
0.493 |
0.491 |
|
Для x4 и x6 |
0.672 |
0.241 |
0.82 |
0.491 |
|
Для x5 и x6 |
0.672 |
0.243 |
0.82 |
0.493 |
Матрица парных коэффициентов корреляции R:
- |
y |
x1 |
x2 |
x3 |
x4 |
x5 |
x6 |
|
y |
1 |
-0.136 |
0.32 |
0.0325 |
-0.191 |
-0.034 |
-0.264 |
|
x1 |
-0.136 |
1 |
0.329 |
0.00271 |
0.0489 |
-0.0724 |
0.161 |
|
x2 |
0.32 |
0.329 |
1 |
0.351 |
-0.209 |
0.087 |
0.0643 |
|
x3 |
0.0325 |
0.00271 |
0.351 |
1 |
-0.255 |
0.264 |
0.149 |
|
x4 |
-0.191 |
0.0489 |
-0.209 |
-0.255 |
1 |
-0.544 |
-0.134 |
|
x5 |
-0.034 |
-0.0724 |
0.087 |
0.264 |
-0.544 |
1 |
0.0194 |
|
x6 |
-0.264 |
0.161 |
0.0643 |
0.149 |
-0.134 |
0.0194 |
1 |
Коллинеарность - зависимость между факторами. В качестве критерия мультиколлинеарности может быть принято соблюдение следующих неравенств:
r(xjy) > r(xkxj); r(xky) > r(xkxj).
Если одно из неравенств не соблюдается, то исключается тот параметр xk или xj, связь которого с результативным показателем Y оказывается наименее тесной.
Для отбора наиболее значимых факторов xi учитываются следующие условия:
- связь между результативным признаком и факторным должна быть выше межфакторной связи;
- связь между факторами должна быть не более 0.7. Если в матрице есть межфакторный коэффициент корреляции rxjxi > 0.7, то в данной модели множественной регрессии существует мультиколлинеарность.;
- при высокой межфакторной связи признака отбираются факторы с меньшим коэффициентом корреляции между ними.
Если факторные переменные связаны строгой функциональной зависимостью, то говорят о полной мультиколлинеарности. В этом случае среди столбцов матрицы факторных переменных Х имеются линейно зависимые столбцы, и, по свойству определителей матрицы, det(XTX = 0).
Вид мультиколлинеарности, при котором факторные переменные связаны некоторой стохастической зависимостью, называется частичной. Если между факторными переменными имеется высокая степень корреляции, то матрица (XTX) близка к вырожденной, т. е. det(XTX ? 0) (чем ближе к 0 определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии).
В нашем случае все парные коэффициенты корреляции |r|<0.7, что говорит об отсутствии мультиколлинеарности факторов.
Анализ первой строки этой матрицы позволяет произвести отбор факторных признаков, которые могут быть включены в модель множественной корреляционной зависимости. Факторные признаки, у которых |ryxi| < 0.5 исключают из модели. Можно дать следующую качественную интерпретацию возможных значений коэффициента корреляции (по шкале Чеддока): если |r|>0.3 - связь практически отсутствует; 0.3 ? |r| ? 0.7 - связь средняя; 0.7 ? |r| ? 0.9 - связь сильная; |r| > 0.9 - связь весьма сильная.
Проверим значимость полученных парных коэффициентов корреляции с помощью t-критерия Стьюдента. Коэффициенты, для которых значения t-статистики по модулю больше найденного критического значения, считаются значимыми.
Рассчитаем наблюдаемые значения t-статистики для ryx1 по формуле:
EQ tнабл = ryx1 \f(\r(n-m-1);\r(1 - ryx1 2))
где m = 1 - количество факторов в уравнении регрессии.
EQ tнабл = 0.14 \f(\r(86 - 1 - 1);\r(1 - 0.142)) = 1.26
По таблице Стьюдента находим Tтабл
tкрит(n-m-1;б/2) = (84;0.025) = 1.984
Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим
Рассчитаем наблюдаемые значения t-статистики для ryx2 по формуле:
EQ tнабл = 0.32 \f(\r(86 - 1 - 1);\r(1 - 0.322)) = 3.1
Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим
Рассчитаем наблюдаемые значения t-статистики для ryx3 по формуле:
EQ tнабл = 0.0325 \f(\r(86 - 1 - 1);\r(1 - 0.03252)) = 0.3
Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим
Рассчитаем наблюдаемые значения t-статистики для ryx4 по формуле:
EQ tнабл = 0.19 \f(\r(86 - 1 - 1);\r(1 - 0.192)) = 1.78
Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим
Рассчитаем наблюдаемые значения t-статистики для ryx5 по формуле:
EQ tнабл = 0.034 \f(\r(86 - 1 - 1);\r(1 - 0.0342)) = 0.31
Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим
Рассчитаем наблюдаемые значения t-статистики для ryx6 по формуле:
EQ tнабл = 0.26 \f(\r(86 - 1 - 1);\r(1 - 0.262)) = 2.51
Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим
Таким образом, связь между (y и xx2 ), (y и xx6 ) является существенной, т.е. цена квартир зависит от жилой площади и расположения в центре или на окраине.
Наибольшее влияние на результативный признак оказывает фактор x2 (r = 0.32), значит, при построении модели он войдет в регрессионное уравнение первым.
Тестирование и устранение мультиколлинеарности.
Наиболее полным алгоритмом исследования мультиколлинеарности является алгоритм Фаррара-Глобера. С его помощью тестируют три вида мультиколлинеарности:
1. Всех факторов (ч2 - хи-квадрат).
2. Каждого фактора с остальными (критерий Фишера).
3. Каждой пары факторов (критерий Стьюдента).
Проверим переменные на мультиколлинеарность методом Фаррара-Глоубера по первому виду статистических критериев (критерий "хи-квадрат").
Формула для расчета значения статистики Фаррара-Глоубера:
ч2 = -[n-1-(2m+5)/6]ln(det[R])
где m = 6 - количество факторов, n = 86 - количество наблюдений, det[R] - определитель матрицы парных коэффициентов корреляции R.
Сравниваем его с табличным значением при v = m/2(m-1) = 15 степенях свободы и уровне значимости б. Если ч2 > чтабл2, то в векторе факторов есть присутствует мультиколлинеарность.
чтабл2(15;0.05) = 24.99579
Проверим переменные на мультиколлинеарность по второму виду статистических критериев (критерий Фишера).
Определяем обратную матрицу D = R-1:
1.4 |
0.32 |
-0.57 |
0.12 |
0.37 |
0.28 |
0.38 |
|
0.32 |
1.26 |
-0.59 |
0.18 |
-0.0505 |
0.0819 |
-0.12 |
|
-0.57 |
-0.59 |
1.58 |
-0.49 |
0.11 |
-0.00659 |
-0.0676 |
|
0.12 |
0.18 |
-0.49 |
1.27 |
0.0963 |
-0.22 |
-0.14 |
|
0.37 |
-0.0505 |
0.11 |
0.0963 |
1.62 |
0.85 |
0.28 |
|
0.28 |
0.0819 |
-0.00659 |
-0.22 |
0.85 |
1.53 |
0.18 |
|
0.38 |
-0.12 |
-0.0676 |
-0.14 |
0.28 |
0.18 |
1.18 |
Вычисляем F-критерии Фишера:
EQ Fk = (dkk-1)\f(n-m;m-1)
где dkk - диагональные элементы матрицы.
Рассчитанные значения критериев сравниваются с табличными при v1=n-m и v2=m-1 степенях свободы и уровне значимости б. Если Fk > FТабл, то k-я переменная мультиколлинеарна с другими.
v1=86-6 = 80; v2=6-1 = 5. FТабл(80;5) = 4.4
EQ F1 = (1.402-1)\f(86-6;6-1) = 6.43
оскольку F1 > Fтабл, то переменная y мультиколлинеарна с другими.
EQ F2 = (1.264-1)\f(86-6;6-1) = 4.23
Поскольку F2 ? Fтабл, то переменная x1 немультиколлинеарна с другими.
EQ F3 = (1.578-1)\f(86-6;6-1) = 9.25
Поскольку F3 > Fтабл, то переменная x2 мультиколлинеарна с другими.
EQ F4 = (1.273-1)\f(86-6;6-1) = 4.37
Поскольку F4 ? Fтабл, то переменная x3 немультиколлинеарна с другими.
EQ F5 = (1.622-1)\f(86-6;6-1) = 9.95
Поскольку F5 > Fтабл, то переменная x4 мультиколлинеарна с другими.
EQ F6 = (1.535-1)\f(86-6;6-1) = 8.55
Поскольку F6 > Fтабл, то переменная x5 мультиколлинеарна с другими.
EQ F7 = (1.179-1)\f(86-6;6-1) = 2.86
Поскольку F7 ? Fтабл, то переменная x6 немультиколлинеарна с другими.
Проверим переменные на мультиколлинеарность по третьему виду статистических критериев (критерий Стьюдента). Для этого найдем частные коэффициенты корреляции.
Частные коэффициенты корреляции.
Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y и xi) при условии, что влияние на них остальных факторов (xj) устранено.
На основании частных коэффициентов можно сделать вывод об обоснованности включения переменных в регрессионную модель. Если значение коэффициента мало или он незначим, то это означает, что связь между данным фактором и результативной переменной либо очень слаба, либо вовсе отсутствует, поэтому фактор можно исключить из модели.
Можно сделать вывод, что при построении регрессионного уравнения следует отобрать факторы x2, x6.
Модель регрессии в стандартном масштабе.
Модель регрессии в стандартном масштабе предполагает, что все значения исследуемых признаков переводятся в стандарты (стандартизованные значения) по формулам:
EQ tj = \f(xji-\x\to(xj);S(xj))
где хji - значение переменной хji в i-ом наблюдении.
EQ ty = \f(yi-\x\to(xj);S(y))
Таким образом, начало отсчета каждой стандартизованной переменной совмещается с ее средним значением, а в качестве единицы изменения принимается ее среднее квадратическое отклонение S.
Если связь между переменными в естественном масштабе линейная, то изменение начала отсчета и единицы измерения этого свойства не нарушат, так что и стандартизованные переменные будут связаны линейным соотношением:
ty = ?вjtxj
Для оценки в-коэффциентов применим МНК. При этом система нормальных уравнений будет иметь вид:
rx1y=в1+rx1x2*в2 + ... + rx1xm*вm
rx2y=rx2x1*в1 + в2 + ... + rx2xm*вm
...
rxmy=rxmx1*в1 + rxmx2*в2 + ... + вm
Для наших данных (берем из матрицы парных коэффициентов корреляции):
-0.136 = в1 + 0.329в2 + 0.00271в3 + 0.0489в4 -0.0724в5 + 0.161в6
0.32 = 0.329в1 + в2 + 0.351в3 -0.209в4 + 0.087в5 + 0.0643в6
0.0325 = 0.00271в1 + 0.351в2 + в3 -0.255в4 + 0.264в5 + 0.149в6
-0.191 = 0.0489в1 -0.209в2 -0.255в3 + в4 -0.544в5 -0.134в6
-0.034 = -0.0724в1 + 0.087в2 + 0.264в3 -0.544в4 + в5 + 0.0194в6
-0.264 = 0.161в1 + 0.0643в2 + 0.149в3 -0.134в4 + 0.0194в5 + в6
Данную систему линейных уравнений решаем методом Гаусса:
в1 = -0.227; в2 = 0.404; в3 = -0.0823; в4 = -0.262; в5 = -0.201; в6 = -0.272;
Стандартизированная форма уравнения регрессии имеет вид:
y0 = -0.227x1 + 0.404x2 -0.0823x3 -0.262x4 -0.201x5 -0.272x6
Найденные из данной системы в-коэффициенты позволяют определить значения коэффициентов в регрессии в естественном масштабе по формулам:
EQ bj = в\f(S(y);S(xj))
EQ a = \x\to(y) - ?bj\x\to(xj)
3. Анализ параметров уравнения регрессии.
Перейдем к статистическому анализу полученного уравнения регрессии: проверке значимости уравнения и его коэффициентов, исследованию абсолютных и относительных ошибок аппроксимации
Для несмещенной оценки дисперсии проделаем следующие вычисления:
Несмещенная ошибка е = Y - Y(x) = Y - X*s (абсолютная ошибка аппроксимации)
Y |
Y(x) |
е = Y - Y(x) |
е2 |
(Y-Yср)2 |
|е : Y| |
|
820 |
1155.44 |
-335.44 |
112522.19 |
34091.76 |
0.41 |
|
2310 |
1399.96 |
910.04 |
828169.83 |
1703965.94 |
0.39 |
|
1550 |
1211.43 |
338.57 |
114632.45 |
297418.04 |
0.22 |
|
1530 |
1186.4 |
343.6 |
118063.12 |
276003.62 |
0.22 |
|
1600 |
1157.2 |
442.8 |
196073.44 |
354454.08 |
0.28 |
|
870 |
1218.01 |
-348.01 |
121111.13 |
18127.8 |
0.4 |
|
870 |
1374.78 |
-504.78 |
254804.7 |
18127.8 |
0.58 |
|
1440 |
1259.94 |
180.06 |
32420.46 |
189538.73 |
0.13 |
|
1100 |
1374.78 |
-274.78 |
75505.06 |
9093.62 |
0.25 |
|
730 |
859.99 |
-129.99 |
16898.14 |
75426.87 |
0.18 |
|
1020 |
1034.32 |
-14.32 |
204.98 |
235.94 |
0.014 |
|
800 |
1154.42 |
-354.42 |
125612.42 |
41877.34 |
0.44 |
|
800 |
1158.59 |
-358.59 |
128585.41 |
41877.34 |
0.45 |
|
750 |
1158.59 |
-408.59 |
166944.22 |
64841.29 |
0.54 |
|
850 |
1604.15 |
-754.15 |
568743.99 |
23913.39 |
0.89 |
|
1350 |
1150.4 |
199.6 |
39840.33 |
119273.85 |
0.15 |
|
1350 |
1369.26 |
-19.26 |
371.01 |
119273.85 |
0.0143 |
|
1350 |
1382.15 |
-32.15 |
1033.4 |
119273.85 |
0.0238 |
|
2460 |
1315.56 |
1144.44 |
1309741.25 |
2118074.08 |
0.47 |
|
1000 |
1079.33 |
-79.33 |
6293.47 |
21.53 |
0.0793 |
|
830 |
734.85 |
95.15 |
9053.93 |
30498.97 |
0.11 |
|
820 |
734.85 |
85.15 |
7250.89 |
34091.76 |
0.1 |
|
820 |
923.6 |
-103.6 |
10732.52 |
34091.76 |
0.13 |
|
930 |
734.85 |
195.15 |
38084.36 |
5571.06 |
0.21 |
|
820 |
922.21 |
-102.21 |
10446.47 |
34091.76 |
0.12 |
|
1100 |
1208.65 |
-108.65 |
11803.97 |
9093.62 |
0.0988 |
|
870 |
886.41 |
-16.41 |
269.35 |
18127.8 |
0.0189 |
|
800 |
1077.94 |
-277.94 |
77251.5 |
41877.34 |
0.35 |
|
980 |
1080.72 |
-100.72 |
10144.78 |
607.11 |
0.1 |
|
870 |
1162.39 |
-292.39 |
85493.49 |
18127.8 |
0.34 |
|
870 |
870.22 |
-0.22 |
0.0466 |
18127.8 |
0.000248 |
|
800 |
1054.95 |
-254.95 |
64997.95 |
41877.34 |
0.32 |
|
790 |
1054.95 |
-264.95 |
70196.88 |
46070.13 |
0.34 |
|
700 |
800.12 |
-100.12 |
10024.46 |
92805.25 |
0.14 |
|
740 |
645.78 |
94.22 |
8877.68 |
70034.08 |
0.13 |
|
820 |
1054.95 |
-234.95 |
55200.07 |
34091.76 |
0.29 |
|
830 |
1054.95 |
-224.95 |
50601.13 |
30498.97 |
0.27 |
|
870 |
1057.73 |
-187.73 |
35241.32 |
18127.8 |
0.22 |
|
850 |
1054.95 |
-204.95 |
42003.25 |
23913.39 |
0.24 |
|
790 |
1054.95 |
-264.95 |
70196.88 |
46070.13 |
0.34 |
|
990 |
1056.34 |
-66.34 |
4400.58 |
214.32 |
0.067 |
|
820 |
866.2 |
-46.2 |
2134.16 |
34091.76 |
0.0563 |
|
980 |
1036.45 |
-56.45 |
3186.84 |
607.11 |
0.0576 |
|
980 |
1249.84 |
-269.84 |
72812.48 |
607.11 |
0.28 |
|
1200 |
979.81 |
220.19 |
48483.78 |
38165.71 |
0.18 |
|
1130 |
1222.42 |
-92.42 |
8541.89 |
15715.25 |
0.0818 |
|
1070 |
1122.56 |
-52.56 |
2762.31 |
4271.99 |
0.0491 |
|
3960 |
1527.26 |
2432.74 |
5918205.83 |
8734155.48 |
0.61 |
|
860 |
1015.54 |
-155.54 |
24193.46 |
20920.6 |
0.18 |
|
1100 |
1035.06 |
64.94 |
4216.92 |
9093.62 |
0.059 |
|
1250 |
882.01 |
367.99 |
135418.2 |
60201.76 |
0.29 |
|
910 |
1100.79 |
-190.79 |
36398.93 |
8956.64 |
0.21 |
|
850 |
1054.95 |
-204.95 |
42003.25 |
23913.39 |
0.24 |
|
900 |
1054.95 |
-154.95 |
24008.56 |
10949.43 |
0.17 |
|
1400 |
1101.55 |
298.45 |
89073.89 |
156309.9 |
0.21 |
|
950 |
635.23 |
314.77 |
99082.93 |
2985.48 |
0.33 |
|
960 |
825.37 |
134.63 |
18126.45 |
1992.69 |
0.14 |
|
1600 |
1072.15 |
527.85 |
278627.96 |
354454.08 |
0.33 |
|
1300 |
1095.79 |
204.21 |
41702.99 |
87237.8 |
0.16 |
|
1150 |
477.36 |
672.64 |
452448.88 |
21129.66 |
0.58 |
|
980 |
1253.91 |
-273.91 |
75024.89 |
607.11 |
0.28 |
|
1000 |
1154.73 |
-154.73 |
23940.82 |
21.53 |
0.15 |
|
820 |
927.09 |
-107.09 |
11468.17 |
34091.76 |
0.13 |
|
800 |
970.3 |
-170.3 |
29001.63 |
41877.34 |
0.21 |
|
1250 |
1427.72 |
-177.72 |
31584.34 |
60201.76 |
0.14 |
|
1120 |
1045.29 |
74.71 |
5582.31 |
13308.04 |
0.0667 |
|
660 |
616.2 |
43.8 |
1918.48 |
118776.41 |
0.0664 |
|
680 |
587 |
93 |
8648.82 |
105390.83 |
0.14 |
|
790 |
896.71 |
-106.71 |
11387.69 |
46070.13 |
0.14 |
|
800 |
834.08 |
-34.08 |
1161.78 |
41877.34 |
0.0426 |
|
920 |
703.28 |
216.72 |
46967.67 |
7163.85 |
0.24 |
|
630 |
635.67 |
-5.67 |
32.14 |
140354.78 |
0.009 |
|
800 |
805.15 |
-5.15 |
26.53 |
41877.34 |
0.00644 |
|
720 |
852.58 |
-132.58 |
17577.38 |
81019.66 |
0.18 |
|
900 |
914.28 |
-14.28 |
203.89 |
10949.43 |
0.0159 |
|
970 |
1316.59 |
-346.59 |
120121.36 |
1199.9 |
0.36 |
|
780 |
955.11 |
-175.11 |
30663.67 |
50462.92 |
0.22 |
|
850 |
571.56 |
278.44 |
77528.04 |
23913.39 |
0.33 |
|
79 |
237 |
-158 |
24965.43 |
856808.55 |
2 |
|
1200 |
848.41 |
351.59 |
123615.5 |
38165.71 |
0.29 |
|
610 |
863.66 |
-253.66 |
64343.18 |
155740.36 |
0.42 |
|
670 |
952.54 |
-282.54 |
79831.63 |
111983.62 |
0.42 |
|
630 |
991.26 |
-361.26 |
130507.72 |
140354.78 |
0.57 |
|
700 |
641.13 |
58.87 |
3465.9 |
92805.25 |
0.0841 |
|
710 |
620.22 |
89.78 |
8060.72 |
86812.46 |
0.13 |
|
520 |
591.17 |
-71.17 |
5065.25 |
234875.48 |
0.14 |
|
0 |
13123967.15 |
18395389.83 |
21.06 |
Средняя ошибка аппроксимации
EQ A = \f(?|е : Y|;n) 100% = \f(21.06;86) 100% = 24.488
Оценка дисперсии равна:
se2 = (Y - X*Y(X))T(Y - X*Y(X)) = 13123967.15
Несмещенная оценка дисперсии равна:
EQ s2 = \f(1;n-m-1) s2e = \f(1;86 - 6 - 1)13123967.15 = 166126.17
Оценка среднеквадратичного отклонения (стандартная ошибка для оценки Y):
EQ S = \r(S2) = \r(166126.17) = 407.59
Найдем оценку ковариационной матрицы вектора k = S * (XTX)-1
313.71 |
0.12 |
-5.03 |
-4.57 |
-45.98 |
-20.88 |
-14.81 |
|
0.12 |
0.000991 |
-0.00431 |
0.00518 |
-0.0171 |
0.00227 |
-0.0155 |
|
-5.03 |
-0.00431 |
0.14 |
-0.17 |
0.37 |
0.15 |
0.0747 |
|
-4.57 |
0.00518 |
-0.17 |
1.81 |
0.35 |
-1.29 |
-0.54 |
|
-45.98 |
-0.0171 |
0.37 |
0.35 |
29.96 |
15.2 |
2.16 |
|
-20.88 |
0.00227 |
0.15 |
-1.29 |
15.2 |
28.78 |
1.19 |
|
-14.81 |
-0.0155 |
0.0747 |
-0.54 |
2.16 |
1.19 |
7.58 |
Дисперсии параметров модели определяются соотношением S2i = Kii, т.е. это элементы, лежащие на главной диагонали
Показатели тесноты связи факторов с результатом.
Если факторные признаки различны по своей сущности и (или) имеют различные единицы измерения, то коэффициенты регрессии bj при разных факторах являются несопоставимыми. Поэтому уравнение регрессии дополняют соизмеримыми показателями тесноты связи фактора с результатом, позволяющими ранжировать факторы по силе влияния на результат.
К таким показателям тесноты связи относят: частные коэффициенты эластичности, в-коэффициенты, частные коэффициенты корреляции.
Частные коэффициенты эластичности.
С целью расширения возможностей содержательного анализа модели регрессии используются частные коэффициенты эластичности, которые определяются по формуле:
EQ Ei = bi \f(\x\to(x)i; \x\to(y) )
Частный коэффициент эластичности показывает, насколько процентов в среднем изменяется признак-результат у с увеличением признака-фактора хj на 1% от своего среднего уровня при фиксированном положении других факторов модели.
EQ E1 = -1.39 \f(72; 1004.64 ) = -0.0996
Частный коэффициент эластичности |E1| < 1. Следовательно, его влияние на результативный признак Y незначительно.
EQ E2 = 27.81 \f(43.62; 1004.64 ) = 1.21
Частные коэффициент эластичности |E2| > 1. Следовательно, он существенно влияет на результативный признак Y.
EQ E3 = -20.91 \f(7.27; 1004.64 ) = -0.15
Частный коэффициент эластичности |E3| < 1. Следовательно, его влияние на результативный признак Y незначительно.
EQ E4 = -246.78 \f(0.59; 1004.64 ) = -0.15
Частный коэффициент эластичности |E4| < 1. Следовательно, его влияние на результативный признак Y незначительно.
EQ E5 = -188.75 \f(0.42; 1004.64 ) = -0.0786
Частный коэффициент эластичности |E5| < 1. Следовательно, его влияние на результативный признак Y незначительно.
EQ E6 = -153.7 \f(1.95; 1004.64 ) = -0.3
Частный коэффициент эластичности |E6| < 1. Следовательно, его влияние на результативный признак Y незначительно.
Стандартизированные частные коэффициенты регрессии.
Стандартизированные частные коэффициенты регрессии - в-коэффициенты (вj) показывают, на какую часть своего среднего квадратического отклонения S(у) изменится признак-результат y с изменением соответствующего фактора хj на величину своего среднего квадратического отклонения (Sхj) при неизменном влиянии прочих факторов (входящих в уравнение).
По максимальному вj можно судить, какой фактор сильнее влияет на результат Y.
По коэффициентам эластичности и в-коэффициентам могут быть сделаны противоположные выводы. Причины этого: а) вариация одного фактора очень велика; б) разнонаправленное воздействие факторов на результат.
Коэффициент вj может также интерпретироваться как показатель прямого (непосредственного) влияния j-ого фактора (xj) на результат (y). Во множественной регрессии j-ый фактор оказывает не только прямое, но и косвенное (опосредованное) влияние на результат (т.е. влияние через другие факторы модели).
Косвенное влияние измеряется величиной: ?вirxj,xi, где m - число факторов в модели. Полное влияние j-ого фактора на результат равное сумме прямого и косвенного влияний измеряет коэффициент линейной парной корреляции данного фактора и результата - rxj,y.
Так для нашего примера непосредственное влияние фактора x1 на результат Y в уравнении регрессии измеряется вj и составляет -0.227; косвенное (опосредованное) влияние данного фактора на результат определяется как:
rx1x2в2 = 0.329 * 0.404 = 0.1332
Сравнительная оценка влияния анализируемых факторов на результативный признак.
5. Сравнительная оценка влияния анализируемых факторов на результативный признак производится:
- средним коэффициентом эластичности, показывающим на сколько процентов среднем по совокупности изменится результат y от своей средней величины при изменении фактора xi на 1% от своего среднего значения;
- в-коэффициенты, показывающие, что, если величина фактора изменится на одно среднеквадратическое отклонение Sxi, то значение результативного признака изменится в среднем на в своего среднеквадратического отклонения;
- долю каждого фактора в общей вариации результативного признака определяют коэффициенты раздельной детерминации (отдельного определения):
d2i = ryxiвi.
d21 = -0.14 * (-0.227) = 0.0309
d22 = 0.32 * 0.404 = 0.13
d23 = 0.0325 * (-0.0823) = -0.00268
d24 = -0.19 * (-0.262) = 0.05
d25 = -0.034 * (-0.201) = 0.00684
d26 = -0.26 * (-0.272) = 0.072
При этом должно выполняться равенство:
?d2i = R2 = 0.29
Множественный коэффициент корреляции (Индекс множественной корреляции).
Тесноту совместного влияния факторов на результат оценивает индекс множественной корреляции.
В отличие от парного коэффициента корреляции, который может принимать отрицательные значения, он принимает значения от 0 до 1.
Поэтому R не может быть использован для интерпретации направления связи. Чем плотнее фактические значения yi располагаются относительно линии регрессии, тем меньше остаточная дисперсия и, следовательно, больше величина Ry(x1,...,xm).
Таким образом, при значении R близком к 1, уравнение регрессии лучше описывает фактические данные и факторы сильнее влияют на результат. При значении R близком к 0 уравнение регрессии плохо описывает фактические данные и факторы оказывают слабое воздействие на результат.
EQ R = \r(1 - \f(s2e; ?(yi - \x\to(y))2)) = \r(1 - \f(13123967.15;18395389.83)) = 0.535
Связь между признаком Y факторами X умеренная
Расчёт коэффициента корреляции выполним, используя известные значения линейных коэффициентов парной корреляции и в-коэффициентов.
EQ R = \r(?ryxiвyxi) = \r(ryx1вyx1 + ryx2вyx2 + ryx3вyx3 + ryx4вyx4 + ryx5вyx5 + ryx6вyx6)
EQ R = \r(-0.136 * -0.227 + 0.32 * 0.404 + 0.0325 * -0.0823 + -0.191 * -0.262 + -0.034 * -0.201 + -0.264 * -0.272) = 0.535
Коэффициент детерминации.
R2= 0.5352 = 0.287
5. Проверка гипотез относительно коэффициентов уравнения регрессии (проверка значимости параметров множественного уравнения регрессии).
Число v = n - m - 1 называется числом степеней свободы. Считается, что при оценивании множественной линейной регрессии для обеспечения статистической надежности требуется, чтобы число наблюдений, по крайней мере, в 3 раза превосходило число оцениваемых параметров.
1) t-статистика
Tтабл (n-m-1;б/2) = (79;0.025) = 1.99
EQ ti = \f(bi;Sbi)
Находим стандартную ошибку коэффициента регрессии b0:
EQ Sb0 = \r(313.71) = 17.71
EQ t0 = \f(569.36;17.71) = 32.15>1.99
Статистическая значимость коэффициента регрессии b0 подтверждается.
Находим стандартную ошибку коэффициента регрессии b1:
EQ Sb1 = \r(0.000991) = 0.0315
EQ t1 = \f(-1.39;0.0315) = 44.16>1.99
атистическая значимость коэффициента регрессии b1 подтверждается.
Находим стандартную ошибку коэффициента регрессии b2:
EQ Sb2 = \r(0.14) = 0.38
EQ t2 = \f(27.81;0.38) = 73.95>1.99
Статистическая значимость коэффициента регрессии b2 подтверждается.
Находим стандартную ошибку коэффициента регрессии b3:
EQ Sb3 = \r(1.81) = 1.34
EQ t3 = \f(-20.91;1.34) = 15.55>1.99
Статистическая значимость коэффициента регрессии b3 подтверждается.
Находим стандартную ошибку коэффициента регрессии b4:
EQ Sb4 = \r(29.96) = 5.47
EQ t4 = \f(-246.78;5.47) = 45.08>1.99
Статистическая значимость коэффициента регрессии b4 подтверждается.
Находим стандартную ошибку коэффициента регрессии b5:
EQ Sb5 = \r(28.78) = 5.36
EQ t5 = \f(-188.75;5.36) = 35.19>1.99
Статистическая значимость коэффициента регрессии b5 подтверждается.
Находим стандартную ошибку коэффициента регрессии b6:
EQ Sb6 = \r(7.58) = 2.75
EQ t6 = \f(-153.7;2.75) = 55.84>1.99
Статистическая значимость коэффициента регрессии b6 подтверждается.
Доверительный интервал для коэффициентов уравнения регрессии.
Определим доверительные интервалы коэффициентов регрессии, которые с надежность 95% будут следующими:
(bi - ti Sbi; bi + ti Sbi)
b0: (569.36 - 1.99 * 17.71 ; 569.36 + 1.99 * 17.71) = (534.12;604.61)
b1: (-1.39 - 1.99 * 0.0315 ; -1.39 + 1.99 * 0.0315) = (-1.45;-1.33)
b2: (27.81 - 1.99 * 0.38 ; 27.81 + 1.99 * 0.38) = (27.06;28.56)
b3: (-20.91 - 1.99 * 1.34 ; -20.91 + 1.99 * 1.34) = (-23.59;-18.23)
b4: (-246.78 - 1.99 * 5.47 ; -246.78 + 1.99 * 5.47) = (-257.68;-235.89)
b5: (-188.75 - 1.99 * 5.36 ; -188.75 + 1.99 * 5.36) = (-199.43;-178.07)
b6: (-153.7 - 1.99 * 2.75 ; -153.7 + 1.99 * 2.75) = (-159.18;-148.22)
6. Проверка общего качества уравнения множественной регрессии.
Оценка значимости уравнения множественной регрессии осуществляется путем проверки гипотезы о равенстве нулю коэффициент детерминации рассчитанного по данным генеральной совокупности: R2 или b1 = b2 =... = bm = 0 (гипотеза о незначимости уравнения регрессии, рассчитанного по данным генеральной совокупности).
Для ее проверки используют F-критерий Фишера.
При этом вычисляют фактическое (наблюдаемое) значение F-критерия, через коэффициент детерминации R2, рассчитанный по данным конкретного наблюдения.
По таблицам распределения Фишера-Снедоккора находят критическое значение F-критерия (Fкр). Для этого задаются уровнем значимости б (обычно его берут равным 0,05) и двумя числами степеней свободы k1=m и k2=n-m-1.
2) F-статистика. Критерий Фишера.
EQ R2 = 1 - \f(s2e;?(yi - \x\to(y))2) = 1 - \f(13123967.15;18395389.83) = 0,287
Чем ближе этот коэффициент к единице, тем больше уравнение регрессии объясняет поведение Y.
Более объективной оценкой является скорректированный коэффициент детерминации:
EQ \x\to(R)2 = 1 - (1 - R2)\f(n-1;n-m-1)
EQ \x\to(R)2 = 1 - (1 - 0.287)\f(86-1;86-6-1) = 0.232
Добавление в модель новых объясняющих переменных осуществляется до тех пор, пока растет скорректированный коэффициент детерминации.
Проверим гипотезу об общей значимости - гипотезу об одновременном равенстве нулю всех коэффициентов регрессии при объясняющих переменных:
H0: R2 = 0; в1 = в2 = ... = вm = 0.
H1: R2 ? 0.
Проверка этой гипотезы осуществляется с помощью F-статистики распределения Фишера (правосторонняя проверка).
Если F < Fkp = Fб ; n-m-1, то нет оснований для отклонения гипотезы H0.
EQ F = \f(R2;1 - R2)\f((n - m -1);m) = \f(0.287;1 - 0.287)\f(86-6-1;6) = 5,29
Табличное значение при степенях свободы k1 = 6 и k2 = n-m-1 = 86 - 6 - 1 = 79, Fkp(6;79) = 2.17
Отметим значения на числовой оси.
Принятие H0 |
Отклонение H0, принятие H1 |
|
95% |
5% |
|
2.17 |
5.29 |
Поскольку фактическое значение F > Fkp, то коэффициент детерминации статистически значим и уравнение регрессии статистически надежно
Оценка значимости дополнительного включения фактора (частный F-критерий).
Необходимость такой оценки связана с тем, что не каждый фактор, вошедший в модель, может существенно увеличить долю объясненной вариации результативного признака. Это может быть связано с последовательностью вводимых факторов (т. к. существует корреляция между самими факторами).
Мерой оценки значимости улучшения качества модели, после включения в нее фактора хj, служит частный F-критерий - Fxj:
EQ Fxj = \f(R2 - R2(x1,xn);1-R2) (n - m - 1)
где m - число оцениваемых параметров.
В числителе - прирост доли вариации у за счет дополнительно включенного в модель фактора хj.
Если наблюдаемое значение Fxj больше Fkp, то дополнительное введение фактора xj в модель статистически оправдано.
Частный F-критерий оценивает значимость коэффициентов "чистой" регрессии (bj). Существует взаимосвязь между частным F-критерием - Fxj и t-критерием, используемым для оценки значимости коэффициента регрессии при j-м факторе:
EQ t(bj=0) = \r(Fxj)
Список литературы
1. Айвазян С.А., Мхитарян В.С. Прикладная статистика и основы эконометрики. -- М.: ЮНИТИ, 1998. -- 650 с.
2. Буре В.М.. Евсеев Е.А. Основы эконометрики: Учеб. Пособие. -- СПб.: Изд-во С.-Петерб. ун-та, 2004.-- 72 с.
3. Валландер С.С. Заметки по эконометрике. -- СПб.: Европ. ун-т ,2001. -- 46 с.
4. Доугерти К. Введение в эконометрику: учебник. 2-е изд. М.: ИНФРА-М, 2004.-- 432 с.
5. Кремер Н.Ш., Путко Б.А. Эконометрика: Учебник для вузов.-- М.: ЮНИТИ-ДАНА, 2004.-- 311 с.
6. Магнус Я.Р., Катышев П.К., Пересецкий А.А. Эконометрика. Начальный курс. -- М.: Дело, 2000. -- 400 с.
7. Практикум по эконометрике: Учеб. пособие / И.И. Елисеева, С.В. Курышева, Н.М. Гордеенко и др.; Под ред. И.И. Елисеевой. - М.: Финансы и статистика, 2001, с. 49..105.
8. Эконометрика: Учебник / Под ред. И.И.Елисеевой. -- М.: Финансы и статистика, 2001. -- 344 с.
Размещено на Allbest.ru
Подобные документы
Основные параметры уравнения регрессии, оценка их параметров и значимость. Интервальная оценка для коэффициента корреляции. Анализ точности определения оценок коэффициентов регрессии. Показатели качества уравнения регрессии, прогнозирование данных.
контрольная работа [222,5 K], добавлен 08.05.2014Выбор факторных признаков для двухфакторной модели с помощью корреляционного анализа. Расчет коэффициентов регрессии, корреляции и эластичности. Построение модели линейной регрессии производительности труда от факторов фондо- и энерговооруженности.
задача [142,0 K], добавлен 20.03.2010Построение линейной модели и уравнения регрессии зависимости цены на квартиры на вторичном рынке жилья в Москве в 2006 г. от влияющих факторов. Методика составления матрицы парных коэффициентов корреляции. Экономическая интерпретация модели регрессии.
лабораторная работа [1,8 M], добавлен 25.05.2009Описание классической линейной модели множественной регрессии. Анализ матрицы парных коэффициентов корреляции на наличие мультиколлинеарности. Оценка модели парной регрессии с наиболее значимым фактором. Графическое построение интервала прогноза.
курсовая работа [243,1 K], добавлен 17.01.2016Определение параметров уравнения линейной регрессии. Экономическая интерпретация коэффициента регрессии. Вычисление остатков, расчет остаточной суммы квадратов. Оценка дисперсии остатков и построение графика остатков. Проверка выполнения предпосылок МНК.
контрольная работа [1,4 M], добавлен 25.06.2010Построение качественной модели линейной регрессии и доказательство справедливости соответствующего ей теоретического уравнения экономической теории. Демонстрация работы тестов Бреуша-Годфри и Q-теста, позволяющих определить наличие автокорреляции.
курсовая работа [108,6 K], добавлен 02.11.2009Факторы, формирующие цену квартир в строящихся домах в Санкт-Петербурге. Составление матрицы парных коэффициентов корреляции исходных переменных. Тестирование ошибок уравнения множественной регрессии на гетероскедастичность. Тест Гельфельда-Квандта.
контрольная работа [1,2 M], добавлен 14.05.2015Построение регрессионных моделей. Смысл регрессионного анализа. Выборочная дисперсия. Характеристики генеральной совокупности. Проверка статистической значимости уравнения регрессии. Оценка коэффициентов уравнения регрессии. Дисперсии случайных остатков.
реферат [57,4 K], добавлен 25.01.2009Параметры уравнения линейной регрессии. Вычисление остаточной суммы квадратов, оценка дисперсии остатков. Осуществление проверки значимости параметров уравнения регрессии с помощью критерия Стьюдента. Расчет коэффициентов детерминации и эластичности.
контрольная работа [248,4 K], добавлен 26.12.2010Расчет параметров уравнения линейной регрессии, экономическая интерпретация ее коэффициента. Проверка равенства математического ожидания уровней ряда остатков нулю. Построение степенной модели парной регрессии. Вариация объема выпуска продукции.
контрольная работа [771,6 K], добавлен 28.04.2016