Основы эконометрического анализа

Ознакомление с основами модели простой регрессии. Рассмотрение основных элементов эконометрической модели. Характеристика оценок коэффициентов уравнения регрессии. Построение доверительных интервалов. Автокорреляция и гетероскедастичность остатков.

Рубрика Экономико-математическое моделирование
Вид лекция
Язык русский
Дата добавления 23.12.2014
Размер файла 347,3 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

В случае если основная гипотеза окажется неверной, мы принимаем альтернативную. Для проверки этой гипотезы используется t-критерий Стьюдента.

Найденное по данным наблюдений значение t-критерия (его еще называют наблюдаемым или фактическим) сравнивается с табличным (критическим) значением, определяемым по таблицам распределения Стьюдента (которые обычно приводятся в конце учебников и практикумов по статистике или эконометрике).

Табличное значение определяется в зависимости от уровня значимости (б) и числа степеней свободы, которое в случае линейной парной регрессии равно (n-2), n-число наблюдений.

Если фактическое значение t-критерия больше табличного (по модулю), то основную гипотезу отвергают и считают, что с вероятностью (1-б) параметр или статистическая характеристика в генеральной совокупности значимо отличается от нуля.

Если фактическое значение t-критерия меньше табличного (по модулю), то нет оснований отвергать основную гипотезу, т.е. параметр или статистическая характеристика в генеральной совокупности незначимо отличается от нуля при уровне значимости б.

tкрит (n-m-1;б/2) = (97;0.025) = 1.984

EQ t = \f(b;S)

EQ t = \f(3.84;0.7) = 5.53

Отметим значения на числовой оси.

Отклонение H0, принятие H1

Принятие H0

Отклонение H0, принятие H1

2.5%

95%

2.5%

-1.984 1.984

5.53

Поскольку 5.53 > 1.984, то статистическая значимость коэффициента регрессии b подтверждается (отвергаем гипотезу о равенстве нулю этого коэффициента).

EQ t = \f(a;S)

EQ t = \f(-42.1;11.31) = 3.72

Поскольку 3.72 > 1.984, то статистическая значимость коэффициента регрессии a подтверждается (отвергаем гипотезу о равенстве нулю этого коэффициента).

Доверительный интервал для коэффициентов уравнения регрессии.

Определим доверительные интервалы коэффициентов регрессии, которые с надежность 95% будут следующими:

(b - tкрит Sb; b + tкрит Sb)

(3.84 - 1.984 * 0.7; 3.84 + 1.984 * 0.7)

(2.462;5.221)

С вероятностью 95% можно утверждать, что значение данного параметра будут лежать в найденном интервале.

(a - tкрит Sa; a + tкрит Sa)

(-42.102 - 1.984 * 11.31; -42.102 + 1.984 * 11.31) (-64.538;-19.667)

С вероятностью 95% можно утверждать, что значение данного параметра будут лежать в найденном интервале.

2) F-статистика. Критерий Фишера.

Коэффициент детерминации R2 используется для проверки существенности уравнения линейной регрессии в целом.

Проверка значимости модели регрессии проводится с использованием F-критерия Фишера, расчетное значение которого находится как отношение дисперсии исходного ряда наблюдений изучаемого показателя и несмещенной оценки дисперсии остаточной последовательности для данной модели.

Если расчетное значение с k1=(m) и k2=(n-m-1) степенями свободы больше табличного при заданном уровне значимости, то модель считается значимой.

EQ R = 1 - \f(?ix2; ?i2) = 1 - \f(174252.81;229104.81) = 0.2394

где m - число факторов в модели.

Оценка статистической значимости парной линейной регрессии производится по следующему алгоритму:

1. Выдвигается нулевая гипотеза о том, что уравнение в целом статистически незначимо: H0: R2=0 на уровне значимости б.

2. Далее определяют фактическое значение F-критерия:

EQ F = \f(R;1 - R)\f((n - m -1);m)

EQ F = \f(0.2394;1 - 0.2394)\f((99-1-1);1) = 30.53

Где

m=1 для парной регрессии.

3. Табличное значение определяется по таблицам распределения Фишера для заданного уровня значимости, принимая во внимание, что число степеней свободы для общей суммы квадратов (большей дисперсии) равно 1 и число степеней свободы остаточной суммы квадратов (меньшей дисперсии) при линейной регрессии равно n-2.

Fтабл - это максимально возможное значение критерия под влиянием случайных факторов при данных степенях свободы и уровне значимости б. Уровень значимости б - вероятность отвергнуть правильную гипотезу при условии, что она верна.

Обычно б принимается равной 0,05 или 0,01.

4. Если фактическое значение F-критерия меньше табличного, то говорят, что нет основания отклонять нулевую гипотезу.

В противном случае, нулевая гипотеза отклоняется и с вероятностью (1-б) принимается альтернативная гипотеза о статистической значимости уравнения в целом.

Табличное значение критерия со степенями свободы k1=1 и k2=97, Fтабл = 3.92

Отметим значения на числовой оси.

Принятие H0

Отклонение H0, принятие H1

95%

5%

3.92

30.53

Поскольку фактическое значение F > Fтабл, то коэффициент детерминации статистически значим (найденная оценка уравнения регрессии статистически надежна).

Связь между F-критерием Фишера и t-статистикой Стьюдента выражается равенством:

EQ t = t = \r(F) = \r(30.53) = 5.53

Показатели качества уравнения регрессии.

Показатель

Значение

Коэффициент детерминации

0.24

Средний коэффициент эластичности

3.67

Средняя ошибка аппроксимации

92.83

2.2 Задание 2

Имеются данные о продаже трехкомнатных квартир на рынке жилья в Кемерово на 24 августа 2004 года (табл. 12)

1. Постройте матрицу парных коэффициентов корреляции.

2. Постройте парные уравнения регрессии, оцените их статистическую значимость и их параметров с помощью критериев Фишера и Стьюдента.

3. Постройте модель формирования цены квартиры за счет значимых факторов.

4. Существует ли разница в ценах квартир, расположенных в Центральном районе и в периферийных районах Кемерово?

N - номер по порядку; price- цена квартиры (тыс. руб.);

totsp - общая площадь квартиры (м2);

ivesp - жилая площадь квартиры (м2);

kitsp - площадь кухни (m2);

flоог - этаж: 1 - крайний этаж.

0 - средний этаж;

balk - наличие балкона/лоджии:

1 - квартира с балконом/лоджией,

0 - квартира без балкона/лоджии,

raion - квартира расположена в:

1 - Центральном р-не,

2 - Ленинском р-не,

3 - Заводском р-не.

Уравнение множественной регрессии может быть представлено в виде:

Y = f(в, X) + е

где X = X(X1, X2, ..., Xm) - вектор независимых (объясняющих) переменных; в - вектор параметров (подлежащих определению); е - случайная ошибка (отклонение); Y - зависимая (объясняемая) переменная.

Теоретическое линейное уравнение множественной регрессии имеет вид:

Y = в0 + в1X1 + в2X2 + ... + вmXm + е

в0 - свободный член, определяющий значение Y, в случае, когда все объясняющие переменные Xj равны 0.

Прежде чем перейти к определению нахождения оценок коэффициентов регрессии, необходимо проверить ряд предпосылок МНК.

Предпосылки МНК.

1. Математическое ожидание случайного отклонения еi равно 0 для всех наблюдений (M(еi) = 0).

2. Гомоскедастичность (постоянство дисперсий отклонений). Дисперсия случайных отклонений еi постоянна: D(еi) = D(еj) = S2 для любых i и j.

3. отсутствие автокорреляции.

4. Случайное отклонение должно быть независимо от объясняющих переменных: Yeixi = 0.

5. Модель является линейное относительно параметров.

6. отсутствие мультиколлинеарности. Между объясняющими переменными отсутствует строгая (сильная) линейная зависимость.

7. Ошибки еi имеют нормальное распределение. Выполнимость данной предпосылки важна для проверки статистических гипотез и построения доверительных интервалов.

Эмпирическое уравнение множественной регрессии представим в виде:

Y = b0 + b1X1 + b1X1 + ... + bmXm + e

Здесь b0, b1, ..., bm - оценки теоретических значений в0, в1, в2, ..., вm коэффициентов регрессии (эмпирические коэффициенты регрессии); e - оценка отклонения е.

При выполнении предпосылок МНК относительно ошибок еi, оценки b0, b1, ..., bm параметров в0, в1, в2, ..., вm множественной линейной регрессии по МНК являются несмещенными, эффективными и состоятельными (т.е. BLUE-оценками).

Для оценки параметров уравнения множественной регрессии применяют МНК.

1. Оценка уравнения регрессии.

Определим вектор оценок коэффициентов регрессии. Согласно методу наименьших квадратов, вектор s получается из выражения: s = (XTX)-1XTY

К матрице с переменными Xj добавляем единичный столбец:

1

62

41

6

0

1

1

1

86

54

10

0

1

1

1

60

45

6

1

0

1

1

58

44

6

1

0

1

1

59

43

6

1

0

1

1

57

43

6

0

1

1

1

60

42

6

0

0

1

1

80

50

9

1

0

1

1

60

42

6

0

0

1

1

57

39

6

1

1

1

1

64

39

9

0

1

1

1

61

43

6

1

0

1

1

58

43

6

1

0

1

1

58

43

6

1

0

1

1

60

51

7

0

0

1

1

88

54

10

1

1

1

1

78

54

12

0

1

1

1

87

57

12

1

0

1

1

80

52

9

1

0

1

1

55

40

6

1

0

1

1

47

34

6

1

1

1

1

47

34

6

1

1

1

1

47

34

6

1

0

1

1

47

34

6

1

1

1

1

48

34

6

1

0

1

1

62

45

6

1

0

1

1

58

40

6

1

1

1

1

56

40

6

1

0

1

1

54

40

6

1

0

1

1

57

41

6

0

1

1

1

74

48

9

1

1

2

1

62

45

6

1

0

2

1

62

45

6

1

0

2

1

47

33

6

0

1

2

1

38

27

6

0

1

2

1

62

45

6

1

0

2

1

62

45

6

1

0

2

1

60

45

6

1

0

2

1

62

45

6

1

0

2

1

62

45

6

1

0

2

1

61

45

6

1

0

2

1

62

45

6

1

1

2

1

62

43

7

0

1

2

1

69

47

9

0

1

1

1

61

43

7

1

0

2

1

64

43

7

0

0

2

1

70

48

9

0

1

2

1

95

51

1

0

0

2

1

62

43

8

0

1

2

1

63

43

7

0

1

2

1

63

39

9

0

1

2

1

74

48

7

1

0

2

1

62

45

6

1

0

2

1

62

45

6

1

0

2

1

80

50

12

0

1

2

1

63

39

9

1

1

2

1

62

39

9

1

0

2

1

62

39

9

0

0

2

1

65

40

9

0

0

2

1

66

39

9

1

1

3

1

85

59

9

0

1

3

1

82

50

11

0

0

3

1

65

47

10

0

1

3

1

64

47

8

0

1

3

1

100

66

9

0

1

3

1

80

52

10

0

1

3

1

47

34

6

1

0

3

1

48

33

6

1

0

3

1

67

43

6

0

1

3

1

57

41

7

0

1

3

1

61

38

9

0

1

3

1

53

35

6

1

0

3

1

66

44

9

1

0

3

1

57

43

6

1

0

3

1

65

39

9

0

0

3

1

90

60

7

0

1

3

1

65

45

6

0

1

3

1

74

36

9

1

0

3

1

760

56

6

1

0

3

1

60

43

6

1

0

3

1

74

45

7

1

0

3

1

80

50

9

1

0

3

1

59

46

6

0

1

3

1

59

37

8

1

0

3

1

59

37

9

1

0

3

1

45

33

6

1

0

3

Матрица Y

820

2310

1550

1530

1600

870

870

1440

1100

730

1020

800

800

750

850

1350

1350

1350

2460

1000

830

820

820

930

820

1100

870

800

980

870

870

800

790

700

740

820

830

870

850

790

990

820

980

980

1200

1130

1070

3960

860

1100

1250

910

850

900

1400

950

960

1600

1300

1150

980

1000

820

800

1250

1120

660

680

790

800

920

630

800

720

900

970

780

850

79

1200

610

670

630

700

710

520

Делаем матрицу XT, а затем перемножаем матрицы, (XTX)

86

6192

3751

625

51

36

168

6192

936314

284459

45032

3828

2360

12952

3751

284459

167493

27630

2165

1595

7358

625

45032

27630

4827

351

282

1240

51

3828

2165

351

51

10

95

36

2360

1595

282

10

36

71

168

12952

7358

1240

95

71

386

В матрице, (XTX) число 86, лежащее на пересечении 1-й строки и 1-го столбца, получено как сумма произведений элементов 1-й строки матрицы XT и 1-го столбца матрицы X

Умножаем матрицы, (XTY)

86399

5812150

3854104

630254

47509

35500

160167

Находим обратную матрицу (XTX)-1

0.77

0.000291

-0.0123

-0.0112

-0.11

-0.0512

-0.0363

0.000291

2.0E-6

-1.1E-5

1.3E-5

-4.2E-5

6.0E-6

-3.8E-5

-0.0123

-1.1E-5

0.000347

-0.000425

0.000918

0.000377

0.000183

-0.0112

1.3E-5

-0.000425

0.00444

0.000859

-0.00316

-0.00132

-0.11

-4.2E-5

0.000918

0.000859

0.0735

0.0373

0.0053

-0.0512

6.0E-6

0.000377

-0.00316

0.0373

0.0706

0.00292

-0.0363

-3.8E-5

0.000183

-0.00132

0.0053

0.00292

0.0186

Вектор оценок коэффициентов регрессии равен

Y(X) = (XTX)-1XTY =

569.36

-1.39

27.81

-20.91

-246.78

-188.75

-153.7

Уравнение регрессии (оценка уравнения регрессии)

Y = 569.36-1.39X1 + 27.81X2-20.91X3-246.78X4-188.75X5-153.7X6

2. Матрица парных коэффициентов корреляции R.

Число наблюдений n = 86.

Число независимых переменных в модели равно 6, а число регрессоров с учетом единичного вектора равно числу неизвестных коэффициентов.

С учетом признака Y, размерность матрицы становится равным 8.

Матрица, независимых переменных Х имеет размерность (86 х 8).

Матрица, составленная из Y и X

1

820

62

41

6

0

1

1

1

2310

86

54

10

0

1

1

1

1550

60

45

6

1

0

1

1

1530

58

44

6

1

0

1

1

1600

59

43

6

1

0

1

1

870

57

43

6

0

1

1

1

870

60

42

6

0

0

1

1

1440

80

50

9

1

0

1

1

1100

60

42

6

0

0

1

1

730

57

39

6

1

1

1

1

1020

64

39

9

0

1

1

1

800

61

43

6

1

0

1

1

800

58

43

6

1

0

1

1

750

58

43

6

1

0

1

1

850

60

51

7

0

0

1

1

1350

88

54

10

1

1

1

1

1350

78

54

12

0

1

1

1

1350

87

57

12

1

0

1

1

2460

80

52

9

1

0

1

1

1000

55

40

6

1

0

1

1

830

47

34

6

1

1

1

1

820

47

34

6

1

1

1

1

820

47

34

6

1

0

1

1

930

47

34

6

1

1

1

1

820

48

34

6

1

0

1

1

1100

62

45

6

1

0

1

1

870

58

40

6

1

1

1

1

800

56

40

6

1

0

1

1

980

54

40

6

1

0

1

1

870

57

41

6

0

1

1

1

870

74

48

9

1

1

2

1

800

62

45

6

1

0

2

1

790

62

45

6

1

0

2

1

700

47

33

6

0

1

2

1

740

38

27

6

0

1

2

1

820

62

45

6

1

0

2

1

830

62

45

6

1

0

2

1

870

60

45

6

1

0

2

1

850

62

45

6

1

0

2

1

790

62

45

6

1

0

2

1

990

61

45

6

1

0

2

1

820

62

45

6

1

1

2

1

980

62

43

7

0

1

2

1

980

69

47

9

0

1

1

1

1200

61

43

7

1

0

2

1

1130

64

43

7

0

0

2

1

1070

70

48

9

0

1

2

1

3960

95

51

1

0

0

2

1

860

62

43

8

0

1

2

1

1100

63

43

7

0

1

2

1

1250

63

39

9

0

1

2

1

910

74

48

7

1

0

2

1

850

62

45

6

1

0

2

1

900

62

45

6

1

0

2

1

1400

80

50

12

0

1

2

1

950

63

39

9

1

1

2

1

960

62

39

9

1

0

2

1

1600

62

39

9

0

0

2

1

1300

65

40

9

0

0

2

1

1150

66

39

9

1

1

3

1

980

85

59

9

0

1

3

1

1000

82

50

11

0

0

3

1

820

65

47

10

0

1

3

1

800

64

47

8

0

1

3

1

1250

100

66

9

0

1

3

1

1120

80

52

10

0

1

3

1

660

47

34

6

1

0

3

1

680

48

33

6

1

0

3

1

790

67

43

6

0

1

3

1

800

57

41

7

0

1

3

1

920

61

38

9

0

1

3

1

630

53

35

6

1

0

3

1

800

66

44

9

1

0

3

1

720

57

43

6

1

0

3

1

900

65

39

9

0

0

3

1

970

90

60

7

0

1

3

1

780

65

45

6

0

1

3

1

850

74

36

9

1

0

3

1

79

760

56

6

1

0

3

1

1200

60

43

6

1

0

3

1

610

74

45

7

1

0

3

1

670

80

50

9

1

0

3

1

630

59

46

6

0

1

3

1

700

59

37

8

1

0

3

1

710

59

37

9

1

0

3

1

520

45

33

6

1

0

3

Транспонированная матрица (приведена частично)

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

820

2310

1550

1530

1600

870

870

1440

1100

730

1020

800

800

750

850

1350

1350

1350

2460

1000

830

820

820

930

820

1100

62

86

60

58

59

57

60

80

60

57

64

61

58

58

60

88

78

87

80

55

47

47

47

47

48

62

41

54

45

44

43

43

42

50

42

39

39

43

43

43

51

54

54

57

52

40

34

34

34

34

34

45

6

10

6

6

6

6

6

9

6

6

9

6

6

6

7

10

12

12

9

6

6

6

6

6

6

6

0

0

1

1

1

0

0

1

0

1

0

1

1

1

0

1

0

1

1

1

1

1

1

1

1

1

1

1

0

0

0

1

0

0

0

1

1

0

0

0

0

1

1

0

0

0

1

1

0

1

0

0

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

Матрица ATA

86

86399

6192

3751

625

51

36

168

86399

105195241

5812150

3854104

630254

47509

35500

160167

6192

5812150

936314

284459

45032

3828

2360

12952

3751

3854104

284459

167493

27630

2165

1595

7358

625

630254

45032

27630

4827

351

282

1240

51

47509

3828

2165

351

51

10

95

36

35500

2360

1595

282

10

36

71

168

160167

12952

7358

1240

95

71

386

Полученная матрица имеет следующее соответствие:

?n

?y

?x1

?x2

?x3

?x4

?x5

?x6

?y

?y2

?x1 y

?x2 y

?x3 y

?x4 y

?x5 y

?x6 y

?x1

?yx1

?x1 2

?x2 x1

?x3 x1

?x4 x1

?x5 x1

?x6 x1

?x2

?yx2

?x1 x2

?x2 2

?x3 x2

?x4 x2

?x5 x2

?x6 x2

?x3

?yx3

?x1 x3

?x2 x3

?x3 2

?x4 x3

?x5 x3

?x6 x3

?x4

?yx4

?x1 x4

?x2 x4

?x3 x4

?x4 2

?x5 x4

?x6 x4

?x5

?yx5

?x1 x5

?x2 x5

?x3 x5

?x4 x5

?x5 2

?x6 x5

?x6

?yx6

?x1 x6

?x2 x6

?x3 x6

?x4 x6

?x5 x6

?x6 2

Найдем парные коэффициенты корреляции.

EQ rxy = \f(\x\to(x * y) -\x\to(x) * \x\to(y) ;s(x) * s(y))

EQ ryx1 = \f(67583.14 - 72 * 1004.64;75.52 * 462.49) = -0.136

EQ ryx2 = \f(44815.16 - 43.62 * 1004.64;6.72 * 462.49) = 0.32

EQ ryx3 = \f(7328.53 - 7.27 * 1004.64;1.82 * 462.49) = 0.0325

EQ ryx4 = \f(552.43 - 0.59 * 1004.64;0.49 * 462.49) = -0.191

EQ ryx5 = \f(412.79 - 0.42 * 1004.64;0.49 * 462.49) = -0.034

EQ ryx6 = \f(1862.41 - 1.95 * 1004.64;0.82 * 462.49) = -0.264

EQ rx1 x2 = \f(3307.66 - 43.62 * 72;6.72 * 75.52) = 0.329

EQ rx1 x3 = \f(523.63 - 7.27 * 72;1.82 * 75.52) = 0.00271

EQ rx1 x4 = \f(44.51 - 0.59 * 72;0.49 * 75.52) = 0.0489

EQ rx1 x5 = \f(27.44 - 0.42 * 72;0.49 * 75.52) = -0.0724

EQ rx1 x6 = \f(150.6 - 1.95 * 72;0.82 * 75.52) = 0.161

EQ rx2 x3 = \f(321.28 - 7.27 * 43.62;1.82 * 6.72) = 0.351

EQ rx2 x4 = \f(25.17 - 0.59 * 43.62;0.49 * 6.72) = -0.209

EQ rx2 x5 = \f(18.55 - 0.42 * 43.62;0.49 * 6.72) = 0.087

EQ rx2 x6 = \f(85.56 - 1.95 * 43.62;0.82 * 6.72) = 0.0643

EQ rx3 x4 = \f(4.08 - 0.59 * 7.27;0.49 * 1.82) = -0.255

EQ rx3 x5 = \f(3.28 - 0.42 * 7.27;0.49 * 1.82) = 0.264

EQ rx3 x6 = \f(14.42 - 1.95 * 7.27;0.82 * 1.82) = 0.149

EQ rx4 x5 = \f(0.12 - 0.42 * 0.59;0.49 * 0.49) = -0.544

EQ rx4 x6 = \f(1.1 - 1.95 * 0.59;0.82 * 0.49) = -0.134

EQ rx5 x6 = \f(0.83 - 1.95 * 0.42;0.82 * 0.49) = 0.0194

Признаки x и y

?xi

EQ \x\to(x) = \f(?xi;n)

?yi

EQ \x\to(y) = \f(?yi;n)

?xiyi

EQ \x\to(xy) = \f(?xi yi;n)

Для y и x1

6192

72

86399

1004.64

5812150

67583.14

Для y и x2

3751

43.616

86399

1004.64

3854104

44815.163

Для y и x3

625

7.267

86399

1004.64

630254

7328.535

Для y и x4

51

0.593

86399

1004.64

47509

552.43

Для y и x5

36

0.419

86399

1004.64

35500

412.791

Для y и x6

168

1.953

86399

1004.64

160167

1862.407

Для x1 и x2

3751

43.616

6192

72

284459

3307.663

Для x1 и x3

625

7.267

6192

72

45032

523.628

Для x1 и x4

51

0.593

6192

72

3828

44.512

Для x1 и x5

36

0.419

6192

72

2360

27.442

Для x1 и x6

168

1.953

6192

72

12952

150.605

Для x2 и x3

625

7.267

3751

43.616

27630

321.279

Для x2 и x4

51

0.593

3751

43.616

2165

25.174

Для x2 и x5

36

0.419

3751

43.616

1595

18.547

Для x2 и x6

168

1.953

3751

43.616

7358

85.558

Для x3 и x4

51

0.593

625

7.267

351

4.081

Для x3 и x5

36

0.419

625

7.267

282

3.279

Для x3 и x6

168

1.953

625

7.267

1240

14.419

Для x4 и x5

36

0.419

51

0.593

10

0.116

Для x4 и x6

168

1.953

51

0.593

95

1.105

Для x5 и x6

168

1.953

36

0.419

71

0.826

Признаки x и y

EQ D(x) = \f(?x2i;n) - \x\to(x)2

EQ D(y) = \f(?y2i;n) - \x\to(x)2

EQ s(x) = \r(D(x))

EQ s(y) = \r(D(y))

Для y и x1

5703.372

213899.882

75.521

462.493

Для y и x2

45.213

213899.882

6.724

462.493

Для y и x3

3.312

213899.882

1.82

462.493

Для y и x4

0.241

213899.882

0.491

462.493

Для y и x5

0.243

213899.882

0.493

462.493

Для y и x6

0.672

213899.882

0.82

462.493

Для x1 и x2

45.213

5703.372

6.724

75.521

Для x1 и x3

3.312

5703.372

1.82

75.521

Для x1 и x4

0.241

5703.372

0.491

75.521

Для x1 и x5

0.243

5703.372

0.493

75.521

Для x1 и x6

0.672

5703.372

0.82

75.521

Для x2 и x3

3.312

45.213

1.82

6.724

Для x2 и x4

0.241

45.213

0.491

6.724

Для x2 и x5

0.243

45.213

0.493

6.724

Для x2 и x6

0.672

45.213

0.82

6.724

Для x3 и x4

0.241

3.312

0.491

1.82

Для x3 и x5

0.243

3.312

0.493

1.82

Для x3 и x6

0.672

3.312

0.82

1.82

Для x4 и x5

0.243

0.241

0.493

0.491

Для x4 и x6

0.672

0.241

0.82

0.491

Для x5 и x6

0.672

0.243

0.82

0.493

Матрица парных коэффициентов корреляции R:

-

y

x1

x2

x3

x4

x5

x6

y

1

-0.136

0.32

0.0325

-0.191

-0.034

-0.264

x1

-0.136

1

0.329

0.00271

0.0489

-0.0724

0.161

x2

0.32

0.329

1

0.351

-0.209

0.087

0.0643

x3

0.0325

0.00271

0.351

1

-0.255

0.264

0.149

x4

-0.191

0.0489

-0.209

-0.255

1

-0.544

-0.134

x5

-0.034

-0.0724

0.087

0.264

-0.544

1

0.0194

x6

-0.264

0.161

0.0643

0.149

-0.134

0.0194

1

Коллинеарность - зависимость между факторами. В качестве критерия мультиколлинеарности может быть принято соблюдение следующих неравенств:

r(xjy) > r(xkxj); r(xky) > r(xkxj).

Если одно из неравенств не соблюдается, то исключается тот параметр xk или xj, связь которого с результативным показателем Y оказывается наименее тесной.

Для отбора наиболее значимых факторов xi учитываются следующие условия:

- связь между результативным признаком и факторным должна быть выше межфакторной связи;

- связь между факторами должна быть не более 0.7. Если в матрице есть межфакторный коэффициент корреляции rxjxi > 0.7, то в данной модели множественной регрессии существует мультиколлинеарность.;

- при высокой межфакторной связи признака отбираются факторы с меньшим коэффициентом корреляции между ними.

Если факторные переменные связаны строгой функциональной зависимостью, то говорят о полной мультиколлинеарности. В этом случае среди столбцов матрицы факторных переменных Х имеются линейно зависимые столбцы, и, по свойству определителей матрицы, det(XTX = 0).

Вид мультиколлинеарности, при котором факторные переменные связаны некоторой стохастической зависимостью, называется частичной. Если между факторными переменными имеется высокая степень корреляции, то матрица (XTX) близка к вырожденной, т. е. det(XTX ? 0) (чем ближе к 0 определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии).

В нашем случае все парные коэффициенты корреляции |r|<0.7, что говорит об отсутствии мультиколлинеарности факторов.

Анализ первой строки этой матрицы позволяет произвести отбор факторных признаков, которые могут быть включены в модель множественной корреляционной зависимости. Факторные признаки, у которых |ryxi| < 0.5 исключают из модели. Можно дать следующую качественную интерпретацию возможных значений коэффициента корреляции (по шкале Чеддока): если |r|>0.3 - связь практически отсутствует; 0.3 ? |r| ? 0.7 - связь средняя; 0.7 ? |r| ? 0.9 - связь сильная; |r| > 0.9 - связь весьма сильная.

Проверим значимость полученных парных коэффициентов корреляции с помощью t-критерия Стьюдента. Коэффициенты, для которых значения t-статистики по модулю больше найденного критического значения, считаются значимыми.

Рассчитаем наблюдаемые значения t-статистики для ryx1 по формуле:

EQ tнабл = ryx1 \f(\r(n-m-1);\r(1 - ryx1 2))

где m = 1 - количество факторов в уравнении регрессии.

EQ tнабл = 0.14 \f(\r(86 - 1 - 1);\r(1 - 0.142)) = 1.26

По таблице Стьюдента находим Tтабл

tкрит(n-m-1;б/2) = (84;0.025) = 1.984

Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим

Рассчитаем наблюдаемые значения t-статистики для ryx2 по формуле:

EQ tнабл = 0.32 \f(\r(86 - 1 - 1);\r(1 - 0.322)) = 3.1

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Рассчитаем наблюдаемые значения t-статистики для ryx3 по формуле:

EQ tнабл = 0.0325 \f(\r(86 - 1 - 1);\r(1 - 0.03252)) = 0.3

Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим

Рассчитаем наблюдаемые значения t-статистики для ryx4 по формуле:

EQ tнабл = 0.19 \f(\r(86 - 1 - 1);\r(1 - 0.192)) = 1.78

Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим

Рассчитаем наблюдаемые значения t-статистики для ryx5 по формуле:

EQ tнабл = 0.034 \f(\r(86 - 1 - 1);\r(1 - 0.0342)) = 0.31

Поскольку tнабл < tкрит, то принимаем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - не значим

Рассчитаем наблюдаемые значения t-статистики для ryx6 по формуле:

EQ tнабл = 0.26 \f(\r(86 - 1 - 1);\r(1 - 0.262)) = 2.51

Поскольку tнабл > tкрит, то отклоняем гипотезу о равенстве 0 коэффициента корреляции. Другими словами, коэффициент корреляции статистически - значим

Таким образом, связь между (y и xx2 ), (y и xx6 ) является существенной, т.е. цена квартир зависит от жилой площади и расположения в центре или на окраине.

Наибольшее влияние на результативный признак оказывает фактор x2 (r = 0.32), значит, при построении модели он войдет в регрессионное уравнение первым.

Тестирование и устранение мультиколлинеарности.

Наиболее полным алгоритмом исследования мультиколлинеарности является алгоритм Фаррара-Глобера. С его помощью тестируют три вида мультиколлинеарности:

1. Всех факторов (ч2 - хи-квадрат).

2. Каждого фактора с остальными (критерий Фишера).

3. Каждой пары факторов (критерий Стьюдента).

Проверим переменные на мультиколлинеарность методом Фаррара-Глоубера по первому виду статистических критериев (критерий "хи-квадрат").

Формула для расчета значения статистики Фаррара-Глоубера:

ч2 = -[n-1-(2m+5)/6]ln(det[R])

где m = 6 - количество факторов, n = 86 - количество наблюдений, det[R] - определитель матрицы парных коэффициентов корреляции R.

Сравниваем его с табличным значением при v = m/2(m-1) = 15 степенях свободы и уровне значимости б. Если ч2 > чтабл2, то в векторе факторов есть присутствует мультиколлинеарность.

чтабл2(15;0.05) = 24.99579

Проверим переменные на мультиколлинеарность по второму виду статистических критериев (критерий Фишера).

Определяем обратную матрицу D = R-1:

1.4

0.32

-0.57

0.12

0.37

0.28

0.38

0.32

1.26

-0.59

0.18

-0.0505

0.0819

-0.12

-0.57

-0.59

1.58

-0.49

0.11

-0.00659

-0.0676

0.12

0.18

-0.49

1.27

0.0963

-0.22

-0.14

0.37

-0.0505

0.11

0.0963

1.62

0.85

0.28

0.28

0.0819

-0.00659

-0.22

0.85

1.53

0.18

0.38

-0.12

-0.0676

-0.14

0.28

0.18

1.18

Вычисляем F-критерии Фишера:

EQ Fk = (dkk-1)\f(n-m;m-1)

где dkk - диагональные элементы матрицы.

Рассчитанные значения критериев сравниваются с табличными при v1=n-m и v2=m-1 степенях свободы и уровне значимости б. Если Fk > FТабл, то k-я переменная мультиколлинеарна с другими.

v1=86-6 = 80; v2=6-1 = 5. FТабл(80;5) = 4.4

EQ F1 = (1.402-1)\f(86-6;6-1) = 6.43

оскольку F1 > Fтабл, то переменная y мультиколлинеарна с другими.

EQ F2 = (1.264-1)\f(86-6;6-1) = 4.23

Поскольку F2 ? Fтабл, то переменная x1 немультиколлинеарна с другими.

EQ F3 = (1.578-1)\f(86-6;6-1) = 9.25

Поскольку F3 > Fтабл, то переменная x2 мультиколлинеарна с другими.

EQ F4 = (1.273-1)\f(86-6;6-1) = 4.37

Поскольку F4 ? Fтабл, то переменная x3 немультиколлинеарна с другими.

EQ F5 = (1.622-1)\f(86-6;6-1) = 9.95

Поскольку F5 > Fтабл, то переменная x4 мультиколлинеарна с другими.

EQ F6 = (1.535-1)\f(86-6;6-1) = 8.55

Поскольку F6 > Fтабл, то переменная x5 мультиколлинеарна с другими.

EQ F7 = (1.179-1)\f(86-6;6-1) = 2.86

Поскольку F7 ? Fтабл, то переменная x6 немультиколлинеарна с другими.

Проверим переменные на мультиколлинеарность по третьему виду статистических критериев (критерий Стьюдента). Для этого найдем частные коэффициенты корреляции.

Частные коэффициенты корреляции.

Коэффициент частной корреляции отличается от простого коэффициента линейной парной корреляции тем, что он измеряет парную корреляцию соответствующих признаков (y и xi) при условии, что влияние на них остальных факторов (xj) устранено.

На основании частных коэффициентов можно сделать вывод об обоснованности включения переменных в регрессионную модель. Если значение коэффициента мало или он незначим, то это означает, что связь между данным фактором и результативной переменной либо очень слаба, либо вовсе отсутствует, поэтому фактор можно исключить из модели.

Можно сделать вывод, что при построении регрессионного уравнения следует отобрать факторы x2, x6.

Модель регрессии в стандартном масштабе.

Модель регрессии в стандартном масштабе предполагает, что все значения исследуемых признаков переводятся в стандарты (стандартизованные значения) по формулам:

EQ tj = \f(xji-\x\to(xj);S(xj))

где хji - значение переменной хji в i-ом наблюдении.

EQ ty = \f(yi-\x\to(xj);S(y))

Таким образом, начало отсчета каждой стандартизованной переменной совмещается с ее средним значением, а в качестве единицы изменения принимается ее среднее квадратическое отклонение S.

Если связь между переменными в естественном масштабе линейная, то изменение начала отсчета и единицы измерения этого свойства не нарушат, так что и стандартизованные переменные будут связаны линейным соотношением:

ty = ?вjtxj

Для оценки в-коэффциентов применим МНК. При этом система нормальных уравнений будет иметь вид:

rx1y=в1+rx1x2*в2 + ... + rx1xm*вm

rx2y=rx2x1*в1 + в2 + ... + rx2xm*вm

...

rxmy=rxmx1*в1 + rxmx2*в2 + ... + вm

Для наших данных (берем из матрицы парных коэффициентов корреляции):

-0.136 = в1 + 0.329в2 + 0.00271в3 + 0.0489в4 -0.0724в5 + 0.161в6

0.32 = 0.329в1 + в2 + 0.351в3 -0.209в4 + 0.087в5 + 0.0643в6

0.0325 = 0.00271в1 + 0.351в2 + в3 -0.255в4 + 0.264в5 + 0.149в6

-0.191 = 0.0489в1 -0.209в2 -0.255в3 + в4 -0.544в5 -0.134в6

-0.034 = -0.0724в1 + 0.087в2 + 0.264в3 -0.544в4 + в5 + 0.0194в6

-0.264 = 0.161в1 + 0.0643в2 + 0.149в3 -0.134в4 + 0.0194в5 + в6

Данную систему линейных уравнений решаем методом Гаусса:

в1 = -0.227; в2 = 0.404; в3 = -0.0823; в4 = -0.262; в5 = -0.201; в6 = -0.272;

Стандартизированная форма уравнения регрессии имеет вид:

y0 = -0.227x1 + 0.404x2 -0.0823x3 -0.262x4 -0.201x5 -0.272x6

Найденные из данной системы в-коэффициенты позволяют определить значения коэффициентов в регрессии в естественном масштабе по формулам:

EQ bj = в\f(S(y);S(xj))

EQ a = \x\to(y) - ?bj\x\to(xj)

3. Анализ параметров уравнения регрессии.

Перейдем к статистическому анализу полученного уравнения регрессии: проверке значимости уравнения и его коэффициентов, исследованию абсолютных и относительных ошибок аппроксимации

Для несмещенной оценки дисперсии проделаем следующие вычисления:

Несмещенная ошибка е = Y - Y(x) = Y - X*s (абсолютная ошибка аппроксимации)

Y

Y(x)

е = Y - Y(x)

е2

(Y-Yср)2

|е : Y|

820

1155.44

-335.44

112522.19

34091.76

0.41

2310

1399.96

910.04

828169.83

1703965.94

0.39

1550

1211.43

338.57

114632.45

297418.04

0.22

1530

1186.4

343.6

118063.12

276003.62

0.22

1600

1157.2

442.8

196073.44

354454.08

0.28

870

1218.01

-348.01

121111.13

18127.8

0.4

870

1374.78

-504.78

254804.7

18127.8

0.58

1440

1259.94

180.06

32420.46

189538.73

0.13

1100

1374.78

-274.78

75505.06

9093.62

0.25

730

859.99

-129.99

16898.14

75426.87

0.18

1020

1034.32

-14.32

204.98

235.94

0.014

800

1154.42

-354.42

125612.42

41877.34

0.44

800

1158.59

-358.59

128585.41

41877.34

0.45

750

1158.59

-408.59

166944.22

64841.29

0.54

850

1604.15

-754.15

568743.99

23913.39

0.89

1350

1150.4

199.6

39840.33

119273.85

0.15

1350

1369.26

-19.26

371.01

119273.85

0.0143

1350

1382.15

-32.15

1033.4

119273.85

0.0238

2460

1315.56

1144.44

1309741.25

2118074.08

0.47

1000

1079.33

-79.33

6293.47

21.53

0.0793

830

734.85

95.15

9053.93

30498.97

0.11

820

734.85

85.15

7250.89

34091.76

0.1

820

923.6

-103.6

10732.52

34091.76

0.13

930

734.85

195.15

38084.36

5571.06

0.21

820

922.21

-102.21

10446.47

34091.76

0.12

1100

1208.65

-108.65

11803.97

9093.62

0.0988

870

886.41

-16.41

269.35

18127.8

0.0189

800

1077.94

-277.94

77251.5

41877.34

0.35

980

1080.72

-100.72

10144.78

607.11

0.1

870

1162.39

-292.39

85493.49

18127.8

0.34

870

870.22

-0.22

0.0466

18127.8

0.000248

800

1054.95

-254.95

64997.95

41877.34

0.32

790

1054.95

-264.95

70196.88

46070.13

0.34

700

800.12

-100.12

10024.46

92805.25

0.14

740

645.78

94.22

8877.68

70034.08

0.13

820

1054.95

-234.95

55200.07

34091.76

0.29

830

1054.95

-224.95

50601.13

30498.97

0.27

870

1057.73

-187.73

35241.32

18127.8

0.22

850

1054.95

-204.95

42003.25

23913.39

0.24

790

1054.95

-264.95

70196.88

46070.13

0.34

990

1056.34

-66.34

4400.58

214.32

0.067

820

866.2

-46.2

2134.16

34091.76

0.0563

980

1036.45

-56.45

3186.84

607.11

0.0576

980

1249.84

-269.84

72812.48

607.11

0.28

1200

979.81

220.19

48483.78

38165.71

0.18

1130

1222.42

-92.42

8541.89

15715.25

0.0818

1070

1122.56

-52.56

2762.31

4271.99

0.0491

3960

1527.26

2432.74

5918205.83

8734155.48

0.61

860

1015.54

-155.54

24193.46

20920.6

0.18

1100

1035.06

64.94

4216.92

9093.62

0.059

1250

882.01

367.99

135418.2

60201.76

0.29

910

1100.79

-190.79

36398.93

8956.64

0.21

850

1054.95

-204.95

42003.25

23913.39

0.24

900

1054.95

-154.95

24008.56

10949.43

0.17

1400

1101.55

298.45

89073.89

156309.9

0.21

950

635.23

314.77

99082.93

2985.48

0.33

960

825.37

134.63

18126.45

1992.69

0.14

1600

1072.15

527.85

278627.96

354454.08

0.33

1300

1095.79

204.21

41702.99

87237.8

0.16

1150

477.36

672.64

452448.88

21129.66

0.58

980

1253.91

-273.91

75024.89

607.11

0.28

1000

1154.73

-154.73

23940.82

21.53

0.15

820

927.09

-107.09

11468.17

34091.76

0.13

800

970.3

-170.3

29001.63

41877.34

0.21

1250

1427.72

-177.72

31584.34

60201.76

0.14

1120

1045.29

74.71

5582.31

13308.04

0.0667

660

616.2

43.8

1918.48

118776.41

0.0664

680

587

93

8648.82

105390.83

0.14

790

896.71

-106.71

11387.69

46070.13

0.14

800

834.08

-34.08

1161.78

41877.34

0.0426

920

703.28

216.72

46967.67

7163.85

0.24

630

635.67

-5.67

32.14

140354.78

0.009

800

805.15

-5.15

26.53

41877.34

0.00644

720

852.58

-132.58

17577.38

81019.66

0.18

900

914.28

-14.28

203.89

10949.43

0.0159

970

1316.59

-346.59

120121.36

1199.9

0.36

780

955.11

-175.11

30663.67

50462.92

0.22

850

571.56

278.44

77528.04

23913.39

0.33

79

237

-158

24965.43

856808.55

2

1200

848.41

351.59

123615.5

38165.71

0.29

610

863.66

-253.66

64343.18

155740.36

0.42

670

952.54

-282.54

79831.63

111983.62

0.42

630

991.26

-361.26

130507.72

140354.78

0.57

700

641.13

58.87

3465.9

92805.25

0.0841

710

620.22

89.78

8060.72

86812.46

0.13

520

591.17

-71.17

5065.25

234875.48

0.14

0

13123967.15

18395389.83

21.06

Средняя ошибка аппроксимации

EQ A = \f(?|е : Y|;n) 100% = \f(21.06;86) 100% = 24.488

Оценка дисперсии равна:

se2 = (Y - X*Y(X))T(Y - X*Y(X)) = 13123967.15

Несмещенная оценка дисперсии равна:

EQ s2 = \f(1;n-m-1) s2e = \f(1;86 - 6 - 1)13123967.15 = 166126.17

Оценка среднеквадратичного отклонения (стандартная ошибка для оценки Y):

EQ S = \r(S2) = \r(166126.17) = 407.59

Найдем оценку ковариационной матрицы вектора k = S * (XTX)-1

313.71

0.12

-5.03

-4.57

-45.98

-20.88

-14.81

0.12

0.000991

-0.00431

0.00518

-0.0171

0.00227

-0.0155

-5.03

-0.00431

0.14

-0.17

0.37

0.15

0.0747

-4.57

0.00518

-0.17

1.81

0.35

-1.29

-0.54

-45.98

-0.0171

0.37

0.35

29.96

15.2

2.16

-20.88

0.00227

0.15

-1.29

15.2

28.78

1.19

-14.81

-0.0155

0.0747

-0.54

2.16

1.19

7.58

Дисперсии параметров модели определяются соотношением S2i = Kii, т.е. это элементы, лежащие на главной диагонали

Показатели тесноты связи факторов с результатом.

Если факторные признаки различны по своей сущности и (или) имеют различные единицы измерения, то коэффициенты регрессии bj при разных факторах являются несопоставимыми. Поэтому уравнение регрессии дополняют соизмеримыми показателями тесноты связи фактора с результатом, позволяющими ранжировать факторы по силе влияния на результат.

К таким показателям тесноты связи относят: частные коэффициенты эластичности, в-коэффициенты, частные коэффициенты корреляции.

Частные коэффициенты эластичности.

С целью расширения возможностей содержательного анализа модели регрессии используются частные коэффициенты эластичности, которые определяются по формуле:

EQ Ei = bi \f(\x\to(x)i; \x\to(y) )

Частный коэффициент эластичности показывает, насколько процентов в среднем изменяется признак-результат у с увеличением признака-фактора хj на 1% от своего среднего уровня при фиксированном положении других факторов модели.

EQ E1 = -1.39 \f(72; 1004.64 ) = -0.0996

Частный коэффициент эластичности |E1| < 1. Следовательно, его влияние на результативный признак Y незначительно.

EQ E2 = 27.81 \f(43.62; 1004.64 ) = 1.21

Частные коэффициент эластичности |E2| > 1. Следовательно, он существенно влияет на результативный признак Y.

EQ E3 = -20.91 \f(7.27; 1004.64 ) = -0.15

Частный коэффициент эластичности |E3| < 1. Следовательно, его влияние на результативный признак Y незначительно.

EQ E4 = -246.78 \f(0.59; 1004.64 ) = -0.15

Частный коэффициент эластичности |E4| < 1. Следовательно, его влияние на результативный признак Y незначительно.

EQ E5 = -188.75 \f(0.42; 1004.64 ) = -0.0786

Частный коэффициент эластичности |E5| < 1. Следовательно, его влияние на результативный признак Y незначительно.

EQ E6 = -153.7 \f(1.95; 1004.64 ) = -0.3

Частный коэффициент эластичности |E6| < 1. Следовательно, его влияние на результативный признак Y незначительно.

Стандартизированные частные коэффициенты регрессии.

Стандартизированные частные коэффициенты регрессии - в-коэффициенты (вj) показывают, на какую часть своего среднего квадратического отклонения S(у) изменится признак-результат y с изменением соответствующего фактора хj на величину своего среднего квадратического отклонения (Sхj) при неизменном влиянии прочих факторов (входящих в уравнение).

По максимальному вj можно судить, какой фактор сильнее влияет на результат Y.

По коэффициентам эластичности и в-коэффициентам могут быть сделаны противоположные выводы. Причины этого: а) вариация одного фактора очень велика; б) разнонаправленное воздействие факторов на результат.

Коэффициент вj может также интерпретироваться как показатель прямого (непосредственного) влияния j-ого фактора (xj) на результат (y). Во множественной регрессии j-ый фактор оказывает не только прямое, но и косвенное (опосредованное) влияние на результат (т.е. влияние через другие факторы модели).

Косвенное влияние измеряется величиной: ?вirxj,xi, где m - число факторов в модели. Полное влияние j-ого фактора на результат равное сумме прямого и косвенного влияний измеряет коэффициент линейной парной корреляции данного фактора и результата - rxj,y.

Так для нашего примера непосредственное влияние фактора x1 на результат Y в уравнении регрессии измеряется вj и составляет -0.227; косвенное (опосредованное) влияние данного фактора на результат определяется как:

rx1x2в2 = 0.329 * 0.404 = 0.1332

Сравнительная оценка влияния анализируемых факторов на результативный признак.

5. Сравнительная оценка влияния анализируемых факторов на результативный признак производится:

- средним коэффициентом эластичности, показывающим на сколько процентов среднем по совокупности изменится результат y от своей средней величины при изменении фактора xi на 1% от своего среднего значения;

- в-коэффициенты, показывающие, что, если величина фактора изменится на одно среднеквадратическое отклонение Sxi, то значение результативного признака изменится в среднем на в своего среднеквадратического отклонения;

- долю каждого фактора в общей вариации результативного признака определяют коэффициенты раздельной детерминации (отдельного определения):

d2i = ryxiвi.

d21 = -0.14 * (-0.227) = 0.0309

d22 = 0.32 * 0.404 = 0.13

d23 = 0.0325 * (-0.0823) = -0.00268

d24 = -0.19 * (-0.262) = 0.05

d25 = -0.034 * (-0.201) = 0.00684

d26 = -0.26 * (-0.272) = 0.072

При этом должно выполняться равенство:

?d2i = R2 = 0.29

Множественный коэффициент корреляции (Индекс множественной корреляции).

Тесноту совместного влияния факторов на результат оценивает индекс множественной корреляции.

В отличие от парного коэффициента корреляции, который может принимать отрицательные значения, он принимает значения от 0 до 1.

Поэтому R не может быть использован для интерпретации направления связи. Чем плотнее фактические значения yi располагаются относительно линии регрессии, тем меньше остаточная дисперсия и, следовательно, больше величина Ry(x1,...,xm).

Таким образом, при значении R близком к 1, уравнение регрессии лучше описывает фактические данные и факторы сильнее влияют на результат. При значении R близком к 0 уравнение регрессии плохо описывает фактические данные и факторы оказывают слабое воздействие на результат.

EQ R = \r(1 - \f(s2e; ?(yi - \x\to(y))2)) = \r(1 - \f(13123967.15;18395389.83)) = 0.535

Связь между признаком Y факторами X умеренная

Расчёт коэффициента корреляции выполним, используя известные значения линейных коэффициентов парной корреляции и в-коэффициентов.

EQ R = \r(?ryxiвyxi) = \r(ryx1вyx1 + ryx2вyx2 + ryx3вyx3 + ryx4вyx4 + ryx5вyx5 + ryx6вyx6)

EQ R = \r(-0.136 * -0.227 + 0.32 * 0.404 + 0.0325 * -0.0823 + -0.191 * -0.262 + -0.034 * -0.201 + -0.264 * -0.272) = 0.535

Коэффициент детерминации.

R2= 0.5352 = 0.287

5. Проверка гипотез относительно коэффициентов уравнения регрессии (проверка значимости параметров множественного уравнения регрессии).

Число v = n - m - 1 называется числом степеней свободы. Считается, что при оценивании множественной линейной регрессии для обеспечения статистической надежности требуется, чтобы число наблюдений, по крайней мере, в 3 раза превосходило число оцениваемых параметров.

1) t-статистика

Tтабл (n-m-1;б/2) = (79;0.025) = 1.99

EQ ti = \f(bi;Sbi)

Находим стандартную ошибку коэффициента регрессии b0:

EQ Sb0 = \r(313.71) = 17.71

EQ t0 = \f(569.36;17.71) = 32.15>1.99

Статистическая значимость коэффициента регрессии b0 подтверждается.

Находим стандартную ошибку коэффициента регрессии b1:

EQ Sb1 = \r(0.000991) = 0.0315

EQ t1 = \f(-1.39;0.0315) = 44.16>1.99

атистическая значимость коэффициента регрессии b1 подтверждается.

Находим стандартную ошибку коэффициента регрессии b2:

EQ Sb2 = \r(0.14) = 0.38

EQ t2 = \f(27.81;0.38) = 73.95>1.99

Статистическая значимость коэффициента регрессии b2 подтверждается.

Находим стандартную ошибку коэффициента регрессии b3:

EQ Sb3 = \r(1.81) = 1.34

EQ t3 = \f(-20.91;1.34) = 15.55>1.99

Статистическая значимость коэффициента регрессии b3 подтверждается.

Находим стандартную ошибку коэффициента регрессии b4:

EQ Sb4 = \r(29.96) = 5.47

EQ t4 = \f(-246.78;5.47) = 45.08>1.99

Статистическая значимость коэффициента регрессии b4 подтверждается.

Находим стандартную ошибку коэффициента регрессии b5:

EQ Sb5 = \r(28.78) = 5.36

EQ t5 = \f(-188.75;5.36) = 35.19>1.99

Статистическая значимость коэффициента регрессии b5 подтверждается.

Находим стандартную ошибку коэффициента регрессии b6:

EQ Sb6 = \r(7.58) = 2.75

EQ t6 = \f(-153.7;2.75) = 55.84>1.99

Статистическая значимость коэффициента регрессии b6 подтверждается.

Доверительный интервал для коэффициентов уравнения регрессии.

Определим доверительные интервалы коэффициентов регрессии, которые с надежность 95% будут следующими:

(bi - ti Sbi; bi + ti Sbi)

b0: (569.36 - 1.99 * 17.71 ; 569.36 + 1.99 * 17.71) = (534.12;604.61)

b1: (-1.39 - 1.99 * 0.0315 ; -1.39 + 1.99 * 0.0315) = (-1.45;-1.33)

b2: (27.81 - 1.99 * 0.38 ; 27.81 + 1.99 * 0.38) = (27.06;28.56)

b3: (-20.91 - 1.99 * 1.34 ; -20.91 + 1.99 * 1.34) = (-23.59;-18.23)

b4: (-246.78 - 1.99 * 5.47 ; -246.78 + 1.99 * 5.47) = (-257.68;-235.89)

b5: (-188.75 - 1.99 * 5.36 ; -188.75 + 1.99 * 5.36) = (-199.43;-178.07)

b6: (-153.7 - 1.99 * 2.75 ; -153.7 + 1.99 * 2.75) = (-159.18;-148.22)

6. Проверка общего качества уравнения множественной регрессии.

Оценка значимости уравнения множественной регрессии осуществляется путем проверки гипотезы о равенстве нулю коэффициент детерминации рассчитанного по данным генеральной совокупности: R2 или b1 = b2 =... = bm = 0 (гипотеза о незначимости уравнения регрессии, рассчитанного по данным генеральной совокупности).

Для ее проверки используют F-критерий Фишера.

При этом вычисляют фактическое (наблюдаемое) значение F-критерия, через коэффициент детерминации R2, рассчитанный по данным конкретного наблюдения.

По таблицам распределения Фишера-Снедоккора находят критическое значение F-критерия (Fкр). Для этого задаются уровнем значимости б (обычно его берут равным 0,05) и двумя числами степеней свободы k1=m и k2=n-m-1.

2) F-статистика. Критерий Фишера.

EQ R2 = 1 - \f(s2e;?(yi - \x\to(y))2) = 1 - \f(13123967.15;18395389.83) = 0,287

Чем ближе этот коэффициент к единице, тем больше уравнение регрессии объясняет поведение Y.

Более объективной оценкой является скорректированный коэффициент детерминации:

EQ \x\to(R)2 = 1 - (1 - R2)\f(n-1;n-m-1)

EQ \x\to(R)2 = 1 - (1 - 0.287)\f(86-1;86-6-1) = 0.232

Добавление в модель новых объясняющих переменных осуществляется до тех пор, пока растет скорректированный коэффициент детерминации.

Проверим гипотезу об общей значимости - гипотезу об одновременном равенстве нулю всех коэффициентов регрессии при объясняющих переменных:

H0: R2 = 0; в1 = в2 = ... = вm = 0.

H1: R2 ? 0.

Проверка этой гипотезы осуществляется с помощью F-статистики распределения Фишера (правосторонняя проверка).

Если F < Fkp = Fб ; n-m-1, то нет оснований для отклонения гипотезы H0.

EQ F = \f(R2;1 - R2)\f((n - m -1);m) = \f(0.287;1 - 0.287)\f(86-6-1;6) = 5,29

Табличное значение при степенях свободы k1 = 6 и k2 = n-m-1 = 86 - 6 - 1 = 79, Fkp(6;79) = 2.17

Отметим значения на числовой оси.

Принятие H0

Отклонение H0, принятие H1

95%

5%

2.17

5.29

Поскольку фактическое значение F > Fkp, то коэффициент детерминации статистически значим и уравнение регрессии статистически надежно

Оценка значимости дополнительного включения фактора (частный F-критерий).

Необходимость такой оценки связана с тем, что не каждый фактор, вошедший в модель, может существенно увеличить долю объясненной вариации результативного признака. Это может быть связано с последовательностью вводимых факторов (т. к. существует корреляция между самими факторами).

Мерой оценки значимости улучшения качества модели, после включения в нее фактора хj, служит частный F-критерий - Fxj:

EQ Fxj = \f(R2 - R2(x1,xn);1-R2) (n - m - 1)

где m - число оцениваемых параметров.

В числителе - прирост доли вариации у за счет дополнительно включенного в модель фактора хj.

Если наблюдаемое значение Fxj больше Fkp, то дополнительное введение фактора xj в модель статистически оправдано.

Частный F-критерий оценивает значимость коэффициентов "чистой" регрессии (bj). Существует взаимосвязь между частным F-критерием - Fxj и t-критерием, используемым для оценки значимости коэффициента регрессии при j-м факторе:

EQ t(bj=0) = \r(Fxj)

Список литературы

1. Айвазян С.А., Мхитарян В.С. Прикладная статистика и основы эконометрики. -- М.: ЮНИТИ, 1998. -- 650 с.

2. Буре В.М.. Евсеев Е.А. Основы эконометрики: Учеб. Пособие. -- СПб.: Изд-во С.-Петерб. ун-та, 2004.-- 72 с.

3. Валландер С.С. Заметки по эконометрике. -- СПб.: Европ. ун-т ,2001. -- 46 с.

4. Доугерти К. Введение в эконометрику: учебник. 2-е изд. М.: ИНФРА-М, 2004.-- 432 с.

5. Кремер Н.Ш., Путко Б.А. Эконометрика: Учебник для вузов.-- М.: ЮНИТИ-ДАНА, 2004.-- 311 с.

6. Магнус Я.Р., Катышев П.К., Пересецкий А.А. Эконометрика. Начальный курс. -- М.: Дело, 2000. -- 400 с.

7. Практикум по эконометрике: Учеб. пособие / И.И. Елисеева, С.В. Курышева, Н.М. Гордеенко и др.; Под ред. И.И. Елисеевой. - М.: Финансы и статистика, 2001, с. 49..105.

8. Эконометрика: Учебник / Под ред. И.И.Елисеевой. -- М.: Финансы и статистика, 2001. -- 344 с.

Размещено на Allbest.ru


Подобные документы

  • Основные параметры уравнения регрессии, оценка их параметров и значимость. Интервальная оценка для коэффициента корреляции. Анализ точности определения оценок коэффициентов регрессии. Показатели качества уравнения регрессии, прогнозирование данных.

    контрольная работа [222,5 K], добавлен 08.05.2014

  • Выбор факторных признаков для двухфакторной модели с помощью корреляционного анализа. Расчет коэффициентов регрессии, корреляции и эластичности. Построение модели линейной регрессии производительности труда от факторов фондо- и энерговооруженности.

    задача [142,0 K], добавлен 20.03.2010

  • Построение линейной модели и уравнения регрессии зависимости цены на квартиры на вторичном рынке жилья в Москве в 2006 г. от влияющих факторов. Методика составления матрицы парных коэффициентов корреляции. Экономическая интерпретация модели регрессии.

    лабораторная работа [1,8 M], добавлен 25.05.2009

  • Описание классической линейной модели множественной регрессии. Анализ матрицы парных коэффициентов корреляции на наличие мультиколлинеарности. Оценка модели парной регрессии с наиболее значимым фактором. Графическое построение интервала прогноза.

    курсовая работа [243,1 K], добавлен 17.01.2016

  • Определение параметров уравнения линейной регрессии. Экономическая интерпретация коэффициента регрессии. Вычисление остатков, расчет остаточной суммы квадратов. Оценка дисперсии остатков и построение графика остатков. Проверка выполнения предпосылок МНК.

    контрольная работа [1,4 M], добавлен 25.06.2010

  • Построение качественной модели линейной регрессии и доказательство справедливости соответствующего ей теоретического уравнения экономической теории. Демонстрация работы тестов Бреуша-Годфри и Q-теста, позволяющих определить наличие автокорреляции.

    курсовая работа [108,6 K], добавлен 02.11.2009

  • Факторы, формирующие цену квартир в строящихся домах в Санкт-Петербурге. Составление матрицы парных коэффициентов корреляции исходных переменных. Тестирование ошибок уравнения множественной регрессии на гетероскедастичность. Тест Гельфельда-Квандта.

    контрольная работа [1,2 M], добавлен 14.05.2015

  • Построение регрессионных моделей. Смысл регрессионного анализа. Выборочная дисперсия. Характеристики генеральной совокупности. Проверка статистической значимости уравнения регрессии. Оценка коэффициентов уравнения регрессии. Дисперсии случайных остатков.

    реферат [57,4 K], добавлен 25.01.2009

  • Параметры уравнения линейной регрессии. Вычисление остаточной суммы квадратов, оценка дисперсии остатков. Осуществление проверки значимости параметров уравнения регрессии с помощью критерия Стьюдента. Расчет коэффициентов детерминации и эластичности.

    контрольная работа [248,4 K], добавлен 26.12.2010

  • Расчет параметров уравнения линейной регрессии, экономическая интерпретация ее коэффициента. Проверка равенства математического ожидания уровней ряда остатков нулю. Построение степенной модели парной регрессии. Вариация объема выпуска продукции.

    контрольная работа [771,6 K], добавлен 28.04.2016

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.