Эконометрическая модель для данных Вога

Понятие модели множественной регрессии. Сущность метода наименьших квадратов, который используется для определения параметров уравнения множественной линейной регрессии. Оценка качества подгонки регрессионного уравнения к данным. Коэффициент детерминации.

Рубрика Экономико-математическое моделирование
Вид курсовая работа
Язык русский
Дата добавления 22.01.2015
Размер файла 449,1 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

МИНОБРНАУКИ РОССИИ

Федеральное государственное бюджетное образовательное учреждение

высшего профессионального образования

«ЧЕЛЯБИНСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ»

КУРСОВАЯ РАБОТА

Эконометрическая модель для данных Вога

Введение

Ранние практические исследования в области измерения воздействия качества на цену в основном не были связаны с построением индексов цен, будучи подчинены другим целям. Очевидно, первым исследованием взаимосвязи цены и качества была работа Ф. Вога, занимавшегося проблемами экономики сельского хозяйства, который в 1927 г. написал статью «Влияние фактора качества на цены овощей». Цель его исследования состояла в том, чтобы, используя статистический анализ, «найти существенные факторы качества, являющиеся причиной высоких или низких цен». В своей статье Вог описал результаты анализа множественной регрессии, в котором он исследовал влияние физических характеристик - размера, формы, цвета, степени зрелости, однородности и других факторов - на цены спаржи (аспарагуса), отраженных в статистике ежедневных продаж на центральном оптовом рынке Ф. Холл, расположенном в Бостоне, штат Массачусетс.

Мотивы этого исследования были вполне практическими. Заметив, что фермеры, максимизирующие свою прибыль, могут до некоторой степени регулировать как количество, так и качество производимого товара, чтобы приспособиться к рыночному спросу, Вог подчеркнул практическую ценность своего исследования следующим утверждением: «Если можно показать, что существует премия за определенные качества и типы продуктов, и если эта премия более чем достаточна для оплаты возросших издержек по выращиванию более высококачественных продуктов, производитель может и будет производить и продавать такую продукцию, которая удовлетворяет рыночный спрос».

Наша цель - показать, как могут быть построены и интерпретированы индексы цен, как связаны между собой цена и качество, а также как множественный регрессионный анализ может быть применен для расчета результатов изменения качества. Основное внимание мы уделим интерпретации оцениваемых коэффициентов множественной регрессии, включая параметры при фиктивных переменных.

1. Множественная регрессия

регрессия линейный детерминация уравнение

На практике часто возникает ситуация, когда нужно проанализировать влияние ряда факторов на исследуемый показатель. В этом случае необходимо рассматривать обобщение парной регрессии - модель множественной регрессии. Линейная модель множественной регрессии выглядит следующим образом:

,

где -значение зависимой (эндогенной) переменной для наблюдения ;

- значение независимой (экзогенной) переменной с номером для наблюдения ;

- случайная компонента для наблюдения (она учитывает влияние не учтенных в модели факторов);

- количество независимых переменных (регрессоров в уравнении);

- число наблюдений.

Общая последовательность построения множественной линейной регрессионной модели такова.

1. Оценка параметров (коэффициентов) уравнения.

2. Оценка значимости параметров регрессии и уравнения регрессии в целом.

3. Оценка качества подгонки регрессионного уравнения к выборочным данным.

4. Проверка переменных модели на мультиколлинеарность, ее исключение.

5. Проверка модели на гетероскедастичность, коррекция в случае необходимости.

6. Проведение тестов на функциональную форму, корректировка вида модели в случае необходимости.

7. Экономическая интерпретация параметров (коэффициентов) уравнения регрессии.

Основная цель множественной регрессии - построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также совокупное их воздействие на моделируемый показатель.

2. Метод наименьших квадратов (МНК)

Для определения параметров уравнения множественной линейной регрессии, как и в случае парной линейной регрессии, используется метод наименьших квадратов, который минимизирует сумму квадратов ошибок (случайных компонент):

Оптимальные значения параметров являются оценками, приближенными значениями истинных (неизвестных нам) параметров .

Решение этой системы (искомые оценки параметров ) в матричном виде осуществляется следующим образом:

где - матрица объясняющих (экзогенных) переменных (она получена путем выписывания значений всех переменных для имеющихся наблюдений и добавлением слева единичного столбца, матрица является прямоугольной и имеет размерность , т.е. имеет строк и столбец);

-вектор значений зависимой (эндогенной) переменной;

-вектор параметров (коэффициентов) уравнения;

-вектор ошибок (случайных компонент);

-транспонированная матрица объясняющих переменных.

3. Оценка качества подгонки регрессионного уравнения к данным

Для оценки качества подгонки уравнения к выборочным данным, т.е. проверки близости к фактическим рассчитанных по модели значений, используется коэффициент детерминации . Он определяется аналогично тому, как это было для парной линейной регрессии:

где -среднее значение зависимой переменной,

-рассчитанное по модели (прогнозное) значение зависимой переменной.

Справедливо соотношение Чем ближе к единице, тем выше качество подгонки, тем ближе расчетные значения к фактическим. Близость к нулю означает, что в качестве прогноза лучше использовать среднее значение зависимой переменной, а не расчетные значения .

4. Упражнение 1

Даны данные исследования Вога, содержащие 200 наблюдений по четырем переменным: (1) относительная цена пучка спаржи - PRICE; (2) длина зеленой части спаржи в сотых дюйма - GREEN; (3) количество стеблей спаржи в одном почке - NOSTALKS; (4) разброс в размере (межквартальный коэффициент) стеблей - DISPERSE.

(а) С помощью этих данных вычислите параметры уравнения множественной регрессии, в котором PRICE является зависимой переменной, а остальные - независимыми переменными. Сравните полученные оценки параметров с результатами Вога. Какие из оценок параметров больше всего отличаются от результатов Вога?

Вог сообщает следующие оценки параметров регрессионного уравнения:

,

где -остаток.

В работе не приведены оценки свободного члена , нет также стандартных ошибок и -статистик. В программе eViews было составлено следующее уравнение и получены следующие оценки параметров:

Сравнивая полученные результаты с результатами Вога можно заметить, что наиболее отличаются оценки параметров NOSTALKS и DISPERSE.

В поле Prob. указывается P-значение - вероятность того, что гипотеза о незначимости коэффициента верна. Для вывода о значимости коэффициента P-значение сравнивается с уровнем значимости : если Prob.<0,05, коэффициент значим на уровне значимости 0,05 (на уровне доверия 95%). Следовательно, все переменные являются значимыми.

(b) В приложении Вог также приводит вторые выборочные моменты (дисперсии и ковариации) по четырем переменным:

При помощи подходящего программного обеспечения и данных, приведенных в файле WAUGH, вычислите матрицу вторых моментов и сравните ее с полученной Вогом, приведенной выше.

Заметим, что выборочные дисперсии для переменных GREEN и DISPERSE очень близки к полученным Вогом, для NOSTALKS расхождение уже больше и оно очень велико для переменной PRICE. Ковариации, полученные мной практически все больше, чем полученные Вогом, но соотношения между ними меняются. Данные, полученные мной в программе, более точные, благодаря программному обеспечению. Данные Вога посчитаны вручную, поэтому присутствуют небольшие ошибки.

(c) Прокомментируйте статистическую значимость параметров.

В поле Prob. указывается P-значение - вероятность того, что гипотеза о незначимости коэффициента верна. Для вывода о значимости коэффициента P-значение сравнивается с уровнем значимости : если Prob.<0,05, коэффициент значим на уровне значимости 0,05 (на уровне доверия 95%). Следовательно, все переменные являются значимыми.

Величины стандартных ошибок коэффициентов регрессии приведены в поле Std. Error. Это поле является также средним квадратическим отклонением (корнем из дисперсии). Проанализировав данные это поля, мы приходим к выводу, что наименьшее значение среднего квадратического отклонения при переменной GREEN (0.007110), при переменных NOSTALKS и DISPERSE значение больше (0.151120 и 0.129837 соответственно). Очень велико значение при С (5.336952). Благодаря этим результатам, приходим к пониманию, почему мы получили расхождения с результатами Вога. В его работе не приведены оценки свободного члена. По всей видимости, он не брал его во внимание.

Отметим, что нам удалось получить те же самые результаты, но в некоторых случаях полного совпадения нет.

5. Упражнение 2

(а) В файле с данными WAUGH директории CHAP4.DAT приведены результаты наблюдений по четырем переменным. При помощи статистических программ вычислите простые коэффициенты корреляции для каждой пары переменных. Вы должны получить следующую корреляционную матрицу:

Какие из переменных обладают наибольшей корреляцией? Какие переменные практически ортогональны?

Наибольшая корреляция между переменными PRICE и GREEN (0.745492) и переменными NOSTALKS и DISPERSE (0.349749).

Если между группами переменных корреляция близка нулю, то эти группы переменных практически ортогональны друг другу. Ближе всего к нулю близок парный коэффициент корреляции NOSTALKS и GREEN. Следовательно, эти переменные практически ортогональны.

(b) Постройте три парные регрессии PRICE по GREEN, по NOSTALKS и DISPERSE. Возьмите для каждой из этих регрессий и вычислите его корень квадратный. Теперь сравните полученные значения с соответствующими коэффициентами корреляции в первом ряду таблицы. Почему они совпадают (за исключением знака)? Предположим, вы ошиблись и случайно построили обратные регрессии: GREEN, NOSTALKS и DISPERSE по PRICE. Какие значения вы бы получили? Почему они те же, что и для обычной регрессии?

Сравнивая парных регрессий с соответствующими коэффициентами корреляции, приходим к выводу, что все коэффициенты совпадают (за исключением знака). Для PRICE от GREEN ; для PRICE от NOSTALKS ; для PRICE от DISPERSE .

Даже если мы построим обратные регрессии - получим те же самые значения коэффициентов детерминации и они те же, что и для обычной регрессии.

Тесноту (силу) связи изучаемых показателей оценивают с помощью коэффициента корреляции, который принимает значения от -1 до +1.

Для оценки качества модели используют коэффициент детерминации. Долю дисперсии, которая обусловлена регрессией, в общей дисперсии показателя характеризует коэффициент детерминации .

Коэффициент детерминации, как и коэффициент корреляции, принимает значения от -1 до +1. Чем ближе его значение коэффициента по модулю к 1, тем теснее связь результативного признака Y с исследуемыми факторами X.

Например, если получают коэффициент детерминации = 0,9, значит уравнением регрессии объясняется 90% дисперсии результативного признака, а на долю прочих факторов приходится 10% ее дисперсии (т.е. остаточная дисперсия). Величина коэффициента детерминации служит важным критерием оценки качества линейных и нелинейных моделей. Чем значительнее доля объясненной вариации, тем меньше роль прочих факторов, и значит, модель регрессии хорошо аппроксимирует исходные данные и такой регрессионной моделью можно воспользоваться для прогноза значений результативного показателя.

Исходя из того как вычисляются коэффициент корреляции и коэффициент детерминации, приходим к пониманию, почему наши данные совпадают.

(с) Заметим, что значение для парной регрессии переменной PRICE по GREEN было вычислено в пункте (b). Что, по-вашему, произойдет со значением , если вы добавите в качестве регрессора (объясняющей переменной) переменную NOSTALKS, т.е. представьте себе множественную регрессию PRICE по свободному члену, GREEN и NOSTALKS? Почему? При данной корреляции между GREEN и NOSTALKS, приведенной в таблице, считаете ли вы, что значение станет большим или меньшим? Постройте эту регрессию и проверьте, не подвела ли вас интуиция. Прокомментируйте изменение значения при переходе от простой регрессии PRICE по GREEN к множественной.

Если мы добавим переменную NOSTALKS, т.е. представим множественную регрессию, то значение возрастет (с 0.555758 до 0.714240). Значение повышается при данной корреляции, если число независимых переменных возрастает, т.к. происходит влияние другого фактора и вклад дополнительной переменной.

(d) Чему равна величина из уравнения множественной регрессии (по трем объясняющим переменным GREEN, NOSTALKS и DISPERSE); она больше или меньше суммы трех величин из соответствующих парных регрессий PRICE по каждой из этих переменных?

Коэффициент детерминации из множественной регрессии (с двумя регрессорами помимо константы) меньше, чем сумма коэффициентов детерминации, относящихся к двум парным регрессиям.

0,714240 < 0,166863+0,555758

0,714240 <0,722621

По трем объясняющим переменным (GREEN, NOSTALKS и DISPERSE) из уравнения множественной регрессии =0,723872.

Из соответствующих парных регрессий:

для PRICE по GREEN =0, 555758;

для PRICE по NOSTALKS =0, 166863;

для PRICE по DISPERSE =0, 104774;

0, 555758 + 0, 166863 + 0,104774 = 0, 827395;

0,723872 < 0, 827395;

Необходимо отметить, что значение для множественной регрессии с постоянным членом по K регрессорам не всегда больше суммы значений для K парных регрессий по отдельным объясняющим переменным.

Насколько широко Вог использовал оценки коэффициентов детерминации и как он, безусловно, ошибся при интерпретации полученных результатов.

Заключение

Благодаря этим упражнениям мы научились воспроизводить эмпирические открытия других исследователей, пришли к пониманию, какова в действительности взаимосвязь между различными коэффициентами детерминации и коэффициентами корреляции.

Список используемой литературы

[1] Берндт, Эрнст Роберт, Практика эконометрики: классика и современность // М.: ЮНИТИ-ДАНА, 2005. - 863с.

[2] Бигильдеева Т.Б., Постников Е.А., Кабанов П.С., Эконометрика. Модели и методы регрессионного анализа // Челябинск, 2011.

[3] Магнус Я.Р., Катышев П.К., Пересецкий А.А., Эконометрика. Начальный курс //Издательство «ДЕЛО», М-2005. - 504с

[4] Под ред. И.И. Елисеевой, Эконометрика. // Москва, 2001.

Приложение

GREEN

NOSTALKS

DISPERSE

PRICE

500

11

14

125

500

19

0

100

500

28

17

93

450

20

33

68

450

13

9

90

500

9

11

83

550

13

14

63

500

16

14

63

550

12

14

81

550

18

11

90

550

12

8

98

525

19

20

92

500

32

11

68

450

16

27

60

800

17

8

69

600

12

9

90

500

18

20

82

575

18

9

82

575

11

14

60

900

24

9

150

550

19

20

79

550

12

9

90

950

20

9

120

550

19

20

69

600

15

9

100

550

16

9

100

350

29

20

46

500

30

11

67

500

19

9

93

500

10

17

112

950

19

9

175

525

38

14

75

475

23

14

62

500

12

17

103

500

20

14

93

350

18

20

62

600

15

9

100

500

22

11

125

625

15

17

100

900

20

25

150

500

11

8

112

350

25

17

43

300

24

11

37

525

19

9

75

525

11

8

91

950

21

20

171

525

36

25

64

400

25

27

50

550

12

8

91

550

20

25

75

700

20

9

100

550

18

9

71

500

12

8

108

525

19

9

85

950

20

8

183

550

11

17

103

650

14

17

126

550

24

33

68

475

18

33

68

350

25

14

53

550

12

14

84

600

45

33

45

575

11

14

97

550

20

17

85

400

16

20

64

950

20

17

152

600

16

20

91

525

40

25

57

525

12

8

92

425

16

20

53

500

20

9

85

500

10

14

96

950

20

9

142

550

35

14

64

550

15

9

75

700

20

27

100

600

13

8

93

900

20

0

150

450

18

9

75

450

23

18

62

450

12

8

112

450

19

0

93

900

18

9

150

500

35

14

75

800

14

8

112

600

15

9

97

475

12

7

97

425

16

38

87

900

20

11

150

525

12

14

107

525

20

17

93

700

15

27

106

500

24

20

81

400

27

14

68

600

12

14

93

575

19

9

84

650

20

11

103

600

12

17

112

500

12

0

103

900

20

9

137

600

40

33

65

800

19

17

105

450

12

0

97

850

21

9

129

650

14

8

97

550

18

9

87

600

12

8

93

400

20

23

53

700

14

8

100

550

12

8

97

550

19

0

90

525

12

0

90

300

30

25

55

575

10

17

100

575

12

9

83

750

14

9

111

450

35

33

66

525

11

7

100

500

19

9

87

850

20

9

113

550

12

14

100

700

14

14

100

350

25

14

60

600

25

60

60

700

14

17

105

575

12

14

97

525

20

9

90

700

48

14

75

850

20

20

130

600

12

7

111

600

18

9

83

350

24

14

66

550

18

9

100

550

11

0

108

900

25

20

133

750

16

20

122

350

13

8

55

600

13

23

105

650

12

14

105

350

23

33

42

950

22

20

126

750

22

20

115

625

12

7

121

600

18

8

106

500

19

0

97

600

12

14

106

900

22

9

141

600

23

25

70

850

14

17

121

800

32

17

64

725

25

14

93

900

22

11

129

650

12

12

120

700

19

11

80

600

37

25

56

900

20

11

146

450

12

7

60

575

12

7

82

350

21

14

39

750

18

20

100

450

24

11

44

400

21

33

44

700

14

8

88

575

21

25

66

650

17

16

120

650

29

44

80

650

12

8

120

550

24

11

60

900

26

25

146

450

12

8

110

575

22

20

85

525

40

14

35

800

19

9

114

600

14

9

107

500

38

14

53

675

20

0

78

900

22

11

114

450

39

14

50

550

12

8

96

800

20

9

114

600

36

14

42

600

14

8

100

600

14

8

78

450

14

33

57

350

28

14

46

450

16

8

78

350

19

42

32

550

45

16

35

700

35

42

57

800

18

20

128

600

18

9

80

750

35

14

48

650

18

27

100

500

19

40

93

400

25

33

52

350

18

25

47

800

21

11

133

400

40

20

33

350

18

11

55

475

12

9

120

Размещено на Allbest.ru


Подобные документы

  • Анализ метода наименьших квадратов для парной регрессии, как метода оценивания параметров линейной регрессии. Рассмотрение линейного уравнения парной регрессии. Исследование множественной линейной регрессии. Изучение ошибок коэффициентов регрессии.

    контрольная работа [108,5 K], добавлен 28.03.2018

  • Построение модели множественной линейной регрессии по заданным параметрам. Оценка качества модели по коэффициентам детерминации и множественной корреляции. Определение значимости уравнения регрессии на основе F-критерия Фишера и t-критерия Стьюдента.

    контрольная работа [914,4 K], добавлен 01.12.2013

  • Параметры уравнения и экономическое толкование коэффициента линейной регрессии. Расчет коэффициентов детерминации и средних относительных ошибок аппроксимации. Построение структурной формы модели с использованием косвенного метода наименьших квадратов.

    контрольная работа [99,2 K], добавлен 27.04.2011

  • Расчет линейного коэффициента парной и частной корреляции. Статистическая значимость параметров регрессии и корреляции. Анализ корреляционного поля данных. Точность прогноза, расчет ошибки и доверительный интервал. Коэффициент множественной детерминации.

    контрольная работа [155,8 K], добавлен 11.12.2010

  • Расчет параметров A и B уравнения линейной регрессии. Оценка полученной точности аппроксимации. Построение однофакторной регрессии. Дисперсия математического ожидания прогнозируемой величины. Тестирование ошибок уравнения множественной регрессии.

    контрольная работа [63,3 K], добавлен 19.04.2013

  • Использование метода оценки параметров в стандартных масштабах для определения неизвестных параметров линейной модели множественной регрессии. Специфика изучения взаимосвязей по временным рядам. Моделирование взаимосвязей и тенденций в финансовой сфере.

    контрольная работа [326,7 K], добавлен 22.04.2016

  • Параметры уравнения линейной регрессии. Вычисление остаточной суммы квадратов, оценка дисперсии остатков. Осуществление проверки значимости параметров уравнения регрессии с помощью критерия Стьюдента. Расчет коэффициентов детерминации и эластичности.

    контрольная работа [248,4 K], добавлен 26.12.2010

  • Основные параметры уравнения регрессии, оценка их параметров и значимость. Интервальная оценка для коэффициента корреляции. Анализ точности определения оценок коэффициентов регрессии. Показатели качества уравнения регрессии, прогнозирование данных.

    контрольная работа [222,5 K], добавлен 08.05.2014

  • Экономическая интерпретация коэффициента регрессии. Нахождение статочной суммы квадратов и оценка дисперсии остатков. Проверка значимости параметров уравнения регрессии с помощью t-критерия Стьюдента. Расчет средней относительной ошибки аппроксимации.

    контрольная работа [261,1 K], добавлен 23.03.2010

  • Основы построения и тестирования адекватности экономических моделей множественной регрессии, проблема их спецификации и последствия ошибок. Методическое и информационное обеспечение множественной регрессии. Числовой пример модели множественной регрессии.

    курсовая работа [3,4 M], добавлен 10.02.2014

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.