Эконометрическая модель для данных Вога
Понятие модели множественной регрессии. Сущность метода наименьших квадратов, который используется для определения параметров уравнения множественной линейной регрессии. Оценка качества подгонки регрессионного уравнения к данным. Коэффициент детерминации.
Рубрика | Экономико-математическое моделирование |
Вид | курсовая работа |
Язык | русский |
Дата добавления | 22.01.2015 |
Размер файла | 449,1 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
МИНОБРНАУКИ РОССИИ
Федеральное государственное бюджетное образовательное учреждение
высшего профессионального образования
«ЧЕЛЯБИНСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ»
КУРСОВАЯ РАБОТА
Эконометрическая модель для данных Вога
Введение
Ранние практические исследования в области измерения воздействия качества на цену в основном не были связаны с построением индексов цен, будучи подчинены другим целям. Очевидно, первым исследованием взаимосвязи цены и качества была работа Ф. Вога, занимавшегося проблемами экономики сельского хозяйства, который в 1927 г. написал статью «Влияние фактора качества на цены овощей». Цель его исследования состояла в том, чтобы, используя статистический анализ, «найти существенные факторы качества, являющиеся причиной высоких или низких цен». В своей статье Вог описал результаты анализа множественной регрессии, в котором он исследовал влияние физических характеристик - размера, формы, цвета, степени зрелости, однородности и других факторов - на цены спаржи (аспарагуса), отраженных в статистике ежедневных продаж на центральном оптовом рынке Ф. Холл, расположенном в Бостоне, штат Массачусетс.
Мотивы этого исследования были вполне практическими. Заметив, что фермеры, максимизирующие свою прибыль, могут до некоторой степени регулировать как количество, так и качество производимого товара, чтобы приспособиться к рыночному спросу, Вог подчеркнул практическую ценность своего исследования следующим утверждением: «Если можно показать, что существует премия за определенные качества и типы продуктов, и если эта премия более чем достаточна для оплаты возросших издержек по выращиванию более высококачественных продуктов, производитель может и будет производить и продавать такую продукцию, которая удовлетворяет рыночный спрос».
Наша цель - показать, как могут быть построены и интерпретированы индексы цен, как связаны между собой цена и качество, а также как множественный регрессионный анализ может быть применен для расчета результатов изменения качества. Основное внимание мы уделим интерпретации оцениваемых коэффициентов множественной регрессии, включая параметры при фиктивных переменных.
1. Множественная регрессия
регрессия линейный детерминация уравнение
На практике часто возникает ситуация, когда нужно проанализировать влияние ряда факторов на исследуемый показатель. В этом случае необходимо рассматривать обобщение парной регрессии - модель множественной регрессии. Линейная модель множественной регрессии выглядит следующим образом:
,
где -значение зависимой (эндогенной) переменной для наблюдения ;
- значение независимой (экзогенной) переменной с номером для наблюдения ;
- случайная компонента для наблюдения (она учитывает влияние не учтенных в модели факторов);
- количество независимых переменных (регрессоров в уравнении);
- число наблюдений.
Общая последовательность построения множественной линейной регрессионной модели такова.
1. Оценка параметров (коэффициентов) уравнения.
2. Оценка значимости параметров регрессии и уравнения регрессии в целом.
3. Оценка качества подгонки регрессионного уравнения к выборочным данным.
4. Проверка переменных модели на мультиколлинеарность, ее исключение.
5. Проверка модели на гетероскедастичность, коррекция в случае необходимости.
6. Проведение тестов на функциональную форму, корректировка вида модели в случае необходимости.
7. Экономическая интерпретация параметров (коэффициентов) уравнения регрессии.
Основная цель множественной регрессии - построить модель с большим числом факторов, определив при этом влияние каждого из них в отдельности, а также совокупное их воздействие на моделируемый показатель.
2. Метод наименьших квадратов (МНК)
Для определения параметров уравнения множественной линейной регрессии, как и в случае парной линейной регрессии, используется метод наименьших квадратов, который минимизирует сумму квадратов ошибок (случайных компонент):
Оптимальные значения параметров являются оценками, приближенными значениями истинных (неизвестных нам) параметров .
Решение этой системы (искомые оценки параметров ) в матричном виде осуществляется следующим образом:
где - матрица объясняющих (экзогенных) переменных (она получена путем выписывания значений всех переменных для имеющихся наблюдений и добавлением слева единичного столбца, матрица является прямоугольной и имеет размерность , т.е. имеет строк и столбец);
-вектор значений зависимой (эндогенной) переменной;
-вектор параметров (коэффициентов) уравнения;
-вектор ошибок (случайных компонент);
-транспонированная матрица объясняющих переменных.
3. Оценка качества подгонки регрессионного уравнения к данным
Для оценки качества подгонки уравнения к выборочным данным, т.е. проверки близости к фактическим рассчитанных по модели значений, используется коэффициент детерминации . Он определяется аналогично тому, как это было для парной линейной регрессии:
где -среднее значение зависимой переменной,
-рассчитанное по модели (прогнозное) значение зависимой переменной.
Справедливо соотношение Чем ближе к единице, тем выше качество подгонки, тем ближе расчетные значения к фактическим. Близость к нулю означает, что в качестве прогноза лучше использовать среднее значение зависимой переменной, а не расчетные значения .
4. Упражнение 1
Даны данные исследования Вога, содержащие 200 наблюдений по четырем переменным: (1) относительная цена пучка спаржи - PRICE; (2) длина зеленой части спаржи в сотых дюйма - GREEN; (3) количество стеблей спаржи в одном почке - NOSTALKS; (4) разброс в размере (межквартальный коэффициент) стеблей - DISPERSE.
(а) С помощью этих данных вычислите параметры уравнения множественной регрессии, в котором PRICE является зависимой переменной, а остальные - независимыми переменными. Сравните полученные оценки параметров с результатами Вога. Какие из оценок параметров больше всего отличаются от результатов Вога?
Вог сообщает следующие оценки параметров регрессионного уравнения:
,
где -остаток.
В работе не приведены оценки свободного члена , нет также стандартных ошибок и -статистик. В программе eViews было составлено следующее уравнение и получены следующие оценки параметров:
Сравнивая полученные результаты с результатами Вога можно заметить, что наиболее отличаются оценки параметров NOSTALKS и DISPERSE.
В поле Prob. указывается P-значение - вероятность того, что гипотеза о незначимости коэффициента верна. Для вывода о значимости коэффициента P-значение сравнивается с уровнем значимости : если Prob.<0,05, коэффициент значим на уровне значимости 0,05 (на уровне доверия 95%). Следовательно, все переменные являются значимыми.
(b) В приложении Вог также приводит вторые выборочные моменты (дисперсии и ковариации) по четырем переменным:
При помощи подходящего программного обеспечения и данных, приведенных в файле WAUGH, вычислите матрицу вторых моментов и сравните ее с полученной Вогом, приведенной выше.
Заметим, что выборочные дисперсии для переменных GREEN и DISPERSE очень близки к полученным Вогом, для NOSTALKS расхождение уже больше и оно очень велико для переменной PRICE. Ковариации, полученные мной практически все больше, чем полученные Вогом, но соотношения между ними меняются. Данные, полученные мной в программе, более точные, благодаря программному обеспечению. Данные Вога посчитаны вручную, поэтому присутствуют небольшие ошибки.
(c) Прокомментируйте статистическую значимость параметров.
В поле Prob. указывается P-значение - вероятность того, что гипотеза о незначимости коэффициента верна. Для вывода о значимости коэффициента P-значение сравнивается с уровнем значимости : если Prob.<0,05, коэффициент значим на уровне значимости 0,05 (на уровне доверия 95%). Следовательно, все переменные являются значимыми.
Величины стандартных ошибок коэффициентов регрессии приведены в поле Std. Error. Это поле является также средним квадратическим отклонением (корнем из дисперсии). Проанализировав данные это поля, мы приходим к выводу, что наименьшее значение среднего квадратического отклонения при переменной GREEN (0.007110), при переменных NOSTALKS и DISPERSE значение больше (0.151120 и 0.129837 соответственно). Очень велико значение при С (5.336952). Благодаря этим результатам, приходим к пониманию, почему мы получили расхождения с результатами Вога. В его работе не приведены оценки свободного члена. По всей видимости, он не брал его во внимание.
Отметим, что нам удалось получить те же самые результаты, но в некоторых случаях полного совпадения нет.
5. Упражнение 2
(а) В файле с данными WAUGH директории CHAP4.DAT приведены результаты наблюдений по четырем переменным. При помощи статистических программ вычислите простые коэффициенты корреляции для каждой пары переменных. Вы должны получить следующую корреляционную матрицу:
Какие из переменных обладают наибольшей корреляцией? Какие переменные практически ортогональны?
Наибольшая корреляция между переменными PRICE и GREEN (0.745492) и переменными NOSTALKS и DISPERSE (0.349749).
Если между группами переменных корреляция близка нулю, то эти группы переменных практически ортогональны друг другу. Ближе всего к нулю близок парный коэффициент корреляции NOSTALKS и GREEN. Следовательно, эти переменные практически ортогональны.
(b) Постройте три парные регрессии PRICE по GREEN, по NOSTALKS и DISPERSE. Возьмите для каждой из этих регрессий и вычислите его корень квадратный. Теперь сравните полученные значения с соответствующими коэффициентами корреляции в первом ряду таблицы. Почему они совпадают (за исключением знака)? Предположим, вы ошиблись и случайно построили обратные регрессии: GREEN, NOSTALKS и DISPERSE по PRICE. Какие значения вы бы получили? Почему они те же, что и для обычной регрессии?
Сравнивая парных регрессий с соответствующими коэффициентами корреляции, приходим к выводу, что все коэффициенты совпадают (за исключением знака). Для PRICE от GREEN ; для PRICE от NOSTALKS ; для PRICE от DISPERSE .
Даже если мы построим обратные регрессии - получим те же самые значения коэффициентов детерминации и они те же, что и для обычной регрессии.
Тесноту (силу) связи изучаемых показателей оценивают с помощью коэффициента корреляции, который принимает значения от -1 до +1.
Для оценки качества модели используют коэффициент детерминации. Долю дисперсии, которая обусловлена регрессией, в общей дисперсии показателя характеризует коэффициент детерминации .
Коэффициент детерминации, как и коэффициент корреляции, принимает значения от -1 до +1. Чем ближе его значение коэффициента по модулю к 1, тем теснее связь результативного признака Y с исследуемыми факторами X.
Например, если получают коэффициент детерминации = 0,9, значит уравнением регрессии объясняется 90% дисперсии результативного признака, а на долю прочих факторов приходится 10% ее дисперсии (т.е. остаточная дисперсия). Величина коэффициента детерминации служит важным критерием оценки качества линейных и нелинейных моделей. Чем значительнее доля объясненной вариации, тем меньше роль прочих факторов, и значит, модель регрессии хорошо аппроксимирует исходные данные и такой регрессионной моделью можно воспользоваться для прогноза значений результативного показателя.
Исходя из того как вычисляются коэффициент корреляции и коэффициент детерминации, приходим к пониманию, почему наши данные совпадают.
(с) Заметим, что значение для парной регрессии переменной PRICE по GREEN было вычислено в пункте (b). Что, по-вашему, произойдет со значением , если вы добавите в качестве регрессора (объясняющей переменной) переменную NOSTALKS, т.е. представьте себе множественную регрессию PRICE по свободному члену, GREEN и NOSTALKS? Почему? При данной корреляции между GREEN и NOSTALKS, приведенной в таблице, считаете ли вы, что значение станет большим или меньшим? Постройте эту регрессию и проверьте, не подвела ли вас интуиция. Прокомментируйте изменение значения при переходе от простой регрессии PRICE по GREEN к множественной.
Если мы добавим переменную NOSTALKS, т.е. представим множественную регрессию, то значение возрастет (с 0.555758 до 0.714240). Значение повышается при данной корреляции, если число независимых переменных возрастает, т.к. происходит влияние другого фактора и вклад дополнительной переменной.
(d) Чему равна величина из уравнения множественной регрессии (по трем объясняющим переменным GREEN, NOSTALKS и DISPERSE); она больше или меньше суммы трех величин из соответствующих парных регрессий PRICE по каждой из этих переменных?
Коэффициент детерминации из множественной регрессии (с двумя регрессорами помимо константы) меньше, чем сумма коэффициентов детерминации, относящихся к двум парным регрессиям.
0,714240 < 0,166863+0,555758
0,714240 <0,722621
По трем объясняющим переменным (GREEN, NOSTALKS и DISPERSE) из уравнения множественной регрессии =0,723872.
Из соответствующих парных регрессий:
для PRICE по GREEN =0, 555758;
для PRICE по NOSTALKS =0, 166863;
для PRICE по DISPERSE =0, 104774;
0, 555758 + 0, 166863 + 0,104774 = 0, 827395;
0,723872 < 0, 827395;
Необходимо отметить, что значение для множественной регрессии с постоянным членом по K регрессорам не всегда больше суммы значений для K парных регрессий по отдельным объясняющим переменным.
Насколько широко Вог использовал оценки коэффициентов детерминации и как он, безусловно, ошибся при интерпретации полученных результатов.
Заключение
Благодаря этим упражнениям мы научились воспроизводить эмпирические открытия других исследователей, пришли к пониманию, какова в действительности взаимосвязь между различными коэффициентами детерминации и коэффициентами корреляции.
Список используемой литературы
[1] Берндт, Эрнст Роберт, Практика эконометрики: классика и современность // М.: ЮНИТИ-ДАНА, 2005. - 863с.
[2] Бигильдеева Т.Б., Постников Е.А., Кабанов П.С., Эконометрика. Модели и методы регрессионного анализа // Челябинск, 2011.
[3] Магнус Я.Р., Катышев П.К., Пересецкий А.А., Эконометрика. Начальный курс //Издательство «ДЕЛО», М-2005. - 504с
[4] Под ред. И.И. Елисеевой, Эконометрика. // Москва, 2001.
Приложение
GREEN |
NOSTALKS |
DISPERSE |
PRICE |
|
500 |
11 |
14 |
125 |
|
500 |
19 |
0 |
100 |
|
500 |
28 |
17 |
93 |
|
450 |
20 |
33 |
68 |
|
450 |
13 |
9 |
90 |
|
500 |
9 |
11 |
83 |
|
550 |
13 |
14 |
63 |
|
500 |
16 |
14 |
63 |
|
550 |
12 |
14 |
81 |
|
550 |
18 |
11 |
90 |
|
550 |
12 |
8 |
98 |
|
525 |
19 |
20 |
92 |
|
500 |
32 |
11 |
68 |
|
450 |
16 |
27 |
60 |
|
800 |
17 |
8 |
69 |
|
600 |
12 |
9 |
90 |
|
500 |
18 |
20 |
82 |
|
575 |
18 |
9 |
82 |
|
575 |
11 |
14 |
60 |
|
900 |
24 |
9 |
150 |
|
550 |
19 |
20 |
79 |
|
550 |
12 |
9 |
90 |
|
950 |
20 |
9 |
120 |
|
550 |
19 |
20 |
69 |
|
600 |
15 |
9 |
100 |
|
550 |
16 |
9 |
100 |
|
350 |
29 |
20 |
46 |
|
500 |
30 |
11 |
67 |
|
500 |
19 |
9 |
93 |
|
500 |
10 |
17 |
112 |
|
950 |
19 |
9 |
175 |
|
525 |
38 |
14 |
75 |
|
475 |
23 |
14 |
62 |
|
500 |
12 |
17 |
103 |
|
500 |
20 |
14 |
93 |
|
350 |
18 |
20 |
62 |
|
600 |
15 |
9 |
100 |
|
500 |
22 |
11 |
125 |
|
625 |
15 |
17 |
100 |
|
900 |
20 |
25 |
150 |
|
500 |
11 |
8 |
112 |
|
350 |
25 |
17 |
43 |
|
300 |
24 |
11 |
37 |
|
525 |
19 |
9 |
75 |
|
525 |
11 |
8 |
91 |
|
950 |
21 |
20 |
171 |
|
525 |
36 |
25 |
64 |
|
400 |
25 |
27 |
50 |
|
550 |
12 |
8 |
91 |
|
550 |
20 |
25 |
75 |
|
700 |
20 |
9 |
100 |
|
550 |
18 |
9 |
71 |
|
500 |
12 |
8 |
108 |
|
525 |
19 |
9 |
85 |
|
950 |
20 |
8 |
183 |
|
550 |
11 |
17 |
103 |
|
650 |
14 |
17 |
126 |
|
550 |
24 |
33 |
68 |
|
475 |
18 |
33 |
68 |
|
350 |
25 |
14 |
53 |
|
550 |
12 |
14 |
84 |
|
600 |
45 |
33 |
45 |
|
575 |
11 |
14 |
97 |
|
550 |
20 |
17 |
85 |
|
400 |
16 |
20 |
64 |
|
950 |
20 |
17 |
152 |
|
600 |
16 |
20 |
91 |
|
525 |
40 |
25 |
57 |
|
525 |
12 |
8 |
92 |
|
425 |
16 |
20 |
53 |
|
500 |
20 |
9 |
85 |
|
500 |
10 |
14 |
96 |
|
950 |
20 |
9 |
142 |
|
550 |
35 |
14 |
64 |
|
550 |
15 |
9 |
75 |
|
700 |
20 |
27 |
100 |
|
600 |
13 |
8 |
93 |
|
900 |
20 |
0 |
150 |
|
450 |
18 |
9 |
75 |
|
450 |
23 |
18 |
62 |
|
450 |
12 |
8 |
112 |
|
450 |
19 |
0 |
93 |
|
900 |
18 |
9 |
150 |
|
500 |
35 |
14 |
75 |
|
800 |
14 |
8 |
112 |
|
600 |
15 |
9 |
97 |
|
475 |
12 |
7 |
97 |
|
425 |
16 |
38 |
87 |
|
900 |
20 |
11 |
150 |
|
525 |
12 |
14 |
107 |
|
525 |
20 |
17 |
93 |
|
700 |
15 |
27 |
106 |
|
500 |
24 |
20 |
81 |
|
400 |
27 |
14 |
68 |
|
600 |
12 |
14 |
93 |
|
575 |
19 |
9 |
84 |
|
650 |
20 |
11 |
103 |
|
600 |
12 |
17 |
112 |
|
500 |
12 |
0 |
103 |
|
900 |
20 |
9 |
137 |
|
600 |
40 |
33 |
65 |
|
800 |
19 |
17 |
105 |
|
450 |
12 |
0 |
97 |
|
850 |
21 |
9 |
129 |
|
650 |
14 |
8 |
97 |
|
550 |
18 |
9 |
87 |
|
600 |
12 |
8 |
93 |
|
400 |
20 |
23 |
53 |
|
700 |
14 |
8 |
100 |
|
550 |
12 |
8 |
97 |
|
550 |
19 |
0 |
90 |
|
525 |
12 |
0 |
90 |
|
300 |
30 |
25 |
55 |
|
575 |
10 |
17 |
100 |
|
575 |
12 |
9 |
83 |
|
750 |
14 |
9 |
111 |
|
450 |
35 |
33 |
66 |
|
525 |
11 |
7 |
100 |
|
500 |
19 |
9 |
87 |
|
850 |
20 |
9 |
113 |
|
550 |
12 |
14 |
100 |
|
700 |
14 |
14 |
100 |
|
350 |
25 |
14 |
60 |
|
600 |
25 |
60 |
60 |
|
700 |
14 |
17 |
105 |
|
575 |
12 |
14 |
97 |
|
525 |
20 |
9 |
90 |
|
700 |
48 |
14 |
75 |
|
850 |
20 |
20 |
130 |
|
600 |
12 |
7 |
111 |
|
600 |
18 |
9 |
83 |
|
350 |
24 |
14 |
66 |
|
550 |
18 |
9 |
100 |
|
550 |
11 |
0 |
108 |
|
900 |
25 |
20 |
133 |
|
750 |
16 |
20 |
122 |
|
350 |
13 |
8 |
55 |
|
600 |
13 |
23 |
105 |
|
650 |
12 |
14 |
105 |
|
350 |
23 |
33 |
42 |
|
950 |
22 |
20 |
126 |
|
750 |
22 |
20 |
115 |
|
625 |
12 |
7 |
121 |
|
600 |
18 |
8 |
106 |
|
500 |
19 |
0 |
97 |
|
600 |
12 |
14 |
106 |
|
900 |
22 |
9 |
141 |
|
600 |
23 |
25 |
70 |
|
850 |
14 |
17 |
121 |
|
800 |
32 |
17 |
64 |
|
725 |
25 |
14 |
93 |
|
900 |
22 |
11 |
129 |
|
650 |
12 |
12 |
120 |
|
700 |
19 |
11 |
80 |
|
600 |
37 |
25 |
56 |
|
900 |
20 |
11 |
146 |
|
450 |
12 |
7 |
60 |
|
575 |
12 |
7 |
82 |
|
350 |
21 |
14 |
39 |
|
750 |
18 |
20 |
100 |
|
450 |
24 |
11 |
44 |
|
400 |
21 |
33 |
44 |
|
700 |
14 |
8 |
88 |
|
575 |
21 |
25 |
66 |
|
650 |
17 |
16 |
120 |
|
650 |
29 |
44 |
80 |
|
650 |
12 |
8 |
120 |
|
550 |
24 |
11 |
60 |
|
900 |
26 |
25 |
146 |
|
450 |
12 |
8 |
110 |
|
575 |
22 |
20 |
85 |
|
525 |
40 |
14 |
35 |
|
800 |
19 |
9 |
114 |
|
600 |
14 |
9 |
107 |
|
500 |
38 |
14 |
53 |
|
675 |
20 |
0 |
78 |
|
900 |
22 |
11 |
114 |
|
450 |
39 |
14 |
50 |
|
550 |
12 |
8 |
96 |
|
800 |
20 |
9 |
114 |
|
600 |
36 |
14 |
42 |
|
600 |
14 |
8 |
100 |
|
600 |
14 |
8 |
78 |
|
450 |
14 |
33 |
57 |
|
350 |
28 |
14 |
46 |
|
450 |
16 |
8 |
78 |
|
350 |
19 |
42 |
32 |
|
550 |
45 |
16 |
35 |
|
700 |
35 |
42 |
57 |
|
800 |
18 |
20 |
128 |
|
600 |
18 |
9 |
80 |
|
750 |
35 |
14 |
48 |
|
650 |
18 |
27 |
100 |
|
500 |
19 |
40 |
93 |
|
400 |
25 |
33 |
52 |
|
350 |
18 |
25 |
47 |
|
800 |
21 |
11 |
133 |
|
400 |
40 |
20 |
33 |
|
350 |
18 |
11 |
55 |
|
475 |
12 |
9 |
120 |
Размещено на Allbest.ru
Подобные документы
Анализ метода наименьших квадратов для парной регрессии, как метода оценивания параметров линейной регрессии. Рассмотрение линейного уравнения парной регрессии. Исследование множественной линейной регрессии. Изучение ошибок коэффициентов регрессии.
контрольная работа [108,5 K], добавлен 28.03.2018Построение модели множественной линейной регрессии по заданным параметрам. Оценка качества модели по коэффициентам детерминации и множественной корреляции. Определение значимости уравнения регрессии на основе F-критерия Фишера и t-критерия Стьюдента.
контрольная работа [914,4 K], добавлен 01.12.2013Параметры уравнения и экономическое толкование коэффициента линейной регрессии. Расчет коэффициентов детерминации и средних относительных ошибок аппроксимации. Построение структурной формы модели с использованием косвенного метода наименьших квадратов.
контрольная работа [99,2 K], добавлен 27.04.2011Расчет линейного коэффициента парной и частной корреляции. Статистическая значимость параметров регрессии и корреляции. Анализ корреляционного поля данных. Точность прогноза, расчет ошибки и доверительный интервал. Коэффициент множественной детерминации.
контрольная работа [155,8 K], добавлен 11.12.2010Расчет параметров A и B уравнения линейной регрессии. Оценка полученной точности аппроксимации. Построение однофакторной регрессии. Дисперсия математического ожидания прогнозируемой величины. Тестирование ошибок уравнения множественной регрессии.
контрольная работа [63,3 K], добавлен 19.04.2013Использование метода оценки параметров в стандартных масштабах для определения неизвестных параметров линейной модели множественной регрессии. Специфика изучения взаимосвязей по временным рядам. Моделирование взаимосвязей и тенденций в финансовой сфере.
контрольная работа [326,7 K], добавлен 22.04.2016Параметры уравнения линейной регрессии. Вычисление остаточной суммы квадратов, оценка дисперсии остатков. Осуществление проверки значимости параметров уравнения регрессии с помощью критерия Стьюдента. Расчет коэффициентов детерминации и эластичности.
контрольная работа [248,4 K], добавлен 26.12.2010Основные параметры уравнения регрессии, оценка их параметров и значимость. Интервальная оценка для коэффициента корреляции. Анализ точности определения оценок коэффициентов регрессии. Показатели качества уравнения регрессии, прогнозирование данных.
контрольная работа [222,5 K], добавлен 08.05.2014Экономическая интерпретация коэффициента регрессии. Нахождение статочной суммы квадратов и оценка дисперсии остатков. Проверка значимости параметров уравнения регрессии с помощью t-критерия Стьюдента. Расчет средней относительной ошибки аппроксимации.
контрольная работа [261,1 K], добавлен 23.03.2010Основы построения и тестирования адекватности экономических моделей множественной регрессии, проблема их спецификации и последствия ошибок. Методическое и информационное обеспечение множественной регрессии. Числовой пример модели множественной регрессии.
курсовая работа [3,4 M], добавлен 10.02.2014