Статистическая значимость в парной линейной регрессии
Понятие регрессии. Оценка параметров модели. Показатели качества регрессии. Проверка статистической значимости в парной линейной регрессии. Реализация регрессионного анализа в программе MS Excel. Условия Гаусса-Маркова. Свойства коэффициента детерминации.
Рубрика | Экономико-математическое моделирование |
Вид | курсовая работа |
Язык | русский |
Дата добавления | 21.03.2015 |
Размер файла | 233,1 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
- Содержание
- Введение
- 1. Понятие регрессии
- 1.1 Оценка параметров модели
- 1.2 Показатели качества регрессии
- 2. Проверка статистической значимости в парной линейной регрессии
- 2.1 Реализация регрессионного анализа в программе MS Excel
- Введение
- В процессе проведения различных научных исследований возникает проблема определения причинно-следственных связей между отдельными элементами и возможность выделения закономерностей возникновения таких связей. Корреляционно-регрессионный анализ позволяет проводить изучение по выборочным данным статистической зависимости ряда величин; некоторые из которых являются случайными. При статистической зависимости величины не связаны функционально, но как случайные величины заданы совместным распределением вероятностей. Исследование взаимосвязи случайных величин биржевых ставок приводит к теории корреляции, как разделу теории вероятностей и корреляционному анализу, как разделу математической статистики. Исследование зависимости случайных величин приводит к моделям регрессии и регрессионному анализу на базе выборочных данных. Теория вероятностей и математическая статистика представляют лишь инструмент для изучения статистической зависимости, но не ставят своей целью установление причинной связи. Представления и гипотезы о причинной связи должны быть привнесены из некоторой другой теории, которая позволяет содержательно объяснить изучаемое явление.
Основными задачами корреляционно-регрессионного анализа являются:
1. Выбор спецификации модели, т. е. формулировки вида модели, исходя из соответствующей теории связи между переменными;
2. Из всех факторов, влияющих на результативный признак, необходимо выделить наиболее существенно влияющие факторы;
3. Парная регрессия достаточна, если имеется доминирующий фактор, который и используется в качестве объясняющей переменной. Поэтому необходимо знать, какие остальные факторы предполагаются неизменными, так как в дальнейшем анализе их придется учесть в модели и от простой регрессии перейти к множественной;
4. Исследовать, как изменение одного признака меняет вариацию другого.
Методы и методология корреляционно-регрессионного анализа сформированы ведущими математическими исследователями, которые были дополнены экономистами, статистиками и даже социологами и психологами.
1. Понятие регрессии
Понятие регрессия произошло от латинского слова regressio, что означает обратное движение, отход.
Этот термин впервые был использован Френсисом Гальтоном в 1886 году при исследовании вопросов наследования физических характеристик человека. В качестве ведущей характеристики ученым был взят рост человека. Исследования показали, что сыновья высоких отцов, как ни странно, оказались более высокими, чем сыновья отцов с низким ростом. Более интересным оказалось то, что разброс в росте сыновей был меньшим, чем разброс в росте отцов. Так проявлялась тенденция возвращения роста сыновей к среднему - regression to mediocrity, то есть «регресс».
Результаты исследований были продемонстрированы расчетом среднего роста сыновей отцов, рост которых равен 56 дюймам, расчетом среднего роста сыновей отцов, рост которых равен 58 дюймам, и т. д. Затем, полученные результаты были изображены на плоскости. Здесь по оси ординат откладывались показатели среднего роста сыновей, а по оси абсцисс -- показатели среднего роста отцов. Полученные точки приближённо походили на прямую линию с положительным углом наклона меньше 45°. При этом, важно отметить, что регрессия была линейной.
В случае парной регрессии рассматривается один объясняющий фактор: через у обозначим изучаемый эконометрический показатель; через х - объясняющий фактор. Эконометрическая модель парной регрессии имеет следующий вид:
y=f(x)+, (1.1)
где f(x) - неизвестная функциональная зависимость (теоретическая регрессия); - возмущение, случайное слагаемое, представляющее собой совокупное действие не включенных в модель факторов, погрешностей.
Основная задача эконометрического моделирования - построение по выборке эмпирической модели, выборочной парной регрессии f(x), являющейся оценкой теоретической регрессии (функции f(x)):
y=f(x), (1.2)
здесь - f(x) эмпирическая (выборочная) регрессия, описывающая усредненную по x зависимость между изучаемым показателем и объясняющим фактором. После построения выборочной регрессии обычно производится верификация модели - проверка статистической значимости и адекватности построенной парной регрессии имеющимся эмпирическим данным.
Экспериментальная основа построения парной эмпирической регрессии - двумерная выборка: (x1,y1), …, (xn, yn), где - объем выборки (объем массива экспериментальных данных).
Основная задача спецификации модели парной регрессии - выбор вида функциональной зависимости. В случае парной регрессии обычно рассматриваются функциональные зависимости следующего вида, таблица 1.
Таблица 1 - Классификация моделей регрессии
Функция |
Уравнение |
||
Линейная |
y=a+bx |
(1.3) |
|
Параболическая |
y= a+b1x+b2x2 |
(1.4) |
|
Гиперболическая |
(1.5) |
||
Показательная |
(1.6) |
||
Степенная |
(1.7) |
||
Экспоненциальная |
|||
Полиномиальная |
А также некоторые другие. Заметим, что функциональные зависимости (1.3), (1.4) и (1.5) линейны по своим параметрам a и b.
Основные методы выбора функциональной зависимости f(x):
1) геометрический; эмпирический;
2) аналитический.
Геометрический метод выбора функциональной зависимости сводится к следующему. На координатной плоскости Oxy наносятся точки (xi, yi), i=1,... n, соответствующие выборке. Полученное графическое изображение называется полем корреляции (диаграммой рассеяния).
Исходя из получившейся конфигурации точек, выбирается наиболее подходящий вид параметрической функциональной зависимости f(x). На рис. 1 приведен пример поля корреляции для некоторой выборки наблюдений, где каждому наблюдению соответствует одна точка, с графиками двух функциональных зависимостей - линейной функции и параболы.
Рис. 1. Пример корреляционного поля
Эмпирический метод состоит в следующем. Выбирается некоторая параметрическая функциональная зависимость f(x) (см., например, (1.3-1.7)). Для построения по выборке оценки f(x) этой зависимости чаще всего используется метод наименьших квадратов (МНК). Согласно методу наименьших квадратов значения параметров функции f(x) (будем обозначать их через a и b) выбираются таким образом, чтобы сумма квадратов отклонений выборочных значений yi от значений была минимальной
, (1.8)
минимум ищется по параметрам a и b, которые входят в зависимость f(x).
Найденные значения параметров, которые минимизируют указанную сумму квадратов разностей, называются оценками неизвестных параметров регрессии по методу наименьших квадратов (оценками МНК). Выборочная регрессия y=f(x), (или yi=f(xi), i=1, …, n), в которую подставлены найденные значения, уже не содержит неизвестных параметров и является оценкой теоретической регрессии. Именно эту зависимость f(x) будем рассматривать как эмпирическую усредненную зависимость изучаемого показателя от объясняющего фактора.
После нахождения эмпирического уравнения регрессии вычисляются значения yi=f(xi) и остатки ei=yi-yi, i=1,n. По величине остаточной суммы квадратов можно судить о качестве соответствия эмпирической функции f(x) имеющимся в наличии статистическим наблюдениям. Перебирая разные функциональные зависимости и каждый раз действуя подобным образом, можно практически подобрать наиболее подходящую функцию для описания имеющихся данных.
Аналитический метод сводится к попытке выяснения содержательного смысла зависимости изучаемого показателя от объясняющего фактора и последующего выбора на этой основе соответствующей функциональной зависимости.
В практике эконометрического анализа часто используют линейную парную регрессию. В модели парной линейной регрессии зависимость (1.1) между переменными представляется в виде:
, (1.9)
т. е. теоретическая регрессия имеет вид (1.3).
На основе выборочных наблюдений оценка теоретической регрессии - выборочная (эмпирическая) регрессия у строится в виде:
, (1.10)
где a и b, являются оценками параметров теоретической регрессии.
регрессия линейный детерминация статистический
1.1 Оценка параметров модели
Рассматривается модель парной линейной регрессии
, i=1,n.
На основе эмпирических наблюдений построим оценку теоретической регрессии - найдем выборочное уравнение регрессии
i=1,n.
Оценки a и b параметров определяются по методу наименьших квадратов из соотношения:
, (1.1.1)
т. е. a и b, выбираются таким образом, чтобы сумма квадратов отклонений наблюдаемых (выборочных) значений показателя yi от расчетных yi была минимальной.
Вычисляя производные по параметрам a и b, и приравнивая их к нулю, приходим к следующей системе из двух уравнений (система нормальных уравнений):
(1.1.2)
Решение этой системы уравнений называется оценкой неизвестных параметров по методу наименьших квадратов, его можно найти по формулам:
(1.1.3)
где , , ,
Таким образом, парная эмпирическая линейная регрессия имеет вид:
(1.1.4)
где коэффициенты a и b определяются по формуле (1.1.3).
Коэффициенту b при объясняющем факторе x в парной линейной регрессии можно дать естественную экономическую интерпретацию. Коэффициент b показывает, на какую величину изменяется в среднем изучаемый эконометрический показатель при увеличении объясняющего фактора на одну единицу.
Нетрудно найти значения показателя, рассчитанные по выборочной линейной регрессии для тех значений объясняющего фактора, которые содержатся в выборке:
, i=1,n. (1.1.5)
Особое значение для проверки статистической значимости парной линейной регрессии имеют остатки (разности между истинными значениями показателя и значениями, вычисленными по уравнению линейной регрессии):
ei=yi -yi, i=1,n. (1.1.6)
Основные предположения регрессионного анализа относятся к случайной компоненте и имеют решающее значение для правильного и обоснованного применения регрессионного анализа в эконометрических исследованиях.
В классической модели регрессионного анализа предполагаются выполненными следующие предпосылки (условия Гаусса-Маркова):
1. Условие Величины i являются случайными.
2. Условие Математическое ожидание возмущений равно нулю: E(i)=0.
3. Условие Возмущения i и j некоррелированы: E(i, j)=0, ij.
4. Условие Дисперсия возмущения i одна и та же для каждого наблюдения j: D(i)=2. Это условие одинаковости дисперсий возмущений называется условием гомоскедастичности. Нарушение этого условия называется гетероскедастичностью.
5. Условие Величины i взаимно независимы со всеми значениями объясняющих переменных xi. Обычно считают, что объясняющие переменные являются неслучайными величинами.
Здесь, во всех условиях i=1,2,…,n.
Эти предпосылки образуют первую группу предпосылок, необходимых для проведения регрессионного анализа в рамках классической модели.
Вторая группа предпосылок дает достаточные условия для обоснованного проведения проверки статистической значимости эмпирических регрессий:
6. Условие Совместное распределение случайных величин 1, …, n является нормальным.
При выполнении предпосылок первой и второй групп случайные величины 1, …, n оказываются взаимно независимыми, одинаково распределенными случайными величинами, подчиняющимися нормальному распределению с нулевым математическим ожиданием и дисперсией 2. Модель (1.9), удовлетворяющая приведенным выше условиям, называется классической нормальной линейной моделью парной регрессии.
Возможно использование теоремы Гаусса-Маркова если регрессионная модель , удовлетворяет условиям, то оценки МНК a и b, (1.3) имеют наименьшую дисперсию в классе всех линейных несмещенных оценок.
Заметим, что после построения уравнения выборочной регрессии, наблюдаемые значения yi можно представить в виде
yi=yi+ei, i=1,n, (1.1.7)
где i=1,n, коэффициенты a и b, определяются по формуле (1.3). Остатки ei, являются, в отличие от возмущений i, наблюдаемыми величинами, с помощью которых можно оценить воздействие неучтенных факторов и ошибок наблюдений. Говорят, что ei является выборочной оценкой возмущения i.
Можно показать, что статистика (выборочная остаточная дисперсия), определяемая с помощью остатков ei (см. (6)):
(1.1.8)
является несмещенной оценкой дисперсии 2 - дисперсии возмущений (теоретической остаточной дисперсии).
При выполнении условий Гаусса-Маркова первой и второй групп справедливы утверждения:
Утверждение 1. Статистика распределена по закону Стьюдента с n-2 степенями свободы, здесь:
, (1.1.9)
представляет собой стандартную ошибку коэффициента a,
- выборочная дисперсия.
Утверждение 2. Статистика распределена по закону Стьюдента с n-2 степенями свободы, здесь:
, (1.1.10)
представляет собой стандартную ошибку коэффициента b,
- выборочная дисперсия.
Утверждение 3. Если y и x некоррелированы, то статистика:
(1.1.11)
распределена по закону Стьюдента с n-2 степенями свободы. Здесь (x,y) - теоретический коэффициент парной корреляции, rxy- выборочный коэффициент парной корреляции:
, (1.1.12)
где , - выборочные дисперсии x и y соответственно, Cov(x,y)- выборочная ковариация между x и y.
1.2 Показатели качества регрессии
Коэффициент детерминации является одной из наиболее эффективных оценок адекватности регрессионной модели, т. е. мерой качества уравнения регрессии (соответствия регрессионной модели эмпирическим данным).
После построения выборочного уравнения регрессии, как уже указывалось выше, значение зависимой переменной y в каждом наблюдении можно разложить на две составляющие:
yi=yi+ei, i=1,n,
здесь остаток ei представляет собой ту часть зависимой переменной y, которую невозможно «объяснить» с помощью выборочной регрессии. Можно показать, что выборочная дисперсия наблюдений yi может быть представлена в виде суммы:
, (1.2.1)
в которой первое слагаемое представляет собой часть, «объясненную» регрессионным уравнением (или обусловленную регрессией), а второе слагаемое - «необъясненную» часть, характеризующую влияние неучтенных факторов и т. п. Необходимо заметить, что такое разложение справедливо только в том случае, когда в уравнение регрессии включена константа a, при этом
.
Разложение (1.2.1) часто записываю в следующем виде:
, (1.2.2)
где представляет собой общую сумму квадратов отклонений зависимой переменной от средней, есть сумма квадратов отклонений, обусловленная регрессией, а - остаточная сумма квадратов.
Коэффициент детерминации определяется по формуле:
. (1.2.3)
Величина R2, как видно из формул (1) и (3), представляет собой часть (долю) вариации (разброса, дисперсии) зависимой переменной, обусловленную («объясненную») уравнением регрессии (иногда говорят - обусловленную вариацией объясняющей переменной).
Свойства коэффициента детерминации:
Свойство 1. 0 R2 1;
Свойство 2. Чем ближе R2 к единице, тем лучше регрессия аппроксимирует эмпирические данные, т. е. эмпирические наблюдения ближе к линии выборочной регрессии. Если R2,=1 то между x и y есть линейная функциональная зависимость, в этом случае все эмпирические точки наблюдений лежат на прямой регрессии;
Свойство 3. Если R2,=0 то в этом случае вариация зависимой переменной полностью обусловлена случайными воздействиями и линия выборочной регрессии параллельна оси Ox.
Заметим, что коэффициент детерминации R2 имеет смысл рассматривать только при наличии свободного члена в уравнении регрессии, так как лишь в этом случае справедливо равенство (1.2.1).
Оценка качества соответствия выборочного равнения регрессии наблюдаемым данным может производиться и с помощью средней ошибки аппроксимации регрессии по формуле:
. (1.2.4)
Как указывают некоторые авторы, в практических исследованиях значение этой ошибки в пределах 5-7 % свидетельствует о хорошем соответствии модели эмпирическим данным.
Коэффициент регрессии b, как уже отмечалось выше, показывает, на сколько единиц в среднем изменяется значение показателя y, когда фактор x увеличивается на одну единицу, поэтому он также может служить мерой тесноты связи между x и y. Однако b зависит от единиц измерения переменных. Именно поэтому удобно использовать некоторую «стандартную» систему единиц измерения тесноты связи, в которой различные данные были бы сравнимы между собой. В качестве единиц измерения такой системы используется среднее квадратическое отклонение переменных, а показателем тесноты связи служит коэффициент корреляции.
Действительно, используя понятия выборочных дисперсий, ковариации и корреляции, оценки МНК можно записать специальным образом:
, ,(1.2.5)
где , - выборочные средние, , - выборочные дисперсии, rxy - выборочный коэффициент корреляции (см. (1.2.5)).
Следовательно, парная эмпирическая линейная регрессия может быть записана в виде:
. (1.2.6)
Таким образом, величина
(1.2.7)
показывает, на сколько величин Sy изменится (в среднем) y, если x увеличится на одно sx, поэтому выборочный коэффициент корреляции rxy также является показателем тесноты связи (более точно - характеризует тесноту линейной зависимости) между переменными.
Выборочный коэффициент корреляции является безразмерной величиной и обладает следующими свойствами:
Свойство 1. -1 rxy 1;
Свойство 2. При rxy = 1 корреляционная зависимость представляет собой линейную функциональную зависимость (все наблюдаемые значения располагаются на прямой линии регрессии);
Свойство 3. При rxy = 0 линейная корреляционная связь отсутствует (линия регрессии параллельна оси Ox).
Заметим, что выборочный коэффициент корреляции rxy полностью оценивает тесноту связи только в случае совместного нормального распределения случайных величин x и y, в других случаях выборочный коэффициент корреляции является оценкой меры только линейной зависимости.
Практически наиболее удобна следующая формула вычисления rxy (которая непосредственно может быть получена из определения):
(1.2.8)
В случае парной линейной регрессии между коэффициентом детерминации R2и коэффициентом корреляции rxy существует следующая связь:
R2 = r2xy. (1.2.9)
2. Проверка статистической значимости в парной линейной регрессии
Проверка значимости (статистической) уравнения регрессии означает проверку соответствия модели, выражающей зависимость между переменными, экспериментальным данным, а также проверку достаточности включенных в уравнение объясняющих переменных для описания зависимой переменной.
Правило проверки статистической значимости оценок a и b основывается на статистических свойствах оценок МНК и проверке статистических гипотез H0: a=0, H1: a0 и H0: b=0, H1: b0. Невозможность отклонения нулевой гипотезы означает статистическую незначимость соответствующего коэффициента и наоборот, отклонение нулевой гипотезы по сравнению с альтернативной означает, что соответствующий коэффициент статистически значим.
Как всегда, проверка статистических гипотез осуществляется при некотором уровне значимости. В практических эконометрических исследованиях наиболее часто используются 5 и 1 %-ный уровни значимости. Выбор того или иного уровня значимости определяется исследователем.
Напомним, что если нулевая гипотеза отклоняется при 1 %-ном уровне значимости, то она автоматически отклоняется и при 5 %-ном уровне.
Если нулевая гипотеза принимается при 5 %-ном уровне значимости, то она принимается и при 1 %-ном уровне.
Если же при 5 %-ном уровне значимости нулевая гипотеза отклоняется, то необходимо проверить ее при 1 %-ном уровне, и если при этом уровне она принимается, то результаты проверки гипотезы приводятся для двух уровней значимости.
1. Правило проверки значимости коэффициента b
Статистика tb=b/mb при выполнении гипотезы H0:b=0 распределена по закону Стьюдента с n-2 степенями свободы.
Из таблицы распределения Стьюдента с n-2 степенями свободы по заданному уровню значимости выбирается значение t как критическая точка, соответствующая двусторонней критической области. Тогда:
1) если tb ? t, то гипотезу H0:b=0 следует отклонить и, следовательно, признать коэффициент b статистически значимым;
2) если tb t, то гипотезу H0:b=0 следует принять и, следовательно, признать коэффициент b статистически незначимым.
2. Правило проверки значимости коэффициента a
Статистика ta=a/ma при выполнении гипотезы H0:a=0 распределена по закону Стьюдента с n-2 степенями свободы.
Из таблицы распределения Стьюдента с n-2 степенями свободы по заданному уровню значимости выбирается значение t как критическая точка, соответствующая двусторонней критической области. Тогда:
1) если ta ? t, то гипотезу H0:a=0 следует отклонить и, следовательно, признать коэффициент a статистически значимым;
2) если ta t, то гипотезу H0:a=0 следует принять и, следовательно, признать коэффициент a статистически незначимым.
3. Правило проверки значимости коэффициента корреляции rxy
Статистика при выполнении гипотезы H0: rxy =0 (т. е. при отсутствии корреляционной связи, здесь - генеральный коэффициент корреляции) распределена по закону Стьюдента с n-2 степенями свободы.
Из таблицы распределения Стьюдента с n-2 степенями свободы по заданному уровню значимости выбирается значение t как критическая точка, соответствующая двусторонней критической области. Тогда:
1) если tr ? t, то гипотезу H0: xy =0 следует отклонить и, следовательно, признать коэффициент rxy статистически значимым;
2) если tr t, то гипотезу H0: xy =0 следует принять и, следовательно, признать коэффициент rxy статистически незначимым.
Проверка значимости коэффициента b одновременно является проверкой значимости парной линейной регрессии в целом. Еще один способ проверки значимости парной линейной регрессии основан на коэффициенте детерминации R2 и статистике, распределенной по закону Фишера с числом степеней свободы числителя, равном 1, и числом степеней свободы знаменателя, равном n-2.
4. Правило проверки значимости линейной регрессии в целом (гипотезы H0: b =0) с использованием F статистики
Если выполнены предпосылки регрессионного анализа, то при выполнении гипотезы H0: b =0 (что означает отсутствие взаимосвязи между x и y, а также статистическую незначимость построенной парной регрессии) статистика
распределена по закону Фишера с числом степеней свободы числителя, равном 1, и числом степеней свободы знаменателя, равном n-2.
По таблице распределения Фишера-Снедекора при заданном уровне значимости определяется значение Fтабл как критическая точка при числе степеней свободы числителя, равном 1, и числе степеней свободы знаменателя, равном n-2. Тогда:
1) если F?Fтабл, то гипотезу H0: b =0 следует отклонить и, следовательно, признать построенное уравнение линейной регрессии статистически значимым;
2) если FFтабл, то гипотезу H0: b =0 следует принять и, следовательно, признать построенное уравнение статистически незначимым.
2.1 Реализация регрессионного анализа в программе MS Excel
Для проведения расчетов по линейному методу МНК можно использовать программу Microsoft Excel (входит в программный пакет Microsoft Office). Наиболее просто реализуется вычисления коэффициентов линейной математической модели типа. Для этого можно использовать следующие встроенные функций MS Excel:
1. ОТРЕЗОК (диапозон_Y; диапазон_X)
2. НАКЛОН (диапазон_Y; диапазон_X)
3. КОРРЕЛ (диапазон_Y; диапазон_X)
Первая функция вычисляет свободный член уравнения регрессии (b0 в y = bo + b1 · x), вторая - наклон прямой (b1 в y = bo + b1 · x). Третья функция позволяет вычислить коэффициент корреляции r.
Каждая из функций принимает два аргумента, разделяемых знаком точка с запятой “;”. Каждый из аргументов определяет диапазон ячеек, в котором находятся значения зависимой (диапазон_Y) и независимой (диапазон_Х) переменных. Диапазоны должны быть одинаковой формы (вектор-строка или вектор-столбец одинаковой длины).
В более общем виде линейный МНК может быть реализован с помощью встроенной функции ЛИНЕЙН, которая производит вычисления коэффициентов регрессии линейной математической модели с несколькими переменными типа и дополнительно рассчитывает ряд статистических показателей. Вычисленные коэффициенты регрессии и статистики возвращаются в виде массива чисел. Поскольку возвращается массив значений, функция должна задаваться в виде формулы массива.
Запишем модель в следующем виде:
Функция ЛИНЕЙН может принимать от одного до четырех аргументов. Обязателен только первый аргумент, остальные - необязательные:
ЛИНЕЙН (диапазон_Y, [диапазон_X], [константа], [статистика])
Диапазон_Y -- Обязательный аргумент. Диапазон ячеек, содержащий множество значений зависимой переменной (y);
Диапазон_Х -- Диапазон ячеек, содержащий множество значений независимых переменных. Если переменных несколько, то они должны располагаться в смежных ячейках. Каждое диапазон значений независимой переменной должен иметь форму, аналогичную диапазону_Y.
Константа. Необязательный аргумент. Логическое значение, которое указывает, требуется ли, чтобы константа b0 была равна 0. Если аргумент константа имеет значение ИСТИНА или опущен, то свободный член b0 вычисляется обычным образом.
Если аргумент константа имеет значение ЛОЖЬ, то значение b0 полагается равным 0 и значения коэффициентов регрессии подбираются с этим условием.
Статистика. Необязательный аргумент. Логическое значение, которое указывает, требуется ли возвратить дополнительную регрессионную статистику. Если аргумент статистика имеет значение ИСТИНА, функция ЛИНЕЙН возвращает дополнительную регрессионную статистику. Возвращаемый массив чисел будет иметь следующий вид, рис. 2:
Рисунок 2.1 - Наглядное изображение массива данных Microsoft Excel
Если аргумент статистика имеет значение ЛОЖЬ или опущен, функция ЛИНЕЙН возвращает только коэффициенты (то есть, вектор-строку). Размер диапазона ячеек, в которые будет записан результат выполнения функции ЛИНЕЙН следующий:
1. Если статистика=ЛОЖЬ, то 1 строка и n столбцов (n-число определяемых параметров)
2. Если статистика=ИСТИНА, то 5 строк и n столбцов.
Описание значений, вычисляемых функцией, приведены в таблице 2.1.
Таблица 2.1 - Описание значений, вычисляемых функцией
Величина |
Описание |
|
sen ;sen-1; …; se1 |
Стандартные значения ошибок для коэффициентов bn; bn-1; …; b1 |
|
se0 |
Стандартное значение ошибки для постоянной b0 (seb0 = #Н/Д, если аргумент |
|
константа имеет значение ЛОЖЬ). |
||
r2 |
Квадрат коэффициента корреляции. |
|
sey |
Стандартная ошибка для оценки y. |
|
F |
F-статистика или F-наблюдаемое значение. F-статистика используется для определения того, является ли случайной наблюдаемая взаимосвязь между зависимой и независимой переменными. |
|
df |
Степени свободы. Степени свободы полезны для нахождения F-критических значений в статистической таблице. Для определения уровня надежности модели необходимо сравнить значения в таблице с F-статистикой, возвращаемой функцией ЛИНЕЙН. |
|
ssрег |
Регрессионная сумма квадратов. |
|
ssост |
Остаточная сумма квадратов, равна сумме квадратов разностей для каждой точки между прогнозируемым значением y и фактическим значением y (выражение). |
Таким образом, все явления окружающего мира взаимосвязаны и взаимообусловлены. В сложном хитросплетении все охватывающей взаимосвязи любое из них является последствием действия определенного множества причин и одновременно причиной этих явлений именно проведение регрессионно-корреляционного анализа позволяет определить: факт наличия взаимосвязи, его направление и формы; измерить степень плотности связи и оценить эффекты влияния одних явлений на другие.
Заключение
В экономических исследованиях задача выявления факторов, определяющих уровень и динамику экономического процесса, чаще всего решается методами корреляционного и регрессионного анализа. Для достоверного отображения объективно существующих в экономике процессов существует необходимость не только выявить существенные взаимосвязи, но и дать им количественную оценку.
Основными задачами корреляционного анализа являются оценка силы связи и проверка статистических гипотез о наличии и силе корреляционной связи. Не все факторы, влияющие на экономические процессы, являются случайными величинами, поэтому при анализе экономических явлений обычно рассматриваются связи между случайными и неслучайными величинами. Такие связи называются регрессионными, а метод математической статистики, их изучающий, называется регрессионным анализом.
Наиболее сложным этапом, завершающим регрессионный анализ, является интерпретация полученных результатов, т.е. перевод их с языка статистики и математики на язык экономики.
Интерпретация моделей регрессии осуществляется методами той отрасли знаний, к которой относятся исследуемые явления. Всякая интерпретация начинается со статистической оценки уравнения регрессии в целом и оценки значимости входящих в модель факторных признаков, т.е. с изучения, как они влияют на величину результативного признака. Чем больше величина коэффициента регрессии, тем значительнее влияние данного признака на моделируемую обработку биржевых ставок. Особое значение при этом имеет знак перед коэффициентом регрессии. Знаки коэффициентов регрессии говорят о характере влияния на результативный признак статистической обработки биржевых ставок. Если факторный признак имеет плюс, то с увеличением данного фактора результативный признак возрастает; если факторный признак со знаком минус, то с его увеличением результативный признак уменьшается. Интерпретация этих знаков полностью определяется социально-экономическим содержанием моделируемого признака. Если его величина изменяется в сторону увеличения, то плюсовые знаки факторных признаков имеют положительное влияние. При изменении результативного признака в сторону снижения положительные значения имеют минусовые знаки факторных признаков. Если экономическая теория подсказывает, что факторный признак должен иметь положительное значение, а он со знаком минус, то необходимо проверить расчеты параметров уравнения регрессии.
Корреляционный и регрессионный анализ позволяет определить зависимость между факторами, а также проследить влияние задействованных факторов. Эти показатели имеют широкое применение в обработке статистических данных для достижения наилучших показателей биржевых ставок.
Список использованных источников
1 The teaching of statistics / Studies in mathematical education, vol.7. - Paris, UNESCO, 1991. - 258 pp.
2 Айвазян С., Мхитарян В. Прикладная статистика и основы эконометрики, том 2.
3 Долан Э.Дж., Линдсей Д.Е. Рынок: микроэкономическая модель. - СПб: СП "Автокомп", 1992. - 496 с.
4 Дорохина Е.Ю., Преснякова Л.Ф., Тихомиров Н.П. Сборник задач по эконометрике, 2003.
5 Доугерти К. Введение в эконометрику, 1999.
6 Елисеева И.И. Эконометрика. - М, 2007, - 576 с.
7 Зандер Е.В. Эконометрика: Учебно-методический комплекс. - Красноярск, 2003, - 34 с.
8 Карп Д.Б. Эконометрика: основные формулы с комментариями. Учебно-методическое пособие. - Владивосток, 2004. - 50 с.
9 Леванова Л.Н. Основы эконометрики, учебное пособие. - Саратов, 2003.
10 Магнус Я.Р., Катышев П.К., Пересецкий А.А. Эконометрика. Начальный курс, - М. 2004, - 576 с.
11 Суслов В.И., Ибрагимов Н.М., Талышева Л.П., Цыплаков А.А. Эконометрия: Учебное пособие, 2005. - 739 с.
12 Тихомиров Н.П., Дорохина Е.Ю. Эконометрика, 2003.
13 Шанченко Н.И. Эконометрика: Лабораторный практикум, 2004.
14 Эконометрика. Краткий курс: учебное пособие. 2-е изд., испр. / Ю. С. Скляров; ГУАП. - СПб., 2007. - 140 с.
15 Эконометрика. Начальный курс. Магнус Я.Р., Катышев П.К., Пересецкий А.А. 6-е изд., перераб. и доп. - М.: Дело, 2004. -- 576 с.
Размещено на Allbest.ru
Подобные документы
Основные методы анализа линейной модели парной регрессии. Оценки неизвестных параметров для записанных уравнений парной регрессии по методу наименьших квадратов. Проверка значимости всех параметров модели (уравнения регрессии) по критерию Стьюдента.
лабораторная работа [67,8 K], добавлен 26.12.2010Определение количественной зависимости массы пушного зверька от его возраста. Построение уравнения парной регрессии, расчет его параметров и проверка адекватности. Оценка статистической значимости параметров регрессии, расчет их доверительного интервала.
лабораторная работа [100,5 K], добавлен 02.06.2014Анализ метода наименьших квадратов для парной регрессии, как метода оценивания параметров линейной регрессии. Рассмотрение линейного уравнения парной регрессии. Исследование множественной линейной регрессии. Изучение ошибок коэффициентов регрессии.
контрольная работа [108,5 K], добавлен 28.03.2018Расчет параметров уравнения линейной регрессии, экономическая интерпретация ее коэффициента. Проверка равенства математического ожидания уровней ряда остатков нулю. Построение степенной модели парной регрессии. Вариация объема выпуска продукции.
контрольная работа [771,6 K], добавлен 28.04.2016Расчет параметров парной линейной регрессии. Оценка статистической значимости уравнения регрессии и его параметров с помощью критериев Фишера и Стьюдента. Построение матрицы парных коэффициентов корреляции. Статистический анализ с помощью ППП MS EXCEL.
контрольная работа [1,6 M], добавлен 14.05.2008Определение параметров линейной регрессии и корреляции с использованием формул и табличного процессора MS Excel. Методика расчета показателей парной нелинейной регрессии и корреляции. Вычисление значений линейных коэффициентов множественной детерминации.
контрольная работа [110,4 K], добавлен 28.07.2012Построение уравнения множественной регрессии в линейной форме с полным набором факторов, отбор информативных факторов. Проверка значимости уравнения регрессии по критерию Фишера и статистической значимости параметров регрессии по критерию Стьюдента.
лабораторная работа [217,9 K], добавлен 17.10.2009Выбор факторных признаков для двухфакторной модели с помощью корреляционного анализа. Расчет коэффициентов регрессии, корреляции и эластичности. Построение модели линейной регрессии производительности труда от факторов фондо- и энерговооруженности.
задача [142,0 K], добавлен 20.03.2010Особенности расчета параметров уравнений линейной, степенной, полулогарифмической, обратной, гиперболической парной и экспоненциальной регрессии. Методика определения значимости уравнений регрессии. Идентификация и оценка параметров системы уравнений.
контрольная работа [200,1 K], добавлен 21.08.2010Расчет линейного коэффициента парной и частной корреляции. Статистическая значимость параметров регрессии и корреляции. Анализ корреляционного поля данных. Точность прогноза, расчет ошибки и доверительный интервал. Коэффициент множественной детерминации.
контрольная работа [155,8 K], добавлен 11.12.2010