Основы эконометрики
Множественная корреляция и линейная регрессия. Оценка прогнозных качеств модели. Простейшие методы линеаризации. Вероятностный эксперимент, событие или вероятность. Фиктивные переменные в регрессионных моделях. Системы эконометрических уравнений.
Рубрика | Экономико-математическое моделирование |
Вид | курс лекций |
Язык | русский |
Дата добавления | 13.02.2014 |
Размер файла | 2,0 M |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
20
Введение
Эконометрика - наука, исследующая количественные закономерности и взаимозависимости в экономике на основе методов теории вероятностей и математической статистики, адаптированных к обработке экономических данных.
Основным элементом курса является анализ и построение взаимосвязей экономических переменных.
Математическая статистика и ее применение в экономике - эконометрика - позволяют строить экономические модели, оценивать их параметры, проверять гипотезы о свойствах экономических показателей и формах их связи, что в конечном счёте служит основой для экономического анализа и прогнозирования (основная цель эконометрики).
Экономические модели позволяют выявить особенности экономического объекта и на основе этого предсказывать будущее поведение объекта при изменении каких-либо параметров (повышение обменного курса, падение прибыли…).
По своему определению любая экономическая модель абстрактна и, следовательно, неполна. Так, например, в простейшей модели спроса предполагают, что спрос на какой-либо товар определяется его ценой (р) и доходом потребителя (I): .
На самом же деле на спрос влияют также другие факторы (цены на другие товары, реклама, мода, погода и т.д.). Поэтому в модель добавляют, обычно аддитивным образом, случайный компонент е, интегрирующий (объединяющий) в себе влияние всех неучтённых явно в модели факторов. Например, модель спроса принимает вид: .
Введение случайного компонента в модель приводит к тому, что взаимосвязь остальных её переменных перестаёт быть строго детерминированной (функциональной) и становится стохастической (статистической, случайной), каковая и наблюдается в реальной действительности.
Связь переменных, на которую накладываются воздействия случайных факторов, называется статистической (корреляционной).
Основой для выявления и обоснования эмпирических (опытных) закономерностей являются статистические данные, которые обычно подразделяются на 2 вида:
- перекрёстные данные - данные по какому-либо экономическому показателю, полученные для различных однотипных объектов (фирм, регионов). При этом либо все данные относятся к одному периоду времени, либо временная принадлежность несущественна.
- временные ряды - данные, характеризующие один объект, но в разные моменты времени.
Существуют различные методы сбора экономических данных: опрос, анкетирование, получение официальной стат.отчётности…
Собранные данные могут быть представлены в различной форме: в виде таблиц, диаграмм, графиков.
Далее подготовленные данные подставляются в теоретическую модель, представленную аналитически (в виде некоторого уравнения) или в графическом виде.
При этом возникает ряд проблем, важнейшими из которых являются проверка согласованности теоретической модели с опытными данными, оценка параметров модели и проверка предположений (гипотез), лежащих в основе модели.
Основные этапы эконометрического исследования:
0. Постановочный этап - постановка проблемы, целей моделирования, сбор данных, анализ их качества.
I. Спецификация модели - выбор вида формулы зависимости.
II. Параметризация - оценка значений параметров выбранной модели.
III. Верификация - проверка качества полученных параметров и самой модели в целом.
IV. Использование построенной модели для объяснения поведения экономических показателей и прогнозирования.
Основные типы моделей:
Экономико-математическая модель - это математическое описание какого-либо экономического процесса или объекта.
Математические модели, используемые в экономике, можно подразделить на классы по ряду признаков, относящихся к особенностям моделируемых объектов, цели моделирования и используемого инструментария.
- Макроэкономические модели описывают экономику как единое целое, связывая между собой укрупнённые материальные и финансовые показатели (ВВП, потребление, инвестиции, занятость, процентную ставку…).
Микроэкономические модели описывают взаимодействие структурных и функциональных составляющих экономики, либо поведение отдельной такой составляющей в рыночной среде.
- Теоретические модели позволяют изучать общие свойства экономики и её характерных элементов дедукцией (от общего к частному) выводов из формальных предпосылок.
Прикладные модели оценивают параметры функционирования конкретного экономического объекта и позволяют сформулировать рекомендации для практических решений. К прикладным относятся прежде всего эконометрические модели, оперирующие числовыми значениями экономических переменных и позволяющие статистически значимо оценивать их на основе имеющихся наблюдений.
Особое место в рыночной экономике занимают равновесные модели, которые описывают такие состояния экономики, когда результирующая всех сил, стремящихся вывести их из этого состояния, равна 0.
- Статические модели описывают состояние экономического объекта в конкретный момент или период времени.
Динамические модели включают взаимосвязи переменных во времени.
- Детерминированные модели предполагают строгие функциональные связи между переменными.
Стохастические допускают наличие случайных воздействий на исследуемые показатели и используют инструментарий теории вероятностей и математической статистики для их описания.
Приведём 3 основных класса моделей, которые применяются для анализа и прогнозирования в эконометрике:
1. Модели временных рядов: модели тренда и сезонности . Они объясняют поведение временного ряда, исходя только из его предыдущих значений. Применяются для изучения и прогнозирования объёма продаж билетов, спроса, прогнозирования % ставки.
2. Регрессионные модели с 1 уравнением: зависимая переменная у представляется в виде функции одной или нескольких переменных: , где у - объясняемая (зависимая) переменная, - объясняющие (независимые) переменные, - параметры уравнения.
Регрессионные уравнения - уравнения статистической связи между переменными.
В зависимости от вида функции f модели делятся на линейные и нелинейные. Эти модели применяют значительно шире, чем модели временных рядов. (Например, спрос на мороженое как функция от времени, температуры воздуха, среднего уровня доходов…).
3. Системы одновременных уравнений: описываются системами уравнений, могут состоять из тождеств и регрессионных уравнений, которые кроме объясняющих переменных могут включать в себя объясняемые переменные из других уравнений.
1. Основные понятия теории вероятностей
1.1 Вероятностный эксперимент, событие, вероятность
Испытание (вероятностный эксперимент) - действие, результат которого заранее не известен (т.к. он является случайным).
Элементарный исход - возможный результат испытания.
Событие - один или несколько исходов.
Событие называется случайным, если при осуществлении определенной совокупности условий S оно может либо произойти, либо не произойти. Далее вместо того, чтобы говорить "совокупность условий S осуществлена", будем говорить: "произведено испытание".
Например, строительство автомобильного завода в контексте получения прибыли - вероятностный эксперимент (испытание). Получение прибыли - случайное событие.
Если событие происходит всегда в условиях данного эксперимента, то оно называется достоверным (спрос на автомобили упадет при резком повышении цен на автомобили). Событие называется невозможным, если оно никогда не произойдет в условиях данного эксперимента (рост спроса на автомобили приведет к снижению их цены при прочих равных условиях - невозможное событие).
События называются несовместными, если появление одного из них исключает появление других событий в одном и том же испытании (увеличение налогов - рост располагаемого дохода).
Иначе события называются совместными (увеличение объема продаж - увеличение прибыли).
Несколько событий образуют полную группу, если в результате испытания появится хотя бы одно из них (появление хотя бы одного из событий полной группы есть достоверное событие).
Если события, образующие полную группу несовместные, то в результате испытания появится только одно из них.
Противоположными называют два единственно возможных события, образующих полную группу. Противоположные события принято обозначать А и .
События называются равновозможными, если ни одно из них не является более возможным, чем другое.
Каждый из возможных результатов испытания называется элементарным исходом (элементарным событием) (их нельзя разбить на более простые).
Вероятность - число, характеризующее степень возможности появления события.
Вероятностью события А называют отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарных исходов, образующих полную группу.
,
где m(A) - число благоприятствующих событию А исходов, n - число всех возможных элементарных исходов.
Свойства вероятности:
1. Вероятность достоверного события равна единице.
2. Вероятность невозможного события равна 0.
3. Вероятность случайного события: 0 < P(A) < 1.
4. Вероятность любого события удовлетворяет двойному неравенству: 0? P(A) ? 1.
5. Если А и - противоположные, то Р(А) = 1 - Р().
Наряду с классическим определением используют и другие определения вероятности, в частности статистическое определение: в качестве статистической вероятности события принимают относительную частоту или число, близкое к ней.
Относительной частотой события называют отношение числа испытаний, в которых событие появилось, к общему числу фактически произведённых испытаний.
W(A) = ,
m - число появлений события, n - общее число испытаний.
Вероятность вычисляют до опыта, а относительную частоту - после опыта.
Пример 1. Отдел технического контроля обнаружил 3 нестандартных детали в партии из 80 случайно отобранных деталей. Относительная частота появления нестандартных деталей W(A) = .
Свойство устойчивости относительной частоты: в различных опытах относительная частота изменяется мало (тем меньше, чем больше произведено испытаний), колеблясь около некоторого постоянного числа. Это постоянное число и есть вероятность появления события.
Т.о., если опытным путём установлена относительная частота, то полученное число можно принять за приближённое значение вероятности.
Статистическая вероятность любого события также заключена между нулём и единицей:
0 ? ? 1.
Для существования статистической вероятности требуется:
А) возможность производить неограниченное число испытаний, в каждом из которых событие А наступает или не наступает;
Б) устойчивость относительных частот появления А в различных сериях достаточно большого числа испытаний.
1.2 Случайные величины
Случайной называют величину, которая в результате испытания примет одно и только одно возможное значение, наперед не известное и зависящее от случайных причин, которые сначала не могут быть учтены.
Пример 2. Число родившихся детей в городе в течение суток - СВ, которая принимает значения 1, 2, 3, …
Пример 3. Прибыль фирмы - СВ. Возможные значения этой величины принадлежат некоторому промежутку.
Будем обозначать случайные величины прописными буквами X, Y, Z…, а их возможные значения соответствующими строчными буквами x, y, z…
Различают следующие виды случайных величин:
Дискретная (прерывная) СВ - величина, которая принимает отдельные, изолированные числовые значения с определенными вероятностями. Число возможных значений дискретной случайной величины может быть конечным и бесконечным. (Пр.2)
Непрерывная случайная величина - СВ, которая может принимать любые числовые значения из некоторого конечного или бесконечного промежутка. Число возможных значений непрерывной СВ бесконечно. (Пр. 3).
Для задания дискретной СВ недостаточно перечислить все возможные ее значения, нужно еще указать их вероятности.
Законом распределения дискретной СВ называют соответствие между возможными значениями этой величины и их вероятностями. Закон распределения можно задать таблично, аналитически и графически.
При табличном задании первая строка таблицы содержит возможные значения, а вторая - их вероятности:
Х |
х1 |
х2 |
… |
хn |
|
р |
р1 |
р2 |
… |
рn |
Т.к. в одном испытании случайная величина принимает одно и только одно возможное значение, то события Х = х1, Х = х2,…, Х = хn образуют полную группу. => Сумма вероятностей этих событий равна 1:
.
Если множество возможных значений Х бесконечно (счетно), то ряд сходится, и его сумма равна 1.
Пример 4. В денежной лотерее выпущено 100 билетов. Разыгрывается 1 выигрыш в 50 рублей и 10 выигрышей по 5 руб. Найти закон распределения СВ Х - стоимости возможного выигрыша владельца лотерейного билета.
Решение. Х - дискретная СВ. Ее возможные значения: х1= 0, х2 =5, х3 = 50. Вероятности этих значений: р1= 0,89, р2 = 0,1, р3 = 0,01. (проверка: 0,89 + 0,1 + 0,01 = 1)
Тогда закон распределения:
Х |
0 |
5 |
50 |
|
р |
0,89 |
0,1 |
0,01 |
Для наглядности закон распределения дискретной СВ можно изобразить и графически, для чего в прямоугольной системе координат строят точки (xi, pi), а затем соединяют их отрезками. Полученная ломанная называется многоугольником или полигоном распределения.
Пр.4.
Аналитически СВ задается либо функцией распределения, либо плотностью вероятностей.
Функцией распределения СВ Х называют функцию , определяющую вероятность того, что СВ Х принимает значение, меньшее, чем х:
.
Иногда эту функцию называют функцией накопленной вероятности или кумулятивной функцией распределения.
Свойства функции распределения:
1. 0 ? ? 1.
2. - неубывающая функция, т.е. .
3. .
4. .
5. .
Если возможные значения СВ Х принадлежат отрезку [a, b], то
График функции распределения даёт наглядное представление о вероятности изменения значений СВ.
Для примера функция распределения и её график имеют вид:
Для непрерывной СВ нельзя определить вероятность того, что она принимает некоторое конкретное значение, а следовательно непрерывную СВ нельзя задать таблично. Поэтому для описания непрерывной СВ может быть использована функция распределения. При этом она является непрерывной неубывающей функцией, изменяющейся от 0 до 1.
Плотностью вероятности (плотностью распределения вероятностей) непрерывной СВ Х называют функцию .
Свойства плотности вероятности:
1. .2. .3. .4. .
Для непрерывной СВ справедливы равенства:
==.
Площадь под графиком кривой плотности вероятности равна единице.
Площадь заштрихованной области на рисунке равна:
=.
Вероятность попадания значений СВ в "хвосты" распределения, т.е. в интервалы и , равна 1 - . Т.о. с помощью плотности вероятности можно определить вероятность попадания непрерывной СВ Х в заданный интервал , что имеет большое прикладное значение.
1.3 Числовые характеристики СВ
Числовыми характеристиками СВ называют числа, которые описывают СВ суммарно. К таким числовым характеристикам относится математическое ожидание. Оно характеризует среднее ожидаемое значение СВ, т.е. приблизительно равно его среднему значению. Для решения многих задач достаточно знать МО (например, при оценивании покупательной способности населения достаточно знать средний доход).
Математическим ожиданием дискретной СВ называют сумму произведений всех возможных ее значений на их вероятности.
.
Если дискретная СВ принимает счетное множество всевозможных значений, то
Причем мат.ожидание существует, если ряд в правой части сходится абсолютно.
Для непрерывной СВ:
M(X) =.
Замечание. Мат.ожидание - неслучайная постоянная величина.
Пример 5. Найти мат.ожидание дискретной СВ Х, зная закон ее распределения:
Х |
3 |
5 |
2 |
|
р |
0,1 |
0,6 |
0,3 |
Решение. Искомое мат.ожидание М(Х) = 3•0,1 + 5•0,6 + 2•0,3 = 3,9.
Мат.ожидание числа появления события в одном испытании равно вероятности этого события.
Мат.ожидание приближенно равно (тем больше, чем больше число испытаний) среднему арифметическому наблюдаемых значений СВ.
Замечание. МО больше наименьшего и меньше наибольшего возможных значений СВ.
Свойства математического ожидания:
1. Мат.ожидание постоянной величины равно самой постоянной: М(С) = С.
2. Постоянный множитель можно выносить за знак МО: М(СХ) = СМ(Х).
3. МО суммы 2-х СВ равно сумме МО слагаемых: М(Х + Y) = M(X) + M(Y).
4. МО произведения двух независимых СВ равно произведению их МО:
М(ХY) = M(X)M(Y).
Зная только МО СВ нельзя судить ни о том, какие значения принимает СВ, ни о том, как эти значения рассеяны вокруг мат.ожидания. Т.е. МО полностью не характеризует СВ. Поэтому наряду с мат.ожиданием вводят и другие числовые характеристики. Например, чтобы оценить, как рассеяны величины вокруг МО, используют дисперсию.
Дисперсией СВ называют мат.ожидание квадрата отклонения СВ от ее МО:
.
При этом для дискретной СВ:
Для непрерывной СВ:
.
Замечание. Дисперсия СВ - неслучайная постоянная величина.
Пример 6. Найти дисперсию СВ Х, которая задана законом распределения:
Х |
1 |
2 |
5 |
|
р |
0,3 |
0,5 |
0,2 |
Решение. Найдем МО: М(Х) = 1•0,3 + 2•0,5 + 5•0,2 = 2,3.
Затем найдем возможные значения квадрата отклонения:
[х1 - M(X)]2 = (1 - 2,3)2 = 1,69; [х2 - M(X)]2 = (2 - 2,3)2 = 0,09;
[х3 - M(X)]2 = (5 - 2,3)2 = 7,29.
D(X) = 1,69•0,3 + 0,09•0,5+ 7,29•0,2 = 2,01.
2 способ. М(Х) = 2,3. Вычислим M(X2) = .
Искомая дисперсия равна D(X) = 7,3 - (2,3)2 = 7,3 - 5,29 = 2,01.
Свойства дисперсии:
1. Дисперсия постоянной величины равна 0: D(C) = 0.
2. Постоянный множитель можно выносить за знак дисперсии, возведя его в квадрат:
D(CX) = C2D(X).
3. Дисперсия алгебраической суммы конечного числа независимых СВ равна сумме дисперсий этих величин:
D(X ± Y) = D(X) + D(Y).
Следствие. Дисперсия суммы постоянной величины и случайной равна дисперсии случайной величины:
D(С + Х) = D(X).
Дисперсия имеет размерность, равную квадрату размерности СВ.
Кроме дисперсии для оценки рассеяния СВ вокруг ее среднего значения служат и другие характеристики, например, среднее квадратическое отклонение. Средним квадратическим отклонением СВ Х называют квадратный корень из ее дисперсии:
.
Размерность сред.квадр.отклонения совпадает с размерностью СВ.
Пример 6. Решение.
D(X) = 2,01 => .
Чтобы оценить разброс значений СВ в процентах относительно её среднего значения, вводится коэффициент вариации V(X), который рассчитывается по формуле:
.
1.4 Законы распределений СВ
1. Закон равномерного распределения вероятностей
Распределение вероятностей называется равномерным, если на интервале, которому принадлежат все возможные значения СВ, плотность распределения сохраняет постоянное значение.
Если все возможные значения СВ принадлежат отрезку , на котором функция f(x) сохраняет постоянное значение, то плотность вероятности:
Функция распределения
Математическое ожидание ;
дисперсия .
Пример 7. Поезда метрополитена идут регулярно с интервалом 2 минуты. Пассажир выходит на платформу в случайные моменты времени. Какова вероятность, что ждать пассажиру придется не более 0,5 мин. Найти математическое ожидание, дисперсию и среднее квадратическое отклонение СВ Х - времени ожидания поезда.
Решение. СВ Х - время ожидания на временном отрезке имеет равномерный закон распределения
.
Вероятность того, что пассажир будет ждать не более 0,5 минуты равна
Матем.ожидание , дисперсия
2. Нормальный закон распределения
Нормальный закон распределения (нормальное распределение, распределение Гаусса) наиболее часто встречается на практике. Он является предельным законом, к которому приближаются другие законы распределения при весьма часто встречающихся типичных условиях.
Опр. Нормальным называется распределение вероятностей непрерывной СВ, которое описывается плотностью .
Оно определятся двумя параметрами: а и у.
Вероятностный смысл этих параметров: а = М(Х), у2 = D(X), т.е. у - среднее квадратическое отклонение.
Функция нормального распределения F(x) = .
Кривую нормального закона распределения называют нормальной (или кривой Гаусса).
Рассмотрим как меняется нормальная кривая при изменении параметров а и у:
Т.о. параметр а (т.е. М(Х)) характеризует положение, а параметр у (среднее квадратическое отклонение ) форму нормальной кривой.
Нормальное распределение с параметрами а и у обозначается N(а; у).
Если параметры а = 0, у = 1, то нормальный закон распределения называется стандартным или нормированным N(0; 1). А кривая - стандартной.
Плотность нормированного распределения (функция Лапласа, приложение 1)
Функция распределения .
Вероятность попадания нормированной СВ Х в интервал (0, х) можно найти, используя функцию Лапласа Ф(х): Р(0 < Х < х) = .
Функция распределения СВ Х, распределенная по нормальному закону, выражается через функцию Лапласа по формуле: .
Свойства СВ, распределённой по нормальному закону:
1. Вероятность попадания СВ Х, распределённой по нормальному закону, в интервал [x1; x2], равна
, .
2. Вероятность того, что отклонение СВ Х, распределенной по нормальному закону, от МО а не превысит величину > 0 ( по абсолютной величине)
В частности, если
= у: ;
= 2у: ;
= 3у: .
"Правило трёх сигм": Если СВ Х имеет нормальный закон N(а; у), то практически достоверно, что её значения заключены в интервале (а - 3у ; а + 3у). Нарушение правила является событием практически невозможным
.
Пример 8. Полагая, что рост мужчин определённой возрастной группы имеет нормальное распределение СВ Х с параметрами а = 173, у2 = 36, найти:
а) долю костюмов 4-го роста (176 - 182), которые нужно предусмотреть в общем объёме производства. б) сформулировать "правило 3-х сигм".
Решение. а) Р(176 Х 182) = Ф(t2) - Ф(t1) = Ф(1,5) - Ф(0,5) = 0,2418.
(где , ).
б) Практически достоверно, что рост мужчин данной возрастной группы заключен в границах от а - 3у = 173 - 36 = 155 см до а + 3у = 173 + 36 = 191см.
3. Распределение
(или распределение Пирсона) имеет сумма квадратов n независимых СВ (имеющих стандартное нормальное распределение): .
Стандартная нормально распределенная СВ .
Число степеней свободы СВ равно n. Число степеней свободы равно числу СВ, её составляющих, уменьшенному на число линейных связей между ними. определяется одним числом - числом степеней свободы (). График плотности вероятности СВ, имеющей - распределение лежит только в первой координатной четверти и имеет асимметричный вид с вытянутым правым "хвостом". Однако с увеличением числа степеней свободы распределение приближается к нормальному. Распределение применяется для нахождения интервальных оценок и проверки статистических гипотез. При этом используется таблица критических точек - распределения.
4. Распределение Стьюдента(t - распределение)
Пусть СВ , СВ - независимая от Z величина, имеющая распределение .
Тогда величина имеет распределение Стьюдента (t - распределение) с n степенями свободы (записывают T ~ ).
Распределение Стьюдента определяется только одним параметром n - числом степеней свободы.
График функции плотности вероятности распределения Стьюдента имеет симметричный относительно оси ординат колоколообразный вид.
При увеличении числа степеней свободы распределение приближается к стандартизированному нормальному. При распределение Стьюдента практически можно заменить нормальным распределением.
t - распределение применяется для нахождения интервальных оценок, а также при проверке статистических гипотез. При этом используется таблица критических точек распределения Стьюдента.
5. Распределение Фишера (F - распределение)
Пусть V и W - независимые СВ, имеющие - распределение (V ~ , W ~).
Тогда СВ имеет распределение Фишера (F - распределение) со степенями свободы m и n (записывают F~.
Оно определяется двумя параметрами m и n.
При больших m и n оно приближается к нормальному. А также .
Таблица критических значений t-критерия Стьюдента ( число степеней свободы)
Уровень значимости- |
Уровень значимости- |
|||||||||
0,1 |
0,05 |
0,01 |
0,001 |
0,1 |
0,05 |
0,01 |
0,001 |
|||
1 |
6,314 |
12,71 |
63,657 |
636,62 |
23 |
1,714 |
2,069 |
2,807 |
3,768 |
|
2 |
2,920 |
4,303 |
9,925 |
31,599 |
24 |
1,711 |
2,064 |
2,797 |
3,745 |
|
3 |
2,353 |
3,182 |
5,841 |
12,924 |
25 |
1,708 |
2,060 |
2,787 |
3,725 |
|
4 |
2,132 |
2,776 |
4,604 |
8,610 |
26 |
1,706 |
2,056 |
2,779 |
3,707 |
|
5 |
2,015 |
2,571 |
4,032 |
6,869 |
27 |
1,703 |
2,052 |
2,771 |
3,690 |
|
6 |
1,943 |
2,447 |
3,707 |
5,959 |
28 |
1,701 |
2,048 |
2,763 |
3,674 |
|
7 |
1,895 |
2,365 |
3,499 |
5,408 |
29 |
1,699 |
2,045 |
2,756 |
3,656 |
|
8 |
1,860 |
2,306 |
3,355 |
5,040 |
30 |
1,697 |
2,042 |
2,750 |
3,646 |
|
9 |
1,833 |
2,262 |
3,250 |
4,781 |
35 |
1,689 |
2,031 |
2,726 |
3,598 |
|
10 |
1,812 |
2,228 |
3,169 |
4,587 |
40 |
1,684 |
2,021 |
2,704 |
3,554 |
|
11 |
1,796 |
2,201 |
3,106 |
4,437 |
45 |
1,680 |
2,014 |
2,690 |
3,527 |
|
12 |
1,782 |
2,179 |
3,055 |
4,318 |
50 |
1,676 |
2,009 |
2,678 |
3,505 |
|
13 |
1,771 |
2,160 |
3,012 |
4,221 |
60 |
1,670 |
2,000 |
2,660 |
3,505 |
|
14 |
1,761 |
2,145 |
2,977 |
4,140 |
70 |
1,664 |
1,994 |
2,649 |
3,458 |
|
15 |
1,753 |
2,131 |
2,947 |
4,073 |
80 |
1,662 |
1,990 |
2,639 |
3,416 |
|
16 |
1,746 |
2,120 |
2,921 |
4,015 |
90 |
1,661 |
1,987 |
2,632 |
3,402 |
|
17 |
1,740 |
2,110 |
2,898 |
3,965 |
100 |
1,660 |
1,984 |
2,626 |
3,391 |
|
18 |
1,734 |
2,101 |
2,878 |
3,922 |
120 |
1,658 |
1,980 |
2,617 |
3,373 |
|
19 |
1,729 |
2,093 |
2,861 |
3,883 |
150 |
1,656 |
1,978 |
2,612 |
3,359 |
|
20 |
1,725 |
2,086 |
2,845 |
3,850 |
200 |
1,653 |
1,972 |
2,501 |
3,340 |
|
21 |
1,721 |
2,080 |
2,831 |
3,819 |
500 |
1,648 |
1,965 |
2,586 |
3,210 |
|
22 |
1,717 |
2,074 |
2,819 |
3,792 |
1,645 |
1,960 |
2,580 |
3,291 |
Таблица значений -критерия Фишера при уровне значимости
1 |
2 |
3 |
4 |
5 |
6 |
8 |
12 |
24 |
|||
1 |
161,5 |
199,5 |
215,7 |
224,6 |
230,2 |
233,9 |
238,9 |
243,9 |
249,0 |
254,3 |
|
2 |
18,51 |
19,00 |
19,16 |
19,25 |
19,30 |
19,33 |
19,37 |
19,41 |
19,45 |
19,50 |
|
3 |
10,13 |
9,55 |
9,28 |
9,12 |
9,01 |
8,94 |
8,84 |
8,74 |
8,64 |
8,53 |
|
4 |
7,71 |
6,94 |
6,59 |
6,39 |
6,26 |
6,16 |
6,04 |
5,91 |
5,77 |
5,63 |
|
5 |
6,61 |
5,79 |
5,41 |
5,19 |
5,05 |
4,95 |
4,82 |
4,68 |
4,53 |
4,36 |
|
6 |
5,99 |
5,14 |
4,76 |
4,53 |
4,39 |
4,28 |
4,15 |
4,00 |
3,84 |
3,67 |
|
7 |
5,59 |
4,74 |
4,35 |
4,12 |
3,97 |
3,87 |
3,73 |
3,57 |
3,41 |
3,23 |
|
8 |
5,32 |
4,46 |
4,07 |
3,84 |
3,69 |
3,58 |
3,44 |
3,28 |
3,12 |
2,93 |
|
9 |
5,12 |
4,26 |
3,86 |
3,63 |
3,48 |
3,37 |
3,23 |
3,07 |
2,90 |
2,71 |
|
10 |
4,96 |
4,10 |
3,71 |
3,48 |
3,33 |
3,22 |
3,07 |
2,91 |
2,74 |
2,54 |
|
11 |
4,84 |
3,98 |
3,59 |
3,36 |
3,20 |
3,09 |
2,95 |
2,79 |
2,61 |
2,40 |
|
12 |
4,75 |
3,88 |
3,49 |
3,26 |
3,11 |
3,00 |
2,85 |
2,69 |
2,50 |
2,30 |
|
13 |
4,67 |
3,80 |
3,41 |
3,18 |
3,02 |
2,92 |
2,77 |
2,60 |
2,42 |
2,21 |
|
14 |
4,60 |
3,74 |
3,34 |
3,11 |
2,96 |
2,85 |
2,70 |
2,53 |
2,35 |
2,13 |
|
15 |
4,54 |
3,68 |
3,29 |
3,06 |
2,90 |
2,79 |
2,64 |
2,48 |
2,29 |
2,07 |
|
16 |
4,49 |
3,63 |
3,24 |
3,01 |
2,85 |
2,74 |
2,59 |
2,42 |
2,24 |
2,01 |
|
17 |
4,45 |
3,59 |
3,20 |
2,96 |
2,81 |
2,70 |
2,55 |
2,38 |
2,19 |
1,96 |
|
18 |
4,41 |
3,55 |
3,16 |
2,93 |
2,77 |
2,66 |
2,51 |
2,34 |
2,15 |
1,92 |
|
19 |
4,38 |
3,52 |
3,13 |
2,90 |
2,74 |
2,63 |
2,48 |
2,31 |
2,11 |
1,88 |
|
20 |
4,35 |
3,49 |
3,10 |
2,87 |
2,71 |
2,60 |
2,45 |
2,28 |
2,08 |
1,84 |
|
21 |
4,32 |
3,47 |
3,07 |
2,84 |
2,68 |
2,57 |
2,42 |
2,25 |
2,05 |
1,81 |
|
22 |
4,30 |
3,44 |
3,05 |
2,82 |
2,66 |
2,55 |
2,40 |
2,23 |
2,03 |
1,78 |
|
23 |
4,28 |
3,42 |
3,03 |
2,80 |
2,64 |
2,53 |
2,38 |
2,20 |
2,00 |
1,76 |
|
24 |
4,26 |
3,40 |
3,01 |
2,78 |
2,62 |
2,51 |
2,36 |
2,18 |
1,98 |
1,73 |
|
25 |
4,24 |
3,38 |
2,99 |
2,76 |
2,60 |
2,49 |
2,34 |
2,16 |
1,96 |
1,71 |
|
26 |
4,22 |
3,37 |
2,98 |
2,74 |
2,59 |
2,47 |
2,32 |
2,15 |
1,95 |
1,69 |
|
27 |
4,21 |
3,35 |
2,96 |
2,73 |
2,57 |
2,46 |
2,30 |
2,13 |
1,93 |
1,67 |
|
28 |
4,20 |
3,34 |
2,95 |
2,71 |
2,56 |
2,44 |
2,29 |
2,12 |
1,91 |
1,65 |
|
29 |
4,18 |
3,33 |
2,93 |
2,70 |
2,54 |
2,43 |
2,28 |
2,10 |
1,90 |
1,64 |
|
30 |
4,17 |
3,32 |
2,92 |
2,69 |
2,53 |
2,42 |
2,27 |
2,09 |
1,89 |
1,62 |
|
35 |
4,12 |
3,26 |
2,87 |
2,64 |
2,48 |
2,37 |
2,22 |
2,04 |
1,83 |
1,57 |
|
40 |
4,08 |
3,23 |
2,84 |
2,61 |
2,45 |
2,34 |
2,18 |
2,00 |
1,79 |
1,51 |
|
45 |
4,06 |
3,21 |
2,81 |
2,58 |
2,42 |
2,31 |
2,15 |
1,97 |
1,76 |
1,48 |
|
50 |
4,03 |
3,18 |
2,79 |
2,56 |
2,40 |
2,29 |
2,13 |
1,95 |
1,74 |
1,44 |
|
60 |
4,00 |
3,15 |
2,76 |
2,52 |
2,37 |
2,25 |
2,10 |
1,92 |
1,70 |
1,39 |
|
70 |
3,98 |
3,13 |
2,74 |
2,50 |
2,35 |
2,23 |
2,07 |
1,89 |
1,67 |
1,35 |
|
80 |
3,96 |
3,11 |
2,72 |
2,49 |
2,33 |
2,21 |
2,06 |
1,88 |
1,65 |
1,31 |
|
90 |
3,95 |
3,10 |
2,71 |
2,47 |
2,32 |
2,20 |
2,04 |
1,86 |
1,64 |
1,28 |
|
100 |
3,94 |
3,09 |
2,70 |
2,46 |
2,30 |
2,19 |
2,03 |
1,85 |
1,63 |
1,26 |
|
125 |
3,92 |
3,07 |
2,68 |
2,44 |
2,29 |
2,17 |
2,01 |
1,83 |
1,60 |
1,21 |
|
150 |
3,90 |
3,06 |
2,66 |
2,43 |
2,27 |
2,16 |
2,00 |
1,82 |
1,59 |
1,18 |
|
200 |
3,89 |
3,04 |
2,65 |
2,42 |
2,26 |
2,14 |
1,98 |
1,80 |
1,57 |
1,14 |
|
300 |
3,87 |
3,03 |
2,64 |
2,41 |
2,25 |
2,13 |
1,97 |
1,79 |
1,55 |
1,10 |
|
400 |
3,86 |
3,02 |
2,63 |
2,40 |
2,24 |
2,12 |
1,96 |
1,78 |
1,54 |
1,07 |
|
500 |
3,86 |
3,01 |
2,62 |
2,39 |
2,23 |
2,11 |
1,96 |
1,77 |
1,54 |
1,06 |
|
1000 |
3,85 |
3,00 |
2,61 |
2,38 |
2,22 |
2,10 |
1,95 |
1,76 |
1,53 |
1,03 |
|
3,84 |
2,99 |
2,60 |
2,37 |
2,21 |
2,09 |
1,94 |
1,75 |
1,52 |
1 |
2. Базовые понятия статистики
2.1 Выборка и генеральная совокупность
При исследовании реальных экономических процессов приходится обрабатывать большие объёмы экономических данных по разнообразным показателям, которые являются случайными величинами.
Основная задача математической статистики состоит в создании методов сбора и обработки экономических данных для получения научных и практических выводов.
Иногда проводят сплошное обследование, т.е. исследуется каждый объект изучаемой совокупности относительно признака, которым интересуются.
Однако изучение всей совокупности во многих случаях невозможно (трудоёмко, дорогостояще и т.п.). Поэтому на практике вся совокупность анализируется редко, в таких случаях проводят несплошное обследование (наблюдение). К несплошным относится и выборочное наблюдение.
В теории выборочного наблюдения приняты следующие определения:
Генеральной совокупностью называется множество всех возможных значений или реализаций исследуемой СВ Х при данном реальном комплексе условий.
Выборочной совокупностью (выборкой) называется часть элементов генеральной совокупности, отобранная для изучения.
Число элементов совокупности называется её объёмом.
Например, из 1000 деталей отобрано 100 для изучения, тогда объём ген.совокупности N = 1000, объём выборки n=100.
Для осуществления выводов о генеральной совокупности используют выборку ограниченного объёма. Поэтому задача математической статистики - исследование свойств выборки и обобщение этих свойств на генеральную совокупность.
Полученный при этом вывод называют статистическим.
Выборку называют репрезентативной, если она достаточно точно отражает изучаемые признаки и параметры генеральной совокупности.
Для репрезентативности выборки важно обеспечить случайность отбора, так, чтобы все объекты генеральной совокупности имели равные шансы попасть в выборку.
Для обеспечения репрезентативности выборки применяют следующие способы отбора:
1. Простой случайный отбор - объекты по одному извлекаются из ген.совокупности. Такой отбор дают обыкновенная лотерея, жеребьёвка, использование таблиц случайных чисел.
2. Механический отбор - вся генеральная ген.совокупность делится на столько групп, сколько объектов должно войти в выборку, а затем из каждой группы извлекается и обследуется одна единица.
3. Типический отбор - объекты отбирают пропорционально представительству различных типов объектов в генеральной совокупности. Он нужен для того, чтобы отразить сложную структуру ген.совокупности. При его проведении ген.совокупность предварительно подразделяется на качественно однородные группы, а затем из них производится случайный отбор.
4. Серийный отбор - объекты отбирают не по одному, а "сериями", которые подвергаются сплошному обследованию.
На практике часто применяется комбинированный отбор, при котором сочетаются выше перечисленные способы.
Выборка может быть повторной, когда объект после изучения возвращается в генеральную совокупность и могут снова попасть в выборку. И бесповторной, когда после изучения объект не возвращается в массив.
2.2 Способы представления и обработки экономических данных
Задачей статистического описания выборки является получение такого её представления, которое позволяет наглядно выявить вероятностные характеристики.
Различают следующие способы упорядочения данных: по возрастанию, по совпадающим значениям, по интервалам и т.п.
Разность между максимальным и минимальным значениями выборки называется размахом выборки:
.
Пусть объём выборки равен n, а число различных значений k (n). Тогда значения называются вариантами.
Если значение встретилось в выборке раз, то число называют частотой значения .
Отношение частоты к объёму выборки называется относительной частотой:
.
Тогда наблюдаемые значения можно сгруппировать в статистический ряд:
Х |
… |
||||
… |
|||||
… |
, .
Статистический ряд наглядно можно представить в виде полигона частот (или полигона относительных частот) - ломаной линии, отрезки которой соединяют (,) (или (,)).
Пример 1. Анализируется прибыль Х предприятий отрасли. Обследованы 100 предприятий. Данные представлены в виде статистического ряда:
Х |
5 |
10 |
15 |
20 |
25 |
|
5 |
20 |
40 |
25 |
10 |
||
0,05 |
0,2 |
0,4 |
0,25 |
0,1 |
Построить полигон частот.
Решение.
По статистическому ряду можно строить эмпирическую функцию распределения F*(x).
,
где - число значений СВ Х< х, - объём выборки.
Свойства F*(x):
1. 0 ? ? 1.
2. - неубывающая функция, т.е. .
3. .
Эмпирическая функция распределения является оценкой функции распределения , которая называется теоретической функцией распределения.
При большом объёме выборки (или в случае непрерывного признака) её элементы могут быть сгруппированы в интервальный статистический ряд. Для этого все наблюдаемых значений выборки разбиваются на k непересекающихся интервалов длиной h (- шаг разбиения). И находят для каждого частичного интервала - количество наблюдаемых значений СВ Х, попавших в i-й интервал. - относительная частота попадания СВ Х в i-й интервал. Тогда интервальный статистический ряд имеет вид:
… |
|||||
… |
|||||
… |
Интервальный статистический ряд наглядно может быть представлен в виде гистограммы частот - столбиковой диаграммы, состоящей из прямоугольников, основаниями которых служат подынтервалы, а высота равна (плотность частоты). Площадь i-го прямоугольника равна , а площадь всей гистограммы частот равна сумме всех частот, т.е. объёму выборки .
Для построения гистограммы относительных частот основание прямоугольника также равно h, а высота . Площадь каждого столбика равна . Площадь всей гистограммы относительных частот равна .
На основании гистограммы обычно выдвигается предположение о виде закона распределения исследуемой величины.
Пример 2. Анализируется доход населения. Извлечена выборка объёма 300 единиц. По уровню дохода население подразделяется на 6 групп. Данные сгруппированы в интервальный статистический ряд:
10 |
50 |
80 |
100 |
40 |
20 |
||
Построить гистограмму относительных частот.
Решение. Шаг h = 20. Разделив относительные частоты на шаг разбиения, получим высоту столбиков.
Форма гистограммы в наибольшей степени соответствует нормальному распределению.
2.3 Статистические оценки параметров распределения
Статистической оценкой неизвестного параметра теоретического распределения (т.е. количественного признака генеральной совокупности) называют функцию от наблюдаемых случайных величин.
Для того чтобы оценки давали "хорошие" приближения оцениваемых параметров, они должны удовлетворять определённым требованиям - быть несмещёнными, состоятельными и эффективными.
Оценка генеральной средней по выборочной средней:
Генеральной средней называется среднее арифметическое значений признака генеральной совокупности:
.
Если значения имеют частоты (), то
.
Выборочной средней называется среднее арифметическое значений признака выборочной совокупности: Если значения имеют частоты (), то .
Пусть из генеральной совокупности извлечена повторная выборка объёма n со значениями . Пусть неизвестна и требуется оценить (т.е. приближённо найти) её значение по данным выборки.
Тогда в качестве оценки генеральной средней принимают выборочную среднюю .
То же и для бесповторной выборки.
Оценка генеральной дисперсии по исправленной выборочной:
Генеральной дисперсией называется среднее арифметическое квадратов отклонений значений признака генеральной совокупности от их среднего значения :
или
(Если значения имеют частоты ()).
Генеральное среднее квадратическое отклонение: .
Выборочной дисперсией называется среднее арифметическое квадратов отклонений наблюдаемых значений признака от их среднего значения :
. .
.
Пусть из генеральной совокупности в результате n независимых наблюдений над количественным признаком Х извлечена выборка объёма n. ( имеют частоты ()).
Требуется по данным выборки оценить неизвестную генеральную дисперсию .
В качестве оценки генеральной дисперсии принимают исправленную дисперсию
.
Для оценки среднего квадратического отклонения генеральной совокупности используют исправленное среднее квадратическое отклонение (стандартное отклонение): .
Выше рассмотренные оценки - точечные. Они определяются одним числом.
Свойства, выполнение которых желательно для того, чтобы оценка была признана удовлетворительной:
1. Несмещенность. Оценка В называется несмещённой оценкой параметра , если её математическое ожидание равно оцениваемому параметру: М(В)=. Многократное осуществление выборок одинакового объёма обеспечивает совпадение средненго значения оценки по всем выборкам с истинным значением параметра. Разность М(В) - называется смещением или систематической ошибкой оценивания. Для несмещённых оценок систематическая ошибка равна нулю.
2. Эффективность. Оценка параметра называется эффективной, если она имеет наименьшую дисперсию из любой другой альтернативной оценки при фиксированном объёме выборки. Оценка называется асимптотически эффективной, если с увеличением объёма выборки её дисперсия стремится к нулю.
3. Состоятельность. Оценка называется состоятельной, если она даёт истинное значение при достаточно большом объёме выборки.
При небольшом объёме выборки точечная оценка может значительно отличаться от оцениваемого параметра, т.е. приводить к грубым ошибкам. В этом случае следует пользовать интервальной оценкой.
Интервальной называют оценку, которая определяется 2 числами - концами интервала. Она позволяет установить точность и надёжность оценок.
Пусть найденная по данным выборки статистическая характеристика В- оценка неизвестного параметра (=const).
В тем точнее определяет , чем меньше модуль разности , т.е. и , следовательно, чем меньше , тем оценка точнее. Т.о. положительное число характеризует точность оценок.
Однако статистические методы не позволяют утверждать, что В удовлетворяет неравенству.
Надёжностью (доверительной вероятностью) оценки по В называется вероятность q, с которой осуществляется неравенство .
Обычно надёжность задаётся заранее, как правило q = 0,95; 0,99 …(близкое к 1). Чем ближе доверительная вероятность к 1, тем надежнее оценка.
Доверительным называют интервал , который покрывает неизвестный параметр с заданной надёжностью q.
2.4 Статистическая проверка гипотез
Статистической называют гипотезу о виде закона распределения или о параметрах известного распределения. В первом случае гипотеза непараметрическая, во втором - параметрическая.
Гипотеза Н0, подлежащая проверке, называется нулевой (основной). Наряду с нулевой рассматривают гипотезуН1, которая будет приниматься, если отклоняется Н0. Такая гипотеза называется альтернативной (конкурирующей). Например, если проверяется гипотеза о равенстве параметра И некоторому значению И0, т.е. Н0: И= И0, то в качестве альтернативной могут рассматриваться следующие гипотезы:
; ; ; .
Выбор альтернативной гипотезы определяется конкретной формулировкой задачи.
Гипотезу называют простой, если она содержит одно конкретное предположение. Гипотезу называют сложной, если она состоит из конечного или бесконечного числа простых гипотез (; ; ).
Сущность проверки статистической гипотезы заключается в том, чтобы установить, согласуются или нет данные наблюдений и выдвинутая гипотеза. Эта задача решается с помощью специальных методов математической статистики - методов статической проверки гипотез.
При проверке гипотезы выборочные данные могут противоречить гипотезе Но. Тогда она отклоняется. Если же статистические данные согласуются с выдвинутой гипотезой, то она не отклоняется. В последнем случае часто говорят, что нулевая гипотеза принимается (такая формулировка не совсем точна, однако она широко распространена). Статистическая проверка гипотез на основании выборочных данных неизбежно связана с риском принятия ложного решения. При этом возможны ошибки двух родов.
Ошибка первого рода состоит в том, что будет отвергнута правильная нулевая гипотеза.
Ошибка второго рода состоит в том, что будет принята нулевая гипотеза, в то время как в действительности верна альтернативная гипотеза.
Возможные результаты статистических выводов представлены следующей таблицей:
Таблица
Результаты про верки гипотезы |
Возможные состояния гипотезы |
||
верна Но |
верна Н1 |
||
Гипотеза Но отклоняется |
Ошибка первого рода |
Правильный вывод |
|
Гипотеза Но не отклоняется |
Правильный вывод |
Ошибка второго рода |
Последствия указанных ошибок неравнозначны. Первая приводит к более осторожному, консервативному решению, вторая - к неоправданному риску. Что лучше или хуже - зависит от конкретной постановки задачи и содержания нулевой гипотезы. Например, если Но состоит в признании продукции предприятия качественной и допущена ошибка первого рода, то будет забракована годная продукция. Допустив ошибку второго рода, мы отправим потребителю брак. Очевидно, последствия второй ошибки более серьезны с точки зрения имиджа фирмы и ее долгосрочных перспектив.
Исключить ошибки первого и второго рода невозможно в силу ограниченности выборки. Поэтому стремятся минимизировать потери от этих ошибок. Отметим, что одновременное уменьшение вероятностей данных ошибок невозможно, так как задачи их уменьшения являются конкурирующими, и снижение вероятности допустить одну из них влечет за собой увеличение вероятности допустить другую. В большинстве случаев единственный способ уменьшения вероятности ошибок состоит в увеличении объема выборки.
Вероятность совершить ошибку первого рода принято обозначать буквой б, и ее называют уровнем значимости. Вероятность совершить ошибку второго рода обозначают в. Тогда вероятность не совершить ошибку второго рода (1 - в) называется мощностью критерия.
Обычно значения б задают заранее, "круглыми" числами (например, 0,1; 0,05; 0,01 и т.п.), а затем стремятся построить критерий наибольшей мощности. Таким образом, если б = 0,05, то это означает, что исследователь не хочет совершить ошибку первого рода более чем в 5 случаях из 100.
Проверку статистической гипотезы осуществляют на основании данных выборки. Для этого используют специально подобранную СВ (статистику, критерий), точное или приближенное значение которой известно. Эту величину обозначают:
U (или Z) - если она имеет стандартизированное нормальное распределение;
T - если она распределена по закону Стьюдента;
- если она распределена по закону ;
F - если она имеет распределение Фишера.
В целях общности будем обозначать такую СВ через К.
Таким образом, статистическим критерием называют СВ К, которая служит для проверки нулевой гипотезы. После выбора определенного критерия множество всех его возможных значений разбивают на два непересекающихся подмножества: одно из них содержит значения критерия, при которых нулевая гипотеза отклоняется, другое - при которых она не отклоняется.
Совокупность значений критерия, при которых нулевую гипотезу отклоняют, называют критической областью. Совокупность значений критерия, при которых нулевую гипотезу не отклоняют, называют областью принятия гипотезы.
Основной принцип проверки статистических гипотез можно сформулировать так: если наблюдаемое значение критерия К (вычисленное по выборке) принадлежит критической области, то нулевую гипотезу отклоняют. Если же наблюдаемое значение критерия К принадлежит области принятия гипотезы, то нулевую гипотезу не отклоняют (принимают).
Точки, разделяющие критическую область и область принятия гипотезы, называют критическими.
Перейдем к определению критических точек, а следовательно, и критической области.
В основу этого определения положен принцип практической невозможности маловероятных событий (принцип практической уверенности): если вероятность события А в данном испытании очень мала, то при однократном выполнении испытания можно быть уверенным в том, что событие А не произойдёт, и в практической деятельности вести себя так, как будто событие А вообще невозможно. Этот принцип не может быть доказан математически, но подтверждается всем практическим опытом человеческой деятельности. Например, отправляясь в путешествие самолётом, мы не рассчитываем погибнуть в авиационной катастрофе, хотя некоторая (весьма малая) вероятность такого события существует. Заметим, что принцип сформулирован лишь "при однократном выполнении испытания". При многократном повторении испытаний мы уже не можем считать маловероятное событие А практически невозможным.
Пусть для проверки нулевой гипотезы Но служит критерий К. Тогда вероятность того, что СВ К попадет в произвольный интервал ), можно найти по формуле: , а .
3ададим вероятность б настолько малой (0,05; 0,01), чтобы попадание СВ К за пределы интервала можно было бы считать маловероятным событием. Тогда, исходя из принципа практической невозможности маловероятных событий, можно считать, что если Но справедлива, то при ее проверке с помощью критерия К по данным одной выборки наблюдаемое значение К должно наверняка попасть в интервал . Если же наблюдаемое значение К попадает за пределы указанного интервала, то произойдет маловероятное, практически невозможное событие. Это дает основание считать, что с вероятностью 1 - б нулевая гипотеза Н0 несправедлива.
Точки являются критическими.
Критическая область называется двусторонней критической областью. Она определяется в случае, когда альтернативная гипотеза имеет вид: .
Кроме двусторонней, рассматривают также односторонние критические области - правостороннюю и левостороннюю.
Правосторонней называют критическую область, определяемую из соотношения . Она используется в случае, когда альтернативная гипотеза имеет вид: .
Левосторонней называют критическую область , определяемую из соотношения . Она используется в случае, когда альтернативная гипотеза имеет вид: .
Общая схема проверки гипотез:
1. Формулировка проверяемой (нулевой - Но) и альтернативной (Н1) гипотез.
Выбор соответствующего уровня значимости б.
Определение объема выборки п.
Выбор критерия К для проверки Н0.
Определение критической области и области принятия гипотезы.
Вычисление наблюдаемого значения критерия Кнабл.
Принятие статистического решения.
3. Соотношения между экономическими переменными. Линейная связь. Корреляция
Различные экономические явления как на микро-, так и на макроуровне не являются независимыми, а связаны между собой (цена товара и спрос на него, объём производства и прибыль фирмы и.т.д.).
Эта зависимость может быть строго функциональной (детермированной) и статистической.
Зависимость между и называется функциональной, когда каждому значению одного признака соответствует одно единственное значение другого признака. (Примером такой однозначной зависимости может служить зависимость площади круга от радиуса).
В реальной действительности чаще встречается иная связь между явлениями, когда каждому значению одного признака могут соответствовать несколько значений другого (например, связь между возрастом детей и их ростом).
Форма связи, при которой один или несколько взаимосвязанных показателей (факторов) оказывают влияние на другой показатель (результат) не однозначно, а с определенной долей вероятности, называется статистической. В частности, если при изменении одной из величин изменяется среднее значение другой, то в этом случае статистическую зависимость называют корреляционной.
В зависимости от числа факторов, включаемых в модель, различают парную корреляцию (связь двух переменных) и множественную (зависимость результата от нескольких факторов).
Корреляционный анализ состоит в определении направления, формы и степени связи (тесноты) между двумя (несколькими) случайными признаками и .
По направлению корреляция бывает положительной (прямой), если при увеличении значений одной переменной увеличивается значение другой, и отрицательной (обратной), если при увеличении значений одной переменной, уменьшается значение другой.
По форме корреляционная связь может быть линейной (прямолинейной), когда изменение значений одного признака приводит к равномерному изменению другого (математически описывается уравнением прямой ), и криволинейной, когда изменение значений одного признака приводит к неодинаковым изменениям другого (математически она описывается уравнениями кривых линий, например гиперболы , параболы и т.д.).
Простейшей формой зависимости между переменными является линейная зависимость. И проверка наличия такой зависимости, оценивание её индикаторов и параметров является одним из важнейших направлений эконометрики.
Существуют специальные статистические методы и, соответственно, показатели, значения которых определённым образом свидетельствуют о наличии или отсутствии линейной связи между переменными.
3.1 Коэффициент линейной корреляции
Наиболее простым, приближенным способом выявления корреляционной связи является графический.
При небольшом объеме выборки экспериментальные данные представляют в виде двух рядов связанных между собой значений и . Если каждую пару представить точкой на плоскости , то получится так называемое корреляционное поле (рис.1).
Если корреляционное поле представляет собой эллипс, ось которого расположена слева направо и снизу вверх (рис.1в), то можно полагать, что между признаками существует линейная положительная связь.
Если корреляционное поле вытянуто вдоль оси слева направо и сверху вниз (рис.1г), то можно полагать наличие линейной отрицательной связи.
В случае же если точки наблюдений располагаются на плоскости хаотично, т.е корреляционное поле образует круг (рис.1а), то это свидетельствует об отсутствии связи между признаками.
На рис.1б представлена строгая линейная функциональная связь.
Под теснотой связи между двумя величинами понимают степень сопряженности между ними, которая обнаруживается с изменением изучаемых величин. Если каждому заданному значению соответствуют близкие друг другу значения , то связь считается тесной (сильной); если же значения сильно разбросаны, то связь считается менее тесной. При тесной корреляционной связи корреляционное поле представляет собой более или менее сжатый эллипс.
Количественным критерием направления и тесноты линейной связи является коэффициент линейной корреляции.
Коэффициент корреляции, определяемый по выборочным данным, называется выборочным коэффициентом корреляции. Он вычисляется по формуле:
где , текущие значения признаков и ; и средние арифметические значения признаков; - среднее арифметическое произведений вариант, и средние квадратические отклонения этих признаков; объём выборки.
Для вычисления коэффициента корреляции достаточно принять предположение о линейной связи между случайными признаками. Тогда вычисленный коэффициент корреляции и будет мерой этой линейной связи.
Коэффициент линейной корреляции принимает значения от ?1 в случае строгой линейной отрицательной связи, до +1 в случае строгой линейной положительной связи (т.е. ). Близость коэффициента корреляции к 0 свидетельствует об отсутствии линейной связи между признаками, но не об отсутствии связи между ними вообще.
Коэффициенту корреляции можно дать наглядную графическую интерпретацию.
Если , то между признаками существует линейная функциональная зависимость вида , что означает полную корреляцию признаков. При , прямая имеет положительный наклон по отношению к оси , при отрицательный (рис. 1б).
Если , точки находятся в области ограниченной линией, напоминающей эллипс. Чем ближе коэффициент корреляции к , тем уже эллипс и тем теснее точки сосредоточены вблизи прямой линии. При говорят о положительной корреляции. В этом случае значения имеют тенденцию к возрастанию с увеличением (рис.1в). При говорят об отрицательной корреляции; значения имеют тенденцию к уменьшению с ростом (рис.1г).
Если , то точки располагаются в области, ограниченной окружностью. Это означает, что между случайными признаками и отсутствует корреляция, и такие признаки называются некоррелированными (рис.1а).
Подобные документы
Множественная линейная регрессия: спецификация модели, оценка параметров. Отбор факторов на основе качественного теоретико-экономического анализа. Коэффициент регрессии при фиктивной переменной. Проблемы верификации модели. Коэффициент детерминации.
контрольная работа [88,0 K], добавлен 08.09.2014Взаимосвязи экономических переменных. Понятие эконометрической модели. Коэффициент корреляции и его свойства. Линейная парная регрессия. Метод наименьших квадратов. Основные предпосылки и принципы регрессионного анализа. Статистика Дарбина-Уотсона.
шпаргалка [142,4 K], добавлен 22.12.2011Суть эконометрики как научной дисциплины, ее предмет и метод. Парная и множественная регрессия в экономических исследованиях. Регрессионные модели с переменной структурой. Обобщенный метод наименьших квадратов. Анализ систем экономических уравнений.
реферат [279,2 K], добавлен 11.09.2013Методика расчета линейной регрессии и корреляции, оценка их значимости. Порядок построения нелинейных регрессионных моделей в MS Exсel. Оценка надежности результатов множественной регрессии и корреляции с помощью F-критерия Фишера и t-критерия Стьюдента.
контрольная работа [3,6 M], добавлен 29.05.2010Построение уравнения регрессии. Эластичность степенной модели. Уравнение равносторонней гиперболы. Оценка тесноты связи, качества и точности модели. Индекс корреляции и коэффициент детерминации. Оценка статистической значимости регрессионных уравнений.
курсовая работа [1,3 M], добавлен 25.03.2015Зависимость объема выпуска продукции от объема капиталовложений. Оценка параметров регрессий. Линейный коэффициент парной корреляции. Прогнозные значения результативного признака. Построение интервального прогноза. Ширина доверительного интервала.
контрольная работа [192,8 K], добавлен 25.10.2011Методологические основы эконометрики. Проблемы построения эконометрических моделей. Цели эконометрического исследования. Основные этапы эконометрического моделирования. Эконометрические модели парной линейной регрессии и методы оценки их параметров.
контрольная работа [176,4 K], добавлен 17.10.2014Основные этапы эконометрического исследования. Система совместных, одновременных уравнений. Понятие эконометрических уравнений. Система независимых уравнений. Пример модели авторегрессии. Система линейных одновременных эконометрических уравнений.
курсовая работа [41,2 K], добавлен 17.09.2009Основные методы анализа линейной модели парной регрессии. Оценки неизвестных параметров для записанных уравнений парной регрессии по методу наименьших квадратов. Проверка значимости всех параметров модели (уравнения регрессии) по критерию Стьюдента.
лабораторная работа [67,8 K], добавлен 26.12.2010Построение поля корреляции и формулирование гипотезы о форме связи. Параметры уравнений линейной, степенной и гиперболической регрессии. Оценка тесноты связи с помощью показателей корреляции и детерминации. Оценка средней ошибки аппроксимации уравнения.
контрольная работа [136,3 K], добавлен 25.09.2014