Теория вероятностей и математическая статистика

Сходимость последовательностей случайных величин и вероятностных распределений. Метод характеристических функций. Проверка статистических гипотез и выполнение центральной предельной теоремы для заданных последовательностей независимых случайных величин.

Рубрика Математика
Вид курсовая работа
Язык русский
Дата добавления 13.11.2012
Размер файла 364,8 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru

Размещено на http://www.allbest.ru

Теория вероятностей и математическая статистика

1.ТЕОРЕТИЧЕСКАЯ ЧАСТЬ

1.1 Сходимость последовательностей случайных величин и вероятностных распределений

В теории вероятностей приходится иметь дело с разными видами сходимости случайных величин. Рассмотрим следующие основные виды сходимости: по вероятности, с вероятностью единица, среднем порядка р, по распределению.

Пусть , , … - случайные величины, заданные на некотором вероятностном пространстве (, Ф , P).

Определение 1. Последовательность случайных величин , … называется сходящейся по вероятности к случайной величине (обозначение: ), если для любого > 0

P { >} 0, n.

Определение 2. Последовательность случайных величин , , … называется сходящейся с вероятностью единица (почти наверное, почти всюду) к случайной величине , если

P {: } = 0,

т.е. если множество исходов , для которых () не сходятся к (), имеет нулевую вероятность.

Этот вид сходимости обозначают следующим образом: , или , или .

Определение 3. Последовательность случайных величин , , … называется сходящейся в среднем порядка р, 0 < p < , если

M 0, n.

Определение 4. Последовательность случайных величин , ,… называется сходящейся по распределению к случайной величине (обозначение: ), если для любой ограниченной непрерывной функции

M M, n.

Сходимость по распределению случайных величин определяется только в терминах сходимости их функций распределения. Поэтому об этом виде сходимости имеет смысл говорить и тогда, когда случайные величины заданы на разных вероятностных пространствах.

Теорема 1.

а) Для того чтобы (Р-п.н.), необходимо и достаточно, чтобы для любого > 0

P { } 0, n.

b) Последовательность {} фундаментальна с вероятностью единица тогда и только тогда, когда для любого > 0.

P { } 0, n.

Доказательство.

а) Пусть А = {: |- | }, А= А . Тогда

{: }= =

Но

P () = P ( ),

Поэтому утверждение а) является результатом следующей цепочки импликаций:

Р{: }= 0 P( ) = 0 = 0 Р(А) = 0, m 1 P(A) = 0, > 0 P() 0, n 0, > 0 P{ } 0,

n 0, > 0.

b) Обозначим = {: }, = . Тогда {: {()} не фундаментальна } = и так же, как в а) показывается, что {: {()} не фундаментальна } = 0 P{ } 0, n.

Теорема доказана

Теорема 2. ( критерий Коши сходимости почти наверно)

Для того чтобы последовательность случайных величин {} была сходящейся с вероятностью единица (к некоторой случайной величине ), необходимо и достаточно, чтобы она была фундаментальна с вероятностью единица.

Доказательство.

Если , то +

откуда вытекает необходимость условия теоремы.

Пусть теперь последовательность {} фундаментальна с вероятностью единица. Обозначим L = {: {()} не фундаментальная}. Тогда для всех числовая последовательность {} является фундаментальной и, согласно критерию Коши для числовых последовательностей, существует (). Положим

() =

Так определенная функция является случайной величиной и .

Теорема доказана.

1.2 Метод характеристических функций

Метод характеристических функций является одним из основных средств аналитического аппарата теории вероятностей. Наряду со случайными величинами (принимающими действительные значения) теория характеристических функций требует привлечения комплекснозначных случайных величин.

Многие из определений и свойств, относящихся к случайным величинам, легко переносятся и на комплексный случай. Так, математическое ожидание Мо комплекснозначной случайной величины ж=о+Яз считается определенным, если определены математические ожидания Мо и Мз. В этом случае по определению полагаем Мж = Мо + ЯМз. Из определения независимости случайных элементов следует, что комплекснозначные величины ж11+Яз1 , ж22+Яз2 независимы тогда и только тогда, когда независимы пары случайных величин (о1 , з1) и (о2 , з2), или, что то же самое, независимы у-алгебры Fо1, з1 и Fо2, з2.

Наряду с пространством L2 действительных случайных величин с конечным вторым моментом можно ввести в рассмотрение гильбертово пространство комплекснозначных случайных величин ж=о+Яз с М |ж|2<?, где |ж|2= о22, и скалярным произведением (о1 , о2)= Мж1ж2Ї, где ж2Ї- комплексно-сопряженная случайная величина.

При алгебраических операциях векторы Rn рассматриваются как алгебраические столбцы,

,

- как вектор-строки, a* - (а12,…,аn). Если Rn , то под их скалярным произведением (a,b) будет пониматься величина . Ясно, что

Если аRn и R=||rij|| - матрица порядка nхn, то

=. (1)

Определение 1. Пусть F = F(х1,….,хn) - n-мерная функция распределения в (, ( )). Ее характеристической функцией называется функция

. (2)

Определение 2. Если о = (о1,…,оn) - случайный вектор, определенный на вероятностном пространстве со значениями в , то его характеристической функцией называется функция

(3)

где Fо = Fо1,….,хn) - функция распределения вектора о=(о1, … , оn).

Если функция распределения F(х) имеет плотность f = f(х), то тогда

.

В этом случае характеристическая функция есть не что иное, как преобразование Фурье функции f(x).

Из (3) вытекает, что характеристическую функцию цо(t) случайного вектора можно определить также равенством

. (4)

Основные свойства характеристических функций (в случае n=1).

Пусть о = о(щ) - случайная величина, Fо = Fо (х) - её функция распределения и - характеристическая функция.

Следует отметить, что если , то .

Поэтому

. (5)

Далее, если о1, о2, … , оn - независимые с. в. и Sn= о1+о2 +… + оn, то

(6)

В самом деле, ,

где воспользовались тем, что математическое ожидание произведения независимых (ограниченных) случайных величин равно произведению их математических ожиданий.

Свойство (6) является ключевым при доказательстве предельных теорем для сумм независимых случайных величин методом характеристических функций. В этой связи, функция распределения выражается через функции распределения отдельных слагаемых уже значительно более сложным образом, а именно, где знак * означает свертку распределений.

С каждой функцией распределения в можно связать случайную величину, имеющую эту функцию в качестве своей функции распределения. Поэтому при изложении свойств характеристических функций можно ограничиться рассмотрением характеристических функций случайных величин .

Теорема 1. Пусть о - случайная величина с функцией распределения F=F(х) и - ее характеристическая функция.

Имеют место следующие свойства:

1) |

2) равномерно непрерывна по ;

3) ;

4) является действительнозначной функцией тогда и только тогда, когда распределение F симметрично

1) если для некоторого n ? 1 , то при всех существуют производные и

,

где и

1) Если существует и является конечной , то

2) Пусть для всех n ? 1 и

тогда при всех |t|<R

Следующая теорема показывает, что характеристическая функция однозначно определяет функцию распределения.

Теорема 2 (единственности). Пусть F и G - две функции распределения, имеющие одну и ту же характеристическую функцию, то есть для всех

Тогда .

Теорема говорит о том, что функция распределения F = F(х) однозначно восстанавливается по своей характеристической функции . Следующая теорема дает явное представление функции F через .

Теорема 3 (формула обобщения). Пусть F = F(х) - функция распределения и - ее характеристическая функция.

а) Для любых двух точек a, b (a < b), где функция F = F(х) непрерывна,

b) Если то функция распределения F(х) имеет плотность f(x),

.

Теорема 4. Для того чтобы компоненты случайного вектора были независимы, необходимо и достаточно, чтобы его характеристическая функция была произведением характеристических функций компонент:

.

Теорема Бохнера-Хинчина. Пусть - непрерывная функция, Для того, чтобы была характеристической, необходимо и достаточно, чтобы она была неотрицательно-определенной, то есть для любых действительных t1, … , tn и любых комплексных чисел

.

Теорема 5. Пусть - характеристическая функция случайной величины .

а) Если для некоторого , то случайная величина является решетчатой с шагом , то есть

b) Если для двух различных точек , где - иррациональное число, то случайная величина о является вырожденной:

,

где а - некоторая константа.

с) Если , то случайная величина о вырождена.

1.3 Центральная предельная теорема для независимых одинаково распределенных случайных величин

Пусть {} - последовательность независимых, одинаково распределенных случайных величин. Математическое ожидание M= a, дисперсия D= , S = , а Ф(х) - функция распределения нормального закона с параметрами (0,1). Введем еще последовательность случайных величин

= .

Теорема. Если 0 <<, то при n P(< x) Ф(х) равномерно относительно х ().

В этом случае последовательность {} называется асимптотически нормальной.

Из того, что М= 1 и из теорем непрерывности вытекает, что наряду со слабой сходимостью , ФМ f() Mf() для любой непрерывной ограниченной f имеет место также сходимость М f() Mf() для любой непрерывной f, такой, что |f(x)| < c(1+|x|) при каком-нибудь .

Доказательство.

Равномерная сходимость здесь является следствием слабой сходимости и непрерывности Ф(х). Далее, без ограничения общности можно считать а = 0, так как иначе можно было бы рассмотреть последовательность {}, при этом последовательность {} не изменилась бы. Стало быть, для доказательства требуемой сходимости достаточно показать, что (t) e,когда а = 0. Имеем

(t) = , где =(t).

Так как существует М, то существует и справедливо разложение

= + t+ ,

Следовательно, при n

Теорема доказана.

1.4 Основные задачи математической статистики их краткая характеристика

Установление закономерностей, которым подчинены массовые случайные явления, основано на изучении статистических данных - результатах наблюдений. Первая задача математической статистики - указать способы сбора и группировки статистических сведений. Вторая задача математической статистики - разработать методы анализа статистических данных, в зависимости от целей исследования.

При решении любой задачи математической статистики располагают двумя источниками информации. Первый и наиболее определенный(явный) - это результат наблюдений (эксперимента) в виде выборки из некоторой генеральной совокупности скалярной или векторной случайной величины. При этом объем выборки n может быть фиксирован, а может и увеличиваться в ходе эксперимента (т. е. могут использоваться так называемые последовательные процедуры статистического анализа).

Второй источник - это вся априорная информация об интересующих свойствах изучаемого объекта, которая накоплена к текущему моменту. Формально объем априорной информации отражается в той исходной статистической модели, которую выбирают при решении задачи. Однако и о приближенном в обычном смысле определении вероятности события по результатам опытов говорить не приходится. Под приближенным определением какой-либо величины обычно подразумевают, что можно указать пределы погрешностей, из которых ошибка не выйдет. Частота же события случайна при любом числе опытов из-за случайности результатов отдельных опытов. Из-за случайности результатов отдельных опытов частота может значительно отклоняться от вероятности события. Поэтому, определяя неизвестную вероятность события как частоту этого события при большом числе опытов, не можем указать пределы погрешности и гарантировать, что ошибка не выйдет из этих пределов. Поэтому в математической статистике обычно говорят не о приближенных значениях неизвестных величин, а об их подходящих значениях, оценках.

Задача оценивания неизвестных параметров возникает в тех случаях, когда функция распределения генеральной совокупности известна с точностью до параметра . В этом случае необходимо найти такую статистику , выборочное значение которой для рассматриваемой реализации xn случайной выборки можно было бы считать приближенным значением параметра . Статистику , выборочное значение которой для любой реализации xn принимают за приближенное значение неизвестного параметра , называют его точечной оценкой или просто оценкой, а - значением точечной оценки. Точечная оценка должна удовлетворять вполне определенным требованиям для того, чтобы её выборочное значение соответствовало истинному значению параметра .

Возможным является и иной подход к решению рассматриваемой задачи: найти такие статистики и ,чтобы с вероятностью г выполнялось неравенство:

P { } = г

В этом случае говорят об интервальной оценке для . Интервал

()

называют доверительным интервалом для с коэффициентом доверия г.

Оценив по результатам опытов ту или иную статистическую характеристику, возникает вопрос: насколько согласуется с опытными данными предположение (гипотеза) о том, что неизвестная характеристика имеет именно то значение, которое получено в результате её оценивания? Так возникает второй важный класс задач математической статистики - задачи проверки гипотез.

В некотором смысле задача проверки статистической гипотезы является обратной к задаче оценивания параметра. При оценивании параметра мы ничего не знаем о его истинном значении. При проверке статистической гипотезы из каких-то соображений предполагается известным его значение и необходимо по результатам эксперимента проверить данное предположение.

Во многих задачах математической статистики рассматриваются последовательности случайных величин , сходящиеся в том или ином смысле к некоторому пределу (случайной величине или константе), когда .

Таким образом, основными задачами математической статистики являются разработка методов нахождения оценок и исследования точности их приближения к оцениваемым характеристикам и разработка методов проверки гипотез.

1.5 Проверка статистических гипотез: основные понятия

Задача разработки рациональных методов проверки статистических гипотез - одна из основных задач математической статистики. Статистической гипотезой (или просто гипотезой) называют любое утверждение о виде или свойствах распределения наблюдаемых в эксперименте случайных величин.

Пусть имеется выборка , являющаяся реализацией случайной выборки из генеральной совокупности , плотность распределения которой зависит от неизвестного параметра .

Статистические гипотезы относительно неизвестного истинного значения параметра называют параметрическими гипотезами. При этом если - скаляр, то речь идет об однопараметрических гипотезах, а если вектор - то о многопараметрических гипотезах.

Статистическую гипотезу называют простой, если она имеет вид

где - некоторое заданное значение параметра.

Статистическую гипотезу называют сложной, если она имеет вид

где - некоторое множество значений параметра , состоящее более чем из одного элемента.

В случае проверки двух простых статистических гипотез вида

где - два заданных (различных ) значения параметра, первую гипотезу обычно называют основной, а вторую - альтернативной, или конкурирующей гипотезой.

Критерием, или статистическим критерием, проверки гипотез называют правило, по которому по данным выборки принимается решение о справедливости либо первой, либо второй гипотезы.

Критерий задают с помощью критического множества , являющегося подмножеством выборочного пространства случайной выборки . Решение принимают следующим образом:

1) если выборка принадлежит критическому множеству , то отвергают основную гипотезу и принимают альтернативную гипотезу ;

2) если выборка не принадлежит критическому множеству (т. е. принадлежит дополнению множества до выборочного пространства ), то отвергают альтернативную гипотезу и принимают основную гипотезу .

При использовании любого критерия возможны ошибки следующих видов:

1) принять гипотезу , когда верна - ошибка первого рода;

2) принять гипотезу , когда верна - ошибка второго рода.

Вероятности совершения ошибок первого и второго рода обозначают и :

где - вероятность события при условии, что справедлива гипотеза Указанные вероятности вычисляют с использованием функции плотности распределения случайной выборки :

Вероятность совершения ошибки первого рода также называют уровнем значимости критерия.

Величину , равную вероятности отвергнуть основную гипотезу , когда она верна, называют мощностью критерия.

1.6 Критерий независимости

Имеется выборка ((XY), …, (XY)) из двумерного распределения

L с неизвестной функцией распределения , для которой требуется проверить гипотезу H: , где некоторые одномерные функции распределения.

Простой критерий согласия для гипотезы H можно построить, основываясь на методике . Эту методику применяют для дискретных моделей с конечным числом исходов, поэтому условимся считать, что случайная величина принимает конечное число s некоторых значений, которые будем обозначать буквами , а вторая компонента - k значений . Если исходная модель имеет другую структуру, то предварительно группируют возможные значения случайных величин отдельно по первой и второй компонентам. В этом случае множество разбивается на s интервалов , множество значение - на k интервалов , а само множество значений - на N=sk прямоугольников .

Обозначим через число наблюдений пары (число элементов выборки, принадлежащих прямоугольнику , если данные группируются), так что . Результаты наблюдений удобно расположить в виде таблицы сопряженности двух знаков( табл. 1.1) . В приложениях и обычно означают два признака, по которым производится классификация результатов наблюдения.

Пусть Р, i=1,…,s, j=1,…,k. Тогда гипотеза независимости означает, что существует s+k постоянных таких, что и , т.е.

p

Таблица 1.1

Сумма

. . .

. . .

. . .

. . .

. . .

. . .

. . .

. . .

. . .

. . .

Сумма

. . .

n

Таким образом, гипотеза H сводится к утверждению, что частоты (число их равно N = sk) распределены по полиномиальному закону с вероятностями исходов, имеющими указанную специфическую структуру (вектор вероятностей исходов р определяется значениями r=s+k-2 неизвестных параметров .

Для проверки этой гипотезы, найдем оценки максимального правдоподобия для определяющих рассматриваемую схему неизвестных параметров. Если справедлива нулевая гипотеза, то функция правдоподобия имеет вид L(p)= где множитель с от неизвестных параметров не зависит. Отсюда по методу неопределенных множителей Лагранжа получаем, что искомые оценки имеют вид

Следовательно, статистика

L() при , поскольку число степеней свободы в предельном распределении равно N-1-r=sk-1-(s+k-2)=(s-1)(k-1).

Итак, при достаточно больших n можно использовать следующее правило проверки гипотезы: гипотезу Н отвергают тогда и только тогда, когда вычисленное по фактическим данным значение t статистики удовлетворяет неравенству

Этот критерий имеет асимптотически ( при ) заданный уровень значимости и называется критерием независимости .

2. ПРАКТИЧЕСКАЯ ЧАСТЬ

2.1 Решения задач о типах сходимости

1. Доказать, что из сходимости почти наверное следует сходимость по вероятности. Приведите контрольный пример, показывающий, что обратное утверждение неверно.

Решение. Пусть последовательность случайных величин сходится к случайной величине почти наверное. Значит, для любого е

Так как , то

и из сходимости n к почти наверное вытекает, что n сходится к по вероятности, так как в этом случае

Но обратное утверждение не верно. Пусть - последовательность независимых случайных величин, имеющих одну и ту же функцию распределения F(x), равную нулю при х ? и равную при х . Рассмотрим последовательность

.

Эта последовательность сходится к нулю по вероятности, так как

стремится к нулю при любом фиксированном е и . Однако сходимость к нулю почти наверное иметь место не будет. Действительно

стремится к единице, то есть с вероятностью 1 при любых и n в последовательности найдутся реализации, превосходящие е.

Отметим, что при наличии некоторых дополнительных условий, накладываемых на величины n, сходимость по вероятности влечет сходимость почти наверное.

2. Пусть n - монотонная последовательность. Доказать, что в этом случае сходимость n к по вероятности влечет за собой сходимость n к с вероятностью 1.

Решение. Пусть n - монотонно убывающая последовательность, то есть . Для упрощения наших рассуждений будем считать, что 0, n 0 при всех n. Пусть n сходится к по вероятности, однако сходимость почти наверное не имеет место. Тогда существует е , такое, что при всех n

Но и сказанное означает, что при всех n

что противоречит сходимости n к по вероятности. Таким образом, для монотонной последовательности n, сходящийся к по вероятности, имеет место и сходимость с вероятностью 1 (почти наверное).

3. Пусть последовательность n сходится к по вероятности. Доказать, что из этой последовательности можно выделить последовательность , сходящуюся к с вероятностью 1 при .

Решение. Пусть - некоторая последовательность положительных чисел, причем , и - такие положительные числа, что ряд . Построим последовательность индексов n1<n2<…<nk<… , выбирая nk так, чтобы

Тогда ряд

,

Так как ряд сходится, то при любом е остаток ряда стремится к нулю. Но тогда стремится к нулю и

,

то есть .

4. Доказать, что из сходимости в среднем какого либо положительного порядка следует сходимость по вероятности. Приведите пример, показывающий, что обратное утверждение неверно.

Решение. Пусть последовательность n сходится к величине в среднем порядка р > 0, то есть

.

Воспользуемся обобщенным неравенством Чебышева: для произвольных е и р > 0

.

Устремив и учитывая, что , получим, что

,

то есть n сходится к по вероятности.

Однако сходимость по вероятности не влечет за собой сходимость в среднем порядка р > 0. Это показывает следующий пример. Рассмотрим вероятностное пространство , , , где = [0, 1] - борелевская -алгебра, - мера Лебега.

Определим последовательность случайных величин следующим образом:

Последовательность n сходится к 0 по вероятности, так как

,

но при любом р > 0

,

то есть сходимость в среднем иметь не будет.

5. Пусть , при чем для всех n . Доказать, что в этом случае n сходится к в среднеквадратическом.

Решение. Заметим, , то и . Получим оценку для . Рассмотрим случайную величину . Пусть е - произвольное положительное число. Тогда при и при .

Значит,

.

Если , то и . Следовательно, . А поскольку е сколь угодно мало и , то при , то есть в среднеквадратическом.

6. Доказать, что если n сходится к по вероятности, то имеет место слабая сходимость . Приведите контрольный пример, показывающий, что обратное утверждение неверно.

Решение. Докажем, что если , то в каждой точке х, являющейся точкой непрерывности (это необходимое и достаточное условие слабой сходимости ), - функция распределения величины n, а - величины .

Пусть х - точка непрерывности функции F. Если , то справедливо по крайней мере одно из неравенств или . Тогда

.

Аналогично, при справедливо хотя бы одно из неравенств или и

,

Или

.

Откуда

.

Если , то для сколь угодно малого е существует такое N, что при всех п > N

.

Тогда

С другой стороны, если х - точка непрерывности то можно найти такое е , что для сколь угодно малого

и

.

Значит, для сколь угодно малых е и существует такое N, что при п >N

,

или

,

или, что то же самое,

.

Это означает, что во всех точках непрерывности имеет место сходимость и . Следовательно, из сходимости по вероятности вытекает слабая сходимость.

Обратное утверждение, вообще говоря, не имеет места. Чтобы убедиться в этом, возьмем последовательность случайных величин ,, не равных с вероятностью 1 постоянным и имеющих одну и ту же функцию распределения F(x). Считаем, что при всех п величины и независимы. Очевидно, слабая сходимость имеет место, так как у всех членов последовательности одна и та же функция распределения. Рассмотрим :

|Из независимости и одинаковой распределенности величин , следует, что

.

то есть

Выберем среди всех функций распределений невырожденных случайных величин такую F(x), что будет отлично от нуля при всех достаточно малых е. Тогда не стремится к нулю при неограниченном росте п и сходимость по вероятности иметь место не будет.

7. Пусть имеет место слабая сходимость , где с вероятностью 1 есть постоянная. Доказать, что в этом случае будет сходиться к по вероятности.

Решение. Пусть с вероятностью 1 равно а. Тогда слабая сходимость означает сходимость при любых . Так как , то при и при . То есть при и при . Отсюда следует, что для любого е вероятности

и

стремятся к нулю при . Это значит, что

стремится к нулю при , то есть сходиться к по вероятности.

2.2 Решение задач на ЦПТ

Задача 1.

Значение гамма-функции Г(x) при x= вычисляется методом Монте-Карло. Найдем минимальное число испытаний необходимых для того, что бы с вероятностью 0,95 можно было ожидать, что относительная погрешность вычислений будет меньше одного процента.

Решение

Для с точностью до имеем

.

Известно, что

. (1)

Сделав в (1) замену , приходим к интегралу по конечному промежутку:

.

У нас , поэтому

.

Как видно, представимо в виде , где , а распределена равномерно на . Пусть произведено статистических испытаний. Тогда статистическим аналогом является величина

,

где , , - независимые случайные величины с равномерным на распределением. При этом

;

,

т.к.

Из ЦПТ следует, что асимптотически нормальна с параметрами .

Далее, по условию задачи , т.е.

.

Значит,

,

откуда

, .

Значит, минимальное количество испытаний, обеспечивающее с вероятностью относительную погрешность вычисления не более равно .

Задача 2

Рассматривается последовательность из 2000 независимых одинаково распределенных случайных величин с математическим ожиданием, равным 4, и дисперсией, равной 1,8. Среднее арифметическое этих величин есть случайная величина . Определить вероятность того, что случайная величина примет значение в интервале (3,94; 4,12).

Решение

Пусть , …,,…- последовательность независимых случайных величин, имеющих одинаковое распределение с M=a=4 и D==1,8. Тогда к последовательности {} применима ЦПТ. Случайная величина

Вероятность того, что примет значение в интервале ():

PPP

=P.

При n=2000, 3,94 и 4,12 получим

P

2.3 Проверка гипотез критерием независимости

Задача 1.

В результате проведенного исследования было установлено, что у 782 светлоглазых отцов сыновья тоже имеют светлые глаза, а 89 светлоглазых отцов сыновья - темноглазые. У 50 темноглазых отцов сыновья также темноглазые, а у 79 темноглазых отцов сыновья - светлоглазые. Имеется ли зависимость между цветом глаз отцов и цветом глаз их сыновей? Уровень доверия принять равным 0,99.

Решение

Для решения данной задачи воспользуемся таблицей сопряженности двух признаков.

Таблица 2.1

Дети

Отцы

Сумма

Светлоглазые

Темноглазые

Светлоглазые

782

79

861

Темноглазые

89

50

139

Сумма

871

129

1000

H: нет зависимости между цветом глаз детей и отцов.

H: есть зависимость между цветом глаз детей и отцов.

Статистика вычисляется за следующей формулой

~

s=k=2 =90,6052 с 1 ступеней свободы

Вычисление сделаны в программе Mathematica 6.

По таблицам распределения находим, что .

Поскольку > , то гипотезу H, про отсутствия зависимости между цветом глаз отцов и детей, при уровне значимости , следует отклонить и принять альтернативную гипотезу H.

Задача 2.

Утверждается, что результат действия лекарства зависит от способа применения. Проверьте это утверждение по данным, представленным в табл. 2.2 Уровень доверия принять равным 0,95.

Таблица 2.2

Результат

Способ применения

А

В

С

Неблагоприятный

11

17

16

Благоприятный

20

23

19

Решение.

Для решения данной задачи воспользуемся таблицей сопряженности двух признаков.

Таблица 2.3

Результат

Способ применения

Сумма

А

В

С

Неблагоприятный

11

17

16

44

Благоприятный

20

23

19

62

Сумма

31

40

35

106

H: результат действия лекарств не зависит от способа применения

H: результат действия лекарств зависит от способа применения

Статистика вычисляется за следующей формулой

~

s=2, k=3, =0,734626 c 2 ступенями свободы.

Вычисление сделаны в программе Mathematica 6

По таблицам распределения находим, что .

Поскольку < , то гипотезу H, про отсутствия зависимости действия лекарств от способа применения, при уровне значимости , следует принять.

Заключение

В данной работе приведены теоретические выкладки из раздела «Критерий независимости », а также «Предельные теоремы теории вероятностей», курсу «Теория вероятностей и математическая статистика». В ходе выполнения работы на практике были проверены критерий независимости ; также для заданных последовательностей независимых случайных величин было проверено выполнение центральной предельной теоремы.

Данная работа помогла усовершенствовать мои знания с данных разделов теории вероятностей, работы с литературными источниками, твердо владеть техникой проверки критерия независимости .

вероятностная статистическая гипотеза теорема

Перечень ссылок

1. Сборник задач с теории вероятности с решением. Уч. пособие / Под ред. В.В. Семенца. - Харьков: ХТУРЕ, 2000. - 320с.

2. Гихман И.И., Скороход А.В., Ядренко М.И. Теория вероятностей и математическая статистика. - К.: Вища шк., 1979. - 408 с.

3. Ивченко Г.И., Медведев Ю.И., Математическая статистика: Учеб. пособие для втузов. - М.: Высш. шк., 1984. - 248с., .

4. Математическая статистика: Учеб. для вузов/ В.Б. Горяинов, И.В. Павлов, Г.М. Цветкова и др.; Под ред. В.С. Зарубина, А.П. Крищенко. - М.: Изд-во МГТУ им. Н.Э. Баумана, 2001. - 424с.

Размещено на Allbest.ru


Подобные документы

  • Основные понятия, которые касаются центральной предельной теоремы для независимых одинаково распределенных случайных величин и проверки статистических гипотез. Анализ сходимости последовательностей случайных величин и вероятностных распределений.

    курсовая работа [582,0 K], добавлен 13.11.2012

  • Предельные теоремы теории вероятностей. Сходимость последовательностей случайных величин и вероятностных распределений. Метод характеристических функций. Закон больших чисел. Особенности проверки статистических гипотез (критерия согласия w2 Мизеса).

    курсовая работа [1,0 M], добавлен 27.01.2012

  • Общая характеристика сходимости последовательностей случайных величин и вероятностных распределений. Значение метода характеристических функций в теории вероятностей. Методика решения задач о типах сходимости. Анализ теоремы Ляпунова и Линдеберга.

    курсовая работа [2,6 M], добавлен 22.07.2011

  • Сходимость последовательностей случайных величин. Центральная предельная теорема для независимых одинаково распределенных случайных величин. Основные задачи математической статистики, их характеристика. Проверка гипотез по критерию однородности Смирнова.

    курсовая работа [1,6 M], добавлен 13.11.2012

  • Статистическое, аксиоматическое и классическое определение вероятности. Дискретные случайные величины. Предельные теоремы Лапласа и Пуассона. Функция распределения вероятностей для многомерных случайных величин. Формула Байеса. Точечная оценка дисперсии.

    шпаргалка [328,7 K], добавлен 04.05.2015

  • Двумерная функция распределения вероятностей случайных величин. Понятие условной функции распределения и плотности распределения вероятностей. Корреляция двух случайных величин. Система произвольного числа величин, условная плотность распределения.

    реферат [325,3 K], добавлен 23.01.2011

  • Пространство элементарных событий, математическое ожидание. Функции распределения и плотности распределения составляющих системы случайных величин. Числовые характеристики системы. Условия нормировки плотности системы случайных непрерывных величин.

    практическая работа [103,1 K], добавлен 15.06.2012

  • Понятие корреляционного момента двух случайных величин. Математическое ожидание произведения независимых случайных величин Х и У. Степень тесноты линейной зависимости между ними. Абсолютное значение коэффициента корреляции, его расчет и показатель.

    презентация [92,4 K], добавлен 01.11.2013

  • Пространство элементарных событий. Понятие совместных и несовместных событий и их вероятностей. Плотность распределения вероятностей системы двух случайных величин. Числовые характеристики системы. Закон генеральной совокупности и его параметры.

    контрольная работа [98,1 K], добавлен 15.06.2012

  • Предмет и метод математической статистики. Распределение непрерывной случайной величины с точки зрения теории вероятности на примере логарифмически-нормального распределения. Расчет корреляции величин и нахождение линейной зависимости случайных величин.

    курсовая работа [988,5 K], добавлен 19.01.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.