Методи оцінювання параметрів та перевірка статистичних гіпотез

Оцінювання параметрів розподілів. Незміщені, спроможні оцінки. Методи знаходження оцінок: емпіричні оцінки, метод максимальної правдоподібності. Означення емпіричної функції розподілу, емпіричні значення параметрів. Задача перевірки статистичних гіпотез.

Рубрика Математика
Вид контрольная работа
Язык украинский
Дата добавления 12.08.2010
Размер файла 57,2 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

1

КОНТРОЛЬНА РОБОТА

МЕТОДИ ОЦІНЮВАННЯ ПАРАМЕТРІВ ТА ПЕРЕВІРКА СТАТИСТИЧНИХ ГІПОТЕЗ

ЗМІСТ

1. Оцінювання параметрів розподілів. Незміщені, спроможні оцінки

2. Методи знаходження оцінок: емпіричні оцінки, метод максимальної правдоподібності

2.1. Означення емпіричної функції розподілу. Емпіричні значення параметрів

2.2 Метод максимальної правдоподібності

3. Задача перевірки статистичних гіпотез

4. Критерій 2, гіпотетичний розподіл залежить від невідомих параметрів

5. Критерій 2 як критерій незалежності

Список використаних джерел

1. Оцінювання параметрів розподілів. Незміщені, спроможні оцінки

Означення. Випадковий вектор = (1, 2, ..., n) зі значеннями в Rn будемо називати вибіркою (вибірковим вектором).

Означення. Вибірку = (1, 2, ..., n), утворену послідовністю незалежних, однаково розподілених випадкових величин 1, 2, ..., n, кожна з яких має розподіл F, називають вибіркою обсягом n з розподілу (закону) F.

Означення. Простір Rn, в якому вибірка (вибірковий вектор) набуває значень, будемо називати вибірковим простором.

Ми будемо мати справу з вибірками, розподіли (функції розподілу) яких залежать від деякого параметра . Множина можливих значень цього параметра (позначимо її ) є підмножиною скінченновимірного простору Rs.

Постановка задачі оцінювання параметрів розподілів. Нехай () = (1(), 2(), ..., n()) - реалізація вибірки = (1, 2, ..., n) з розподілом F( ; ). Розподіл F( ; ) залежить від параметра , який набуває значень з множини . Значення параметра в розподілі F( ; ) невідоме і його необхідно оцінити (визначити) за реалізацією () = (1(), 2(), ..., n()) вибірки = (1, 2, ..., n). У цьому й полягає задача оцінювання параметрів розподілів.

Для оцінювання невідомого значення параметра єдине, що нам відомо, і єдине, за допомогою чого ми можемо оцінювати (визначити) , є реалізація вибірки . Крім реалізації () вибірки ми не маємо нічого, що надавало б якусь інформацію про значення параметра . Тому оцінити (визначити) значення за реалізацією () (точно чи хоча б наближено) - це означає реалізації () вибірки поставити у відповідність значення , тобто вказати правилао, за яким реалізації вибірки ставиться у відповідність значення . Точніше (формально), це означає, що для оцінювання на вибірковому просторі - множині реалізацій вибірок - необхідно визначити (побудувати, задати) функцію h( ) зі значеннями в - множині можливих значень параметра - таку, що

h (()) дорівнює

або хоча б

h (()) наближено дорівнює .

Значення = h (()) ми й будемо використовувати як . Необхідно відзначити, що для кожної реалізації () значення = h (()), яке використовується як , буде своє, тому , як функція = () , є випадковою величиною.

Означення. Борелівську функцію h(), задану на вибірковому просторі Rn, зі значеннями в - множині можливих значень параметра - будемо називати статистикою.

Одержувати (будувати) статистики h(), такі щоб = h (()) = , тобто щоб за () можно було точно визначити , явно не вдасться вже хоча б тому, що є константою, а оцінка = h (()), як функція від вибірки (функція випадкової величини), є випадковою величиною. Тому (хочем ми того чи ні) для визначення ми будемо вимушені задовольнятися значеннями = h(), вважаючи (розглядаючи) їх за наближені значення . Зауважимо, що для одного й того ж параметра можна запропронувати багато оцінок.

У зв'язку з постановкою задачі оцінювання параметрів розподілів, як задачі одержання наближених значень = h() для виникає необхідність вміти відповідати на запитання - наскільки великою є похибка - при заміні на , інакше, як далеко можуть відхилятися значення оцінки = h (1, 2, ..., n), обчисленої за вибіркою = (1, 2, ..., n), від оцінюваної величини ?

Кількісно міру похибки при заміні на (міру розсіювання відносно ) будемо описувати величиною

M | - |2.

Серед усіх оцінок з однією і тією ж дисперсією D мінімальну міру розсіювання відносно мають оцінки, для яких М = .

Означення. Оцінку будемо називати незміщеною оцінкою параметра , якщо М = або, що те саме , M ( - ) = 0.

Наочно незміщеність оцінки параметра можна трактувати так: при багаторазовому використанні оцінки як значення для , тобто при багаторазовій заміні на , середнє значення похибки - дорівнює нулеві.

Часто ми маємо можливість розглядати не одну оцінку = h() = h (1, 2, ..., n), побудовану за вибіркою = (1, 2, ..., n), а послідовність оцінок = hn (1, 2, ..., n), n=1,2,... У цій ситуації природно говорити про асимптотичну поведінку послідовності оцінок .

Означення. Послідовність оцінок , n=1,2,..., будемо називати спроможною послідовністю оцінок параметра , якщо для кожного 0

P { | - | } 0 при n .

Означення. Послідовність оцінок , n=1, 2, ..., будемо називати асимптотично незміщеною послідовністю оцінок параметра , якщо

M ( - ) 0

або, що те саме M при n .

2. Методи знаходження оцінок: емпіричні оцінки, метод максимальної правдоподібності

2.1. Означення емпіричної функції розподілу. Емпіричні значення параметрів

Означення. Нехай 1, 2, ..., n - вибірка з неперервного розподілу F. Функцію (x), визначену на R1 рівністю

(x) = ,

будемо називати емпіричною функцією розподілу.

При кожному фіксованому x емпірична функція розподілу , як функція випадкового вектора 1, 2, ..., n, є випадковою величиною, тому також є функціею й , тобто (x) = (x; ), , x R1.

Для кожного фіксованого x емпірична функція розподілу (x) є незміщеною та спроможною оцінкою F (x).

Надалі нам буде зручно розглядати вибіркові значення 1, 2, ..., n, розташовані в порядку зростання: 1*, 2*, ..., n* Тобто, 1* - найменше серед значень 1, 2, ..., n ; 2* - друге за величиною і т.д., n *- найбільше з можливих значень.

Означення. Послідовність 1*, 2*, ..., n* будемо називати варіаційним рядом послідовності 1, 2, ..., n; а 1*, 2*, ..., n* - порядковими статистиками.

У термінах порядкових статистик емпіричну функцію розподілу можна подати у вигляді

(x) = (2.1.1)

Безпосередньо з рівності (2.1.1) одержимо, що при фіксованому значення (x) = 0 у кожній точці x проміжку ( - , 1*], оскільки число тих k, при яких k* x, дорівнює нулеві; (x) = 1 / n у кожній точці проміжку (1*, 2*] тому що число тих k, при яких k* x, дорівнює 1 і т.д., і, нарешті, (x) = 1 для кожного x з проміжку (n, + ).

Із вищесказаного випливає, що для кожного фіксованого функція (x) = (x; ) невід`ємна; стала на кожному з проміжків ( - , 1*], (k*, k+1*], k = 1, 2, …, n - 1, (n, + ) (а отже неперервна зліва); неспадна - зростає в точках k* , k = 1, 2, ..., n, стрибками величиною 1 / n.

Зауваження 1. Для вибірок 1, 2, ..., n з неперервних розподілів імовірність збігу вибіркових значень дорівнює нулеві, але оскільки ми фіксуємо результати з зазначеною точністю (наприклад, до третього знака), то внаслідок цього деякі вибіркові значення можуть збігатися. При цьому величина стрибка емпіричної функції розподілу в точці k дорівнює , де m - кількість вибіркових значень, які збігаються з k, враховуючи й k.

Зауваження 2. Розподіл, що відповідає емпіричній функції розподілу (x), будемо називати емпіричним. При кожному фіксованому це дискретний розподіл, що ставить у відповідність кожній точці k , k = 1, 2, ..., n, масу (або , якщо з k збігаються m вибіркових значень, враховуючи й k ).

За допомогою емпіричної функції розподілу можна одержувати інтуїтивно-наочні оцінки параметрів розподілу.

Нехай 1, 2, ..., n - вибірка з розподілу F( ; ), що залежить від параметра , причому параметр невідомий і його необхідно визначити за вибіркою. Припустимо, що параметр однозначно визначається розподілом (функцією розподілу F(x; ) ), тобто

= ( F(x; ) ),

де - функціонал, заданий на множині функцій розподілу. Наприклад, a = M , 2 = D (коли вони існують) є функціоналами функції розподілу F (x) випадкової величини:

a = x F (dx); 2 = (x - t F (dt))2 F (dx).

Вибірка 1, 2, ..., n визначає емпіричну функції розподілу (x). І оскільки (dx) “близька” до F(x; ) ( при кожному х є незміщеною і спроможною оцінкою F(x; ), а = (F(x; ) ), то для оцінювання параметра природно розглядати величину

= ( (x)).

У такий спосіб, наприклад, для a одержимо оцінку

= x (dx) = ,

для 2

= (x - t (dt))2 (dx) = (i )2 =

Інтеграли обчислюються як інтеграли Лебега за дискретним розподілом, зосередженим у точках 1, 2, ..., n з масою 1 / n в кожній з них.

Означення. Оцінку параметра = ( F(x; )), одержану за формулою = ( (x)), будемо називати емпіричним (вибірковим) значенням параметра .

Зокрема,

=

- емпіричне (вибіркове) середнє,

= 2

– емпірична (вибіркова) дисперсія.

Теорема 2.1 Нехай 1, 2, ..., n - вибірка з розподілу F і g(x) - борелівська функція на R1 зі значенням в R1. Якщо

G = g(x) F (dx) ,

то вибіркове значення величини G

= g(x) (dx) =

є спроможною й незміщеною оцінкою параметра G.

2.2 Метод максимальної правдоподібності

Нехай = (1, 2, ..., n) - вибірка з розподілом F( ; ) = F( ; 1, 2, …, s), що залежить від параметра = (1, 2, …, s) ? ? Rs. Параметр ? невідомий, і його необхідно оцінити за вибіркою (1, 2, ..., n).

Загальним (важливим як у теоретичному відношенні, так і в застосуваннях) методом одержання оцінок є метод максимальної правдоподібності, запропонований Фішером.

Означення. Функцією максимальної правдоподібності вибірки = (1, 2, ..., n) будемо називати функцію L() = L (1, 2, …, s) параметра ? , яка визначається рівністю L () = f (; ) = f (1,2, ..., n; ) = f (1; ) f (2; ) …. f (n; ) , ? , коли вибірковий вектор = (1, 2, ..., n) абсолютно неперервний зі щільністю f(x; ) = f (x1, x2, …,xn; ), і рівністю L () = P (; ) = Р(1,2, ..., n; ) = Р (1; ) Р (2; ) …. Р (n; ) , ? , коли вибірковий вектор = (1, 2, ..., n) дискретний з розподілом P (x; ) = = P (x1, x2, …, xn; ).

Метод максимальної правдоподібності одержання оцінок полягає в тому, що за оцінку параметра = (1, 2, …, s) приймається точка = (, , ..., ), в якій функція максимальної правдоподібності L () досягає найбільшого значення, інакше кажучи, за оцінку параметра визнається розв'язок рівняння

L () = L (),

якщо такий розв'язок існує.

Означення. Оцінкою максимальної правдоподібності будемо називати точку , в якій функція максимальної правдоподібності досягає найбільшого значення.

Інакше кажучи, оцінкою максимальної правдоподібності параметра будемо називати розв'язок рівняння L () = L ().

Зазначимо, що L () та ln L () досягають найбільшого значення в одних і тих же точках. Тому відшукувати точку, в якій L () досягає найбільшого значення, часто зручніше, роблячи це для ln L ().

Логарифм від функції максимальної правдоподібності L() називають логарифмічною функцією максимальної правдоподібності.

Якщо L() = L (1, 2, …, s) диференційовна по 1, 2, …, s , то для того, щоб розв'язати рівняння

L (, , ..., ) = L (1, 2, …, s), (2.2.1)

достатньо знайти стаціонарні точки функції ln L(1, 2, …, s), розв'язуючи рівняння

ln L (1, 2, …, s) = 0, i = 1, 2, …, s,

і, порівнюючи значення ln L(1, 2, …, s) у стаціонарних і граничних точках множини , вибрати точку = (, , ..., ), в якій функція ln L(1, 2, …, s) досягає найбільшого значення. Ця точка і буде розв'язком рівняння (2.2.1).

Рівняння

ln L (1, 2, …, s) = 0, i = 1, 2, …, s,

називають рівняннями максимальної правдоподібності.

Зауваження. Розв'язуючи рівняння максимальної правдоподібності

L () = L (), необхідно відкинути всі корені, що мають вигляд = const. Оцінки, що не залежать від вибірки 1, 2, ..., n, нас не цікавлять (оцінка - це функція вибірки).

3. Задача перевірки статистичних гіпотез

Постановка задачі перевірки статистичних гіпотез. Часто виникає необхідність у розв'язанні такої задачі: маємо стохастичний експеримент, що полягає в спостереженні випадкової величини = (1, 2, ..., n) зі значеннями в Rn або частини Rn, тобто в одержанні вибірки обсягом n. (Такі стохастичні експерименти описуються моделями типу { Rn, ?n, Pи }, Pи ? ?, ? = { Pи; ? ? Rs}, де ? - деяка параметрична сукупність розподілів.) Щодо розподілу випадкової величини = (1, 2, ..., n) (відносно розподілу вибірки ) відомо тільки те, що він належить до класу ?. З класу ? вибираємо (з тих чи інших міркувань) один із розподілів, наприклад G, і як модель випадкової величини = (1, 2, ..., n) пропонуємо розглядати { Rn, ?n, G}.

Наша мета полягає в тому, щоб за результатом = (1, 2, ..., n) експерименту (відомий він чи одержимо його потім) дійти висновку: експеримент може описуватися моделлю { Rn, ?n, G} (G може бути розподілом випадкової величини ) або експеримент не може описуватися моделлю { Rn, ?n, G} (G не може бути розподілом випадкової величини ). Зробити за результатом експерименту більш “сильний” висновок: G є розподілом випадкової величини - не можна. Оскільки один і той же результат може з'явитися при багатьох різних розподілах, а не тільки при істинному.

У теорії перевірки статистичних гіпотез прийняті такі означення.

Гіпотези щодо розподілів випадкової величини називають статистичними гіпотезами.

Вибір розподілу (чи класу розподілів) із сукупності ? будемо називати вибором основної (нульової) гіпотези щодо розподілу в моделі { Rn, ?n, Pи }, (щодо розподілу випадкової величини зі значеннями в Rn). Після вибору основної гіпотези решту гіпотез назвемо альтернативними або конкурентними відносно основної (нульової). Нульову гіпотезу будемо позначати H0. Сукупність конкурентних (альтернативних) гіпотез у нас, як правило, буде параметричною. Конкурентні гіпотези будемо позначати так: H0, ? .

Гіпотези щодо розподілів, які однозначно їх визначають, будемо називати простими гіпотезами, у противному разі - складними.

Наприклад, гіпотеза H0 : випадкова величина має розподіл

Pи(k) = Ckn k0(1 - 0)n-k, k = 0, 1, …, n,

де 0 - фіксоване, є простою. Гіпотеза H : розподілом випадкової величини є

Pи (k) = Ckn k(1 - )n-k, k = 0, 1, …, n,

де ? (1 / 4; 1 / 2), є складною.

Формулюючи задачу перевірки статистичних гіпотез, за нульову гіпотезу (для наочності та простоти) ми визнали просту гіпотезу: розподілом випадкової величини є G, де G - цілком визначений розподіл.

Зазначимо, що математична статистика не дає ніяких рекомендацій щодо вибору нульової гіпотези, цей вибір повністю визначається дослідником і залежить від поставленої задачі.

Нехай основна гіпотеза H0 полягає в тому, що розподілом випадкової величини зі значеннями в Rn є розподіл G. Необхідно перевірити гіпотезу H0, тобто дійти висновку: G може бути розподілом випадкової величини (будемо говорити “гіпотеза H0 не відхиляється”) або G не може бути розподілом випадкової величини (будемо говорити “гіпотеза H0 відхиляється”). Робити висновок про відхилення або невідхилення гіпотези H0: розподілом випадкової величини є G, ми будемо за результатами (щ) експерименту, за реалізацією (щ) вибірки (окрім реалізації (щ) вибірки , ми не маємо нічого, що б несло інформацію щодо її розподілу). Тому, щоб за результатом експерименту (за реалізацією (щ) вибірки ) зробити висновок про відхилення або невідхилення гіпотези H0, нам необхідно вказати ті результати (щ) = (1(щ), 2(щ), ..., n(щ) ) експерименту, при яких ми будемо відхиляти H0, і ті, при яких ми не будемо відхиляти H0. Інакше кажучи, нам необхідно поділити множину можливих результатів (щ) = (1(щ), 2(щ), ..., n(щ)) (вибірковий простір) на дві непересічні множини: S - множину результатів, при яких H0 відхиляється, та - при яких H0 не відхиляється. Далі проводимо експеримент - одержуємо реалізацію (щ) = (1(щ), 2(щ), ..., n(щ)) випадкової величини = (1, 2, ..., n) (одержуємо вибірку). Якщо при цьому результат (щ) потрапляє до S, то ми відхиляємо гипотезу H0 (G не може бути істинним розподілом випадкової величини ). Якщо (щ) не потрапляє до S, то ми не відхиляємо гипотезу H0 (G може бути істинним розподілом випадкової величини ).

Ось такою і є методика перевірки статистичних гіпотез.

Означення. Борелівську множину S таку, що при ? S гіпотеза H0 відхиляється, а при ? S - не відхиляється, будемо називати критичною множиною (критичною областю) або критерієм для перевірки гіпотези H0.

Визначення на Rn - вибірковому просторі - борелівської множини S рівносильне визначенню борелівської функції ц (x) = Is (х) - індикатора множини S:

Is(х) = ц (x) =

І оскільки між множинами S та їхніми індикаторами Is(х) існує взаємно однозначна відповідність, то борелівську функцію ц (x) = Is (х) також називають критерієм (іноді тестом) для перевірки гіпотези H0. Якщо ц (x) = 1 (або, що те саме, ? S), то гіпотеза H0 відхиляється, якщо ц (x) = 0 (або, що те саме, ? S), то гіпотеза H0 не відхиляється. Нехай H0 - нульова гіпотеза щодо розподілу випадкової величини зі значеннями в Rn. Для перевірки H0 необхідно побудувати (визначити, вибрати) критичну множину S - борелівську множину в Rn, таку що при ? S гіпотеза відхиляється, а при ? S - не відхиляється. Борелівських множин S на Rn “багато” і не всі вони будуть однаково “слушними” для перевірки гіпотези H0. Для кожної гіпотези H0 “слушні” будуть свої S. Ось тут і постає важлива задача (це основна задача перевірки статистичних гіпотез) - як будувати “слушні” критерії для перевірки даної гіпотези H0.

Щоб відповісти на поставлене питання, ми спочатку розглянемо так звані помилки першого та другого роду та ймовірності цих помилок.

Нехай H0 - нульова гіпотеза; (щ) - результат експерименту (реалізація вибірки ); S - борелівська множина в Rn. Будемо перевіряти H0, користуючись множиною S як критичною множиною: якщо (щ) потрапляє до S, гіпотезу H0 відхиляємо, якщо (щ) не потрапляє до S, гіпотезу H0 не відхиляємо.

При цьому можливі такі ситуації: гіпотеза H0 справедлива або ні, реалізація (щ) випадкової величини потрапила до S або ні. Докладніше в таблиці 3.1.

Таблиця 3.1 Справедлива гіпотеза

H0

H1

H0

1

вірне прийняття

H0

2

помилка

II роду

H1

3

помилка

I роду

4

вірне відхилення

H0

Приймається гіпотеза

З чотирьох ситуацій дві: 1 та 4 - задовільні і дві: 2 та 3 - незадовільні. У випадках 2 та 3 говоримо, що ми припускаємося помилок. При цьому помилки у випадку 2 (гіпотеза H0 не відхиляється, коли вона несправедлива) та у випадку 3 (гіпотеза H0 відхиляється, коли вона справедлива) істотно різняться (за конкретних ситуацій ці помилки, як правило, відрізняються своєю ”ціною”) і мають свої назви.

Означення. Помилка, яка полягає в тому, що гіпотеза H0 відхиляється, коли вона несправедлива, називається помилкою першого роду.

Означення. Помилка, яка полягає в тому, що гіпотеза H0 не відхиляється, коли вона несправедлива, називається помилкою другого роду.

Докладніше до визначення помилок I та II роду в таблиці 3.2.

Таблиця 3.2 Справедлива гіпотеза

H0

H1

H0

1

(щ) ? S

2

(щ) ? S

H1

3

(щ) ? S

4

(щ) ? S

Приймається гіпотеза

Про вибір нульової гіпотези. Раніше вже відзначалося, що нульову гіпотезу із сукупності всіх гіпотез ми вибираємо самі. (Помилки, пов'язані з перевіркою гіпотез, які полягають у тому, що дану гіпотезу H0, ? , ми відхиляємо, коли вона справедлива, можна розглядати і не вибравши нульової гіпотези). Отже, за основу (нульову) гіпотезу ми вибираємо ту, для якої важливіше уникнути помилки, що полягає в відхиленні даної гіпотези, коли вона справедлива. Помилка першого роду - це помилка, якої важливіше уникнути, - це помилка, “ціна” якої вища.

Чи можна побудувати критерій (критичну множину) для перевірки гіпотези, який би не призводив до помилок? Ні, не можна. Адже, якою б не була критична множина S ? Ш, значення (щ) випадкової величини (результат експерименту) може потрапити до S, коли гіпотеза H0 справедлива (помилка першого роду), і до - коли вона несправедлива (помилка другого роду). І, оскільки побудувати критерій (критичну множину) для перевірки даної гіпотези, який би не призводив до помилок, неможливо в принципі, то природно, що ми будемо намагатися будувати такі критерії, використовуючи які матимемо мінімально можливу частоту помилок. Подивимося, як це можна зробити.

Нехай H0 - основна гіпотеза. Припустимо для наочності, що H0 - проста. Конкурентна гіпотеза тільки одна (позначимо її H1), і вона також проста. Нехай S - критична множина. Використовуючи S для перевірки гіпотези H0 (відхиляємо H0, якщо ? S, і не відхиляємо H0, якщо ? S), ми можемо припуститися помилок двох типів: H0 - справедлива, ? S і, отже, H0 відхиляється (помилка першого роду); H0 - не справедлива, ? S і, отже, H0 не відхиляється (помилка другого роду). Імовірність помилки першого роду дорівнює ймовірності того, що вибіркове значення потрапить до критичної множини S, коли гіпотеза H0 справедлива, тобто P { ? S | H0} (або, що те саме, P{ ц () = 1 | H0} ); стисло будемо писати: P (S | H0). Імовірність помилки другого роду дорівнює ймовірності того, що вибіркове значення потрапить до , коли гіпотеза H1 справедлива, тобто P{ ? | H1} (або, що те саме, P{ ц () = 1 | H1} ); стисло будемо писати: P ( | H1).

Імовірність помилки першого та другого роду однозначно визначаються критичною множиною S (а, отже, й частоти помилок першого та другого роду однозначно визначаються множиною S). Тому, вибираючи S, скажімо, за умови, що ймовірність помилки першого роду мала, ми водночас одержимо ймовірність помилки другого роду, яка визначається вибраною критичною множиною S і буде такою, якою вийде. Можна вибрати S і за умови, що ймовірність помилки другого роду мала, але при цьому ймовірність помилки першого роду визначається вибраним S і буде такою, якою вийде. Отже, вибирати S так, щоб одночасно були контрольовані ймовірність помилки першого та другого роду (а разом з ними і частоти помилки першого та другого роду), не вдасться. Тому будемо діяти таким чином. Оскільки важливіше уникнути помилки першого роду (її “ціна” вища), то наша перша вимога до критерію ц (до критичної множини S) буде така: ймовірність помилки першого роду P (S | H0) має бути малою. Це означає, що, використовуючи критерій S у довгій серії експериментів, ми гипотезу H0, коли вона справедлива, будемо відхиляти зрідка.

Таким чином, наша перша вимога щодо критерію - фіксуємо мале і вибираємо критерій ц (критичну множину S) так, щоб ймовірність помилки першого роду не перевищувала :

P (S | H0) ( P{ ц () = 1 | H0} ).

Якщо ця основна вимога задовольняється більш ніж одним способом, то ймовірність помилки другого роду P ( | H1) була мінімальною (а отже, частота того, що H0 не відхиляеться, коли вона несправедлива, була мінімальною), для чого S вибираємо якомога “широким”.

Означення. Число , що обмежує зверху ймовірність помилки першого роду, будемо називати рівнем значущості. Якщо критична множина S (критерій ц ) задовольняє умову P (S | H0) ( P{ ц () = 1 | H0} ), то будемо говорити, що критична множина S (критерій ц ) відповідає рівню значущості .

Означення. Імовірність P (S | H1) відхилити основну гіпотезу, коли справедлива альтернативна гіпотеза H1, будемо називати потужністю критерію S.

Якщо альтернативна гіпотеза складна (причому коли вона справедлива, справедлива одна з простих гіпотез H0, ? ), то для кожного ? можна обчислити P (S | H0).

Означення. Функцію () = P (S | H0), яка для кожного ? дорівнює ймовірнсті відхилити основну гіпотезу H0, коли справедлива гіпотеза H0, будемо називати функцією потужності критерію.

Зауваження. Питання про те, яким має бути рівень значущості, не є статистичною задачею. Здебільшого за рівень значущості приймають числа 0,10; 0,05; 0,01; 0,001 і т.д. Чим серйозніші наслідки помилки першого роду, тим меншим повинен бути рівень значущості.

4. Критерій 2, гіпотетичний розподіл залежить від невідомих параметрів

Нехай = (1, 2, ..., n) - вибірка з невідомого нам розподілу F. Щодо розподілу F висувається гіпотеза

H0 : F( ) = G ( ; 1, 2, …, k), ( 1, 2, …, k) = ? .

Розподіл G ( ; 1, 2, …, k) визначений з точністю до параметрів 1, 2, …, k. Параметри 1, 2, …, k невідомі, причому щодо значення цих параметрів ми можемо мати лише ту інформацію, яка міститься у вибірці = (1, 2, ..., n). Інакше кажучи, гіпотеза H0 полягає в тому, що = (1, 2, ..., n) є вибіркою з розподілу, що належить до класу розподілів G ( ; 1, 2, …, k), ( 1, 2, …, k) = ? .

Наша мета - за реалізацію вибірки = (1, 2, ..., n) зробити висновок: відхиляти гіпотезу H0 чи не відхиляти?

Оскільки 1, 2, …, k невідомі, природно за значення 1, 2, …, k визнати їх оцінки, побудовані за вибіркою 1, 2, ..., n, і, отже, як гіпотетичний розподіл розглядати G ( ; 1, 2, …, k). Р. Фішер встановив, що коли гіпотеза H0 справедлива і оцінки 1, 2, …, k одержані за методом максимальної правдоподібності, то розподіл відхилення

D (, G) =

між і G при n збігається до розподілу 2 з (r - 1 - k) ступенями вільності, де k - число параметрів, які оцінені з вибіркою = (1, 2, ..., n). Відхилення D (, G) будується наступним чино: ділимо X (простір вибіркових значень i) на скінченне число r (2 ? r < ?) непересічних множин Xi; pi (, , ..., k) - імовірності попадання вибіркових значень до множин Xi, i =1, 2, ..., r, обчислені за гіпотетичним розподілом.

Таким чином, коли параметри оцінюються за вибіркою згідно з методом максимальної правдоподібності, ми можемо користуватися критерієм 2 у такому формулюванні:

Якщо гіпотезу H0 відхиляти при

D (, G) = 2; (r 1 k)

і не відхиляти у противному разі, то з імовірністю гіпотеза H0 буде відхилятися, коли вона справедлива.

5. Критерій 2 як критерій незалежності

Нехай = (, ) - двовимірна випадкова величина ( набуває значень a1, a2, …, as; набуває значень b1, b2, …, bk). Розподіл векторної випадкової величини = (, ) - спільний розподіл випадкових величин та (див.табл. 5.1) - нам невідомий. Невідомі й розподіли
компонент та відповідно.

Таблиця 5.1

b1

b2

bk

Сума

a1

p11

p12

p1k

p1

a2

p21

p22

p2k

p2

as

ps1

ps2

psk

ps

Сума

p1

p2

pk

1

pi = , i = 1, 2, …, s; pj = , j = 1, 2, …, k.

= = = 1.

Щодо спільного розподілу випадкових величин та - компонент вектора = (, ) висувається гіпотеза

H0: pi j = pi p j; i = 1, 2, …, s; j = 1, 2, …, k,

тобто гіпотеза про незалежність випадкових величин та (ще говорять, гіпотеза про незалежність ознак).

Маємо результати n спостережень випадкової величини = (, ): “значення” (ai, bi) випадкова величина = (, ) набула i j разів, i =1, 2, ..., s; j = 1, 2, ..., k. Результати спостережень випадкової величини = (, ) зручно подати у вигляді так званої таблиці спряженості ознак (табл. 5.2).

Таблиця 5.2

b1

b2

bk

Сума

a1

11

12

1k

1

a2

21

22

2k

2

as

s1

s2

sk

s

Сума

1

2

k

n

i = , i = 1, 2, …, s; j = , j = 1, 2, …, k.

= = = n.

Наша мета - за результатами спостережень випадкової величини = (, ) (табл. 2.5.2) зробити висновок: відхиляти гіпотезу H0 про незалежність компонент і чи не відхиляти.

Для перевірки гіпотези H0 скористаємося критерієм 2, коли гіпотетичний розподіл залежить від невідомих параметрів. Невідомими параметрами є pi та p j, i = 1, 2, …, s; j = 1, 2, …, k, причому

= 1; = 1.

В якості розбиття вибіркового простору

X = {(ai, bj), i = 1, 2, …, s; j = 1, 2, …, k}

розглянемо підмножини

Xi j = {(ai, bj)}, i = 1, 2, …, s; j = 1, 2, …, k.

Відхилення емпіричного розподілу

, i = 1, 2, …, s; j = 1, 2, …, k,

від гіпотетичного

pi p j, i = 1, 2, …, s; j = 1, 2, …, k,

є

D (, G) = ,

де та - оцінки максимальної правдоподібності для параметрів pi та p j, які дорівнюють відповідно

, i = 1, 2, …, s та , j = 1, 2, …, k.

Отже,

D (, G) = .

Кількість параметрів, оцінених за вибіркою, дорівнює (s - 1) + (k - 1). Кількість підмножин Xi j, i = 1, 2, …, s; j = 1, 2, …, k, на які поділяється вибірковий простір X, дорівнює sk. Тому число ступенів вільності 2-розподілу, граничного для D (, G), дорівнює sk - 1 - ( (s - 1) + (k - 1) ) = (s - 1) (k - 1).

Таким чином, гіпотезу H0 про незалежність випадкових величин і будемо відхиляти, якщо

2; (s - 1) (k - 1),

і не будемо відхиляти в противному разі; при цьому з імовірністю гіпотеза H0 буде відхилятися, коли вона справедлива.

Значення випадкових величин та ще називають ознаками, і в цьому випадку говорять про критерій 2 для незалежності ознак.

Рівні ознак ми, як правило, обираємо самі, поділяючи їх “значення” на підмножини Xi, Yj; де Xi - підмножини значень ; а Yj - підмножини значень . При цьому, як завжди при використанні критерію 2, ми повинні стежити, щоб для гіпотетичних імовірностей попадання значень пар ознак до Xi Yj виконувалися співвідношення

( ) n = (i j) /n 10,

(при всіх можливих значеннях i та j), де n - обсяг вибірки.

Зауваження. Застережемо, що, маючи справу зі статистичними залежностями, треба бути вельми обережним. Статистична залежність будь-якого виду логічно не може бути чинником причинної залежності. Ідеї щодо причинного зв'язку повинні приходити “ззовні” статистики.

СПИСОК ВИКОРИСТАНИХ ДЖЕРЕЛ

1. Гихман И.И., Скороход А.В., Ядренко М.И. Теория вероятностей и математическая статистика. - Киев.: Вища шк., 1988. - 439 с.

2. Турчин В.М. Математична статитика. Навч. посіб. - К.: Видавничий центр “Академія”, 1999. - 240 с.

3. Крамер Г. Математические методы статистики. - 2-е изд., перераб. - М.: Мир, 1975. - 648 с.


Подобные документы

  • Основні поняття математичної статистики. Оцінювання параметрів розподілів. Метод максимальної правдоподібності. Парадокси оцінок математичного сподівання та дисперсії, Байєса, методу найменших квадратів, кореляції, перевірки гіпотез та їх пояснення.

    дипломная работа [1,1 M], добавлен 12.08.2010

  • Класичний метод оцінювання розподілу вибірки, незміщені та спроможні оцінки, емпірична функція розподілу. Моделювання неперервних величин і критерій Смірнова. Сучасні методи прямокутних внесків, зменшення невизначеності та апріорно-емпіричних функцій.

    дипломная работа [1,9 M], добавлен 12.08.2010

  • Статистичний критерій перевірки нульової гіпотези. Критична область і загальна методика її побудови. Перевірка правдивості статистичних гіпотез про рівність двох генеральних середніх. Закон розподілу генеральної сукупності. Критерій узгодженості Пірсона.

    реферат [145,1 K], добавлен 27.04.2012

  • Середні значення, характеристики варіаційного ряду, властивості, методи їх обчислення та оцінки. Наукова основа статистичного аналізу. Приклади вирішення задач на обчислення середнього арифметичного, перевірки гіпотез. Метод відліку від умовного нуля.

    контрольная работа [39,6 K], добавлен 25.12.2010

  • Зародження основних понять теорії ймовірностей. Розподіл ймовірностей Фішера-Снедекора, Пуассона та Стьюдента, їх характеристика та приклади. Емпірична функція розподілу. Точечний та інтервальний підходи до оцінювання невідомих параметрів розподілів.

    курсовая работа [1,7 M], добавлен 30.04.2009

  • Метод відношення правдоподібності для великих вибірок як один із способів перевірки параметричних статистичних гіпотез. Теоретичне обґрунтування даної методики, визначення її основних недоліків та програмне тестування припущення розглянутого критерію.

    курсовая работа [1,2 M], добавлен 23.12.2010

  • Перевірка гіпотези про нормальний розподіл параметрів загального аналізу крові для компенсованого, субкомпенсованого та декомпенсованого станів за кишкової непрохідності. Перевірки гіпотез про рівність середніх значень та про незалежність параметрів.

    курсовая работа [3,8 M], добавлен 13.08.2010

  • Дослідження основних статистичних понять та їх застосування в оціночній діяльності. Характеристика методів групування статистичних даних по якісним та кількісним прикметам. Вивчення алгоритму побудови інтервального ряду, розрахунок розмаху варіації.

    лекция [259,0 K], добавлен 07.02.2012

  • Метод найменших квадратів. Задача про пошуки параметрів. Означення метода найменших квадратів. Визначення параметрів функціональних залежностей. Вид нормальної системи Гауса. Побудова математичної моделі, використовуючи метод найменших квадратів.

    реферат [111,0 K], добавлен 25.12.2010

  • Обчислення оцінок основних статистичних характеристик: середнього значення, середнього квадратичного відхилення результатів, дисперсії розсіювання результатів вимірювань, коефіцієнта асиметрії. Перевірка наявніості похибок за коефіцієнтом Стьюдента.

    контрольная работа [245,5 K], добавлен 25.02.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.