Методи математичної статистики
Передумови виникнення та основні етапи розвитку теорії ймовірностей і математичної статистики. Сутність, розробка та цінність роботи Стьюдента. Основні принципи, що лежать в основі клінічних досліджень. Застосування статистичних методів в даній сфері.
Рубрика | Математика |
Вид | контрольная работа |
Язык | украинский |
Дата добавления | 27.11.2010 |
Размер файла | 16,7 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Методи математичної статистики
Теорія ймовірностей і математична статистика виникли в середині XVII століття в результаті розвитку суспільства і товарно-грошових відносин.
Свою роль у цьому процесі відіграли й азартні ігри, вони послужили простими моделями для виявлення закономірностей у появі випадкових подій. Крім того, розвиток математичної статистики був обумовлений необхідністю обробляти дані, які зібралися до того часу в області керування державою: демографії, охороні здоров'я, торгівлі й інших галузях господарської діяльності.
Можна перелічити досить довгий список імен великих учених, які додали свого внеску у розвиток математичної статистики: П. Ферма (1601-1665) і Б. Паскаль (1623-1662), Я. Бернуллі (1654-1705) і П. Лаплас (1749-1827), К. Гаусс (1777-1855) і С. Пуассон (1781-1840), Т. Байєс (1701-1761) та ін. Ці імена мають бути вже відомі читачам з назв часто застосовуваних статистичних процедур, тестів і розподілів.
Першим, хто вдало об'єднав методи антропології і соціальної статистики з досягненнями в області теорії ймовірностей і математичної статистики, був бельгійський статистик Л. Кетле (1796-1874).
З його робіт випливало, що задача статистики полягає не лише у збиранні і класифікації даних, а й у їхньому аналізі з метою відкриття закономірностей. Л. Кетле одним з перших показав, що випадковості, які спостерігаються в живій природі, внаслідок їхньої повторюваності виявляють певну тенденцію, яку можна описати мовою математики. Л. Кетле заклав і основи біометрії.
Створення ж математичного апарата цієї науки належить англійській школі статистиків XIX століття, на чолі якої стояли Ф. Гальтон і К. Пірсон. Розроблені Ф. Гальтоном (1822-1911) і К. Пірсоном (1857-1936) біометричні методи увійшли в золотий фонд математичної статистики.
Пірсон запровадив у біометрії такі поняття, як середнє квадратичне відхилення і варіацію, йому належить розробка методу моментів, критерію згоди 2, він увів термін «нормальний розподіл», який зараз загальноприйнятий у багатьох країнах. (Відомо ще багато варіантів назви цього розподілу, наприклад, лапласів розподіл, гауссів розподіл, розподіл Гаусса-Лапласа, розподіл Лапласа-Гаусса.
Як апроксимація до біноміального розподілу він розглядався Муавром ще в 1733 р., однак Муавр не вивчав його властивостей.) К. Пірсон удосконалив запропоновані Гальтоном методи кореляції і регресії. Термін «регресія» був введений Ф. Гальтоном у 1886 р. Гальтон встановив, що в середньому сини високих батьків мають не такий великий зріст, а сини батьків з невеликим зростом вище за своїх батьків. Це було інтерпретовано ним як «регресія до посередності». Помилки в міркуваннях Гальтона були роз'яснені пізніше, приміром, Браунлі.
Однак біологи не відразу оцінили переваги, які давало використання математичної статистики в природознавстві. Положення дещо змінилося на краще, коли була обґрунтована теорія малих виборок.
Піонером у цій області був учень Пірсона В. Госсет, який опублікував у журналі «Біометрика» свою статтю під псевдонімом Стьюдент (звідси - критерій Стьюдента). Вважається, що цінність роботи Стьюдента полягала не у значних числових змінах під час розрахунку тестової статистики. Багато вчених задовго до Стьюдента використовували співвідношення, яке тепер має його ім'я, але без урахування обсягу вибірок (числа ступенів свободи) і співвідносили отриманий результат з таблицями стандартного нормального розподілу (аналог критерію Стьюдента для нескінченного числа ступенів свободи), користуючись при цьому різними застереженнями під час інтерпретації результатів.
Цінність роботи Стьюдента полягає в усвідомленні того, що треба брати до уваги «капризи» малих вибірок, причому не тільки в тій задачі, з якої починав Стьюдент, але й у всіх подібних. Крім того, він розробив таблиці, які можна використовувати для визначення довірчих інтервалів і перевірки критеріїв значимості навіть на основі дуже малих вибірок, що дає можливість вирішення багатьох статистичних задач в області клінічних досліджень.
Подальший розвиток теорія малих вибірок одержала у працях Р. Фішера (1890-1962), основне місце в його роботі займали питання планування експерименту. Фішер запропонував у біометрії цілий ряд нових термінів і понять, розглянув фундаментальні принципи статистичних висновків, показав, що планування експериментів і обробка їхніх результатів - дві нерозривно пов'язані задачі статистики.
Не можна не відзначити той величезний внесок, що зробили в розвиток теорії ймовірностей і математичної статистики російські вчені: О.Я. Хінчін (1894-1959), О.І. Хотимський (1892-1939), Б.С. Ястремський (1877-1962), В.І. Романовський (1879-1954), А.А. Ляпунов (1911-1973), А.Н. Колмогоров та його школа і багато інших.
У сучасній статистичній науці існує розподіл на дві основні школи: найбільш численна класична школа - послідовники Фішера і його учнів, а також суб'єктивістська, чи байєсівська школа.
І хоча на рівні прикладної статистики результати, одержані в рамках цих різних наукових шкіл, досить добре погоджуються, з широкого кола теоретичних і філософських питань ці два напрямки часто розходяться, пропонуючи різні підходи до вирішення задач, у тому числі в області біометрії.
Стисло основну розбіжність у підходах можна було б охарактеризувати в такий спосіб: прихильники класичного підходу єдино можливою вважають частотну інтерпретацію імовірності (тому такий підхід називають ще «frequentist school»), суть їхнього підходу полягає в тому, що вони починають вирішення задачі з вибору моделі і перевіряють, чи може дана модель «пояснити» отримані (чи ще більш «екстремальні») дані. Відмінність байєсівського підходу полягає в тому, що до того, як будуть отримані дані, статистик розглядає ступінь своєї довіри до різних можливих моделей і представляє їх у вигляді ймовірностей (апріорні імовірності). Як тільки дані отримані, теорема Байєса дозволяє розрахувати нову множину ймовірностей, що являють собою переглянуті ступні довіри до можливих моделей на основі отриманих даних (апостеріорні імовірності). Оцінка апріорних ймовірностей є суб'єктивною, тому даний підхід і називається суб'єктивістським.
Зараз основні статистичні процедури і тести в області клінічних досліджень засновані на класичних підходах, хоча за необхідності допускається застосування байєсівських процедур. Байєсівський підхід стає все більш популярним в області фармакокінетики.
Можна сказати, що клінічні дослідження мають ще тривалішу історію, ніж математична статистика. Клінічні дослідження в тому розумінні, що ми звикли вкладати в це поняття, в основному одержали розвиток після другої світової війни, хоча відомі і більш ранні приклади. Вважається, що вже у працях середньовічного вченого, лікаря і філософа Ібн Сіни (Авіценна) (980-1037), чиї трактати в області теоретичної і клінічної медицини були надзвичайно популярні протягом багатьох століть і були обов'язковим керівництвом, містилися згадки про технологію проведення «клінічних досліджень».
А в книзі видатного вірменського лікаря і натураліста Амірдовлата Амасіаці (помер у 1496 р.) «Непотрібне для неуків» (переклад з вірменської і коментар канд. мед. наук С.А. Варданян, серія «Научное наследие», 1990), що є узагальненням тривалого історичного шляху розвитку вірменської медицини і природничих наук у XV столітті, містяться 7 основних умов, яких автор рекомендує дотримуватися під час проведення іспитів лік, що перегукуються з принципами, які лежать в основі сучасних клінічних досліджень. «І говорять, що природа лік пізнається дослідним шляхом. Перша умова полягає в тому, що застосовують випробувані ліки в чистому вигляді, без сторонніх домішок.
Друга умова полягає в тому, що коли випробовують одні ліки, треба давати їх людині з помірною натурою так, щоб видно було її дію на природу (поняття «помірна натура», відповідно до середньовічної теорії, сучасною медичною мовою означало б групу норми).
Третя умова полягає в тому, що одні ліки слід випробовувати при одній хворобі, а не при двох і більше захворюваннях. Оскільки вони корисні при одному захворюванні, а на друге не діють, людина не може зрозуміти, куди ж поділася їхня корисна дія.
Четверта умова полягає в тому, що коли ліки виявляються корисним при декількох хворобах, то слід перевірити, чи є ця дія чимось, властивим тільки їм, чи вона залежить від інших сторонніх обставин.
П'ята умова полягає в тому, щоб сила ліків відповідала силі хвороби.
Шоста умова - щоб враховувати пору року, оскільки існує така пора, коли ліки діють, і така, коли вони не діють або виявляють слабку дію. Сьома умова полягає в тому, щоб при введенні цих лік дія їх була б постійною, оскільки якщо вони то діють, то не діють, то це залежить не від ліків, а від сторонніх причин».
Можна сказати, що автор цих правил розумів необхідність правильної постановки і дотримання умов експерименту, а також важливість грамотної інтерпретації отриманих у дослідженні результатів.
Сьогодні вже неможливо уявити собі клінічні дослідження без статистичної обробки отриманих результатів. Вперше рандомізовані клінічні дослідження в сучасному розумінні були проведені в Англії, а одним з основних виконавців був відомий статистик Остін Б. Хілл (1897-1991).
Нині статистична наука продовжує розвиватися. Так, у 90-і роки XX століття була зроблена величезна методологічна робота, яка має безпосереднє відношення до статистичного аналізу клінічних досліджень. Цікаві роботи вчених-статистиків у цій області стосувалися питань метааналізу, перехресного дизайну, досліджень біоеквівалентності, послідовного дизайну вимірювань, що повторюються, тощо.
Досить важко дати вичерпне визначення статистики як дисципліни. Найбільш вдалим можна вважати таке визначення: «наука, що вивчає методи збирання й інтерпретації числових даних».
Таким чином, головна мета статистики - одержання осмислених висновків з неузгоджених (що підлягають розкиду) даних. Оскільки індивідуумам властива уроджена мінливість ознак (наприклад, ріст, маса тіла тощо) і, крім того, біологічні ознаки можуть випадково змінюватися в часі, природа клінічних даних, що характеризуються розкидом чи варіацією, диктує необхідність їхнього статистичного оцінювання.
Ще одна причина, з якої застосування статистичних методів до даних клінічних досліджень стає необхідним, - випадкові помилки вимірювання клінічних показників. Мовою математики, величина будь-якої ознаки, що варіює, є змінною випадковою величиною, а її конкретні значення прийнято називати варіантами.
Важливою задачею під час проведення статистичного аналізу клінічних даних, є визначення одного чи декількох ознак, що у даному клінічному дослідженні адекватно оцінюватимуть порівнюваний ефект.
Взагалі словом «ефект» незалежно від його медичного змісту ми називатимемо будь-які прояви дії досліджуваного препарату (чи методу лікування), які обрані дослідником для демонстрації його ефективності, безпеки тощо. Показники визначеного в такий спосіб ефекту мають міжіндивідуальну варіабельність.
Статистику ще часто називають наукою прийняття розумних рішень в умовах невизначеності. При цьому двом категоріям задач статистики приділяють особливу увагу: статистичне оцінювання і перевірка статистичних гіпотез. Перша задача поділяється на точкове та інтервальне оцінювання параметрів розподілу.
Взагалі статистичні задачі з'являються тоді, коли необхідно дати найкращі, у певному розумінні відповіді за обмеженою кількістю спостережень. Якби кількість спостережень не була обмеженою, можна було б точно визначити параметри розподілів і порівняти їх, при цьому ніякої статистичної задачі не було б. Якщо в ході досліджень ми могли б вивчити всі об'єкти сукупності, які нас цікавлять (наприклад, усіх хворих з визначеним захворюванням), то можна було б сказати, що ми маємо справу із суцільним вивченням генеральної сукупності.
Насправді обстежувати всі об'єкти сукупності вдається рідко, зазвичай доводиться вивчати лише вибірку, сподіваючись, що ця вибірка досить добре показує властивості досліджуваної сукупності.
При цьому також виникають важливі статистичні задачі: випадковий відбір варіантів з генеральної сукупності і репрезентативності вибірки, а також визначення необхідного обсягу вибірки для формування статистично значимого висновку за результатами проведених досліджень.
Усі статистичні методи виходять з припущення, що дані вилучені із сукупності випадково. А це означає, що імовірність виявитися обраним для всіх членів сукупності має бути однакова.
Випадковим має бути і віднесення пацієнта до тієї чи іншої порівнювальної групи, тобто кожен пацієнт повинен мати рівний шанс потрапити в будь-яку групу в дослідженні. Призначені для вирішення цієї статистичної задачі методи називаються методами рандомізації.
Найбільш відомі методи рандомізації: проста рандомізація, блокова рандомізація, пошарова рандомізація, адаптивна рандомізація чи рандомізація за принципом несиметричної монети, «гра на лідера» та ін. Рандомізація не тільки порівнює імовірність одержання пацієнтом різних порівнювальних впливів, але й дозволяє формувати групи, подібні з погляду прогностичних факторів.
Отже, рандомізація забезпечує підбір хворих так, щоб контрольна група нічим не відрізнялась від експериментальної, крім досліджуваного методу лікування. Але і цього виявляється недостатньо. Тісно пов'язана з проблемою рандомізації і так звана проблема сліпоти дослідження.
Для того, щоб ані лікар, ані дослідник, ані пацієнт не могли як-небудь впливати на одержані результати, використовується таке поняття, як сліпота дослідження. Наприклад, якщо дозволяють клінічні особливості даного дослідження, часто застосовується так званий подвійний сліпий метод, коли ні лікар, ні пацієнт не знають, який з методів лікування був застосований.
Важливим питанням є і питання репрезентативності вибірки щодо всієї популяції, з якої вона відбиралася. Звичайно, якщо вибірка взята із сукупності випадково і має досить великий обсяг, середні характеристики пацієнтів у вибірці практично такі самі, як у відповідній популяції. На практиці більшість груп пацієнтів, включених у різні клінічні дослідження, являють собою зміщені вибірки.
Це пов'язано з особливостями включення пацієнтів у дослідження: часто пацієнти включаються тому, що знаходяться на лікуванні в центрі, який проводить дослідження, чи тому, що, з погляду дослідника, являють собою цікавий клінічний випадок.
Загалом така відсутність репрезентативності не приводить до якихось неправильних висновків. Однак дослідник має чітко розуміти, на яку популяцію реально можуть бути поширені результати, отримані в такому дослідженні.
Наступна важлива математична задача - визначення необхідного обсягу вибірки. Під «необхідним» розуміють мінімально можливу кількість пацієнтів, включених у дослідження, що при обраному дизайні дозволяє установити наявність статистично значимих розбіжностей між порівнюваними методами.
На жаль, про важливість вирішення цієї задачі згадують, як правило, коли дослідження вже закінчені і починається процес статистичної обробки отриманих результатів. Ця проблема дуже важлива.
Мета клінічних досліджень - виявлення методів, що дозволяють поліпшити існуючі результати лікування, діагностику, попередження захворювань. Якщо новий метод дозволяє одержати високий відсоток лікування хворих, що страждають раніше не виліковним захворюванням, довести його ефективність можна шляхом оцінки результатів лише в одній групі, без порівняння з контролем.
Такі дослідження називаються неконтрольованими. Контрольовані клінічні дослідження - це дослідження, у яких групи, що порівнюються, отримують різні види лікування.
Зазвичай контрольовані дослідження є перспективними, тобто дані одержують після початку дослідження. На відміну від перспективних досліджень, відомі випадки, коли як контроль може використовуватися ретроспективно зібрана інформація: дані літератури чи результати інших досліджень.
При плануванні досліджень дуже важливо сформулювати його мету. Якщо метою проведеного дослідження є встановлення розбіжностей (чи переваг) методів лікування, математично дане питання вирішується зазвичай за допомогою перевірки статистичного критерію (чи тесту). Застосовані для цього процедури пов'язані з формулюванням статистичних гіпотез. Іноді для вирішення цієї задачі застосовують і метод довірчих інтервалів.
Статистична гіпотеза - це твердження, помилкове заперечення якого хотілося б уникнути. Як правило, в області клінічних досліджень прийнято формулювати так звану нульову гіпотезу (Но) таким чином, щоб це твердження бажано було б відкинути (наприклад, немає розбіжностей в ефекті в порівнювальних методах).
Не можна забувати, що нульовій гіпотезі відповідає альтернативна гіпотеза (ЯА) - це висновок, до якого хотілося б прийти в результаті дослідження (наприклад, ефекти порівнювальних методів різні). З процедурами перевірки гіпотез тісно пов'язані поняття помилки I і II роду.
Так, помилка I роду - можливість помилково відхилити нульову гіпотезу, тобто знайти розходження там, де їх немає. Прийнятна для даного експерименту імовірність помилки I роду називається рівнем значимості а. Помилка II роду виникає тоді, коли ми приймаємо нульову гіпотезу, а вона невірна, іншими словами, не знаходимо існуючу розбіжність. Імовірність помилки II роду позначається літерою р. Імовірність знайти наявні розходження, тобто чутливість, чи потужність критерію, дорівнює 1 (за інших рівних умов цей критерій має перевагу, у якого імовірність помилки II роду менше, відповідно чутливість більше).
Крім того, для оцінки справедливості Но важливий показник, що зазвичай позначається літерою р і називається р-значенням. Він оцінює імовірність того, що значення критерію виявиться не менше критичного значення за умови справедливості нульової гіпотези (тобто за відсутності розбіжностей між порівнювальними групами).
Під час планування клінічних досліджень в залежності від конкретних умов і мети може бути обраний різний порядок їхнього проведення, чи дизайн.
Говорячи про дизайн дослідження, зазвичай мають на увазі його основні компоненти: встановлення порядку проведення дослідження чи плану, визначення обраних методів рандомізації і ступеня сліпоти, оцінку необхідної кількості пацієнтів, що включаються.
Найбільш часто зустрічаються такі варіанти планів дослідження: перехресний план, план латинських квадратів, мультиперехресний план, план паралельних груп, блокові плани, план «гра на лідера», послідовний план.
Подобные документы
Методи рішення задач математичної статистики, яка вивчає статистичні закономірності методами теорії ймовірностей за статистичними даними - результатами спостережень, опитувань або наукових експериментів. Способи збирання та групування статистичних даних.
реферат [220,7 K], добавлен 13.06.2010Основні напрямки теорії ймовірностей. Сутність понять "подія", "ймовірність події". Перестановки, розміщення та сполучення. Безпосередній підрахунок ймовірностей. Основні теореми додавання та множення ймовірностей. Формула повної ймовірності та Байєса.
контрольная работа [89,9 K], добавлен 27.03.2011Етапи розвитку теорії ймовірностей як науки. Ігри казино як предмет математичного аналізу. Біологічна мінливість і імовірність. Застосування розподілів ймовірностей як спосіб опису біологічної мінливості. Помилкова точність та правила округлення чисел.
реферат [26,4 K], добавлен 27.02.2011Основні принципи і елементи комбінаторики. Теорія ймовірностей: закономірності масових випадкових подій, дослідження і узагальнення статистичних даних, здійснення математичного і статистичного аналізу. Постановка і вирішення задач економічного характеру.
курс лекций [5,5 M], добавлен 21.11.2010Характеристика, поняття, сутність, положення і особливості методів математичної статистики (дисперсійний, кореляційний і регресійний аналіз) в дослідженнях для обробки експериментальних даних. Розрахунки для обчислення дисперсії, кореляції і регресії.
реферат [140,6 K], добавлен 25.12.2010Основні поняття математичної статистики. Оцінювання параметрів розподілів. Метод максимальної правдоподібності. Парадокси оцінок математичного сподівання та дисперсії, Байєса, методу найменших квадратів, кореляції, перевірки гіпотез та їх пояснення.
дипломная работа [1,1 M], добавлен 12.08.2010Основні поняття теорії ймовірностей, означення випробування, випадкової, масової, вірогідної та неможливої події. Правило суми і множення. Теорема додавання і теорема добутку ймовірностей. Використання геометричної ймовірності, Парадокс Бертрана.
научная работа [139,9 K], добавлен 28.04.2013Математична обробка ряду рівноточних і нерівноточних вимірів. Оцінка точності функцій виміряних величин. Випадкові величини, їх характеристики і закони розподілу ймовірностей. Елементи математичної статистики. Статистична оцінка параметрів розподілу.
лекция [291,4 K], добавлен 17.11.2008Вивчення закономірностей, властивих випадковим явищам. Комплекс заданих умов. Експериментальна перевірка випадкових явищ в однотипних умовах та необмежену кількість разів. Алгебра випадкових подій. Сутність, частота і ймовірність випадкової події.
реферат [151,8 K], добавлен 16.02.2011Зародження основних понять теорії ймовірностей. Розподіл ймовірностей Фішера-Снедекора, Пуассона та Стьюдента, їх характеристика та приклади. Емпірична функція розподілу. Точечний та інтервальний підходи до оцінювання невідомих параметрів розподілів.
курсовая работа [1,7 M], добавлен 30.04.2009