Непрерывные случайные величины. Нормальный закон распределения
Определение, доказательство свойств и построение графика функции распределения. Вероятность попадания непрерывной случайной величины в заданный интервал. Понятие о теореме Ляпунова. Плотность распределения "хи квадрат", Стьюдента, F Фишера—Снедекора.
Рубрика | Математика |
Вид | курсовая работа |
Язык | русский |
Дата добавления | 02.10.2011 |
Размер файла | 994,4 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
41
Размещено на http://www.allbest.ru/
Курсовая работа по теории вероятностей
на тему «Непрерывные случайные величины. Нормальный закон распределения»
Содержание
Историческая справка
Применение
Непрерывные случайные величины и нормальный закон распределения. Определение функции распределения
Свойства функции распределения
График функции распределения
Определение плотности распределения
Вероятность попадания непрерывной случайной величины в заданный интервал
Нахождение функции распределения по известной плотности распределения
Свойства плотности распределения
Вероятностный смысл плотности распределения
Числовые характеристики непрерывных случайных величин
Нормальное распределение
Нормальная кривая
Влияние параметров нормального распределения на форму нормальной кривой
Вероятность попадания в заданный интервал нормальной случайной величины
Вычисление вероятности заданного отклонения
Правило трех сигм
Понятие о теореме Ляпунова. Формулировка центральной предельной теоремы
Закон равномерного распределения вероятностей
Распределение «хи квадрат»
Распределение Стьюдента
Распределение F Фишера -- Снедекора
Показательное распределение
Задачи
Список литературы
Историческая справка
Теория вероятностей, подобно другим математическим наукам, развилась из потребностей практики. Начало систематического исследования задач, относящихся к массовым случайным явлениям, и появление соответствующего математического аппарата относятся к XVII веку. В начале XVII века знаменитый физик Галилей уже пытался подвергнуть научному исследованию ошибки физических измерений, рассматривая их как случайные и оценивая их вероятности. К этому же времени относятся первые попытки создания общей теории страхования, основанной на анализе закономерностей в таких массовых случайных явлениях, как заболеваемость, смертность, статистика несчастных случаев и т. д. Необходимость создания математического аппарата, специально приспособленного для обработки и обобщения обширного статистического материала во всех областях науки.
Однако теория вероятностей как математическая наука сформировалась, в основном, не на материале указанных выше практических задач: эти задачи слишком сложны; в них законы, управляющие случайными явлениями, поступают недостаточно отчетливо и затушеваны многими осложняющими факторами. Необходимо било сначала изучить закономерности случайных явлений на более простом материале. Таким материалом исторически оказались так называемые «азартные игры». Эти игры с незапамятных времен создавались рядом поколений именно так, чтобы в них исход опыта был независим от поддающихся наблюдению условий опыта, был чисто случайным. Само слово «азарт» (фр. «le hasard») означает «случай». Схемы азартных игр дают исключительные по простоте и прозрачности модели случайных явлений, позволяющие в наиболее отчетливой форме наблюдать и изучать управляющие ими специфические законы; а возможность неограниченно повторять один и тот же опыт обеспечивает экспериментальную проверку этих законов в условиях действительной массовости явлений. Вплоть до настоящего времени примеры из области азартных игр и аналогичные им задачи на «схему урн» широко употребляются при изучении теории вероятностей как упрощенные модели случайных явлений, иллюстрирующие в наиболее простом и наглядном виде основные законы и правила теории вероятностей. Возникновение теории вероятностей в современном смысле слова относится к середине XVII века и связано с исследованиями Паскаля (623--1662), Ферма (601--1665) и Гюйгенса (629--1695) в области теории азартных игр. В этих работах постепенно сформировались такие важные понятия, как вероятность и математическое ожидание; были установлены их основные свойства и приемы их вычисления. Непосредственное практическое применение вероятностные методы нашли прежде всего в задачах страхования. Уже с конца XVII века страхование стало производиться на научной математической основе. С тех пор теория вероятностей находит все более широкое применение в различных областях. Крупный шаг вперед в развитии теории вероятностей связан с работами Якова Бернулли A654--1705). Ему принадлежит первое доказательство одного из важнейших положений теории вероятностей-- так называемого закона больших чисел. Еще до Якова Бернулли многие отмечали как эмпирический факт, ту особенность случайных явлений, которую можно назвать «свойством устойчивости частот при большом числе опытов». Было неоднократно отмечено, что при большом числе опытов, исход каждого из которых является случайным, относительная частота появления каждого данного исхода имеет тенденцию стабилизироваться, вытекала и из потребностей приближаясь к некоторому определённому числу -- вероятности этого исхода. Например, если много раз бросать монету, относительная частота появления герба приближается к 1/2', при многократном бросании игральной кости частота появления грани с пятью очками приближается к 7б и т. д. Яков Бернулли впервые дал теоретическое обоснование этому эмпирическому факту. Теорема Якова Берпулла--- простейшая форма закона больших чисел--устанавливает связь между вероятностью события и частотой его появления; при достаточно большом числе опытов можно с практической достоверностью ожидать сколь угодно близкого совпадения частоты с вероятностью.
Другой важный этап в развитии теории вероятностей связан с именем Моавра (667--1754). Этот ученый впервые ввел в рассмотрение и для простейшего случая обосновал своеобразный закон, очень часто наблюдаемый в случайных явлениях: так называемый нормальный закон (иначе -- закон Гаусса). Нормальный закон, как мы увидим Далее, играет исключительно важную роль в случайных явлениях. Теоремы, обосновывающие этот закон для тех или иных условий, носят в теории предельной теоремы». Выдающаяся роль в развитии теории вероятностей принадлежит знаменитому математику Лапласу A749--1827). Он впервые дал стройное и систематическое изложение основ теории вероятностей, дал доказательство одной из форм центральной предельной теоремы (теоремы Моавра -- Лапласа) и развил ряд замечательных приложений теории вероятностей к вопросам практики, в частности к анализу ошибок наблюдений и измерений.
Значительный шаг вперед в развитии теории вероятностей связан с именем Гаусса (777--1855), который дал еще более общее обоснование нормальному закону и- разработал метод обработки экспериментальных данных, известный под названием «метода наименьших квадратов». Следует также отметить работы Пуассона (781--1840), доказавшего более общую, чем у Якова Бернулли, форму закона больших чисел, а также впервые применившего теорию вероятностей к задачам стрельбы. С именем Пуассона связан один из законов распределения, играющий большую роль в теории вероятностей и ее приложениях.
Для всего XVIII и начала XIX века характерны бурное развитие теории вероятностей и повсеместное увлечение ею. Теория вероятностей становится «модной» наукой. Ее начинают применять не только там, где это применение правомерно, но и там, где оно ничем не оправдано. Для этого периода характерны многочисленные попытки применить теорию вероятностей к изучению общественных явлений, к так называемым «моральным» или «нравственным» наукам. Во множестве появились работы, посвященные вопросам судопроизводства, истории, политики, даже аппарат теории вероятностей. Для всех этих псевдонаучных исследований характерен чрезвычайно упрощенный, механический подход к рассматриваемым в них общественным явлениям. В основу рассуждения полагаются некоторые произвольно заданные вероятности (например, при рассмотрении вопросов судопроизводства склонность каждого человека к правде или лжи оценивается некоторой постоянной, одинаковой для всех людей вероятностью), и далее общественная проблема решается как простая арифметическая задача. Естественно, что все подобные попытки были обречены на неудачу и не могли сыграть положительной роли в развитии науки. Напротив, их косвенным результатом оказалось то, что примерно в 20-х -- 30-х годах XIX века в Западной Европе повсеместное увлечение теорией вероятностей сменилось разочарованием и скептицизмом. На теорию вероятностей стали смотреть как на науку сомнительную, второсортную, род математического развлечения, вряд ли достойный серьезного изучения.
Замечательно, что именно в это время в России создается та знаменитая Петербургская математическая школа, трудами которой теория вероятностей была поставлена на прочную логическую и математическую основу и сделана надежным, точным и эффективным методом познания. Со времени появления этой школы развитие теории вероятностей уже теснейшим образом связано с работами русских, а в дальнейшем -- советских ученых. Среди ученых Петербургской математической школы следует назвать В.Я. Буняковского (804--1889) -- автора первого курса теории вероятностей на русском языке, создателя современной русской терминологии в теории вероятностей, автора оригинальных исследований в области статистики и демографии.
Учеником В.Я. Буняковского был великий русский математик П.Л. Чебышев (821 --1894). Среди обширных и разнообразных математических трудов П.Л. Чебышева заметное место занимают его труды по теории вероятностей. П.Л. Чебышеву принадлежит дальнейшее расширение и обобщение закона больших чисел. Кроме того, П.Л. Чебышев ввел в теорию вероятностей весьма мощный и плодотворный метод моментов. Учеником П.Л. Чебышева был А.А. Марков (856--1922), также обогативший теорию вероятностей открытиями и методами большой важности. А.А. Марков существенно расширил область применения закона больших чисел и центральной предельной теоремы, распространив их не только на независимые, но и на зависимые опыты. Важнейшей заслугой А.А. Маркова явилось то, что он за- заложил основы совершенно новой ветви теории вероятностей--теории случайных, или «стохастических», процессов. Развитие этой теории составляет основное содержание новейшей, современной теории вероятностей. богословия, в которых применялся Учеником П.Л. Чебышева был и А.М. Лепунов (857--1918), с именем которого связано первое доказательство центральной предельной теоремы при чрезвычайно общих условиях. Для доказательства своей теоремы А.М. Ляпунов разработал специальный метод характеристических функций, широко применяемый в современной теории вероятностей. Характерной особенностью работ Петербургской математической школы была исключительная четкость постановки задач, полная математическая строгость применяемых методов и наряду с этим тесная связь теории с непосредственными требованиями практики. Трудами ученых Петербургской математической школы теория вероятностей была выведена с задворков науки и поставлена как полноправный член в ряд точных математических наук. Условия применения ее методов были строго определены, а самые методы доведены до высокой степени совершенства. Современное развитие теории вероятностей характерно всеобщим подъемом интереса к ней и резким расширением круга ее практических применений.
За последние десятилетия теория вероятностей превратилась в одну из наиболее быстро развивающихся наук, теснейшим образом связанную с потребностями практики и техники. Советская школа теории вероятностей, унаследовав традиции Петербургской математической школы, занимает в мировой науке ведущее место. Здесь мы назовем только некоторых крупнейших советских ученых, труды которых сыграли решающую роль в развитии современной теории вероятностей и ее практических приложений. С.Н. Бернштейн разработал первую законченную аксиоматику теории вероятностей, а также существенно расширил область применения предельных теорем. А.Я. Хинчин A894--1959) известен своими исследованиями в области дальнейшего обобщения и усиления закона больших чисел, но главным образом своими исследованиями в области так называемых стационарных случайных процессов. Ряд важнейших основополагающих работ в различных областях теории вероятностей и математической статистики принадлежит А.Н. Колмогорову. Он дал наиболее совершенное аксиоматическое построение теории вероятностей, связав ее с одним из важнейших разделов современной математики--метрической теорией функций. Особое значение имеют работы А.Н. Колмогорова в области теории случайных функций (стохастических процессов), которые в настоящее время являются основой всех исследований в данной области. Работы AH. Колмогорова, относящиеся к оценке эффективности легли в основу целого нового научного направления в теории стрельбы, переросшего затем в более широкую науку об эффективности боевых действий. В.И. Романовский A879--1954) и Н.В. Смирнов известны своими работами в области математической статистики, Е.Е.Слуцкий A880 -- 1948) -- в теории случайных процессов, Б.В. Гнеденко--* в области теории массового обслуживания, Е.Б. Дынкин -- в области марковских случайных процессов, В.С. Пугачев -- в области случайных процессов в применении к задачам автоматического управления.
Развитие зарубежной теории вероятностей б настоящее время также идет усиленными темпами в связи с настоятельными требованиями практики. Преимущественным вниманием пользуются, как и у нас, вопросы, относящиеся к случайным процессам. Значительные работы в этой области принадлежат, например, Н. Винеру, В. Фуллеру, Д. Дубу. Важные работы по теории вероятностей и математической статистике принадлежат Р. Фишеру, Д. Нейману и Г. Крамеру. За самые последние годы мы являемся свидетелями зарождения новых и своеобразных методов прикладной теории вероятностей, появление которых связано со спецификой исследуемых технических проблем. Речь идет, в частности, о таких новых дисциплинах, как «теория информации» и «теория массового обслуживания». Возникшие из непосредственных потребностей практики, эти разделы теории вероятностей приобретают общее теоретическое значение, а круг их приложений быстро увеличивается.
Применение
Одним из наиболее часто встречающихся распределений является нормальное распределение. Оно играет большую роль в теории вероятностей и занимает среди других распределений особое положение. Нормальный закон распределения является предельным законом, к которому приближаются другие законы распределения при часто встречающихся аналогичных условиях.
Если предоставляется возможность рассматривать некоторую случайную величину как сумму достаточно большого числа других случайных величин, то данная случайная величина обычно подчиняется нормальному закону распределения. Суммируемые случайные величины могут подчиняться каким угодно распределениям, но при этом должно выполняться условие их независимости (или слабой зависимости). При соблюдении некоторых не очень жестких условий указанная сумма случайных величин подчиняется приближенно нормальному закону распределения и тем точнее, чем большее количество величин суммируется.
Ни одна из суммируемых случайных величин не должна резко отличаться от других, т. е. каждая из них должна играть в общей сумме примерно одинаковую роль и не иметь исключительно большую по сравнению с другими величинами дисперсию.
Для примера рассмотрим изготовление некоторой детали на станке-автомате. Размеры изготовленных деталей несколько отличаются от требуемых. Это отклонение размеров от стандарта вызывается различными причинами, которые более или менее независимы друг от друга. К ним могут относиться: неравномерный режим обработки детали; неоднородность обрабатываемого материала; неточность установки заготовки в станке; износ режущего инструмента и деталей станков; упругие деформаций узлов станка; состояние микроклимата в цехе; колебание напряжения в электросети и т. д. Каждая из перечисленных и подобных им причин влияет на отклонение размера изготовляемой детали от стандарта. Таким образом, общее отклонение размера, фиксируемое измерительным прибором, является суммой большего числа отклонений, обусловленных различными причинами. Если ни одна из этих причин не является доминирующей, то суммарное отклонение является случайной величиной, имеющей нормальный закон распределения.
Непрерывные случайные величины и нормальный закон распределения. Определение функции распределения
Непрерывной называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Очевидно, число возможных значений непрерывной случайной величины бесконечно.
Пусть х--действительное число. Вероятность события, состоящего в том, что X примет значение, меньшее х, т. е. вероятность события X < х, обозначим через F (х). Разумеется, если х изменяется, то, вообще говоря, изменяется и F(x), т.е. F (х)--функция от х.
Функцией распределения называют функцию F(x), определяющую вероятность того, что случайная величина X в результате испытания примет значение, меньшее х, т. е.
F(x)=P(X < х).
Геометрически это равенство можно истолковать так: F (х) есть вероятность того, что случайная величина примет значение, которое изображается на числовой оси точкой, лежащей левее точки х.
Иногда вместо термина «функция распределения» используют термин «интегральная функция».
Теперь можно дать более точное определение непрерывной случайной величины: случайную величину называют непрерывной, если ее функция распределения есть непрерывная, кусочно-дифференцируемая функция с непрерывной производной.
Свойства функции распределения
Свойство 1. Значения функции распределения принадлежат отрезку [О, 1]:
0 F (х) 1.
Доказательство. Свойство вытекает из определения функции распределения как вероятности: вероятность всегда есть неотрицательное число, не превышающее единицы.
Свойство 2. F (х)--неубывающая функция, т. е.
F (x2) F (х1), если х2 > х1.
Доказательство. Пусть х2 > х1. Событие, состоящее в том, что X примет значение, меньшее х2, можно подразделить на следующие два несовместных события: 1) X примет значение, меньшее х1, с вероятностью Р (X < x1); 2) X примет значение, удовлетворяющее неравенству x1Xx2, с вероятностью Р (x1Xx2). По теореме сложения имеем
Р (X < х2) = Р (X < х1) + Р (x1Xx2).
Отсюда
Р (X < х2) - Р (X < х1)= Р (x1Xx2),
или
F (x2)--F (x1) = Р (x1Xx2).
Так как любая вероятность есть число неотрицательное, то F(x2) -- F(x1)0, или F (x2) F (x1), что и требовалось доказать.
Следствие 1. Вероятность того, что случайная величина примет значение, заключенное в интервале (а, b), равна приращению функции распределения на этом интервале:
P(aX<b)=F(b)--F(a).
Это важное следствие вытекает из формулы, если положить х2=b и х1= а.
Следствие 2. Вероятность того, что непрерывная случайная величина X примет одно определенное значение, равна нулю.
Действительно, положив в формуле а = х1, b = х1+, имеем
P(х1 X<х1+)=F(х1+)-F(х1).
Устремим к нулю. Так как X -- непрерывная случайная величина, то функция F (х) непрерывна. В силу непрерывности F (х) в точке х1 разность F (х1+)-- F (x1) также стремится к нулю; следовательно, Р (X =х1) = 0. Используя это положение, легко убедиться в справедливости равенств
Р (а X < b) = Р (а < X < b) = Р(а<Хb) = Р(аХb). (***)
Например, равенство Р(а<Хb) = Р (а < X < b) доказывается так:
Р(а<Хb) = Р (а < X < b)+P(X=b)= Р(а<Х<b).
Таким образом, не представляет интереса говорить о вероятности того, что непрерывная случайная величина примет одно определенное значение, но имеет смысл рассматривать вероятность попадания ее в интервал, пусть даже сколь угодно малый. Этот факт полностью соответствует требованиям практических задач. Например, интересуются вероятностью того, что размеры деталей не выходят за дозволенные границы, но не ставят вопроса о вероятности их совпадения с проектным размером.
Заметим, что было бы неправильным думать, что равенство нулю вероятности Р (X =х1) означает, что событие Х=х1 невозможно (если, конечно, не ограничиваться классическим определением вероятности). Действительно, в результате испытания случайная величина обязательно примет одно из возможных значений; в частности, это значение может оказаться равным х1.
Свойство 3. Если возможные значения случайной величины принадлежат интервалу (а, b), то: 1) F(x) = 0 при х а; 2) F(x)=1 при х b.
Доказательство. 1) Пусть x1 a. Тогда событие X < х1 невозможно (так как значений, меньших х1, величина X по условию не принимает) и, следовательно, вероятность его равна нулю.
2) Пусть х2 b. Тогда событие X < х2 достоверно (так как все возможные значения X меньше х2) и, следовательно, вероятность его равна единице.
Следствие. Если возможные значения непрерывной случайной величины расположены на всей оси х, то справедливы следующие предельные соотношения:
График функции распределения
Доказанные свойства позволяют представить, как выглядит график функции распределения непрерывной случайной величины.
График расположен в полосе, ограниченной прямыми y = 0, у=1 (первое свойство).
При возрастании х в интервале (а,b), в котором заключены все возможные значения случайной величины, график «подымается вверх» (второе свойство).
При х а ординаты графика равны нулю; при x b ординаты графика равны единице (третье свойство).
График функции распределения непрерывной случайной величины изображен на рис. 2.
Определение плотности распределения
Выше непрерывная случайная величина задавалась с помощью функции распределения. Этот способ задания не является единственным. Непрерывную случайную величину можно также задать, используя другую функцию, которую называют плотностью распределении или плотностью вероятности (иногда ее называют дифференциальной функцией).
Плотностью распределения вероятностей непрерывной случайной величины X называют функцию f (х)-- первую производную от функции распределения F (х):
f (х) = F' (х).
Из этого определения следует, что функция распределения является первообразной для плотности распределения.
Вероятность попадания непрерывной случайной величины в заданный интервал
Зная плотность распределения, можно вычислить вероятность того, что непрерывная случайная величина примет значение, принадлежащее заданному интервалу. Вычисление основано на следующей теореме.
Теорема. Вероятность того, что непрерывная случайная величина X примет значение, принадлежащее интервалу (а, b), равна определенному интегралу от плотности распределения, взятому в пределах от а до b:
Р(а<Х<b) =
Доказательство. Используем соотношение (**) (см. гл. X, § 2)
Р(а Х<b) = F(b) -- F(a).
По формуле Ньютона -- Лейбница,
F(b) -- F(a)=.
Таким образом,
Р(а Х<b) =
Так как Р(а Х<b) = Р(а<Х<b),то окончательно получим
Р(а<Х<b) = (*)
Геометрически полученный результат можно истолковать так: вероятность того, что непрерывная случайная величина примет значение, принадлежащее интервалу (а,b), равна площади криволинейной трапеции, ограниченной осью Ох, кривой распределения f (х) и прямыми х =а и х=b.
Замечание. В частности, если f (х) -- четная функция и концы интервала симметричны относительно начала координат, то
Р(-а<Х<a) = Р(|Х|<a) =2
Нахождение функции распределения по известной плотности распределения
Зная плотность распределения f(х), можно найти функцию распределения F (х) по формуле
F(x) =
Действительно, мы обозначили через F (х) вероятность того, что случайная величина примет значение, меньшее х, т. е.
F(x) = P(X<x).
Очевидно, неравенство X < х можно записать в виде двойного неравенства -< X < х, следовательно,
F(х)=Р(-< X < х) (*)
Полагая в формуле (*) (см. § 2) а=-, b = х, имеем
Р(-< X < х) =
Наконец, заменив Р (-< X < х) на F (х), в силу (*), окончательно получим
F(x) =
Таким образом, зная плотность распределения, можно найти функцию распределения. Разумеется, по известной функции распределения может быть найдена плотность распределения, а именно:
f(x)=Г'(x).
Свойства плотности распределения
Свойство 1. Плотность распределения--неотрицательная функция:
f(x) 0.
Доказательство. Функция распределения -- неубывающая функция, следовательно, ее производная F'(х)=f(х)--функция неотрицательная.
Геометрически это свойство означает, что точки, принадлежащие графику плотности распределения, расположены либо над осью Ох, либо на этой оси.
График плотности распределения называют кривой распределения.
Свойство 2. Несобственный интеграл от плотности распределения в пределах от - до равен единице:
Доказательство. Несобственный интеграл выражает вероятность события, состоящего в том, что случайная величина примет значение, принадлежащее интервалу (-,). Очевидно, такое событие достоверно, следовательно, вероятность его равна единице.
Геометрически это означает, что вся площадь криволинейной трапеции, ограниченной осью Ох и кривом распределения, равна единице.
В частности, если все возможные значения случайной величины принадлежат интервалу (а, b), то
Вероятностный смысл плотности распределения
Пусть F (х)--функция распределения непрерывной случайной величины X. По определению плотности распределения, f (х) = F' (х), или в иной форме
Как уже известно, разность F(x+x)-- F (х) определяет вероятность того, что X примет значение, принадлежащее интервалу (х, x+x). Таким образом, предел отношения вероятности того, что непрерывная случайная величина примет значение, принадлежащее интервалу (х,x+x), к длине этого интервала (при x0) равен значению плотности распределения в точке х.
По аналогии с определением плотности массы в точке (Если масса непрерывно распределена вдоль оси х по некоторому закону, например F (х), то плотностью р (х) массы в точке х называют предел отношения массы интервала (х, х+ х) к длине интервала при , т. е. р (х) = целесообразно рассматривать значение функции f (х) в точке x; как плотность вероятности в этой точке.
Итак, функция f(x) определяет плотность распределения вероятности для каждой точки х.
Из дифференциального исчисления известно, что приращение функции приближенно равно дифференциалу функции, т. е.
F ( х+ х) -- F (х) dF (х),
или
F ( х+ х) -- F (х) F' dх.
Так как F'(x) = f(x) и dx= х, то
F ( х+ х) -- F (х) f(x) х.
Вероятностный смысл этого равенства таков: вероятность того, что случайная величина примет значение, принадлежащее интервалу (х, х + х), приближенно равна (с точностью до бесконечно малых высшего порядка относительно х) произведению плотности вероятности в точке х на длину интервала х.
Геометрически этот результат можно истолковать так: вероятность того, что случайная величина примет значение, принадлежащее интервалу (х, х+ х), приближенно равна площади прямоугольника с основанием х; и высотой f (х).
На рис. 5 видно, что площадь заштрихованного прямоугольника, равная произведению f(x)х, лишь приближенно равна площади криволинейной трапеции (истинной вероятности, определяемой определенным интегралом ). Допущенная при этом погрешность равна площади криволинейного треугольника ABC.
Числовые характеристики непрерывных случайных величин
Пусть непрерывная случайная величина X задана плотностью распределения f(x). Допустим, что все возможные значения X принадлежат отрезку [а, b]. Разобьем этот отрезок на п частичных отрезков длиной ,,..., и выберем в каждом из них произвольную точку xi (i = 1, 2, ..., п). Нам надо определить математическое ожидание непрерывной величины; составим сумму произведений возможных значений xi на вероятности попадания их в интервал ; (напомним, что произведение f(х) приближенно равно вероятности попадания X в интервал ):
Перейдя к пределу при стремлении к нулю длины наибольшего из частичных отрезков, получим определенный интеграл
Математическим ожиданием непрерывной случайной величины- X, Возможные значения которой принадлежат отрезку [a,b], называют определенный интеграл
M(X)= (*)
Если возможные значения принадлежат всей оси Ох, то
M(X)=
Предполагается, что несобственный интеграл сходится абсолютно, т. е. существует интеграл Если бы это требование не выполнялось, то значение интеграла зависело бы от скорости стремления (в отдельности) нижнего предела к --, а верхнего--к +.
Дисперсией непрерывной случайной величины называют математическое ожидание квадрата ее отклонения.
Если возможные значения X принадлежат отрезку[a,b], то
D(X)=
если возможные значения принадлежат всей оси х, то
D(X)=
Среднее квадратическое отклонение непрерывной случайной величины определяется равенством
s(X)=.
Замечание 1. Можно доказать, что свойства математического ожидания и дисперсии дискретных величин сохраняются и для непрерывных величин.
Замечание 2. Легко получить для вычисления дисперсии более удобные формулы:
D(X)= (**)
D(X)=
Замечание 3. Математическое ожидание и дисперсия случайной величины R, распределенной равномерно в интервале (0, 1), т. е. если a = 0, b=1, как следует из примера 2, соответственно равны М (R) = 1/2, D(R)=l/12. Этот же результат мы получили в примере 1 по заданной функции распределения случайной величины R.
Нормальное распределение
Нормальным называют распределение вероятностей непрерывной случайной величины, которое описывается плотностью
Мы видим, что нормальное распределение определяется двумя параметрами: а и s. Достаточно знать эти параметры, чтобы задать нормальное распределение. Покажем, что вероятностный смысл этих параметров таков: а есть математическое ожидание, s--среднее квадратическое отклонение нормального распределения.
а) По определению математического ожидания непрерывной случайной величины,
M(X)=
Введем новую переменную z = (x--а)/--s. Отсюда x=--sz+a, dx=--sdz. Приняв во внимание, что новые пределы интегрирования равны старым, получим
M(X)=
Первое из слагаемых равно нулю (под знаком интеграла нечетная функция; пределы интегрирования симметричны относительно начала координат). Второе из слагаемых равно a ( интеграл Пуассона ).
Итак, М(Х) = а, т. е. математическое ожидание нормального распределения равно параметру а.
б) По определению дисперсии непрерывной случайной величины, учитывая, что М(Х) = а, имеем
D(X)=
Введем новую переменную z = (x--а)/--s. Отсюда х--a = sz, dx = s_dz. Приняв во внимание, что новые пределы интегрирования равны старым, получим
D(X)=
Интегрируя по частям, положив u = z, dv=, найдем
D(X)=--s2.
Следовательно,
s(X)=.
Итак, среднее квадратическое отклонение нормального распределения равно параметру s.
Замечание 1. Общим называют нормальное распределение с произвольными параметрами а и s (s > 0).
Нормированным называют нормальное распределение с параметрами а = 0 и s=1. Например, если X -- нормальная величина с параметрами а и s, то U =(X -- а)/--s -- нормированная нормальная величина, причем M(U)=0, s(U)=1.
Плотность нормированного распределения
Эта функция табулирована (см. приложение 1).
Замечание 2. Функция F(х) общего нормального распределения (см. гл. XI, § 3)
а функция нормированного распределения
Функция Fo (x) табулирована. Легко проверить, что
F(x)=F0((x-a)/ s).
Замечание 3. Вероятность попадания нормированной нормальной величины X в интервал (0, х) можно найти, пользуясь функцией Лапласа Действительно,
P(0<X<x)=
Замечание 4. Учитывая, что , и, следовательно, в силу симметрии j(х) относительно нуля
, а значит, и Р (- < X < 0)=0,5,
легко получить, что
F0(x)=0,5+(x).
Действительно,
F0(x)=P(-<X<x)=P(-<X<0)+P(0<X<x)=0,5+(x).
Нормальная кривая
График плотности нормального распределения называют нормальной кривой (кривой Гаусса). Исследуем функцию
y=
методами дифференциального исчисления.
1. Очевидно, функция определена на всей оси х.
2. При всех значениях х функция принимает положительные значения, т. е. нормальная кривая расположена над осью Ох.
3. Предел функции при неограниченном возрастании х (по абсолютной величине) равен нулю: , т. е. ось Ох служит горизонтальной асимптотой графика.
4.Исследуем функцию на экстремум. Найдем первую производную:
Легко видеть, что у' = 0 при х = а, у' > 0 при х < а, у' < 0 при х> а.
Следовательно, при х = а функция имеет максимум, равный
5.Разность х--а содержится в аналитическом выражении функции в квадрате, т. е. график функции симметричен относительно прямой х= а.
6.Исследуем функцию на точки перегиба. Найдем вторую производную:
Легко видеть, что при х = а+s и х= а----s вторая производная равна нулю, а при переходе через эти точки она меняет знак (в обеих этих точках значение функции равно 1/(e)). Таким образом, точки графика (а----s, 1/(e)) и (а + s, 1/(e)) являются точками перегиба.
На рис. 7 изображена нормальная кривая при а=1,--s=--2
Влияние параметров нормального распределения на форму нормальной кривой
Выясним, как влияют на форму и расположение нормальной кривой значения параметров а и s.
Известно, что графики функций f (х) и f (х--а) имеют одинаковую форму; сдвинув график f (х) в положительном направлении оси х на а единиц масштаба при а >0 или в отрицательном направлении при а < 0, получим график f(х--а). Отсюда следует, что изменение величины параметра а (математического ожидания) не изменяет формы нормальной кривой, а приводит лишь к ее сдвигу вдоль оси Ох: вправо, если а подрастает, и влево, если а убывает.
По-иному обстоит дело, если изменяется параметр s (среднее квадратическое отклонение). Как было указано в предыдущем параграфе, максимум дифференциальной функции нормального распределения равен 1/(). Отсюда следует, что с возрастанием s максимальная ордината нормальной кривой убывает, а сама кривая становится более пологой, т. е. сжимается к оси Ох; при убывании s нормальная кривая становится более «островершинной» и растягивается в положительном направлении оси Оу.
Подчеркнем, что при любых значениях параметров а и s площадь, ограниченная нормальной кривой и осью х, остается равной единице (см. второе свойство плотности распределения).
На рис. 8 изображены нормальные кривые при различных значениях ? и а = 0. Чертеж наглядно иллюстрирует, как изменение параметра ? сказывается на форме нормальной кривой.
Заметим, что при а = О и s = 1 нормальную кривую называют нормированной.
Вероятность попадания в заданный интервал нормальной случайной величины
Уже известно, что если случайная величина X задана плотностью распределения f (х), то вероятность того, что X примет значение, принадлежащее интервалу (a,b), такова:
P(a<X<b)=
Пусть случайная величина X распределена по нормальному закону. Тогда вероятность того, что X примет значение, принадлежащее интервалу (a,b), равна
P(a<X<b)=
Преобразуем эту формулу так, чтобы можно было пользоваться готовыми таблицами. Введем новую переменную z = (x--а)/--s. Отсюда x = sz+a, dx = sdz . Найдем новые пределы интегрирования. Если х= a, то z=( a-a)/--s; если х = b , то z = (b-а)/--s.
Таким образом, имеем
Пользуясь функцией Лапласа
окончательно получим
(*)
Вычисление вероятности заданного отклонения
Часто требуется вычислить вероятность того, что отклонение нормально распределенной случайной величины X по абсолютной величине меньше заданного положительного числа d, т. е. требуется найти вероятность осуществления неравенства |Х-- а|<--d.
Заменим это неравенство равносильным ему двойным неравенством
-- d <Х -- а<--d, или а -- d < X<a+--d.
Пользуясь формулой (*) (см. § 5), получим
Приняв во внимание равенство
Ф( ----d /--s) = --Ф(d /--s )
(функция Лапласа -- нечетная), окончательно имеем
Р (| X -- а |< d) = 2Ф (d /--s).
В частности, при а = 0
Р (| X |< d) = 2Ф (d /--s).
На рис. 9 наглядно показано, что если две случайные величины нормально распределены и а=О, то вероятность принять значение, принадлежащее интервалу (--d,d), больше у той величины, которая имеет меньшее значение s. Этот факт полностью соответствует вероятностному смыслу параметра s (s есть среднее квадратическое отклонение; оно характеризует рассеяние случайной величины вокруг ее математического ожидания).
Замечание. Очевидно, события, состоящие в осуществлении неравенств | X -- а|<d и |Х--а|d, -- противоположные. Поэтому, если вероятность осуществления неравенства | X -- а| < d равна р, то вероятность неравенства |Х--а|d равна 1--р.
Правило трех сигм
Преобразуем формулу (см. § 6)
Р (| X -- а |< d) = 2Ф (d /--s),
положив d = st. В итоге получим
Р (| X -- а |< st) = 2Ф (t).
Если t = 3 и, следовательно, st =3--s, то
Р (| X--а |< 3--s) = 2Ф (3) = 2 * 0,49865 = 0,9973,
т, е. вероятность того, что отклонение по абсолютной величине будет меньше утроенного среднего квадратического отклонения, равна 0,9973.
Другими словами, вероятность того, что абсолютная величина отклонения превысит утроенное среднее квадратическое отклонение, очень мала, а именно равна 0,0027. Это означает, что лишь в 0,27% случаев так может произойти. Такие события исходя из принципа невозможности маловероятных событий можно считать практически невозможными. В этом и состоит сущность правила трех сигм: если случайная величина распределена нормально, то абсолютная величина ее отклонения от математического ожидания не превосходит утроенного среднего квадратического отклонения.
На практике правило трех сигм применяют так: если распределение изучаемой случайной величины неизвестно, но условие, указанное в приведенном правиле, выполняется, то есть основание предполагать, что изучаемая величина распределена нормально; в противном случае она не распределена нормально.
Понятие о теореме Ляпунова. Формулировка центральной предельной теоремы
Известно, что нормально распределенные случайные величины широко распространены на практике. Чем это объясняется? Ответ на этот вопрос был дан выдающимся русским математиком А.М. Ляпуновым (центральная предельная теорема): если случайная величина X представляет собой сумму очень большого числа взаимно независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то X имеет распределение, близкое к нормальному.
Пример. Пусть производится измерение некоторой физической величины. Любое измерение дает лишь приближенное значение измеряемой величины, так как на результат измерения влияют очень многие независимые случайные факторы (температура, колебания прибора, сложность, и др.). Каждый из этих факторов порождает ничтожную «частную ошибку». Однако, поскольку число этих факторов очень велико, их совокупное действие порождает уже заметную «суммарную ошибку».
Рассматривая суммарную ошибку как сумму очень большого числа взаимно независимых частных ошибок, мы вправе заключить, что суммарная ошибка имеет распределение, близкое к нормальному. Опыт подтверждает справедливость такого заключения.
Приведем формулировку центральной предельной теоремы, которая устанавливает условия, при которых сумма большого числа независимых слагаемых имеет распределение, близкое к нормальному.
Пусть Х1, Х2, ..., Хn,,…- последовательность независимых случайных величин, каждая из которых имеет конечные математическое ожидание и дисперсию:
M(Xk)=ak, D(Xk)=.
Введем обозначения:
Sn = X1 + X2+ . . . +Хn, An=,
Обозначим функцию распределения нормированной суммы через
Fn(x)=P
Говорят, что к последовательности Х1, Х2, ... применима центральная предельная теорема, если при любом x функция распределения нормированной суммы при п стремится к нормальной функции распределения:
В частности, если все случайные величины X1, Х2,... одинаково распределены, то к этой последовательности применима центральная предельная теорема, если дисперсии всех величин Xi (i= 1, 2, ...) конечны и отличны от нуля. А.М. Ляпунов доказал, что если для ?> 0 при потношение Ляпунова
стремится к нулю (условие Ляпунова), то к последовательности Х1, Х2,… применима центральная предельная теорема.
Сущность условия Ляпунова состоит в требовании, чтобы каждое слагаемое суммы (Sn -- Ап)/Вп оказывало на сумму ничтожное влияние.
Замечание. Для доказательства центральной предельной теоремы А. М. Ляпунов использовал аппарат характеристических функций. Характеристической функцией случайной величины X называют функцию j(t)=M[eitX].
Для дискретной случайной величины X с возможными значениями хk, и их вероятностями рk характеристическая функция
Для непрерывной случайной величины X с плотностью распределения f(х) характеристическая функция
Можно доказать, что характеристическая функция суммы независимых случайных величин равна произведению характеристических функций слагаемых.
Законы распределений непрерывной случайной величины
Закон равномерного распределения вероятностей
При решении задач, которые выдвигает практика, приходится сталкиваться с различными распределениями непрерывных случайных величин. Плотности распределений непрерывных случайных величин называют также законами распределений. Часто встречаются, например, законы равномерного, нормального и показательного распределений.
Распределение вероятностей называют равномерным, если на интервале, которому принадлежат все возможные значения случайной величины, плотность распределения сохраняет постоянное значение.
Приведем пример равномерно распределенной непрерывной случайной величины.
Пример. Шкала измерительного прибора проградуирована в некоторых единицах. Ошибку при округлении отсчета до ближайшего целого деления можно рассматривать как случайную величину X, которая может принимать с постоянной плотностью вероятности любое значение между двумя соседними целыми делениями. Таким образом, X имеет равномерное распределение.
Подобные документы
Вероятность попадания случайной величины Х в заданный интервал. Построение графика функции распределения случайной величины. Определение вероятности того, что наудачу взятое изделие отвечает стандарту. Закон распределения дискретной случайной величины.
контрольная работа [104,7 K], добавлен 24.01.2013Плотность распределения непрерывной случайной величины. Характеристика особенностей равномерного и нормального распределения. Вероятность попадания случайной величины в интервал. Свойства функции распределения. Общее понятие о регрессионном анализе.
контрольная работа [318,9 K], добавлен 26.04.2013История открытия нормального закона, его применение в науке и технике. Вероятность попадания случайной величины, подчиненной нормальному закону, на заданный участок. Нормальная функция распределения. Геометрическая интерпретация вероятного отклонения.
контрольная работа [506,3 K], добавлен 21.04.2019Определение вероятности попадания в мишень по формуле Бернулли. Закон и многоугольник распределения случайной величины. Построение функции распределения, графика. Математическое ожидание, дисперсия, среднее квадратическое отклонение случайной величины.
контрольная работа [86,4 K], добавлен 26.02.2012Определение вероятности для двух несовместных и достоверного событий. Закон распределения случайной величины; построение графика функции распределения. Нахождение математического ожидания, дисперсии, среднего квадратичного отклонения случайной величины.
контрольная работа [97,1 K], добавлен 26.02.2012Описание случайных ошибок методами теории вероятностей. Непрерывные случайные величины. Числовые характеристики случайных величин. Нормальный закон распределения. Понятие функции случайной величины. Центральная предельная теорема. Закон больших чисел.
реферат [146,5 K], добавлен 19.08.2015Понятия теории вероятностей и математической статистики, применение их на практике. Определение случайной величины. Виды и примеры случайных величин. Закон распределения дискретной случайной величины. Законы распределения непрерывной случайной величины.
реферат [174,7 K], добавлен 25.10.2015Непрерывная случайная величина и функция распределения. Математическое ожидание непрерывной случайной величины. Среднее квадратичное отклонение. Кривая распределения для непрерывной случайной величины. Понятие однофакторного дисперсионного анализа.
контрольная работа [165,5 K], добавлен 03.01.2012Функция распределения непрерывной случайной величины. Математическое ожидание непрерывной случайной величины, плотность распределения вероятностей системы. Ковариация. Коэффициент корреляции.
лабораторная работа [52,3 K], добавлен 19.08.2002Случайные величины. Функция и плотность распределения вероятностей дискретной случайной величины. Сингулярные случайные величины. Математическое ожидание случайной величины. Неравенство Чебышева. Моменты, кумулянты и характеристическая функция.
реферат [244,6 K], добавлен 03.12.2007