Основы теории вероятности и математической статистики

Теория вероятности, понятие вероятности события и её классификация. Понятие комбинаторики и её основные правила. Теоремы умножения вероятностей. Понятие и виды случайных величин. Задачи математической статистики. Расчёт коэффициента корреляции.

Рубрика Математика
Вид шпаргалка
Язык русский
Дата добавления 18.06.2012
Размер файла 945,2 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Вопросы

1. Что изучает теория вероятностей

2. Испытание. Событие. Классификация событий

3.Понятие вероятности события. Классическое определение вероятности

4. Относительная частота события. Статистическое определение вероятности

5. Понятие комбинаторики. Основные правила комбинаторики

6. Основные комбинаторные соединения

7. Алгебра событий

8. Условная вероятность. Теоремы умножения вероятностей

9. Теоремы сложения вероятностей. Вероятность появления хотя бы одного события

10. Формула полной вероятности

11. Вероятность гипотез. Формула Байеса

12. Формула Бернулли

13. Формула Пуассона

14. Наивероятнейшее число появления события

15. Понятие и виды случайных величин

16. Закон распределения вероятностей ДСВ. Способы задания

17. Биноминальное распределение

18. Пуассоновское распределение

19. Геометрическое распределение

20. Гипергеометрическое распределение

21. Математическое ожидание ДСВ и его свойства

22. Дисперсия ДСВ и её свойства. Формула для вычисления дисперсии. Среднее квадратическое отклонение

23. Функция распределения вероятностей и её свойства

24. Плотность распределения вероятностей и её свойства

25. Числовые характеристики НСВ

26. Равномерное распределение и его свойства

27. Показательное распределение и его свойства

28. Нормальное распределение и его свойства

29. Правило трёх сигм. Центральная предельная теорема Ляпунова

30. Закон больших чисел

31. Задачи математической статистики

32. Выборочный метод

33. Типы выборок и способы отбора

34. Вариационные ряды

35. Эмпирическая функция распределения

36. Полигон и гистограмма

37. Точечные оценки параметров распределения

38. Генеральная и выборочная средние

39. Генеральная и выборочная дисперсии

40. Оценка генеральной средней по выборочной средней

41. Оценка генеральной дисперсии по исправленной выборочной дисперсии

42. Метод моментов для точечной оценки параметров распределения

43. Метод наибольшего правдоподобия для точечной оценки параметров распределения

44. Интервальные оценки параметров распределения

45. Доверительные интервалы для параметров нормального распределения

46. Виды зависимостей между случайными величинами

47. Выборочные уравнения регрессии

48. Коэффициент корреляции

49. Линейная корреляция

50. Статистическая гипотеза

51. Виды ошибок

52. Статистический критерий. Критическая область

53. Сравнение выборочной средней с математическим ожиданием

54. Сравнение двух дисперсий нормальных генеральных совокупностей

1. Что изучает теория вероятностей

вероятность событие комбинаторика статистика

Теория вероятностей - это раздел математики, изучающий модели случайных явлений. Случайными явлениями называются явления с неопределенным исходом, происходящие при неоднократном воспроизведении определенного комплекса условий. Становление и развитие теории вероятностей связано с именами таких великих ученых, как: Кардано, Паскаль, Ферма, Бернулли, Гаусса, Чебышева, Калмогорова и многих других. Закономерности случайных явлений впервые были обнаружены в16 - 17 вв. на примере азартных игр, подобных игре в кости. Очень давно известны так же закономерности рождения и смерти. Например, известно, что вероятность новорожденному быть мальчиком ? 0,515. В 19-20 вв. было открыто большое число закономерностей в физике, химии, биологии и т. д. В настоящее время методы теории вероятностей широко применяются в различных отраслях естествознания и техники: в теории надежности, теории массового обслуживания, в теоретической физике, геодезии, астрономии, теории стрельбы, теории ошибок наблюдений, теории автоматического управления, общей теории связи и во многих других теоретических и прикладных науках. Теория вероятностей служит также для обоснования математической и прикладной статистики, которая в свою очередь используется при планировании и организации производства, при анализе технологических процессов, предупредительном и приемочном контроле качества продукции и для многих других целей. В последние годы методы теории вероятностей все шире и шире проникают в различные области науки и техники, способствуя их прогрессу.

2. Испытание. Событие. Классификация событий

Испытание - это многократное воспроизведение одного и того же комплекса условий, при котором производится наблюдение. Качественный результат испытания - событие. Пример 1: В урне имеются цветные шары. Из урны на удачу берут один шар. Испытание - извлечение шара из урны; Событие - появление шара определенного цвета. О. 2: Множество взаимоисключающих исходов одного испытания называется множеством элементарных событий или элементарных исходов. Пример 2: Игральная кость подбрасывается один раз. Испытание - подбрасывание кости; Событие - выпадение определенного числа очков. Множество элементарных исходов - {1,2,3,4,5,6}. События обозначаются заглавными буквами латинского алфавита: А1,А2,…,А,В,С,… Наблюдаемые события (явления) можно подразделить на следующие три вида: достоверные, невозможные, случайные. О. 3: Событие называется достоверным, если в результате испытания оно обязательно произойдет. О. 4: Событие называется невозможным, если в результате испытания оно никогда не произойдет. О. 5: Событие называется случайным, если в результате испытания оно может либо произойти, либо не произойти. Пример 3: Испытание - мяч подбрасывается вверх. Событие A ={мяч упадет} - достоверное; Событие B={мяч зависнет в воздухе} - невозможное; Событие C={мяч упадет на голову бросавшему} - случайное. Случайные события (явления) можно подразделить на следующие виды: совместные, несовместные, противоположные, равновозможные. О. 6: Два события называются совместными, если при одном испытании, появление одного из них не исключает появление другого. О. 7: Два события называются несовместными, если при одном испытании, появление одного из них исключает появление другого. Пример 4: Монета подбрасывается два раза. Событие A - {Первый раз выпал герб}; Событие B - {Второй раз выпал герб}; Событие C - {Первый раз выпал орел}. События A и B - совместные, A и C - несовместные. О. 8: Несколько событий образуют полную группу в данном испытании, если они попарно несовместны и в результате испытания одно из этих событий обязательно появится. Пример 5: Мальчик бросает монетку в игральный автомат. Событие A ={мальчик выиграет}; Событие B={мальчик не выиграет}; A и B - образуют полную группу событий. О. 9: Два несовместных события, образующих полную группу называются противоположными. Событие противоположное событию A обозначается . Пример 6. Делается один выстрел по мишени. Событие A - попадание; Событие - промах.

О. 10: События называются равновозможными, если есть основания считать, что одно из них не является более возможным, чем другое. Пример 7: В урне содержится 10 шаров: 5 синих и 5 красных. Наудачу извлекается один шар. Событие A ={извлеченный шар красный}; Событие B={извлеченный шар синий}; A и B - равновозможные события.

3. Понятие вероятности события. Классическое определение вероятности

1. Понятие вероятности события О. 1. Вероятностью события называется численная мера степени объективной возможности наступления события в данном испытании. Выбор числового значения вероятности в конкретной задаче осуществляется либо при обработке результатов большого количества испытаний, либо предполагается теоретически (например по свойству симметрии).2. Классическое определение вероятности и его свойства Пусть в результате испытания может наступить конечное число n равновозможных элементарных событий (исходов), причем среди них имеются m таких исходов, которые ведут к появлению события A. Эти m событий называются благоприятствующими событию A.О. 2. (классическое определение) Вероятностью P(A) события A называется отношение числа элементарных событий благоприятствующих событию A к числу всех элементарных событий:

,

где n - общее число элементарных событий, - число элементарных событий благоприятствующих событиюA. Пример 1. Даны числа от 1 до 30. Наудачу выбирается одно число. Найти вероятность того, что это число является делителем 30.Решение: n=30, А={1,2,3,5,6,10,15,30}, m=8, . Свойства вероятности. Вероятность достоверного события A равна единице, т. к; Вероятность невозможного событияA равна нулю, т. к. ; Вероятность случайного событияA есть положительное число, заключенное между нулем и единицей, т. к. 0<m<n, то . Недостатки классического определения. 1. Определение не применимо, если число элементарных исходов испытания бесконечно.

4. Относительная частота события. Статистическое определение вероятности

Часто не возможно представить результат испытания в виде совокупности элементарных событий. 3. Трудно указать основания, позволяющие считать события равновозможными. О равновозможности исходов опыта заключают из соображений симметрии. Для преодоления 3 недостатка вводятся статистические вероятности, а для преодоления 1 недостатка - геометрические (вероятности попадания точки в область). Рассмотрим более подробно понятие статистической вероятности. 3. Статистическое определение вероятности. Относительная частота события

Пусть произошло n испытаний, причем в этих испытаниях событие A появилось m раз. Число m называют абсолютной частотой события A. О. 3. Относительной частотой P*(A) события A называется отношение числа испытаний, в которых событие A появилось к общему числу проведенных испытаний

,

где n - общее число испытаний, m - число появлений событияA. Пример 2. Среди 1000 новорожденных оказалось 515. Чему равна частота рождения мальчиков. Событие A - родился мальчик. Относительная частота события A: .

Вероятность события может быть посчитана без проведения испытания, а относительная частота считается только в том случае, если испытание проведено фактически. Если в одинаковых условиях проводят опыты, в каждом из которых число испытаний достаточно велико, то относительная частота обнаруживает следующее свойство: в различных опытах относительная частота изменяется мало (тем меньше, чем больше произведено испытаний), колеблясь около некоторого постоянного числа. О. 4. (статистическое определение) Вероятностью события A в данном испытании называется число P(A), около которого группируется значения относительной частоты P*(A) при больших n Р(А)?Р*(А) прип>?. Недостатки статистического определения. Неоднозначность статистической вероятности.

5. Понятие комбинаторики. Основные правила комбинаторики

Комбинаторика изучает количества комбинаций, подчиненных определенным условиям, которые можно составить из элементов заданного конечного множества.

Использование формул комбинаторики значительно облегчает проведение расчетов в теории вероятностей. 2. Основные правила комбинаторики Пусть А12,…,Аk - это элементы заданного конечного множества. Правило суммы: Если элемент A1 можно выбрать n1 способами, A2 можно выбрать n2 способами, An можно выбрать nk способами отличными от всех предыдущих, то выбор 1-го из элементов А1,А2,…,Аk может быть осуществлен n1+n2+…+nk способами. Пример 1. В коробке 20 шаров, причем 5 из них красные, 6 синие, а остальные зеленые. Сколько существует способов извлечь из ящика 1 шар или красного или синего цвета. Решение: n1+n2=5+6=11. Правило произведения: Пусть элемент A1 можно выбрать n1 способами, после каждого такого выбора элемент A2 можно выбрать n2 способами, после (k-1) - го выбора элемент Anможно выбрать nk способами, тогда выбор всех элементов в указанном порядке может быть осуществлен n1•n2•…•nk способами. Пример 2. В конкурсе участвуют 10 человек. Для определения порядка выступления конкурсантов проводят жеребьевку. Сколькими способами можно выбрать трех человек для выступления под номерами 1,2,3. Решение: n1•n2•n3 = 10•9•8=720

6. Основные комбинаторные соединения

Пусть дано множество из n элементов. Из этого множества могут быть составлены подмножества (комбинации) по m элементов трех основных видов: 1. перестановки; 2. размещения; 3. сочетания. Перестановки (m=n) О. 1. Перестановками без повторений называют комбинации, состоящие из одних и тех же n различных элементов и отличающиеся только порядком их следования. Число всевозможных перестановок без повторений Pn=n! Пример 3. Сколько пятизначных чисел можно составить из цифр: числа 12345. Решение: О. 2. Перестановками с повторениями называются перестановки, в которых из общего числа n элементов имеется только k различных элементов, причем 1-й элемент повторяется n1 раз, 2-й элемент повторяется n2 раз, k-й элемент повторяется nk раз ().

Число всевозможных перестановок с повторениями

Пример 4. Сколько пятизначных чисел можно составить из цифр числа 12213. Решение: . Размещения и сочетания О. 3. Размещениями без повторений называют комбинации, составленные из n различных элементов по m элементов, которые отличаются либо составом элементов, либо порядком следования. Число всевозможных размещений без повторений

Пример 5. Десять студентов участвуют в конкурсе на назначение трех стипендий: президентской, губернаторской и потанинской. Причем, один человек может получить только одну стипендию. Сколько существует вариантов распределения стипендий. Решение:

О. 4. Размещениями с повторениями называются размещения, некоторые элементы (или все) которых могут оказаться одинаковыми. Число всевозможных размещений с повторениями

Пример 6. Десять студентов участвуют в конкурсе на назначение трех стипендий: президентской, губернаторской и потанинской. Причем, так как конкурс серьезный и победить в нем могут только настоящие вундеркинды, то для большего поощрения решено, что один человек может получить несколько стипендий одновременно. Сколько существует вариантов распределения стипендий. Решение: . O. 5. Сочетаниями без повторений называются комбинации, составленные из n различных элементов по m элементов, которые отличаются только составом. Число сочетаний без повторении

Пример 7. Десять студентов участвуют в конкурсе на назначение трех губернаторских стипендий. Причем один человек может получить только одну стипендию. Сколько существует вариантов распределения стипендий. Решение: . О. 6. Сочетаниями с повторениями называются сочетания некоторые элементы (или все) которых могут оказаться одинаковыми. Число всевозможных сочетаний с повторениями Пример 8. Десять студентов участвуют в конкурсе на назначение трех губернаторских стипендий. Причем, так как конкурс серьезный и победить в нем могут только настоящие вундеркинды, то для большего поощрения решено, что один человек может получить несколько стипендий одновременно. Сколько существует вариантов распределения стипендий. Решение: . Свойства сочетаний 1. ; 2. ; 3. ; 4. . Число размещений, перестановок и сочетаний связаны между собой равенством .

7. Алгебра событий

О.1: Суммой двух событий Aи B называется событие C=A+B, состоящее в появлении хотя бы одного из событий A или B. Если события Aи B совместные, то их сумма означает наступление или события A, или события B, или обоих событий Aи B. Если события Aи Bнесовместные, то их сумма означает наступление или события A, или события B. О. 2: Произведением двух событий Aи B называется событие C=AB, состоящее в одновременном появлении A и B.

Аналогично определяются сумма и произведение n событий. Свойства суммы и произведения событий: Пусть даны следующие события: 1)D - достоверное; 2) H - невозможное;

3) A - случайное; 4) - противоположное A. Тогда справедливы следующие соотношения: 1) ; 2) ; 3) ; 4) ;

5) ; 6) . Пример 8: Произведено два выстрела по мишени. Событие А={попадание при первом выстреле}; Событие В={попадание при втором выстреле}; Событие; Событие А•В={попадание ил при обоих выстрелах}

8. Условная вероятность. Теоремы умножения вероятностей

О. 1. Два события Aи B называются зависимыми, если вероятность появления каждого из них зависит от того, появилось ли другое событие или нет. О. 2. Два события Aи B называются независимыми, если вероятность появления каждого из них не зависит от того, появилось ли другое событие или нет. О. 3. Вероятности независимых событий называются безусловными. Пусть Aи B зависимые события. О.4. Условной вероятностью события B называется вероятность этого события, вычисленная в предположении, что событие A уже произошло. Обозначается или PA(B). Условная вероятность события A определяется аналогично. Теорема 1. Если Aи B независимые события, то их условные вероятности совпадают с обычными вероятностями, т. е , . Пример 1. В ящике находятся 10 красных шаров и 5 синих. Последовательно извлекают два шара. Найти вероятность того, что второй извлеченный шар синий, если: выборка осуществляется без возвращения; выборка осуществляется с возвращением. Решение: Событие A - {1-й извлеченный шар красный}; Событие B - {2-й извлеченный шар синий}.

В первом случае события Aи B зависимые, а во втором не зависимые. 1) ; 2) . Пусть даны два события Aи B и требуется найти вероятность их совместного появления. Теорема 2. Если Aи B зависимые события, то вероятность их совместного появления (произведения) равна произведению вероятности одного из этих событий на условную вероятность другого, вычисленную при условии, что первое событие произошло, т. е. , .

Следствие: Вероятность совместного появления (произведения) нескольких зависимых событий равна произведению вероятности одного из этих событий на условные вероятности всех остальных, причем вероятность каждого последующего события вычисляется в предположении, что все предыдущие уже произошли, т. е.

*.

Пример 2. В урне 10 красных, 5 синих и 3 зеленых шара. Каждое испытание состоит в том, что наудачу извлекают один шар, не возвращая его обратно. Найти вероятность того, что при первом испытании появится синий шар, при втором - красный и при третьем - зеленый шар. Решение: События зависимые. Событие A -;{1-й извлеченный шар синий} Событие B -{2-й извлеченный шар красный}; Событие C - {3-й извлеченный шар зеленый} Теорема 3. Если события Aи B независимые, то вероятность их совместного появления (произведения) равна произведению их вероятностей, т. е. . Следствие: Вероятность совместного появления (произведения) нескольких независимых событий равна произведению вероятностей данных событий, т. е.

Пример 3. В примере 2 выборка осуществляется с возвращением. Решение. События независимые

9. Теоремы сложения вероятностей. Вероятность появления хотя бы одного события

1.Теоремы сложения вероятностей Пусть даны два события Aи B требуется определить вероятность появления хотя бы одного из этих событий. Теорема 4. Если события A и B несовместные, то вероятность появления одного из этих событий (сумма) равна сумме вероятностей данных событий, т.е. Р(А+В)=Р(А)+Р(В). Следствия: Вероятность суммы нескольких несовместных событий равна сумме вероятностей этих событий, . Если события образуют полную группу событий, то сумма их вероятностей равна единице. Сумма вероятностей двух противоположных событий равна единице. Пример 4. В урне 10 красных, 5 синих и 3 зеленых шара. Наудачу извлекают один шар. Найти вероятность того, что он окажется или красным или синим. Решение: События A и B несовместные Событие A -{извлеченный шар синий}; Событие B - {извлеченный шар красный}; . Теорема 5. Если события A и B совместные, то вероятность появления хотя бы одного из этих событий (сумма) равна сумме вероятностей этих событий без вероятности их совместного появления, т. е. Р(А+В)=Р(А)+Р(В)-Р(АВ). Пример 6. Вероятность попадания в цель первого и второго стрелка соответственно равны 0,4 и 0,5. Найти вероятность попадания при одном выстреле хотя бы одного из стрелков (стрелки делают выстрел одновременно). Решение: Событие A - {1-й стрелок попал}; Событие B - {2-й стрелок попал}; . Замечание 1: При использовании этой формулы следует иметь в виду, что А и В могут быть зависимыми, так и независимыми. Для независимых событий: Р(А+В)=Р(А)+Р(В)-Р(А)Р(В). Для зависимых: Р(А+В)=Р(А)+Р(В)-Р(А)РА(В). Замечание 2: Если А и В несовместны, то их совмещение есть невозможное событие и следовательно Р(АВ)=0 и Р(А+В)=Р(А)+Р(В) и следовательно вновь получили теорему о несовместных событиях. 2. Вероятность появления хотя бы одного события В некоторых случаях вероятность события удобнее подсчитывать как вероятность противоположного другому событию. О.1 Несколько событий называются попарно независимыми, если каждые два из них независимы. Пусть события попарно независимы и их вероятности известны и равны соответственно , тогда вероятности противоположных им событий будут равны . О.2 Несколько событий называются независимыми в совокупности (или просто независимыми), если независимы каждые 2 из них и независимы каждое событие и все возможные произведения остальных. Пусть в результате испытания могут появиться n событий независимых в совокупности, причем вероятность каждого известна. Как найти вероятность того, что наступит хотя бы одно из этих событий. Теорема 6. Вероятность появления хотя бы одного из событий независимых в совокупности равна разности между единицей и произведением вероятностей противоположных событий, т.е. . Доказательство: Обозначим через А событие, состоящее в появлении хотя бы одного из событий .

События А и (ни одно из событий не наступило) противоположны, следовательно сумма их вероятностей равна 1.

Частный случай: Если события имеют одинаковую вероятность р, то вероятность появления хотя бы одного из этих событий Пример 7. Вероятность попадания в цель при стрельбе из трех орудий 0,8; 0,7; 0,9. Найти вероятность хотя бы одного попадания (событие А) при одном залпе из всех орудий. Решение: Вероятность попадания в цель каждого из орудий не зависит от результата стрельбы из других орудий, поэтому рассмотрим событие А1 (попадание первого орудия), А2 (попадание второго орудия) и А3 (попадание третьего орудия) независимы в совокупности. Если , тогда - вероятности событий противоположным событиям А1, А2, А3 (т.е. вероятности промахов). q1 = 1- 0,8 = 0,2 q2= 1- 0,7 = 0,3 q3 = 1- 0,9 = 0,1

Искомая вероятность Р(А) = 1 - q1q2q3 Р(А) = 1 - 0,2*0,3*0,1 = 0,994

10. Формула полной вероятности

Теорема. Если событие A может наступить только при условии появления одного из несовместных событий , которые образуют полную группу, то вероятность события A равна сумме произведений каждого из этих событий на соответствующие условные вероятности события A, т. е. .Док-во: по условию, событие А может наступить, если наступит одно из несовместных событий . Другими словами, появление события А означает осуществление одного, безразлично какого, из несовместных событий В1А, В2А, …, ВnА. Пользуясь теоремой сложения, получаем:

,

(*) по теореме умножения зависимых событий имеем:

Подставив эти формулы в (*), получим: Поскольку заранее не известно, какие з событий наступят, то их называют гипотезами. Пример. Имеется два набора деталей. Вероятность того, что деталь первого набора стандартная 0,8, а второго - 0,9. Найти вероятность того, что взятая наудачу деталь (из наудачу взятого набора)- стандартная. Решение. Событие А- извлеченная деталь стандартная. Деталь может быть извлечена из первого набора (событие В1), либо из второго (событие В2). Условная вероятность того, что из первого набора деталь стандартная , Что из второго набора стандартная Р(А)=0,5*0,8+0,5*0,9=)=0,85

11. Вероятность гипотез. Формула Байеса

Часто, приступая к анализу вероятностей, мы имеем предварительные значения вероятностей, интересующих нас событий. После проведения испытания эти вероятности могут несколько уточняться. Пусть произведено испытание, в результате которого появилось событие A. Необходимо найти вероятности гипотез , после того как испытание произведено, т. е. условные вероятности гипотез . Найдем сначала условную вероятность . По теореме умножения . Отсюда .Аналогично выводятся формулы остальных гипотез. В общем случае условная вероятность любой гипотезы Bi, где , определяется как . Последняя формула называется формулой Байеса. Она позволяет переоценивать вероятности гипотез после того, как становится известным результат испытания, в итоге которого появилось событие A.

Пример 1. Детали, изготовляемые цехом завода, попадают для проверки их на стандартность к одному из двух контролеров. Вероятность того, что деталь попадет к первому контролеру, равна 0.6, а ко второму - 0.4Вероятность того, что деталь будет признана стандартной первым контролером, равна 0.94, а вторым - 0.98.

Найти вероятность того, что деталь будет признана стандартной; Проверенная деталь при проверке была признана стандартной. Найти вероятность того, что она проверена первым контролером.

Решение: Событие А={деталь признана стандартной}, Гипотеза В1={деталь проверил первый контролер}, Гипотеза В2={деталь проверил второй контролер}. 1) ; 2) Т.о. до испытания значение вероятности гипотезы B1равнялось 0.6, а после проведения испытания изменилось и стало равняться .

12. Формула Бернулли

О. 1. Если проводится несколько испытаний, причем вероятность появления события A в каждом испытании не зависит от исходов других испытаний, то такие испытания называют независимыми относительно события A. Пусть проводится n независимых испытаний, в каждом из которых возможно только два исхода: либо событие A появится, либо нет.

Условимся считать, что вероятность события A в каждом испытании одна и та же и равна p. Тогда вероятность ненаступления события A в каждом испытании так же постоянна и равна 1-p=q. Выше описанная совокупность условий называется схемой независимых испытаний Бернулли. Теорема 1. Если вероятность p наступления события A в каждом из независимых испытаний постоянна, то вероятность Pn(k) того, что в n независимых испытаниях событие A появится ровно k раз, вычисляется по формуле .

Пример 1. В результате обследования были выделены семьи, имеющие по четыре ребенка. Считая вероятность появления мальчика в семье равной 0.515, определить вероятность появления в ней двух мальчиков. Решение: .

13. Формула Пуассона

Если число испытаний n достаточно велико, а вероятность появления события A в каждом испытании постоянна и равна p, причем p<0.1, то применение формулы Муавра-Лапласа становится невозможным. Теорема 1. Если вероятность p появления события A в каждом испытании стремится к нулю при неограниченном увеличении числа испытаний, причем произведение np сохраняет постоянное значение, т. е. np=a, то вероятность Pn(k) того, что в n независимых испытаниях событие A появится k раз удовлетворяет предельному равенству

(2).

Строго говоря, условие теоремы 2: р>? при n>?, нарушает исходные предпосылки в схеме независимых испытаний Бернулли, в которой p=const. Однако, если вероятность p постоянна и достаточно мала, а число n испытаний велико, причем произведение a=np незначительно, то из предельного равенства (2) можно записать приближенную формулу Пуассона: . Пример 3. Завод отправил в торговую сеть 500 изделий. Вероятность повреждения изделия в пути равна 0.002. Найти вероятность того, что при транспортировке будет повреждено три изделия. Решение: В данном случае формула Бернулли не применима, т. к. придется возводить 0. 002 в 500-ю степень. ;.

14. Наивероятнейшее число появления события

Наивероятнейшим числом k0 наступления события A в n независимых испытаниях называется число, вероятность которого, Pn(k0) по крайней мере не меньше вероятностей Pn(k) вычисленных для всех остальных k. Наивероятнейшее число k0 - наступления события A в n независимых испытаниях находится из неравенства

(1)

Т. к. , то обязательно найдется хотя бы одно целое число k0, удовлетворяющее неравенству (1). Если обе части неравенства (1) - дробные числа, то k0 - единственное целое число, расположенное между данными дробями. Если число np-q - целое, то наивероятнейших чисел будет два: k0 и k0+1. Если число np - целое, то наивероятнейшее число k0=np. Пример 1. В результате обследования были выделены семьи, имеющие по четыре ребенка. Считая вероятность появления мальчика в семье равной 0.515 найти наивероятнейшее число появления мальчиков в семье c четырьмя детьми. Решение: Т. к. n=4, p=0.515, q=0.485, то 1.575?k0?2.575. Т. е. вероятнее всего, что мальчиков будет два. Проверим это. Найдем вероятности того, что мальчиков будет 0,1,3,4.

Следовательно, вероятнее всего появление двух мальчиков.

15. Понятие и виды случайных величин

О. 1. Случайной называется величина, которая в результате испытания может принять любое заранее не известное значение из множества всевозможных значений. Пример 1. 1) Число мальчиков среди ста новорожденных детей есть случайная величина, которая может принимать значения от 0 до 100. 2) Расстояние, которое пролетит снаряд после выстрела, есть случайная величина значения, которой могут быть указаны интервалом (a,b). Обозначаются случайные величины прописными буквами X,Y,Z, а их возможные значения строчными x,y,z. Различают случайные величины двух видов: дискретные и непрерывные. О. 2. Дискретной (прерывной) называют случайную величину, возможные значения которой представляют собой множество изолированных фиксированных величин (ДСВ). Число возможных значений дискретной случайной величины может быть как конечным, так и бесконечным.

О. 3. Непрерывной называют случайную величину, которая может принимать все возможные значения из некоторого конечного или бесконечного промежутка. Число возможных значений непрерывной случайной величины является бесконечным. Пример 2. В примере 1: 1) дискретная величина; 2) непрерывная величина.

16. Закон распределения вероятностей ДСВ. Способы задания

Закон распределения вероятностей ДСВ Для того чтобы ДСВ была задана, не достаточно перечислить множество ее всевозможных значений, потому что две ДСВ могут иметь одинаковый перечень возможных значений, а вероятности принятия этих значений будут различными. О. 1. Законом распределения вероятностей (рядом распределения) ДСВ называется последовательность возможных значений дискретной случайной величины и соответствующих им вероятностей. Закон распределения вероятностей может быть задан: 1) Таблично, при этом первая строка в таблице содержит возможные значения ДСВ, а вторая - их вероятности:

X

x1

x2

xn

P

p1

p.

pn

2) Графически, для чего в прямоугольной системе координат строят точки , а затем соединяют их отрезками прямых. Полученную фигуру называют многоугольником распределения.

3) Аналитически, т.е. в виде формулы. Наиболее распространенными аналитическими выражениями являются биномиальное, пуассоновское, геометрическое и гипергеометрическое распределения вероятностей. Т. к. в одном испытании ДСВ может принять только одно значение, то множество ее всевозможных значений образует полную группу событий и сумма их вероятностей равна единице:. 2. Способы задания. 1. Биномиальное распределение 2. Пуассоновское распределение 3. Геометрическое распределение 4. Гипергеометрическое распределение

17. Биноминальное распределение

Пусть выполнены все условия схемы независимых испытаний Бернулли. Рассмотрим в качестве ДСВ X число появлений события A в этих испытаниях. Т. е. величина X может принимать значения: . Вероятности этих значений определяются по формуле Бернулли: , . О. 1. Закон распределения вероятностей ДСВ X называется биномиальным, если вероятности ее возможных значений определяются по формуле Бернулли. Пример 1. Баскетболист делает три штрафных броска. Вероятность попадания при каждом броске равна 0.7. Составить закон распределения числа попаданий мяча в корзину. Решение:

X

P

0

0.189

1

0.441

2

0.343

3

0.027

Контроль:

18. Пуассоновское распределение

Пусть в схеме независимых испытаний Бернулли число испытаний достаточно велико (n>?), а вероятность появления события A очень мала (p>?). Рассмотрим в качестве ДСВ X число появлений события A в этих испытаниях. Т. е. величина X может принимать значения: . Вероятности этих значений определяются по формуле Пуассона:

,

a=np. О. 1. Закон распределения вероятностей ДСВ X называется пуассоновским, если вероятности ее возможных значений определяются по формуле Пуассона.

19. Геометрическое распределение

Пусть выполнены все условия схемы независимых испытаний. Испытания проводятся до 1-го появления события A. Т. е. если событие A появилось в k-м (катом) испытании, то в предыдущих (k-1) испытаниях оно не появлялось. Рассмотрим в качестве ДСВ X число испытаний, которые необходимо провести до 1-го появления события A. Т. о. возможные значения величины X: . Вероятности этих значений определяются по формуле: , где k=1.2….. (1) Если в эту формулу подставить последовательно вместо k:1.2…., то получим геометрическую прогрессию с 1-м членом p и знаменателем q (): . O. 4. Закон распределения вероятностей ДСВ X называется геометрическим, если вероятности ее возможных значений определяются по формуле (1) и образуют геометрическую прогрессию. Пример 2. Игральная кость подбрасывается до первого выпадения цифры шесть. Составить закон распределения числа подбрасываний игральной кости до первого выпадения цифры шесть. Решение:

.

X

P

1

1/6

2

5/36

3

25/31

20. Гипергеометрическое распределение

Пусть имеется N элементов, среди которых M обладают свойством A. Случайным образом выбирается n элементов (выбор каждого элемента равновозможен), причем выборка осуществляется без возвращения. Рассмотрим в качестве ДСВ X количество элементов k, обладающих свойством A среди отобранных n элементов. Т. е. величина X может принимать значения: . Вероятности этих значений определяются по формуле:

,

где . (2) O. 5. Закон распределения вероятностей ДСВ X называется гипергеометрическим, если вероятности ее возможных значений определяются по формуле (2). Пример 1. Гражданин приобрел случайным образом 5акций двадцати АО. Через год 6 из 20-ти АО разорились. Составить закон распределения и построить многоугольник распределения возможного числа акций банкротов среди купленных гражданином акций. Решение:

X

P

0

1001/7752

1

3003/7752

2

2730/7752

3

910/7752

4

105/7752

5

3/7752

Контроль: 1

21. Математическое ожидание ДСВ и его свойства

1.Математическим ожиданием M(X) ДСВ x называется сумма произведений возможных значений величины на соответствующие вероятности, т. е. . Вероятностный смысл M(X): математическое ожидание приближенно равно (тем точнее, чем больше число испытаний) среднему арифметическому наблюдаемых значений случайной величины. 2.Свойства M(X): Математическое ожидание больше наименьшего и меньше наибольшего возможных значений; Если , то . Постоянный множитель можно выносить за знак математического ожидания: ; Математическое ожидание суммы случайных величин равно сумме их математических ожиданий: ; Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий: Зная лишь математическое ожидание случайной величины, еще нельзя судить ни о том, какие возможные значения она может принимать, ни о том, как они рассеяны вокруг математического ожидания.

22. Дисперсия ДСВ и её свойства. Формула для вычисления дисперсии. Среднее квадратическое отклонение

Среднее квадратическое отклонение. О. 1. Дисперсией ДСВ Х называется математическое ожидание квадрата отклонения случайной величины Х, т. е . Вероятностный смысл : дисперсия ДСВх характеризует меру рассеяния возможных значений случайной величины Х относительно ее математического ожидания (в квадратных единицах). Свойства : Всегда ; Если , то ; ,где ; Дисперсия суммы и разности независимых случайных величин равна сумме их дисперсий: . Формула для вычисления дисперсии: Дисперсия равна разности между математическим ожиданием квадрата случайной величины и квадратом ее математического ожидания:. О.2. Средним квадратическим отклонением (сигма) ДСВ называют квадратный корень из дисперсии: . Вероятностный смысл : среднее квадратическое отклонение ДСВ имеет тот же вероятностный смысл, что и дисперсия, с той лишь разницей, что измеряется в тех же единицах, что и сама величина. Частные случаи: 1. Если ДСВ имеет биномиальное распределение, то ее числовые характеристики могут быть найдены по формулам: . 2. Если ДСВ имеет геометрическое распределение, то ее числовые характеристики могут быть найдены по формулам: . 3. Если ДСВ имеет гипергеометрическое распределение, то ее числовые характеристики могут быть найдены по формулам:

2

3

10

5

0,1

0,4

0,2

0,3

Пример 1. Пусть заданы два ряда распределения ДСВ и :

4

5

7

0,2

0,6

0,2

Найти среднее квадратическое отклонение случайной величины . Решение:

;

;

;

;

;

;

.

23. Функция распределения вероятностей и её свойства

Т. к. способ задания случайных величин с помощью ряда распределения имеет место только для ДСВ, то естественно возникает вопрос: можно ли ввести общий способ задания для всех типов случайных величин? Пусть - случайная величина, а - некоторое действительное число. Вероятность события, состоящего в том, что примет значение, меньшее обозначается . Если изменяется, то изменяется и , т.е. есть функция зависящая от . О. 1. Функцией распределения вероятностей (интегральной функцией) называется функция, определяющая вероятность того, что случайная величина в результате испытания примет значение, меньшее , т.е. . Геометрически это означает, что есть вероятность того, что случайная величина примет значение, которое изображается на числовой оси точкой, расположенной слева от точки . Свойства функции : 1. Значения функции распределения принадлежат отрезку , т.е . 2. Функция неубывающая, т.е. , если . 3. Если возможные значения случайной величины принадлежат интервалу , то: 1) при ; 2) при . 4. Вероятность того, что случайная величина примет значение, заключенное в интервале , равна приращению функции распределения на этом интервале: . 5. Вероятность того, что непрерывная случайная величина примет одно определенное значение , равна нулю, т.е. .График функции распределения вероятностей ДСВ представляет собой ступенчатую фигуру, а НСВ - непрерывную линию. Причем, если речь идет о ДСВ и ее возможные значения расположить в порядке возрастания , то может быть представлена в виде:

1

4

8

0,3

0,1

0,6

Пример 1. ДСВ задана таблицей распределения: Найти функцию распределения и изобразить ее на графике. Решение:

Пример 2. НСВ задана своей функцией распределения:

Построить график функции F(x) и найти вероятность того, что в результате испытания примет значение, заключенное в интервале (1,3).

Решение: .

24. Плотность распределения вероятностей и её свойства

О.1. Плотностью распределения вероятностей (дифференциальной функцией) непрерывной случайной величины называется функция , равная первой производной от функции распределения , т.е. . Свойства функции : 1. Плотность распределения неотрицательная функция, т.е. .

2.Несобственный интеграл от плотности распределения на интервале равен единице, т.е. . 3.Если все возможные значения случайной величины принадлежат интервалу , то .4. Вероятность попадания случайной величины в интервал может быть вычислен по формуле (Ньютона-Лейбница):

.

5. Если известна плотность распределения , то функция распределения может быть найдена по формуле:

25. Числовые характеристики НСВ

Пусть непрерывная случайная величина задана плотностью распределения . Тогда аналогично ДСВ для НСВ могут быть определены числовые характеристики. О.1. Математическим ожиданием НСВ , возможные значения которой принадлежат всей оси , называют определенный интеграл: . O.2. Дисперсией НСВ , возможные значения которой принадлежат всей оси , называется значение интеграла Замечание 1. Свойства математического ожидания и дисперсии ДСВ сохраняются и для НСВ. Замечание 2. На практике для вычисления дисперсии удобно пользоваться формулой: . O.3. Средним квадратическим отклонением НСВ называется корень квадратный из дисперсии, т.е. .О.4. Модой НСВ называется такое значение этой величины, плотность вероятности которого максимальна. O.5. Медианой НСВ называется такое значение этой величины, что выполняется равенство:

.

Пример 1. НСВ задана плотностью распределения вероятностей в интервале (2,4). Вне этого интервала . Найти все числовые характеристики НСВ

26. Равномерное распределение и его свойства

О.1. Закон распределения НСВ называется равномерным, если ее плотность распределения задается в виде:

Свойства равномерного распределения 1. Зная плотность распределения, и используя формулу , можно найти функцию распределения:

Если НСВ имеет равномерное распределение, то ее числовые характеристики могут быть найдены по формулам:

3. Вероятность попадания равномерно-распределенной НСВ в интервал можно определить по формуле:

27. Показательное распределение и его свойства

О.1. Закон распределения НСВ X называется показательным, если ее плотность распределения задается в виде

,

где - параметр показательного распределения. Свойства показательного распределения: 1.Зная плотность распределения и используя формулу , можно найти функцию распределения:

2. Если НСВ имеет показательное распределение, то ее числовые характеристики могут быть найдены по формулам:

3. Вероятность попадания показательно-распределенной НСВ в интервал определяется по формуле:

,

где значения определяются по таблице. Пример 2. Время безотказной работы элемента распределено по показательному закону с параметром (интенсивность отказов). Найти среднее время безотказной работы элемента, среднее квадратическое отклонение. Найти вероятность того, что элемент проработает безотказно не менее 4 лет, но не более 10. Решение:

;

.

28. Нормальное распределение и его свойства

Нормальное распределение, также называемое гауссовским распределением или распределением Гаусса -- распределение вероятностей, которое задается функцией плотности распределения:

где параметр м -- среднее значение (математическое ожидание) случайной величины и указывает координату максимума кривой плотности распределения, а уІ -- дисперсия.

Нормальное распределение играет важнейшую роль во многих областях знаний, особенно в физике. Физическая величина, подверженная влиянию значительного числа случайных помех, часто подчиняется нормальному распределению, поэтому из всех распределений в природе чаще всего встречается нормальное (отсюда и произошло одно из его названий).

Нормальное распределение зависит от двух параметров -- смещения и масштаба, то есть является с математической точки зрения не одним распределением, а целым их семейством. Значения параметров соответствуют значениям среднего (математического ожидания) и разброса (стандартного отклонения).

Стандартным нормальным распределением называется нормальное распределение с математическим ожиданием 0 и стандартным отклонением 1.

Моделирование нормальных случайных величин

Простейшие, но неточные методы моделирования основываются на центральной предельной теореме. Именно, если сложить много независимых одинаково распределённых величин с конечной дисперсией, то сумма будет распределена примерно нормально. Например, если сложить 12 независимых базовых случайных величин, получится грубое приближение стандартного нормального распределения. Тем не менее, с увеличением слагаемых распределение суммы стремится к нормальному.

Использование точных методов предпочтительно, поскольку у них практически нет недостатков. В частности, преобразование Бокса -- Мюллера является точным, быстрым и простым для реализации методом генерации.

Центральная предельная теорема

Нормальное распределение часто встречается в природе, нормально распределёнными являются следующие случайные величины:

· отклонение при стрельбе

· ошибки при измерениях

· рост человека

Такое широкое распространение закона связано с тем, что он является предельным законом, к которому приближаются многие другие (например, биномиальный).

Доказано, что сумма очень большого числа случайных величин, влияние каждой из которых близко к 0, имеет распределение, близкое к нормальному. Этот факт является содержанием центральной предельной теоремы.

29. Правило трёх сигм. Центральная предельная теорема Ляпунова

Центральная предельная теорема Ляпунова

Теорема. Если случайная величина Х представляет собой сумму очень большого числа взаимно независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то Х имеет распределение, близкое к нормальному.

Правило трёх сигм

При рассмотрении нормального закона распределения выделяется важный частный случай, известный как правило трех сигм.

Запишем вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания меньше заданной величины D:

Если принять D = 3s, то получаем с использованием таблиц значений функции Лапласа:

Т.е. вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее квадратичное отклонение, практически равна нулю.

Это правило называется правилом трех сигм.

30. Закон больших чисел

Поскольку на практике сведения о каждой случайной величине, чаще всего, являются очень скромными и уверенно предсказать какое возможное значение она примет затруднительно, то может показаться, что нельзя установить закономерности поведения и суммы достаточно большого числа случайных величин. Оказывается, что это не так. Закон больших чисел в широком смысле - это общий принцип, согласно которому совокупное действие большого числа случайных величин приводит, при некоторых сравнительно широких условиях, к результату, почти независящему от случая, т.е. при большом числе случайных величин их средний результат перестает быть случайным и может быть предсказан с большой степенью точности. Терема 1. (неравенство Маркова) Если случайная величина X принимает только неотрицательные значения, то для любого числа выполняется неравенство: Для события , противоположного событию , неравенство Маркова может быть записано в виде: Теорема 2. (неравенство Чебышева) Вероятность того, что отклонение случайной величины X от ее математического ожидания по абсолютной величине меньше любого числа , не меньше чем , т.е. .

Для события , противоположного событию , неравенство Чебышева может быть записано в виде: . Теорема 3. (теорема Чебышева) Если - попарно независимые случайные величины, причем дисперсии их равномерно ограничены (не превышают постоянного числа C), то, как бы мало ни было , вероятность неравенства: будет как угодно близка к единице, если число случайных величин достаточно велико. Замечание 1. Теорема Чебышева утверждает, что если рассматривается достаточно большое число случайных величин, имеющих равномерно ограниченные дисперсии и являющиеся независимыми, то почти достоверным можно считать событие, состоящее в том, что отклонение среднего арифметического случайных величин от среднего арифметического их математических ожиданий будет по абсолютной величине сколь угодно малым. Теорема 4. (частный случай теоремы Чебышева) Если - попарно независимые случайные величины, имеющие одинаковые математические ожидание a, и их дисперсии равномерно ограничены (не превышают постоянного числа C), то, как бы мало ни было , вероятность неравенства:

будет как угодно близка к единице, если число случайных величин достаточно велико. Сущность теоремы Чебышева: хотя отдельные независимые случайные величины могут принимать значения, далекие от своих математических ожиданий, среднее арифметическое достаточно большого числа случайных величин с большой вероятностью принимает значения, близкие к определенному постоянному числу, а именно к числу .Другими словами, отдельные случайные величины могут иметь значительный разброс, а их среднее арифметическое рассеянно мало. Значение теоремы Чебышева для практики: При измерении некоторой физической величины производят несколько измерений и их среднее арифметическое принимают в качестве искомого размера. Теорема Чебышева указывает условия, при которых указанный способ может быть применен. На теореме Чебышева основан широко применяемый в статистике выборочный метод, суть которого состоит в том, что по сравнительно небольшой случайной выборке судят о всей совокупности исследуемых объектов. Пусть выполнены условия схемы независимых испытаний Бернулли, причем n достаточно велико. Теорема 5. (теорема Бернулли) Если в каждом из n независимых испытаний вероятность p события A постоянна, то вероятность того, что отклонение относительной частоты от вероятности p по абсолютной величине будет сколь угодно малым, будет как угодно близка к единице если число испытаний достаточно велико. Сущность теоремы Бернулли: теорема Бернулли позволяет предвидеть, какова примерно будет относительная частота появления события.

31. Задачи математической статистики

Математимческая статимстика -- наука, разрабатывающая математические методы систематизации и использования статистических данных для научных и практических выводов.

Во многих своих разделах математическая статистика опирается на теорию вероятностей, позволяющую оценить надёжность и точность выводов, делаемых на основании ограниченного статистического материала (напр., оценить необходимый объём выборки для получения результатов требуемой точности при выборочном обследовании).

Предмет и методы математической статистики

Математическая статистика -- раздел математики, разрабатывающий методы регистрации, описания и анализа данных наблюдений и экспериментов с целью построения вероятностных моделей массовых случайных явлений[1]. В зависимости от математической природы конкретных результатов наблюдений статистика математическая делится на статистику чисел, многомерный статистический анализ, анализ функций (процессов) и временных рядов, статистику объектов нечисловой природы.

Выделяют описательную статистику, теорию оценивания и теорию проверки гипотез. Описательная статистика есть совокупность эмпирических методов, используемых для визуализации и интерпретации данных (расчет выборочных характеристик, таблицы, диаграммы, графики и т. д.), как правило, не требующих предположений о вероятностной природе данных. Некоторые методы описательной статистики предполагают использование возможностей современных компьютеров. К ним относятся, в частности, кластерный анализ, нацеленный на выделение групп объектов, похожих друг на друга, и многомерное шкалирование, позволяющее наглядно представить объекты на плоскости.

Методы оценивания и проверки гипотез опираются на вероятностные модели происхождения данных. Эти модели делятся на параметрические и непараметрические. В параметрических моделях предполагается, что характеристики изучаемых объектов описываются посредством распределений, зависящих от (одного или нескольких) числовых параметров. Непараметрические модели не связаны со спецификацией параметрического семейства для распределения изучаемых характеристик. В математической статистике оценивают параметры и функции от них, представляющие важные характеристики распределений (например, математическое ожидание, медиана, стандартное отклонение, квантили и др.), плотности и функции распределения и пр. Используют точечные и интервальные оценки.


Подобные документы

  • Основные понятия комбинаторики. Определение теории вероятности. Понятие математического ожидания и дисперсии. Основные элементы математической статистики. Условная вероятность как вероятность одного события при условии, что другое событие уже произошло.

    реферат [144,6 K], добавлен 25.11.2013

  • Классификация случайных событий. Функция распределения. Числовые характеристики дискретных случайных величин. Закон равномерного распределения вероятностей. Распределение Стьюдента. Задачи математической статистики. Оценки параметров совокупности.

    лекция [387,7 K], добавлен 12.12.2011

  • Основные методы формализованного описания и анализа случайных явлений, обработки и анализа результатов физических и численных экспериментов теории вероятности. Основные понятия и аксиомы теории вероятности. Базовые понятия математической статистики.

    курс лекций [1,1 M], добавлен 08.04.2011

  • Сходимость последовательностей случайных величин. Центральная предельная теорема для независимых одинаково распределенных случайных величин. Основные задачи математической статистики, их характеристика. Проверка гипотез по критерию однородности Смирнова.

    курсовая работа [1,6 M], добавлен 13.11.2012

  • Определение вероятности наступления определенного события по законам теории вероятности. Вычисление математического ожидания, дисперсии и среднего квадратичного отклонения. Нахождение выборочного уравнения регрессии по данным корреляционной таблицы.

    контрольная работа [212,0 K], добавлен 01.05.2010

  • Предмет и метод математической статистики. Распределение непрерывной случайной величины с точки зрения теории вероятности на примере логарифмически-нормального распределения. Расчет корреляции величин и нахождение линейной зависимости случайных величин.

    курсовая работа [988,5 K], добавлен 19.01.2011

  • Возникновение теории вероятностей как науки, вклад зарубежных ученых и Петербургской математической школы в ее развитие. Понятие статистической вероятности события, вычисление наивероятнейшего числа появлений события. Сущность локальной теоремы Лапласа.

    презентация [1,5 M], добавлен 19.07.2015

  • Вероятность события. Теоремы сложения и умножения событий. Теорема полной вероятности события. Повторные независимые испытания. Формула Бернулли, формула Пуассона, формула Муавра-Лапласа. Закон распределения вероятностей случайных дискретных величин.

    контрольная работа [55,2 K], добавлен 19.12.2013

  • Изучение закономерностей массовых случайных явлений. Степень взаимосвязи теории вероятностей и статистики. Невозможные, возможные и достоверные события. Статистическое, классическое, геометрическое, аксиоматическое определение вероятности. Формула Бейеса.

    реферат [114,7 K], добавлен 08.05.2011

  • Классическая формула для вероятности события, отношение благоприятного числа исходов опыта к общему числу всех равновозможных несовместных исходов. Понятие непрерывной и дискретной случайной величины, их числовые характеристики и законы распределения.

    презентация [5,5 M], добавлен 19.07.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.