Закон распределения вероятности

Среднее арифметическое (математическое ожидание). Дисперсия и среднеквадратическое отклонение случайной величины. Третий центральный момент и коэффициент асимметрии. Законы распределения. Построение гистограммы. Критерий Пирсона. Доверительный интервал.

Рубрика Математика
Вид курсовая работа
Язык русский
Дата добавления 29.03.2013
Размер файла 327,1 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Введение

Измерения - один из важнейших путей познания природы, дают количественную характеристику окружающего нас мира. Круг величин, подлежащих измерению, определяется разнообразием явлений, с которыми приходится сталкиваться человеку. Сравнение опытным путем измеряемой величины с другой, подобной ей, принятой за единицу, составляет общую основу любых измерений. Измерения проводятся для достижения некоторого конечного результата в соответствии с поставленной задачей. Все отрасли техники не могли бы существовать без развернутой системы измерений, определяющих как все технологические процессы, контроль и управление ими, так и свойства и качество выпускаемой продукций. Значительное повышение точности измерений неоднократно являлось основной предпосылкой фундаментальных научных открытий.

Разделом науки, изучающим измерения, является метрология. Если перевести буквально, то метрология - это учение о мерах, а определение, данное в [1], гласит, что метрология - наука об измерениях, методах и средствах обеспечения их единства и способах достижения требуемой точности. Решение многих задач метрологии является важной государственной задачей. Главные задачи метрологии по обеспечению единства измерений и способов достижения требуемых точностей непосредственно связаны с проблемами взаимозаменяемости как одного из важнейших показателей качества современных изделий [2]. Единство измерений - состояние измерений, при котором их результаты выражены в узаконенных единицах и погрешности известны с заданной вероятностью [3]. Единство измерений необходимо для того, чтобы можно было сопоставить результаты измерений, выполненных в разное время, с использованием различны методов и средств измерений, а также в различных по территориальному расположению местах. Результат измерения - значение физической величины, найденное путем ее измерения. Физическая величина это характеристика одного из свойств физического объекта (явления или процесса), общая в качественном отношении многим физическим объектам, но в количественном отношении индивидуальная для каждого объекта [4]. Сотрудничество с другими странами, совместная разработка научно-технических программ требуют взаимного доверия к измерительной информации. Высокое качество информации, ее точность и достоверность имеют первостепенное значение, также как и единообразие принципов и способов оценки точности результатов измерений.

При проведении любых измерений, независимо от условий, в которых они проводятся, появляются погрешности, искажающие представление о действительном значении измеряемой величины. Разделение погрешности на случайную и систематическую и построенные на таком разделении методы ее описания стали подвергаться критике: эти представления перестали удовлетворять требованиям, предъявляемыми задачами, решаемыми метрологией [2]. Это привело к возникновению различных инициатив, направленных на решение возникшей проблемы. Одним из решений стала концепция представления результатов измерений, развиваемая по инициативе международных метрологических организаций. Суть ее состоит в том, что обработка результатов измерений во всех странах проводится с использованием аппарата теории вероятностей и математической статистики.

Использование на практике вероятностного подхода к оценке погрешностей результатов измерений, прежде всего, предполагает знание аналитической модели закона распределения рассматриваемой погрешности [5]. Практически везде погрешности разделяют на случайные и систематические. Систематическая погрешность считается специфической, «вырожденной» случайной величиной, обладающей некоторыми, но не всеми свойствами случайной величины, изучаемой в теории вероятностей и математической статистике. Постоянные систематические погрешности не устраняются путем многократных измерений, они могут быть обнаружены только при сравнении результатов с другими, полученными с помощью более высокоточных методов и средств.

Случайные погрешности представляют собой погрешности, в которых нет определенной закономерности. Они неизбежны и неустранимы и всегда имеются в результате измерения. Наиболее универсальным способом описания поведения результатов измерений и случайных погрешностей является отыскание их интегральных и дифференциальных функций распределения. Причем в метрологии в основном используют дифференциальную форму - закон распределения плотности вероятности случайной величины [6]:

(1)

Она неотрицательна и подчиняется условию нормировки [6]:

(2)

Интегральный закон распределения случайной величины представляет собой функцию F(x), определяемую формулой [6]:

(3)

Используемые в метрологии законы распределения случайных величин можно классифицировать следующим образом [4]:

· Трапецеидальные

· Уплощенные

· Экспоненциальные

· Семейство распределений Стъюдента

· Двухмодальные

В большинстве случаев для описания поведения измерений бывает достаточно охарактеризовать случайные величины с помощью ограниченного числа случайных параметров, основными из них являются:

· центр распределения

· начальные и центральные моменты и производные от них коэффициенты - математическое ожидание, дисперсия, эксцесс, контрэксцесс и коэффициент асимметрии.

Целью данной работы является определение с помощью многократного измерения наиболее эффективной оценки характеристики положения закона распределения вероятности, идентифицируемой со значением измеряемой безразмерной величины. Для достижения поставленной цели нужно выполнить такие задачи как:

1. Обработать массив экспериментальных данных.

2. Выдвинуть гипотезу о законе распределения вероятности экспериментальных данных.

3. Проверить правдоподобие выдвинутой гипотезы с помощью критерия согласия.

4. Выбрать характеристику положения закона распределения вероятности, определить ее оценку, закон изменения ее доверительных интервалов и записать результат многократного измерения.

Глава 1. Определение оценок основных характеристик

В данной курсовой работе обрабатывается массив экспериментальных данных.

Таблица 1.1 Массив данных

Х

1

2

3

4

5

6

7

8

9

10

1

0,3

0,25

-0,03

0,31

0,19

0,09

0,17

0,28

0

0,18

2

0,21

0,29

0,06

0,15

0,04

0,13

0,22

0,36

0,2

0,32

3

-0,06

0,31

0,2

0,24

0,37

0,16

0,12

0,26

0,34

0,3

4

0,23

0,08

0,26

0,27

0,21

0,14

0,06

0,23

0,11

0,38

5

0,02

0,15

0,19

0,09

0,28

0,32

0,19

0,27

0,33

0,12

6

0,28

0,21

0,3

0,24

0,29

0,1

0,35

0,18

0,07

0,22

7

0,18

0,37

0,12

0,13

0,22

0,33

0,24

0,31

0,25

0,05

8

0,22

0,14

0,23

0,11

0,03

0,17

0,38

0,15

0,41

0,19

9

0,4

0,16

0,2

0,1

0,25

0,08

0,21

0,32

0,23

0,36

10

0,19

0,33

0,13

0,07

0,09

0,18

0,34

0,04

0,13

0,28

11

0,05

0,23

0,3

0,22

0,16

0,31

0,26

0,29

0,21

0,06

12

0,24

0,11

0,27

0,17

0,27

0,2

0,14

0,37

0,1

0,4

13

0,43

0,25

0,52

0,07

0,23

0,35

0,32

0,16

0,15

0,2

14

-0,02

0,17

0,42

0,12

0,03

0,25

0,3

0,23

0,24

0,01

15

0,2

0

0,19

0,26

0,36

0,18

-0,01

0,13

0,02

0,39

16

0,44

0,1

0,01

0,14

0,17

0,33

0,05

0,22

0,08

-0,05

17

0,35

0,26

0,39

0,21

0,09

0,25

0,29

0,44

0,14

0,43

18

0,45

0,22

0,11

0,16

0,24

0,31

0,12

0,28

0,49

0,24

19

0,37

0,25

0,5

0,46

0,06

0,22

0,42

0,21

0,15

-0,1

20

0,39

0,47

0,2

0,18

0,4

0,17

0,33

0,14

0,03

0,11

21

0,23

-0,04

0,35

-0,08

0,19

0,04

0,26

0,34

0,2

-0,03

22

0,43

0,37

0,16

0,13

0,3

0,1

-0,01

0,18

0,08

0,36

23

0,2

0,14

0,21

0,01

0,11

0,22

0,32

0,38

0,05

0,31

24

0,41

0,27

0,06

0,24

0,09

0,12

0,29

0,19

0,28

0,1

1.1 Среднее арифметическое (математическое ожидание)

Математическое ожидание имеет простой физический смысл: если на прямой разместить единичную массу, поместив в каждую точку некоторую массу (для дискретного распределения), или «размазав» её с определенной плотностью (для абсолютно непрерывного распределения), то точка будет координатой «центра тяжести» прямой. Среднее арифметическое , этот «центр тяжести», определяется по формуле [7]:

,

где n - количество значений в таблице экспериментальных данных.

Среднее арифметическое вычисляется только для однородных величин.

Для лучшего представления о математическом ожидании изучим его свойства [8]:

1. Математическое ожидание постоянной С равно этой постоянной.

2. Постоянный множитель можно выносить за знак математического ожидания, т.е.

3. Математическое ожидание суммы нескольких случайных величин равно сумме математических ожиданий этих величин:

4. Математическое ожидание произведения двух независимых случайных величин равно произведению математических ожиданий этих величин:

Так же можно сказать, что если каждое число, находящееся в таблице измерений, заменить на среднее арифметическое, то общая сумма не изменится.

В данной работе получили среднее значение равное = 0,21.

1.2 Дисперсия и среднеквадратическое отклонение случайной величины

Во многих практически важных случаях существенным является вопрос о том, насколько велики отклонения случайной величины от ее математического ожидания. Оценим рассеяние массива экспериментальных данных относительно среднего арифметического значения. Вычисляем несмещенную оценку дисперсии S2 по формуле [8]:

Также дисперсией случайной величины называется математическое ожидание квадрата отклонения случайной величины от ее математического ожидания.

Вычисляем среднеквадратичное отклонение S (СКО) [8] :

Среднеквадратичное отклонение является, как и дисперсия, мерой рассеяния распределения, но измеряется, в отличие от дисперсии, в тех же единицах, которые используют для измерения значений случайной величины.

Проведя вычисления, получили значения S2 = 0,00155, S = 0,1243.

1.3 Третий центральный момент и коэффициент асимметрии

Третий центральный момент, будучи соответствующим образом нормализован, является числовой характеристикой симметрии распределения.

Для того чтобы оценить асимметрию ЗРВ, определяется оценка третьего центрального момента . Оценка третьего момента определяется по формуле [9]:

После расчетов получилось =0,000031.

Третий центральный момент и его оценка имеют размерность куба случайной величины, поэтому для относительной характеристики асимметрии применяют безразмерный коэффициент асимметрии s [9]:

где - это СКО в третьей степени.

Рассчитав, получили s=0,016.

Для симметричных ЗРВ относительно математического ожидания =0. Однако в реальности может быть определена только оценка третьего центрального момента , которая, являясь случайной величиной, может приближаться к нулю, но не быть равной ему. Поэтому определяют параметр оценки рассеяния коэффициента асимметрии [9]:

математический ожидание дисперсия гистограмма

Если выполняется условие, что , то можно считать ЗРВ симметричным. Если же это условие не выполняется, то несимметричностью ЗРВ пренебрегать нельзя.

Из моих вычислений следует, что ЗРВ симметричный, так как

1.4 Четвертый центральный момент, эксцесс и контрэксцесс

Для того чтобы оценить оценку заостренности ЗРВ, определяют оценку четвертого центрального момента [9]:

Четвертый центральный момент и его оценка имеют четвертую степень случайной величины, поэтому для удобства применяют относительную величину, называемую эксцессом и определяемую по формуле [9]:

Подставив значения в данные формулы, получили:

=0,00061

=2,5

Для удобства находят и применяют в расчетах оценку контрэксцесса , изменяющуюся от 0 до 1 и определяемую по формуле [9]:

Рассчитав, получила

При подобных значениях эксцесса и контрэксцесса можно сделать предварительный вывод о виде распределения. Можно сказать, что мои расчеты удовлетворяют распределению треугольного вида.

1.5 Исключение из массива грубых промахов

Процесс измерения неизбежно сопровождается ошибками, которые вызываются несовершенством измерительных средств, нестабильностью условий проведения измерений, несовершенством самого метода и методики измерений, недостаточным опытом и несовершенством органов чувств человека, выполняющего измерения, а также другими факторами.

Грубая погрешность (промах) - это случайная погрешность результата отдельного наблюдения, входящего в ряд измерений; для данных условий она резко отличается от остальных результатов этого ряда.

Вопрос о том, содержит ли результат наблюдений грубую погрешность, решается общими методами проверки статистических гипотез [8]. Проверяемая гипотеза состоит в утверждении того, что результат наблюдения х не содержит грубой погрешности, то есть является одним из значений входящих в измерение. Используя статистические критерии, пытаются опровергнуть выдвинутую гипотезу. Если это удается, то этот результат рассматривают как грубую погрешность и его исключают, если нет - то результат измерения оставляют.

Выбор того или иного критерия основан на принципе практической уверенности. Известен ряд критериев, которые позволяют исключить грубые промахи [10]. К ним, в частности можно отнести критерий Греббса (Смирнова), Шарлье, Шовенэ, Диксона, Романовского, «трех сигм» и др.

В данной работе для исключения грубых промахов воспользуемся неравенством Чебышева [8], которое утверждает, что случайная величина в основном принимает значения близкие к своему среднему. Более точно, оно даёт оценку вероятности, что случайная величина примет значение далёкое от своего среднего и устанавливает нижнюю границу вероятности того, что ни при каком законе распределения вероятности случайное значение результата измерения не отличается от среднего значения более чем на половину доверительного интервала, определяемого по формуле [8]:

Отсюда можно найти значение t для заданной вероятности:

И границы доверительного интервала:

Но в данном случае целесообразно использовать неравенство, определенное с помощью четвертого центрального момента [10]:

Откуда t определяется следующим образом:

Верхняя и нижняя границы предельных отклонений определяются выражениями:

Результаты измерений, где и считаются промахами и должны быть исключены из массива данных.

Рассчитываем t для P=0,95, получаем:

Рассчитав значение t, находим верхнюю и нижнюю границы предельных значений отклонений по формулам (1.18) и (1.19):

После сравнения наших экспериментальных данных оказалось, что все значения попадают в данный интервал. Отсюда следует, что наш массив данных не превышает найденный интервал, значит можно сделать вывод, что промахов в массиве данных нет.

Глава 2. Определение закона распределения

2.1 Построение гистограммы

Гистограмма - графическое изображение зависимости частоты попадания элементов выборки от соответствующего интервала группировки. Гистограмма представляет собой столбчатый график, построенный по полученным за определенный период данным, которые разбиваются на несколько интервалов. Для того что бы построить гистограмму необходимо выбрать число интервалов так, чтобы это было достаточно оптимально. Если число интервалов, в которые попадают наши данные, будет излишне велико, то гистограмма будет отличаться от плавной кривой многими всплесками и впадинами, а некоторые интервалы могут оказаться пустыми. Если количество интервалов будет слишком мало, то существует риск пропустить существенные изменения графика, увеличив тем самым возможность ошибки при определении распределения.

Количество интервалов гистограммы определяем по таблице [11]:

Таблица 1.2 Определение количества интервалов

Число отсчетов

Рекомендуемое число интервалов

40-100

7-9

101-500

8-12

501-1000

10-16

1001-10000

12-22

Ширина интервала определяется по формуле:

, (2.1)

где - максимальное значение

- минимальное значение

r - количество интервалов

Берем количество интервалов r=11, тогда получаем, что ширина интервала будет равна h=0,056.

Используя возможности программы Microsoft Excel , строим гистограмму:

Рисунок 1.1. Гистограмма.

После гистограммы строим полигон. Полигон представляет собой ломаную кривую, соединяющую середины верхних оснований каждого столбца гистограммы. Он более наглядно отражает форму кривой распределения в отличие от гистограммы:

Рисунок 1.2. Полигон частотной гистограммы для 11 значений.

При построении гистограммы составляем таблицу попадания значений в интервалы.

Таблица 1.3 Данные гистограммы.

Карман

Частота

-0,1-(-0,044)

4

-0,044-0,012

14

0,012-0,068

16

0,068-0,124

29

0,124-0,18

38

0,18-0,236

41

0,236-0,292

37

0,292-0,348

25

0,348-0,404

21

0,404-0,46

11

0,460,52

4

2.2 Определение аналитического выражения функции плотности распределения вероятности

По полученным нами значениям и по виду гистограммы и полигона можно выдвинуть гипотезу о том, что вид нашего распределения треугольный. Проверим эту гипотезу также и аналитически, вычислив точки полигона с помощью метода наименьших квадратов.

Метод наименьших квадратов применяется для приближённого представления заданной функции другими (более простыми) функциями и часто оказывается полезным при обработке наблюдений.

Метод наименьших квадратов - простой и быстрый способ получить неизвестные параметры в функциональных зависимостях и оценить их погрешности. Пусть ожидаемая теоретическая зависимость y=f(x), и мы получили ряд значений (xi, f(xi)). Тогда величину ошибки можно оценить как сумму квадратов всех отклонений от теоретической зависимости [12]:

, (2.2)

где - среднее значение х. Для достижения наилучшей точности эта ошибка должна быть минимальной. Возьмем от полученной суммы по всем параметрам производные и приравняем их к нулю - получим систему уравнений для этих параметров, решениями которой и будут наиболее вероятные их значения. В случае линейной зависимости (а практически любая зависимость может быть линеаризована) имеем:

(2.3)

Таким образом, любая функция определяемая методом наименьших квадратов проходит через координаты , , то есть через центр тяжести экспериментальных данных. Коэффициент a определяет наклон искомой зависимости относительно оси аргумента. Метод наименьших квадратов необратен, то есть нельзя менять местами оси. Этот метод очень чувствителен к наличию грубого промаха, если грубый промах не исключить, то погрешность в определении коэффициента будет составлять 96%. Также для нахождения параметров а и b можно по этому методу предварительно вычислить следующие суммы [9]:

(2.4)

(2.5)

(2.6)

(2.7)

После этого величины a и b вычисляются по формулам [9]:

(2.8)

(2.9)

Произведя расчеты, получили два уравнения и точки, по которым и построили кривую.

1)у=133х+11,39 2) у=-133х+73

Кривая, найденная аналитически, с небольшим отклонением совпадает с экспериментальной кривой, поэтому можно предположить, что наиболее целесообразно будет доказывать выдвинутую нами гипотезу.

Рисунок 1.3. Наложение аналитически найденного полигона на экспериментальный. 1 - экспериментально найденный полигон частотной гистограммы, 2 - аналитически найденный полигон.

2.3 Критерий Пирсона

Известен целый ряд критериев согласия. Их используют в качестве способа оценки близости распределения выборки экспериментальных данных к принятой аналитической модели закона распределения. Во многих практических задачах точный закон распределения неизвестен, то есть является гипотезой, которая требует статистической проверки. Наибольшее распространение в практике получил критерий Пирсона [13]. Достоинством критерия Пирсона является его универсальность: с его помощью можно проверять гипотезы о различных законах распределения. Идея этого метода состоит в контроле отклонений гистограммы экспериментальных данных от гистограммы с таким же числом интервалов, построенной на основе распределения, совпадение с которым определяется. Использование критерия Пирсона возможно при большом числе измерений (n>50) и заключается в вычислении величины (хи - квадрат) [14]:

, (2.10)

где , - экспериментальные и теоретические значения частот в i-том интервале разбиения;

m - число интервалов разбиения;

- значения вероятностей в том же интервале разбиения, соответствующие выбранной модели распределения;

n-сумма экспериментальных значений частот в i-том интервале.

Экспериментальные данные частот даны нам в Таблице 1.3. для того, чтобы вычислить теоретические данные частот , нам нужно рассчитать интегралы от функций на всех интервалах аналитически построенного полигона. Это можно сделать при помощи программы MathCAD. То есть:

Получим =3,018. Используя функции программы Microsoft Excel можно вычислить таблично значение критерия. Получаем =15,507.

Если вычисленная по опытным данным мера расхождения меньше определенного из таблицы значения , то гипотеза о совпадении экспериментального и выбранного теоретического распределений принимается [15]. В моем случае <, следовательно, выбранную гипотезу можно принять за верную.

2.4 Доверительный интервал

Доверительный интервал - это допустимое отклонение наблюдаемых значений от истинных. Размер этого допущения определяется исследователем с учетом требований к точности информации. Если увеличивается допустимая ошибка, размер выборки уменьшается, даже если уровень доверительной вероятности останется равным 95%.

Доверительный интервал показывает, в каком диапазоне расположатся результаты выборочных наблюдений.

Для того, что бы найти доверительный интервал, проводим нормировку наших функций, полученных аналитическим путем [5]:

(2.11)

Получаем нормировочный множитель равный 0,075, умножив наши функции на этот множитель, находим доверительный интервал с вероятностью P=0,95:

Преобразовав, получаем квадратное уравнение:

Откуда получаем, что Д=0,244.

Аналогичным образом находим доверительный интервал с вероятностью P=0,9, он будет равен Д=0,215.

Заключение

Итак, подводя итоги, нужно обобщить полученные в ходе работы результаты. Обработав массив данных, мы рассчитали такие значения как:

Таблица 1.4 Полученные результаты

Среднее арифметическое значение

= 0,21

Дисперсия

S2 = 0,00155

Среднеквадратичное отклонение

S = 0,1243

Третий центральный момент

=0,000031

Коэффициент асимметрии

s=0,016

Четвертый центральный момент

=0,00061

Эксцесс

=2,5

Контрэксцесс

Также построили гистограмму и полигон данного нам массива и выдвинули гипотезу о виде распределения. В данной работе вид распределения был взят как треугольный симметричный. Проверив выдвинутую нами гипотезу аналитическим методом с помощью метода наименьших квадратов и с помощью критерия согласия, за который взяли критерий Пирсона, мы убедились, что выдвинутая гипотеза верна. Затем нашли доверительный интервал и доказали, что с увеличением значения вероятности доверительный интервал увеличивается, так как при P=0,9 Д=0,215 а при P=0,95 Д=0,244.

Список используемой литературы

1. ГОСТ 16263 - 70 ГСИ. Метрология. Термины и определения. - Введен 01.01.2001 взамен ГОСТ 16263-70. - ВНИИКИ Госстандарта России, 2001. - 46 с. - (Действующий стандарт).

2. Сергеев, А. Г. Метрология: история, современность, перспективы: учебное пособие для вузов по направлению «Стандартизация, сертификация и метрология» / А. Г. Сергеев. - М.: Университетская книга: Логос, 2009. - 384

3. Димов, Ю. В. Метрология, стандартизация и сертификация: учебник для вузов / Ю. В. Димов. - 3 - е изд. - СПБ.: Питер, 2010. - 464 с.: ил.

4. Сергеев А. Г. Метрология, стандартизация и сертификация: Учебное пособие для вузов / А. Г. Сергеев, М. В. Латышев, В. В. Терегея. - М.: Логос, 2005. - 560с.: ил.

5. Радкевич, Я. М. Метрология, стандартизация и сертификация: учебник для вузов / Я. М. Радкевич, А. г. Схиртладзе, Б. И. Лактионов. - 3-е изд. перераб. и доп. - М.: Высш. шк., 2007. - 791 с.: ил.

6. Гмурман, В. Е. Теория вероятностей и математическая статистика: Учебное пособие для вузов / В. Е. Гмурман. - 12 - е изд., перераб. - М.: Высшее образование, 2006. - 479 с.

7. Дубровский, П. В. Современные методы метрологического обеспечения инновационных и организационно-технических процессов: учебно-методический комплекс / П. В. Дубровский, С. В. Голякова. - Ульяновск: УлГУ, 2006. - 116 с.

8. Кочетков, Е. С. Теория вероятностей и математическая статистика: Учебник / Е. С. Кочетков, С. О. Смерчинская, В. В. Соколов. - М.: ФОРУМ: ИНФРА - М, 2005. - 240 с.: ил.

9. Булярский, С. В. Метрология: методические указания к выполнению расчетно-графических работ / С.В. Булярский [и др.]. - Ульяновск: УлГУ, 2009. - 92 с.

10. Павлов, С. В. Теория вероятностей и математическая статистика: учебное пособие / С. В. Павлов. - М.: РИОР, 2006. - 186с.

11. Никифоров, А. Д. Метрология, стандартизация и сертификация: учеб. пособие для сред. проф. образования по спец. техн. профиля / А. Д. Никифоров, Т. А. Бакиев. - М.: Высшая школа, 2005. - 422 с.

12. Кошевая, И. П. Метрология, стандартизация, сертификация: учебник для образовательных учреждений сред. профильного образования / И. П. Кошевая, А. А. Канке. - М.: Форум: ИНФРА - М, 2007. - 416 с.

13. Юсупов, Р. А. Теория вероятностей и математическая статистика: учебное пособие для вузов / Р. А. Юсупов. - Астрахань: АГТУ, 2000. - 186 с.

14. Сергеев, А.Г. Метрология. Карманная энциклопедия студента: Учебное пособие для студентов высших и средних специальных заведений / А. Г. Сергеев, В. В. Крохин. - М.: Логос, 2001.- 376с.: ил.

15. Сергеев, А. Г. Метрология: учебник / А. Г. Сергеев. - М.: Логос, 2004. - 288 с.: ил.

Размещено на Allbest.ru


Подобные документы

  • Определение вероятности попадания в мишень по формуле Бернулли. Закон и многоугольник распределения случайной величины. Построение функции распределения, графика. Математическое ожидание, дисперсия, среднее квадратическое отклонение случайной величины.

    контрольная работа [86,4 K], добавлен 26.02.2012

  • Классическое определение вероятности. Формулы сложения и умножения вероятностей. Дисперсия случайной величины. Число равновозможных событий . Матрица распределения вероятностей системы. Среднее квадратическое отклонение, доверительный интервал.

    контрольная работа [89,7 K], добавлен 07.09.2010

  • Определение вероятности того, что из урны взят белый шар. Нахождение математического ожидания, среднего квадратического отклонения и дисперсии случайной величины Х, построение гистограммы распределения. Определение параметров распределения Релея.

    контрольная работа [91,7 K], добавлен 15.11.2011

  • Закон распределения случайной величины Х, функция распределения и формулы основных числовых характеристик: математическое ожидание, дисперсия и среднеквадратичное отклонение. Построение полигона частот и составление эмпирической функции распределения.

    контрольная работа [36,5 K], добавлен 14.11.2010

  • Дискретные системы двух случайных величин. Композиция законов распределения, входящих в систему. Определение вероятности попадания случайной величины в интервал; числовые характеристики функции; математическое ожидание и дисперсия случайной величины.

    контрольная работа [705,1 K], добавлен 22.11.2013

  • Непрерывная случайная величина и функция распределения. Математическое ожидание непрерывной случайной величины. Среднее квадратичное отклонение. Кривая распределения для непрерывной случайной величины. Понятие однофакторного дисперсионного анализа.

    контрольная работа [165,5 K], добавлен 03.01.2012

  • Вероятность появления события в серии из независимых испытаний. Закон распределения дискретной случайной, интегральной, дифференциальной, имперической функции распределения, математическое ожидание, дисперсия, и среднее квадратическое отклонение.

    контрольная работа [397,9 K], добавлен 15.11.2010

  • Теория вероятностей. Коэффициенты использования рабочего времени. Закон распределения случайной величины. Функция плотности. Математическое ожидание. Закон распределения с математическим ожиданием. Статистика. Доверительный интервал. Выборочная средняя.

    контрольная работа [178,3 K], добавлен 24.11.2008

  • Использование формулы Бернулли для нахождения вероятности происхождения события. Построение графика дискретной случайной величины. Математическое ожидание и свойства интегральной функции распределения. Функция распределения непрерывной случайной величины.

    контрольная работа [87,2 K], добавлен 29.01.2014

  • Понятие непрерывной случайной величины, её значения на числовых промежутках. Определение закона распределения, его функции. Плотность распределения числовых характеристик вероятности. Математическое ожидание, дисперсия и среднеквадратичное отклонение.

    лекция [575,9 K], добавлен 17.08.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.