О теории вероятностей

Теория вероятности как математическая наука, изучающая закономерность в массовых однородных случаях, явлениях и процессах, предмет, основные понятия и элементарные события. Определение вероятности события. Анализ основных теорем теории вероятностей.

Рубрика Математика
Вид шпаргалка
Язык русский
Дата добавления 24.12.2010
Размер файла 777,8 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

б) моды

где хМо- начало модального интервала, h -длина частичного интервала, nмо - частота модального интервала, nМо-1 -частота предмодального интервала, nМо+1 - частота послемодального интервала;

в) средней арифметической, совпадающей с формулой (3.2.1) для дискретного вариационного ряда, причем в качестве вариант хi принимаются середины соответствующих интервалов (интервалы могут иметь как одинаковую, так и разную длину).

Мода и медиана используются в качестве характеристики среднего положения в случае, если границы ряда нечеткие или если ряд не симметричен.

34. Проблема размерностей в многомерных методах исследования

Метод МСА базируется на представлении данных в многомерном признаковом пространстве размерностью, равной числу признака. При этом исследователь часто сталкивается с понятием размерности.

В общем случае изучается n-мерное эвклидово пространство. При n>3 все задачи решаются только логически и алгебраически (n>>m) (m=2-3). Для этого обычно стараются снизить размерность изучаемого пространства без видимых потерь информации.

Основные предпосылки перехода к производству меньшей размерности.

1. дублирование информации

2. ненормативность признаков

3. возможность агрегирования (простого или взвешенного суммирования)

Основной минус МСА: статистические методы оценивания и сравнения основываются только на многомерном нормальном законе раск-ния.

35. Введение в Excel

Табулирование - вычисление значений функций, при известных значениях аргумента.

БД - это фактически любой набор данных. Создание баз данных упрощает обработку данных и их анализ.

Группировка - разбиение на группы, удовлетворяющие определенным критериям

Можно для облегчения работы с данными использовать Пакет анализа содержащий 13 категорий функций:

Финансовые (51 функция)

Дата и время (19 функций)

Математические (60)

Пользовательские (11-при сложных вычислениях)

Логические (6)

Статистические (самая объемная - 78)

Ссылки и массивы

Информационные и тд.

36. Современные пакеты прикладных программ МС исследования. Пакет статистика. Стандарт качества ISO 9000. Система SEWS применение многомерных статистических методов в социально экономических исследованиях

За 200 лет математиками, экономистами, психологами был создан аппарат принятия решений, которых называется МС, а позже прикладной С или анализом данных

Широкому внедрению методов анализа данных в 60-70гг. способствовало появление компонентов, причем если до середины 80г. Эти методы рассматривались, как инструмент научных исследований, то теперь основными показателями стали компоненты организации и тд.

Пакет statistika версия stat 5.5 русскоязычная поддержка всех архитектур документация 3000с.

1. иногда слишком поверхностны

2. неудобный редактор отсчета

3. высокая стоимость

37. Дисперсия дискретного ряда

Дисперсия дискретного ряда распределения:

характеризует средний квадрат отклонения х от х---,

Среднее квадратическое отклонение дискретного ряда распределения:

выражается в тех же единицах, что и хi.

Коэффициент вариации:

характеризует относительное значение среднего квадратического отклонения и обычно служит для сравнения колеблемости несоизмеримых показателей.

Если объединяются несколько распределений в одно, то общая дисперсия у0*2 нового распределения равна средней арифметической из дисперсий объединяемых распределений, сложенной с дисперсией частных средних относительно общей средней нового распределения:

где x0-- - средняя ариф-кая нового распределения, xi-- - средняя ариф-кая i-го частного распределения (I=1,…,k).

n - объем i-гo частного распределения, хij - j-й член i-го частного распределения (j=l,..., ni; i=l,2,..., к), д*2 -

межгрупповая дисперсия, --у*2 - внутригрупповая дисперсия, N=?ni - объем нового распределения.

Значения --у*2 и д*2 определяются по формулам

Дисперсия имеет важное свойство, заключающееся в том, что

D*=(?(xi-d)2ni)/k принимает наименьшее значение при d=--x.

38. Моменты для вариационных рядов в математической статистике находятся по формулам, аналогичным формулам (2.7.6), (2.7.7)>(2.7.11), (2.10.3):

- начальный момент s-го порядка,

- центральный момент s-го порядка.

- основной момент s-гo порядка

- основной момент порядка s, h.

Соотношения между начальными и центральными моментами в математической статистике соответствуют формулам (2.7.8).

Коэффициент асимметрии

Sk*=

39. Проверка адекватности модели регрессии

После построения уровня регрессии возникает вопрос о качестве решения.

Пусть при исследовании n пар наблюдений (хi, уi) получено уравнение регрессии У на Х.

yi = a + bxi

Рассмотрим тождество:

yi - yi = yi - yi - (yi -yi)

Если переписать это уравнение в виде

(yi-y) = (yi-y) + (yi-y)

возвести обе части в квадрат и просуммировать по i, то получим

(yi-y)2 = (yi-y)2 + (yi-y)2 (*)

Уравнение (*) является основополагающим в дисперсионном анализе.

Для сумм обычно вводятся названия:

yi2 - нескорректированная сумма квадратов У-ков;

- коррекция на среднее суммы квадратов У-ков.

-сумма квадратов отношений относительно среднего наблюдений.

(yi-y)2- сумма квадратов относительно регрессии.

(yi-yi)2 - сумма квадратов обусловленная регрессией.

40. Интервальные оценки. Доверительная вероятность, доверительный интервал

Интервальной называют оценку, которая определяется 2 числами - границами интервала. Она позволяет ответить на вопрос: внутри какого интервала и с какой вероятностью находится неизвестное значение оцениваемого параметра генеральной совокупности. Пусть и точечная оценка параметра и. Чем меньше разность и - и , тем точнее и лучше оценка. Обычно говорят о доверительной вероятности p = 1-б, с которой и будет находиться в интервале и-Д < и < и+Д, где: Д (Д 0) - предельная ошибка выборки, которая может быть либо задана наперед, либо вычислена; - риск или уровень значимости (вероятность того, что неравенство будет неверным). В качестве 1- принимают значения 0,90;0,95;0,99;0,999. Доверительная вероятность показывает, что в (1-) 100% случаев оценка будет накрываться указанным интервалом. Для построения доверительного интервала параметра а - математического ожидания нормального распределения, составляют выборочную характеристику (статистику), функционально зависимую от наблюдений и связанную с а, например, для повторного отбора:

Статистика u распределена по нормальному закону распределения с математическим ожиданием а = 0 и средним квадратическим отклонением = 1. Отсюда

P(u<u /2)= 1- или 2Ф(u/2)=1-,

где Ф-функция Лапласа, u/2 - квантиль нормального закона распределения, соответствующая уровню значимости .

Определение доверительного интервала для средней и доли при случайном обороте. Определение доверительного интервала для средней и доли при типическом обороте;. Определение необходимой численности выборки. Распространение данных выборки на генеральную совокупность).

Где:

1) t-- квантиль распределения соответствующая уровню значимости:

а) при n 30 t=- квантиль нормального закона распре деления,

б) при n<30t - квантиль распределения Стьюдента с v=n-1 степенями свободы для двусторонней области;

2) - выборочная дисперсия:

а) при n30 можно считать, что

б) при n<30 вместо берут исправленную выборочную дисперсию

S2 ()

далее везде рассматривается исправленная выборочная дисперсия S2;

З) рq -- дисперсия относительной частоты в схеме повторных независимых испытаний;

4) N -- объем генеральной совокупности;

5) n -- объем выборки;

6) -- средняя арифметическая групповых дисперсий (внутригрупповая дисперсия);

7) -- средняя арифметическая дисперсий групповых долей,

8) -- межсерийная дисперсия,

9) pqм.с. -- межсерийная дисперсия доли;

10) Nc -- число серий в генеральной совокупности;

11) nc -- число отобранных серий (объем выборки);

12) -- предельная ошибка выборки.

41. Статистические критерии проверки гипотез, уровень значимости и мощность критерия. Выбор м/у гипотезами Н0 и Н1 может сопровождаться ошибками 2 родов. Ошибка первого рода означает вероятность принятия Н1, если верна гипотеза

Н0: =Р(Н10)

Ошибка второго рода означает вероятность принятия Н0 если верна гипотеза

Н1: =Р(Н01)

Существует правильное решение двух видов

Р(Н00) = 1- и Р(Н11)=1-.

Правило, по которому принимается решение о том, что верна или неверна гипотеза Н0 называется критерием, где:

=Р(Н10)

уровень значимости критерия;

М= Р(Н11)=1-

мощность критерия. Статистический критерий К - случайная величина, с помощью которой принимают решение о принятии или отклонении Н0.

42. Концепция Data Mining

Data Mining переводится как "добыча" или "раскопка данных". Нередко рядом с Data Mining встречаются слова "обнаружение знаний в базах данных" (knowledge discovery in databases) и "интеллектуальный анализ данных". Их можно считать синонимами Data Mining. Возникновение всех указанных терминов связано с новым витком в развитии средств и методов обработки данных. Традиционная математическая статистика, долгое время претендовавшая на роль основного инструмента анализа данных, откровенно спасовала перед лицом возникших проблем. Главная причина -- концепция усреднения по выборке, приводящая к операциям над фиктивными величинами (типа средней температуры пациентов по больнице, средней высоты дома на улице, состоящей из дворцов и лачуг и т.п.). Методы математической статистики оказались полезными главным образом для проверки заранее сформулированных гипотез (verification-driven data mining) и для “грубого” разведочного анализа, составляющего основу оперативной аналитической обработки данных (online analytical processing, OLAP). В основу современной технологии Data Mining (discovery-driven data mining) положена концепция шаблонов (паттернов), отражающих фрагменты многоаспектных взаимоотношений в данных. Эти шаблоны представляют собой закономерности, свойственные подвыборкам данных, которые могут быть компактно выражены в понятной человеку форме. Поиск шаблонов производится методами, не ограниченными рамками априорных предположений о структуре выборке и виде распределений значений анализируемых показателей.

43. Понятие корреляционной зависимости

При изучении случайных величин в общем случае необходимо рассматривать стохастическую зависимость, когда каждому значению СВ Х может соответствовать одно и более значений СВ Y, причем до опыта нельзя предсказать возможное соответствие. В случае стохастической связи изменение CВY, вследствие изменения СВ Х, можно разбить на 2 компоненты: 1. функциональную, связанную с зависимостью Y от Х, 2. случайную, связанную со случайным характером самих СВ Х и Y. Соотношение м/у функциональной и случайной компонентой определяет силу связи. Отсутствие первой компоненты указывает на независимость СВ Х и Y, отсутствие второй компоненты показывает, что м/у CВ X и Y существует функциональная связь.

Важным частным случаем стохастической зависимость является корреляционная. Корреляционная зависимость м/у переменными величинами - это та функциональная зависимость, которая существует м/у значениями одной из них и групповыми средними другой. (Корреляционные зависимости Y на Х и Х на Y обычно не совпадают). Корреляционная связь чаще всего характеризуется выборочным коэффициентом корреляции r, который характеризует степень линейной функциональной зависимости м/у CB X и Y. Для двух СВ Х и Y коэффициент корреляции имеет => св-ва:

1. -1?r?1;

2. если r=+ 1, то м/у СВ Х и Y существует функциональная линейная зависимость;

3. если r=0, то СВ Х и Y некоррелированны, что не означает независимости вообще;

4. если Х и Y образуют систему нормально распределенных СВ, то из их некоррелированности => их независимость.

Коэффициенты корреляции Y на Х и Х на Y совпадают.

Корреляция используется для количественной оценки взаимосвязи двух наборов данных с помощью коэффициента корреляции. Коэффициент корреляции выборки представляет собой ковариацию двух наборов данных, деленную на произведение их стандартных отклонений.

44. Критерий согласия

Проверка гипотезы о предполагаемом законе неизвестного распределения производится так же, как и проверка гипотезы о параметрах распределения, т. е. при помощи специально подобранной случайной величины -- критерия согласия.

Критерием согласия называют критерий проверки гипотезы о предполагаемом законе неизвестного распределения.

Имеется несколько критериев согласия: ч2 («хи квадрат») К. Пирсона, Колмогорова, Смирнова и др.

Ограничимся описанием применения критерия Пирсона к проверке гипотезы о нормальном распределении генеральной совокупности (критерий аналогично применяется и для других распределений, в этом состоит его достоинство). С этой целью будем сравнивать эмпирические (наблюдаемые) и теоретические (вычисленные в предположении нормального распределения) частоты. Обычно эмпирические и теоретические частоты различаются.

Случайно ли расхождение частот? Возможно, что расхождение случайно и объясняется малым числом; наблюдений, либо способом их группировки, либо другими причинами. Возможно, что расхождение частот неслучайно (значимо) и объясняется тем, что теоретические частоты вычислены, исходя из неверной гипотезы о нормальном распределении генеральной совокупности. Критерий Пирсона отвечает на поставленный выше вопрос. Правда, как и любой критерий, он не доказывает справедливость гипотезы, а лишь устанавливает, на принятом уровне значимости, ее согласие или несогласие с данными наблюдений.

Итак, пусть по выборке объема п получено эмпирическое распределение:

варианты xl, x1, x2 ... xs,

эмп. частоты ni n1 п2 ... ns.

Допустим, что в предположении нормального распределения генеральной совокупности, вычислены теоретические частоты п. При уровне значимости б, требуется проверить нулевую гипотезу; генеральная совокупность распределена нормально.

В качестве критерия проверки нулевой гипотезы примем случайную величину

(*)

Эта величина случайная, так как в различных опытах она принимает различные, заранее неизвестные значения. Ясно, что чем меньше различаются эмпирические и теоретические частоты, тем меньше величина критерия (*) и, следовательно, он в известной степени характеризует близость эмпирического и теоретического распределений.

Заметим, что возведением в квадрат разностей частот устраняют возможность взаимного погашения положительных и отрицательных разностей. Делением на n'i достигают уменьшения каждого из слагаемых; в противном случае сумма была бы настолько велика, что приводила бы к отклонению нулевой гипотезы даже и тогда, когда она справедлива. Разумеется, приведенные соображения не являются обоснованием выбранного критерия, а лишь пояснением.

Доказано, что при n>? закон распределения случайной величины (*), независимо от того, какому закону распределения подчинена генеральная совокупность, стремится к закону распределения ч2 с k степенями свободы. Поэтому случайная величина (*) обозначена через ч2, а сам критерий называют критерием согласия «хи квадрат».

Число степеней свободы находят по равенству

k=s-1-r

где s -- число групп выборки; r -- число параметров предполагаемого распределения, которые оценены по данным выборки.

В частности, если предполагаемое распределение -- нормальное, то оценивают два параметра (математическое ожидание и среднее квадратическое отклонение) поэтому r=2 и число степеней свободы

k=s-1-r=s-1-2-s-3.

Если, например, предполагают, что генеральная совокупность распределена по закону Пуассона, то оценивают один параметр X, поэтому r=1 и k=s-2.

Поскольку односторонний критерий более «жестко» отвергает нулевую гипотезу, чем двусторонний, построим правостороннюю критическую область, исходя из требования, чтобы вероятность попадания критерия в эту область, в предположении справедливости нулевой гипотезы, была равна принятому уровню значимости б:

Т.о., правосторонняя критическая область определяется неравенством

а область принятия нулевой гипотезы -- неравенством

Обозначим значение критерия, вычисленное по данным наблюдений, через ч2набл и сформулируем правило проверки нулевой гипотезы.

Правило. Для того чтобы, при заданном уровне значимости, проверить нулевую гипотезу H0: генеральная совокупность распределена нормально, надо сначала вычислить теоретические частоты, а затем наблюдаемое значение критерия

(**)

и по таблице критических точек распределения ч2, по заданному уровню значимости б, и числу степеней свободы k=s-3, найти критическую точку ч2 (б; k).

Если ч2набл2кр - нет оснований отвергнуть нулевую гипотезу.

Если ч2набл 2кр -- нулевую гипотезу отвергают.

Замечание 1. Объем выборки должен быть достаточно велик, во всяком случае не менее 50. Каждая группа должна содержать не менее 5--8 вариант; малочисленные группы следует объединять в одну, суммируя частоты.

Замечание 2. Поскольку возможны ошибки первого и второго рода, в особенности, если согласование теоретических и эмпирических частот «слишком хорошее», следует проявлять осторожность.

Замечание 3. В целях контроля вычислений, формулу (**) преобразуют к виду

45. Понятие и модели дисперсионного анализа

Дисперсионный анализ позволяет ответить на вопрос о наличии существенного влияния некоторых факторов на изменчивость фактора, значения которого могут быть получены в результате опыта. При проверке статистических гипотез предполагается случайность вариации изучаемых факторов. В дисперсионном анализе один или несколько факторов изменяются заданным образом, причем, эти изменения могут влиять на результаты наблюдений. Исследование такого влияния и является целью дисперсионного анализа.

Идея дисперсионного анализа заключается в том, что основная дисперсия разлагается в сумму составляющих ее дисперсий, каждое слагаемое которой соответствует действию определенного источника изменчивости. Например, в двухфакторном анализе мы получим разложение вида:

С2=А2+В2+АВ2+Z'2,

где

С2 -общая дисперсия изучаемого признака С

А2 -доля дисперсии, вызванная влиянием фактора А

В2 - доля дисперсии, вызванная влиянием фактора В

АВ2 - доля дисперсии, вызванная взаимодействием факторов А и В

Z'2 -доля дисперсии, вызванная неучтенными случайными причинами (случайная дисперсия).

В дисперсионном анализе рассматривается гипотеза: Н0 - ни один из рассматриваемых факторов не оказывает влияния на изменчивость признака. Значимость каждой из оценок дисперсии проверяется по величине ее отношения к оценке случайной дисперсии и сравнивается с соответствующим критическим значением, при уровне значимости , с помощью таблиц критических значений F - распределения Фишера-Снедекора. Гипотеза Н0 относительно того или иного источника изменчивости отвергается, если Fрасч. Fкр.

В дисперсионном анализе рассматриваются эксперименты трех видов:

А) эксперименты, в которых все факторы имеют систематические (фиксированные) уровни;

Б) эксперименты, в которых все факторы имеют случайные уровни;

В) эксперименты, в которых есть факторы, имеющие случайные уровни, а так же факторы, имеющие фиксированные уровни.

Все три случая соответствует трем моделям, которые рассматриваются в дисперсионном анализе.

Однофакторный дисперсионный анализ.

Рассмотрим единичный фактор, который принимает р различных уровней, и предположим, что на каждом уровне сделано n наблюдений, что дает N = np наблюдений. (все факторы имеют фиксированные уровни)

Пусть результаты представлены в виде Хij (i=1,2...,p; j=1,2...,n).

Предполагается, что доля каждого уровня n наблюдений имеется средняя, которая равна сумме общей средней и ее вариации обусловленной выбранным уровнем:

Xij = + Ai + ij,

где - общая средняя;

Ai - эффект, обусловленный i-м уровнем фактора;

ij - вариация результатов внутри отдельного уровня фактора. С помощью члена ij принимаются в расчет все неконтролируемые факторы.

Пусть наблюдения на фиксированном уровне фактора нормально распределены относительно среднего значения + Ai с общей дисперсией 2.

Тогда (точка вместо индекса обозначает усреднение соответствующих наблюдений по этому индексу):

Xij - X.. = (Xi. - X..) + (Xij - Xi.).

Иначе первую формулу можно записать: S = S1 + S2. Величина S1 вычисляется по отклонениям р средних от общей средней X.. , поэтому S1 имеет (р-1) степеней свободы. Величина S2 вычисляется по отклонениям N наблюдений от р выборочных средних и, следовательно, имеет N - р = np - p = p(n - 1) степеней свободы. S имеет (N -1) степеней свободы.

Если гипотеза о том, что влияние всех уровней одинаково, справедлива, то обе величины М1 и М2 будут несмещенными оценками 2. Значит, гипотезу можно проверить, вычислив отношение (М12) и сравнив его с Fкр. с 1= (р-1) и 2= (N - р) степенями свободы.

Если Fрасч. Fкр. , то гипотеза о незначимом влиянии фактора А на результат наблюдений не принимается.

Многофакторный дисперсионный анализ. Дисперсионный анализ в Excel.

Дисперсионный анализ позволяет ответить на вопрос о наличии существенного влияния некоторых факторов на изменчивость фактора, значение которого могут быть получены в результате опыта. При проверке статистических гипотез предполагается случайность вариации изучаемых факторов. В дисперсионном анализе один или несколько факторов изменяются заданным образом, причем, эти изменения могут влиять на результаты наблюдений. Исследование такого влияния и является целью дисперсионного анализа. Идея дисперсионного анализа заключается в том, что основная дисперсия разлагается на сумму составляющих ее дисперсий, каждое слагаемое которой соответствует действию определенного источника изменчивости. Например, в двухфакторном анализе мы получим разложение вида:

C2=A2 + B2 + AB2 + Z2

C2 - общая дисперсия изучаемого признака С;

A2 - доля дисперсии, вызванная влиянием фактора А;

B2 - доля дисперсии, вызванная влиянием фактора В;

AB2 - доля дисперсии, вызванная взаимодействием факторов А и В;

Z2 - доля дисперсии, вызванная неучтенными случайными причинами (случайная дисперсия);

В дисперсионном анализе рассматривается гипотеза Н0 - и один из рассматриваемых факторов не оказывает влияния на изменчивость признака. Значимость каждой из оценок дисперсии проверяется по величине ее отношения к оценке случайной дисперсии и сравнивается с соответствующим критическим значением, при уровне значимости , с помощью таблиц критических значений F-распределения Фишера-Снедекора. Гипотеза Н0 относительно того или иного источника изменчивости отвергается, если Fрасч>Fкр. В дисперсионном анализе рассматриваются эксперименты 3 видов:

1. эксперименты, в которых все факторы имеют систематические (фиксированные) уровни;

2. эксперименты, в которых все факторы имею случайные уровни;

3. эксперименты, в которых есть факторы, имеющие случайные уровни, а так же факторы, имеющие случайные уровни.

Двухфакторный дисперсионный анализ с повторениями представляет собой более сложный вариант однофакторного анализа, включающего более чем одну выборку для каждой группы данных. Двухфакторный дисперсионный анализ позволяет статистически обосновать существенность влияния факторных признаков А и В взаимодействия факторов (А и В) на результативный фактор F.

Двухфакторный дисперсионный анализ без повторений позволяет оценить существенность воздействия факторов А и В на результирующий фактор без учета воздействия взаимодействии факторов А и В.

46. Оценка методом наименьших квадратов коэффициентов регрессии

Регрессионный анализ - один из основных методов современной мат статистики. Корреляционный анализ позволяет установить существует или не существует зависимость м/у парами наблюдений, то регрессионный анализ дает целый арсенал методов построения соответствующих зависимостей. Классическим методом оценивания коэффициентов уравнения регрессии является метод наименьших квадратов (МНК).

На основании известных n пар наблюдений (xi, yi) делается предположение о виде зависимости, например:

y=a+bx,

где y - зависимая (результативная) переменная, х - независимая (факторная) переменная.

Пусть переменная x задается точно (без ошибок), тогда отклонение наблюдений yi от зависимости y=a+bx является случайным и параметры a и b можно найти из условия минимизации суммы квадратов ошибок

еi=yi-a-bxi

S= еi2> min,

S= ( yi-a-bxi)2> min,

Эта система носит название системы нормальных уравнений Гаусса, т.к. получена из условия минимизации суммы квадратов отклонении, в предположении, что xi - фиксированы, т.е. отклонения перпендикулярны оси ОХ.


Подобные документы

  • Изучение закономерностей массовых случайных явлений. Степень взаимосвязи теории вероятностей и статистики. Невозможные, возможные и достоверные события. Статистическое, классическое, геометрическое, аксиоматическое определение вероятности. Формула Бейеса.

    реферат [114,7 K], добавлен 08.05.2011

  • Сущность и предмет теории вероятностей, отражающей закономерности, присущие случайным явлениям массового характера. Изучение ею закономерностей массовых однородных случайных явлений. Описание наиболее популярных в теории вероятностей экспериментов.

    презентация [474,2 K], добавлен 17.08.2015

  • Теория вероятностей — раздел математики, изучающий закономерности случайных явлений: случайные события, случайные величины, их свойства и операции над ними. Методы решения задач по теории вероятности, определение математического ожидания и дисперсии.

    контрольная работа [157,5 K], добавлен 04.02.2012

  • Возникновение теории вероятностей как науки, вклад зарубежных ученых и Петербургской математической школы в ее развитие. Понятие статистической вероятности события, вычисление наивероятнейшего числа появлений события. Сущность локальной теоремы Лапласа.

    презентация [1,5 M], добавлен 19.07.2015

  • Основные методы формализованного описания и анализа случайных явлений, обработки и анализа результатов физических и численных экспериментов теории вероятности. Основные понятия и аксиомы теории вероятности. Базовые понятия математической статистики.

    курс лекций [1,1 M], добавлен 08.04.2011

  • Практическиое решение задач по теории вероятности. Задача на условную вероятность. Задача на подсчет вероятностей. Задача на формулу полной вероятности. Задача на теорему о повторении опытов. Задача на умножение вероятностей. Задача на схему случаев.

    контрольная работа [29,7 K], добавлен 24.09.2008

  • Теория вероятности как наука убеждения, что в основе массовых случайных событий лежат детерминированные закономерности. Математические доказательства теории. Аксиоматика теории вероятности: определения, вероятность пространства, условная вероятность.

    лекция [287,5 K], добавлен 02.04.2008

  • Исследования Дж. Кардано и Н. Тарталья в области решения первичных задач теории вероятностей. Вклад Паскаля и Ферма в развитие теории вероятностей. Работа Х. Гюйгенса. Первые исследования по демографии. Формирование понятия геометрической вероятности.

    курсовая работа [115,9 K], добавлен 24.11.2010

  • Основные понятия, действия над случайными событиями. Классическое определение, свойства вероятностей. Правила вычисления вероятностей случайных событий. Построение законов распределения вероятностей случайных величин, вычисление числовых характеристик.

    задача [82,0 K], добавлен 12.02.2011

  • Теория вероятности, понятие вероятности события и её классификация. Понятие комбинаторики и её основные правила. Теоремы умножения вероятностей. Понятие и виды случайных величин. Задачи математической статистики. Расчёт коэффициента корреляции.

    шпаргалка [945,2 K], добавлен 18.06.2012

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.