Понятие условной вероятности
Понятие вероятности события. Петербургский парадокс. Выявление наличия взаимосвязи между признаками в регрессионном анализе. Сравнение коэффициентов корреляции и регрессии. Нахождение тренда с прогнозами в Excel. Методы математического программирования.
Рубрика | Математика |
Вид | контрольная работа |
Язык | русский |
Дата добавления | 12.02.2014 |
Размер файла | 455,5 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
1. Содержательная часть
Событием называется любой факт, который может произойти или не произойти в результате опыта. Причем, тот или иной результат опыта может быть получен с различной степенью возможности. То есть в некоторых случаях можно сказать, что одно событие произойдет практически наверняка, а другое вообще никогда не случится. Достоверным событием называется событие, которое наверняка произойдет в результате опыта. Событие называется невозможным, если оно никогда не произойдет в результате опыта. Например, если из коробки, содержащей только красные и синие шары, наугад вынимают один шар, то появление среди вынутых шаров желтого - невозможное событие. При этом появление красного и появление синего шаров образуют полную группу событий.
Вероятностью события А называется математическая оценка возможности появления этого события в результате опыта. Вероятность события А равна отношению числа, благоприятствующих событию А исходов опыта к общему числу попарно несовместных исходов опыта, образующих полную группу событий.
Произведением событий А и В называют событие АВ. обозначаемое С и состоящее в том, что оба события А и В произойдут. Геометрическую интерпретацию произведения событий проще всего выполнить с помощью кругов Эйлера. При этом событие С изображается как закрашенная часть плоскости:
Для сравнения рассмотрим сумму событий А и В, которой называют событие А+В, обозначаемое С и состоящее в том, что хотя бы одно их А и В произойдет. С помощью кругов Эйлера С можно изобразить как закрашенную часть плоскости:
Этим же рисункам соответствуют электрические (логические) схемы, слева - произведение, справа сложение:
Эти схемы, называемые еще логические «и» и «или», замкнуто и незамкнуто, «да» и «нет», 0 и 1, являются основой всей вычислительной техники и двоичной математики. Отсюда, особенно из рисунков кругов Эйлера, также становится понятным, почему «произведение событий» иногда называют «пересечением событий».
В отношении друг друга события также имеют особенности, т.е. в одном случае событие А может произойти совместно с событием В, в другом - нет. События называются несовместными, если появление одного из них исключает появление других. Классическим примером несовместных событий является результат подбрасывания монеты - выпадение лицевой стороны монеты исключает выпадение обратной стороны (в одном и том же опыте). Полной группой событий называется совокупность всех возможных результатов опыта. Необходимо иметь в виду, что для независимости в совокупности нескольких событий недостаточно их попарной независимости. Классическим примером может служить бросание четрехгранной пирамидки (три стороны и основание - тетраэдр), одна грань которой окрашена в красный цвет, вторая - в зеленый, третья - в синий цвет и четвертая - во все эти три цвета. Пусть событие А состоит в том, что грань, на которую упала пирамидка при бросании, окрашена красным (полностью или в составе трех цветов), событие В-зеленым, событие С - синим. При бросании все четыре грани пирамиды имеют одинаковые шансы оказаться внизу. Поскольку граней четыре и две из них имеют в окраске красный цвет, то Р(А) = 1/2. Легко подсчитать, что
P(B) = P(C) = P (A|B) = P (B|C) = P (C|A) = P (B|A)= P (C|A) = P (A|C) = 1/2
События А, В и С, таким образом, попарно независимы. Однако если известно, что осуществились одновременно события В и С, то это значит, что тетраэдр встал на грань, содержащую все три цвета, т.е. осуществилось и событие А.
Следовательно, Р(АВС) = 1/4, в то время как для независимых событий должно быть Р(А)•Р(В)•Р(С) = (1/2)•(1/2)•(1/2) = 1/8. Следовательно, события А, В и С в совокупности зависимы, хотя попарно они независимы.
Таким образом, событие А называется независимым от события В, если вероятность события А не зависит от того, произошло событие В или нет. Событие А называется зависимым от события В, если вероятность события А меняется в зависимости от того, произошло событие В или нет. Вероятность события В, вычисленная при условии, что имело место событие А, называется условной вероятностью события В:
Понятия условной вероятности и независимости введены А. Муавром в 1718 г. Существует теорема умножения вероятностей: Вероятность произведения двух событий (совместного появления этих событий) равна произведению вероятности одного из них на условную вероятность другого, вычисленную при условии, что первое событие уже наступило.
Также можно записать:
Доказательство этой теоремы непосредственно вытекает из определения условной вероятности. Если события независимые, то , и теорема умножения вероятностей принимает вид:
Следствием теоремы умножения является то, что в случае произведения нескольких зависимых событий вероятность равна произведению одного из них на условные вероятности всех остальных при условии, что вероятность каждого последующего вычисляется в предположении, что все остальные события уже совершились.
При этом порядок, в котором расположены события, может быть выбран любым, т.е. безразлично какое событие считать первым, вторым и т.д. Так же как следствие из теоремы произведения вероятностей можно записать вероятность появления хотя бы одного события. Если в результате испытания может появиться п событий, независимых в совокупности, то вероятность появления хотя бы одного из них равна
В этом случае, событие А обозначает наступление хотя бы одного из событий Ai, а qi - вероятность противоположных событий .
С теоремами сложения и умножения событий связан самый известный парадокс теории вероятностей - Санкт-Петербургский парадокс. Парадокс получил известность после публикации Даниилом Бернулли в заметках Академии наук Санкт-Петербурга в 1738 году, однако впервые парадокс упоминается двоюродным братом Даниила - Николаем Бернулли в 1713 году в письме к математику Монмору. Иногда, ошибочно, парадокс приписывают Эйлеру. Суть парадокса: игроком бросается правильная монета до момента выпадения решки, игрок при выпадении получает 2·k рублей, где k - это номер бросания, при котором выпала решка, то есть при каждом последующем бросании потенциальный выигрыш увеличивается вдвое. Сколько необходимо выплатить игроку за участие в игре с такими условиями, чтобы его средний выигрыш перекрыл выплату за игру. Ответ парадоксален, - математическое ожидание банковских выплат бесконечное число. Выигрыш может выпасть при любом из k бросаний, тогда математическое ожидание равняется сумме произведений вероятностей. В первой партии вероятность того, что вы выиграете один рубль, равна 1/2, вероятность выиграть два рубля еще меньше и равна 1/4, четыре рубля - 1/8 и так далее. Но в итоге суммируя произведения можно рассчитывать на выигрыш в сумме (1·1/2) + (2·1/4) + (4·1/8) + …. Этот бесконечный ряд расходится и, следовательно, его сумма равна бесконечности.
Парадокс пытались исследовать многие ученые, однако приемлемого решения задачи в общем виде до сих пор нет, есть некоторые частные решения например, если число бросаний ограничено 1 миллионом, банк начинает выигрывать, когда средняя ставка игрока составляет 21 рубль. Хотя Петербургский парадокс как модель используется в оценке финансовых рисков при инвестициях, эта модель больше говорит о неопределённости финансовых рисков, чем о возможности их точного предсказания. Сам факт, что петербургский парадокс не получил четкого или вообще приемлемого решения более, чем за 200 лет попыток крупнейшими учеными, подтверждает, что любые прогнозы могут иметь лишь вероятностный характер и могут подвести в самый неподходящий момент. Говорят, что один очень умный человек, по профессии математик поспорил со своим соседом стоя на улице. Сосед сказал, что следующие 100 человек, прошедшие мимо них, будут мужчинами. Математик, в свою очередь, утверждал, что этого не случится. При этом математик поставил на кон велосипед против 1 доллара, который ставил его сосед.
Логика математика была железобетонная: вероятность того, что пройдет мужчина равна вероятности, что пройдет женщина, и равна 1/2. Соответственно, вероятность того, что пройдут подряд 100 мужчин подряд, после перемножения и сложения дробей у математика получилась вероятность 1,3·10-24. То есть, он считал, что ничем не рискует. Логика сосед тоже была прагматична: доллар - небольшая потеря, а вот возможность, пусть даже небольшая, выиграть велосипед, того стоит.
Но, увы, спор решился не в пользу математика, как раз в это врем по улице прошел батальон солдат. Может сосед заранее знал об этом, а может просто помнил, что кроме 99,999 - процентной вероятности и достоверности, есть еще обстоятельства, имеющие свойство создавать самые неимоверные ситуации.
Другим, не менее важным понятием математической статистики является регрессия и, в частности, линейная регрессия. Регрессия от латинского regression - это зависимость среднего значения какой-либо случайной величины от некоторой другой величины или нескольких величин. Регрессионный (линейный) анализ - это статистический метод исследования влияния одной или нескольких независимых переменных Х1, Х2 и т.д. на зависимую переменную У.
Регрессионный анализ подразумевает три этапа:
1. Выявление наличия взаимосвязи между признаками.
2. Определение формы связи.
3. Построение линии регрессии.
В регрессионном анализе считается, что один из признаков зависит от другого. Первый (зависимый) признак обычно называют результирующим, второй (независимый) - факторным. Иногда для независимые переменные называют регрессорами или предикторами, а зависимые - критериальными. При этом не всегда можно однозначно определить, какой из признаков является независимым, а какой - зависимым. Часто связь может рассматриваться как двунаправленная или полностью отсутствовать.
Связь между результирующим и факторным признаками может иметь экспоненциальную, степенную, полиномиальную, логарифмическую или другие зависимости. Но на практике линия регрессии чаще всего ищется в виде линейной функции (средний рисунок), наилучшим образом приближающей искомую кривую. Делается это с помощью метода наименьших квадратов, при котором минимизируется сумма квадратов отклонений их оценочных значений от реально наблюдаемых значений У. Регрессия при этом называется линейной. Уравнение парной линейной регрессии, описывающей прямую линию, имеет вид:
y = kx + b
где y - результирующий признак;
x - факторный признак;
k и b - числовые параметры уравнения.
Коэффициент k называют коэффициентом регрессии. Он показывает, как в среднем изменится результативный признак (у), если факторный признак (х) увеличится на единицу.
Автором метода наименьших квадратов, с помощью которого выводится уравнение линейной регрессии, считается знаменитый немецкий математик Карла Фридриха Гаусса (1777-1855 гг.), который создал и обосновал его в 1795 году при обработке астрономических данных с целью уточнения орбиты малой планеты Церера. Его именем часто называют одно из наиболее популярных распределений вероятностей - нормальное, а в теории случайных процессов основной объект изучения - гауссовские процессы.
В основе метода лежит нахождение оценок неизвестных параметров модели k и b из условия минимизации суммы квадратов:
по переменным k и b.
Выбор линейной регрессионной функции имеет много преимуществ. Весьма существенно, что линейная зависимость между переменными легко интерпретируется человеком. Фактически линейная регрессионная модель разбивает зависимость целевой переменной Y от независимых переменных Xi на отдельные, не связанные между собой компоненты. Она позволяет оценить вклад каждой независимой переменной по отдельности, определив знак и силу этого влияния. Если используется критерий наименьших квадратов, то существует эффективный алгоритм вычисления значений регрессионных коэффициентов ki. Алгоритм нахождения регрессионных коэффициентов линейной модели основан на проведении достаточно простых матричных операций. При этом результатом работы алгоритма, решающего линейную регрессионную задачу является не только оценка точности полученной регрессионной модели, но также стандартные отклонения входящих в нее регрессионных коэффициентов. Поэтому можно судить о значимости (не случайности) вхождения отдельных переменных в уравнение регрессии. Мерой этой значимости может служить значение F-статистики - квадрата отношения величины коэффициента регрессии к величине его стандартного отклонения.
Мерой оценки тесноты выявленной линейной зависимости в математической статистике служит коэффициент корреляции, который может принимать значения в диапазоне от -1 до +1. Его формула и зависимость линии регрессии показаны ниже:
Сравнение коэффициентов корреляции и регрессии
Коэффициент корреляции |
Коэффициент регрессии |
|
Принимает значения в от -1 до +1 |
Принимать любые значения |
|
Безразмерная величина |
Привязан к единицам измерения обоих признаков |
|
Показывает силу связи между признаками |
Показывает структуру связи между признаками |
|
Знак говорит о направлении связи |
Знак говорит о направлении связи |
Помимо парной линейной регрессия существует множественная регрессия. Уравнение множественной линейной регрессии имеет вид аналогичный парной регрессии:
Y = a + b 1 X 1 + b 2 X 2 + … + b k X k
где X 1, X 2, …, X k независимые переменные (факторы);
B 1, B 2, …, B k соответствующие им коэффициенты регрессии
Вовлечение в регрессионный анализ нескольких независимых переменных, конечно же, наносит ущерб наглядности получаемых результатов, так как подобные множественные связи в конце концов становится невозможно или очень сложно представить графически. Визуализация множественной связи в отличии от графика прямой линии может выражаться плоскостью в пространстве, толщиной и цветом линий, мультипликацией и другими доступными пониманию и однозначному толкованию средствами. В качестве иллюстрации представлен пример визуализации множественной регрессии, отражающей зависимость доходов предприятия от численности работающих в сочетании с имеющейся мощностью оборудования и техники.
При этом та же самая достаточно сложная множественная (трехфакторная) зависимость при переходе к двухфакторному (численность-доходы) анализу может быть легко представлена уравнением линейной регрессии:
Линейная регрессия является статистическим инструментом, используемым для прогнозирования будущих значений исходя из прошлых данных. Для построения линий трендов по имеющемуся набору значений с прогнозом на любое количество периодов используется огромное количество специализированных программ, учитывающих особенности той или иной сферы экономики. Для учебных целей можно воспользоваться редактором электронных таблиц MS Excel, который достаточно просто и надежно строит как график линейной регрессии, так и другие виды зависимостей: экспоненциальную, степенную, полиномиальную, логарифмическую с возможностью пролонгирования линии тренда на заданное количество анализируемых периодов.
Нахождение различных линий тренда с прогнозами в MS Excel
Заключение
Широкое использование математических методов является важным направлением экономического анализа деятельности как отраслей производства, так и отдельных предприятий и их подразделений. Это достигается за счет сокращения сроков проведения анализа, более полного охвата влияния факторов на результаты коммерческой деятельности, замены приближенных или упрощенных расчетов точными вычислениями, постановки и решения новых многомерных задач анализа, практически не выполнимых вручную или традиционными методами. При том, что экономико-математические задачи могут быть сложны по своей структуре и иметь большую размерность, они легко могут быть алгоритмизированы и выполнены с помощью специально созданных компьютерных программ.
В большинстве своем эти методы применяются там, где изменение анализируемых показателей можно представить как случайный процесс, на который распространяются законы теории вероятности, в том числе теоремы сложения и умножения. Статистические методы, являются основным средством изучения массовых, повторяющихся явлений, играют важную роль в прогнозировании поведения экономических показателей. Наибольшее распространение из математико-статистических методов в экономическом анализе получили методы множественного и парного корреляционного анализа. Для изучения многомерных статистических совокупностей применяют корреляции, регрессии, дисперсионный, ковариационный, факторный виды анализа.
Наибольшее распространение в современной экономике получили методы математического программирования - основное средство решения задач оптимизации производственно-хозяйственной деятельности. Также широко используется метод исследования операций. Теория игр как раздел исследования операций - это теория математических моделей принятия оптимальных решений в условиях неопределенности или конфликта нескольких сторон, имеющих различные интересы. Теория массового обслуживания исследует на основе теории вероятностей математические методы количественной оценки процессов массового обслуживания. Экономическая кибернетика анализирует экономические процессы и явления в виде очень сложных систем с точки зрения законов и механизмов управления и движения информации в них. Сегодня все большее распространение получает метод моделирования и системного анализа. Для моделирования периодических колебаний широко применяются методы спектрального и гармонического анализа.
Эти и многие другие направления теории вероятностей и математической статистики позволяют глубже, точнее и обоснованнее разрабатывать плановые задания, уточнять комплекс мероприятий по улучшению организации труда и производства в любой сфере экономической деятельности человека.
вероятность парадокс корреляция условный
Список литературы
1. Вероятность и математическая статистика: Энциклопедия / Гл. ред. акад. РАН Ю.В. Прохоров. - М.: Большая Российская энциклопедия, 1999. - 910 с.
2. Гнеденко Б.В. Курс теории вероятностей. М.: Наука, 1988.
3. Кендалл М.Дж., Стъюарт А. Статистические выводы и связи. - М.: Наука, 1973. - 900 с.
4. Математическая теория планирования эксперимента / Под ред. С.М. Ермакова. - М.: Наука, 1983. - 392 с.
5. А.А. Поздеев, Д.М. Моховнев, Е.Н. Белоусова. Теория вероятностей. Уч.-мет. Пособие.
6. Прохоров Ю.В., Розанов Ю.А. Теория вероятностей. (Основные понятия. Предельные теоремы. Случайные процессы.) - М.: Наука, 1973. - 496 с.
7. Рекомендации. Прикладная статистика. Методы обработки данных. Основные требования и характеристики / Орлов А.И., Фомин В.Н. и др. - М.: ВНИИСтандартизации, 1987. - 62 с.
8. Себер Дж. Линейный регрессионный анализ. - М.: Мир, 1980. - 456 с.
9. Теория вероятностей и математическая статистика. Учебник: В.А. Колемаев, В.Н. Калинина - Москва, Юнити-Дана, 2009 г. - 352 с.
Размещено на Allbest.ru
Подобные документы
Нахождение вероятности события, используя формулу Бернулли. Составление закона распределения случайной величины и уравнения регрессии. Расчет математического ожидания и дисперсии, сравнение эмпирических и теоретических частот, используя критерий Пирсона.
контрольная работа [167,7 K], добавлен 29.04.2012Определение вероятности наступления определенного события по законам теории вероятности. Вычисление математического ожидания, дисперсии и среднего квадратичного отклонения. Нахождение выборочного уравнения регрессии по данным корреляционной таблицы.
контрольная работа [212,0 K], добавлен 01.05.2010Теория вероятности, понятие вероятности события и её классификация. Понятие комбинаторики и её основные правила. Теоремы умножения вероятностей. Понятие и виды случайных величин. Задачи математической статистики. Расчёт коэффициента корреляции.
шпаргалка [945,2 K], добавлен 18.06.2012Нахождение выборочной средней и дисперсии. Построение гистограммы продолжительности телефонных разговоров и нормальной кривой Гаусса. Нахождение групповых средних и коэффициента корреляции. Выборочные характеристики и параметры уравнений регрессии.
контрольная работа [87,8 K], добавлен 30.11.2013Алгоритм определения вероятности события и выполнения статистических ожиданий. Оценка возможных значений случайной величины и их вероятности. Расчет математического ожидания, дисперсии и среднего квадратического отклонения. Анализ характеристик признака.
контрольная работа [263,8 K], добавлен 13.01.2014Теория вероятностей — раздел математики, изучающий закономерности случайных явлений: случайные события, случайные величины, их свойства и операции над ними. Методы решения задач по теории вероятности, определение математического ожидания и дисперсии.
контрольная работа [157,5 K], добавлен 04.02.2012Определение вероятности наступления события по формуле Бернулли. Построение эмпирической функции распределения и гистограммы для случайной величины. Вычисление коэффициента корреляции, получение уравнения регрессии. Пример решения задачи симплекс-методом.
контрольная работа [547,6 K], добавлен 02.02.2012Вычисление математического ожидания, дисперсии и коэффициента корреляции. Определение функции распределения и его плотности. Нахождение вероятности попадания в определенный интервал. Особенности построения гистограммы частот. Применение критерия Пирсона.
задача [140,0 K], добавлен 17.11.2011Показатели тесноты связи. Смысл коэффициентов регрессии и эластичности. Выявление наличия или отсутствия корреляционной связи между изучаемыми признаками. Расчет цепных абсолютных приростов, темпов роста абсолютного числа зарегистрированных преступлений.
контрольная работа [1,5 M], добавлен 02.02.2014Определение вероятности появления события в каждом из независимых испытаний. Случайные величины, заданные функцией распределения (интегральной функцией), нахождение дифференциальной функции (плотности вероятности), математического ожидания и дисперсии.
контрольная работа [59,7 K], добавлен 26.07.2010