Информационная система комплексного менеджмента

Общие понятия услуги colocation. Проблемы "озеленения". Основные задачи, решаемые системой комплексного менеджмента colocation-проектов. Выбор программной платформы разработки системы. Проверка закона распределения данных по критериям К. Пирсона.

Рубрика Программирование, компьютеры и кибернетика
Вид дипломная работа
Язык русский
Дата добавления 28.01.2013
Размер файла 1,9 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Итак, основными достоинствами Apache считаются надежность, относительная устойчивость к взлому и гибкость конфигурации. Он позволяет подключать внешние модули для предоставления данных, использовать СУБД для аутентификации пользователей, модифицировать сообщения об ошибках и т.д. Достоинства Web-сервера Apache:

· Модульность структуры;

· Открытая архитектура (можно скачать как исходный код, так и откомпилированный вариант);

· Работоспособность под несколькими платформами;

· Бесплатное распространение;

· Возможность работы с CGI программами;

· Управление доступом средствами сервера;

· Контроль за доступом по имени домена/IP-адресу.

2.5 Выбор программно-аппаратной платформы разработки информационной системы

Поскольку, сервисы, реализуемые информационной системой должны удовлетворять следующим условиям:

1 Высокая производительность.

2 Отказоустойчивость.

3 Высокая степень доступности.

В связи с этим пунктами, была разработана программно-аппаратная платформа информационной систем, основанная на современных технологиях кластеризации сервисов.

Рисунок 2.4

2.5.1 Обеспечение отказоустойчивости решения

При подходе к проектированию отказоустойчивости платформы были выбраны следующие критерии и рамки к аппаратному и программному обеспечению:

1 Четыре сервера архитектуры x86 на базе процессора Intel Xeon Quad Core с тактовой частотой не менее 2,5 Ггц. Сервера должны быть укомплектованы:

· двумя сетевыми интерфейсами.

· объемом оперативной памяти не менее 8 Гб и

· контроллером жестких дисков с поддержкой RAID 1.

· для формирования массива RAID 1 должны быть использованы SCSI (SAS) диски объемом не менее 72 ГБ каждый со скоростью вращения цилиндров не менее 10000 rpm.

2 В качестве операционной системы серверов выбран продукт Windows Server 2003 Enterprise Edition R2 SP2 32 bit English.

3 Доступ к web-приложению будет осуществляться посредством IIS (версии 2.0) + PHP не ниже версии 5.0. (узлы кластера сервера web-приложений Apache1, Apache2)

4 В качестве СУБД выбран Microsoft SQL Server 2005 Enterprise Edition 32 bit SP2 English (узлы кластера сервера СУБД MS SQL1, MS SQL2).

5 Внешний дисковый массив (система хранения данных) с поддержкой RAID 1,5 и количеством дисков не менее 10 на корзину.

2.5.2 Использование failover кластера (отказоустойчивого кластера)

Failover кластер создается для обеспечения высокой доступности сервиса, предоставляемого кластером. Избыточное число узлов, входящих в кластер, гарантирует предоставление сервиса в случае отказа одного или нескольких серверов. Типичное число узлов - два, это минимальное количество, приводящее к повышению доступности.

Операционная система Windows Server 2003 релиз Enterprise предоставляет возможность создания конфигурации отказоустойчивого кластера. В кластере будут работать следующие сервисы:

1. Microsoft SQL Server со всеми его службами и сервисами.

2. Apache 2.0.

Внешний дисковый массив будет использоваться в качестве дискового пространства для хранения конфигурационных файлов и файлов баз данных SQL сервера. Пространство дискового массива будет разбито следующим образом:

Таблица 2.1. Разбиение дискового простанства на системе хранения данных

1 ая Дисковая группа (Raid 1)

2 ая Дисковая группа (Raid 5)

Служит для хранения конфигурационных файлов кластера SQL сервера

Служит для хранения баз данных Microsoft SQL Server'а

2.5.3 Принцип функционирования кластера

Как видно из логической схемы программно-аппаратного комплекса «Дети. Кино. Музыка. Интернет» в существующем кластере будет 2 узла. Сервисы и службы Microsoft SQL Server'а и Apache будут представлять собой единую кластерную группу, то есть при выходе из строя одного из сервисов на одном узле, сервисы будут запущены на другом узле. Один сетевой интерфейс на каждом сервере будет использован для выхода в общую сеть программно-аппаратного комплекса, а еще один будет использован для функционирования кластера (требования производителя). Эти интерфейсы будут входить в подсеть heartbeat (выделенный и изолированный от общей сети vlan). VLAN - виртуальная локальная вычислительная сеть.VLAN могут являться частью большой LAN, имея определенные правила взаимодействия с другими VLAN, либо быть полностью изолированными от них.

2.5.4 Персональный компьютер пользователя (Клиент)

Персональный компьютер на базе процессора Intel Pentium IV; 2048 Mb оперативной памяти; от 50 Gb свободного дискового пространства; Операционная система MS Windows XP/2003/Vista с поддержкой русского языка; Web-браузер Microsoft Internet Explorer v. 6.0 и выше; Для работы в локальной сети на всех компьютерах, участвующих в работе, должен быть установлен сетевой адаптер FastEthernet. Минимальная полоса пропускания при работе в сети должна составлять 100 Мбит/с.

3. Разработка информационной системы

3.1 Проверка закона распределения данных по критериям К. Пирсона (критерии согласия)

При проектрировании и планировании модулей информационный системы для оптимизации распределения вычислительных процессов использовался закон распределения данных К. Пирсона, с целью наиболее эффективного планирования нагрузки на ядро информационной системы.

Имеется семейство распределений F (например, всех непрерывных распределений), и есть гипотетический член семейства F0 F. По выборке x1, x2,…, xn реализаций с.в. проверяется гипотеза Н: F0(x). Если распределение F0 полностью задано (а его возможные параметры известны), то говорят, что гипотеза Н простая. Если же имеем целое параметрическое семейство распределений {F0 (x;)} F, и значения параметра (параметров) неизвестны и их нужно оценить по выборке, то гипотеза Н сложная.

Заметим, что, русский эквивалент «критерий согласия» английского термина «goodness-of-fit tests» крайне неудачен. В самом деле, в случае непрерывной с.в. её ф.п.в. f(x) определяется счётным множеством значений аргумента x при рациональных значениях x. Между тем мы всегда имеем выборку x1, x2,…, xn конечного объёма n. Ясно, что нельзя однозначно идентифицировать f(x) по её поведению в конечном числе точек, даже если бы мы наблюдали непосредственно f(x), а не её проявление - выборочные значения с.в. f(x). Поэтому скорее эти критерии можно назвать критериями несогласия: если выборочные значения заметно не согласуются с гипотетической f(x), то гипотеза о том, что данные имеют это распределение, должна быть отвергнута.

I. Критерии типа 2.

Первый из критериев согласия был предложен в 1901 г. К. Пирсоном и получил название 2. Критерии такого типа и сейчас широко используются из-за их универсальности: они приложимы к дискретным и непрерывным распределениям, одномерным и многомерным данным.

Итак, пусть проверяется простая гипотеза H: F0 (x). Рассмотрим разбиение области значений E с.в. , порождающей выборку x1, x2,…, xn, на ячейки E j, j = 1, 2, … k, причём E j E l = при j l, и E 1 E 2 … E k = E. Пусть число попаданий x1, x2,…, xn в E j (частота попаданий) есть rj, а вероятность попадания

pj = , j = 1, …, k. (1)

Пирсон решил, что разности rj - n pj между частотами и ожидаемыми числами попаданий выражают меру несоответствия данных с F0, и он нашёл подходящую функцию от этих разностей как меру несоответствия. При этом Пирсон опирался на положения:

1) Случайный вектор r = (r1,…, rk-1)T Rk - 1 имеет мультиномиальное распределение, и если Н верна, то это распределение с параметрами p1,…, pk-1: r M (n; p1,…, pk - 1) (это не описка: мы рассматриваем k ячеек разбиения, но r1 + … + rk = n, и rk = n - r1 - … - rk - 1; с другой стороны, p1 + p2 + … + pk = 1, так что pk = 1 - p1 - … - pk-1; поэтому только k - 1 частот являются независимыми). Действительно, рассмотрим xi - i-ый член выборки. Для него возможно наступление взаимно исключающих событий xi E1, xi E2,…, xi Ek, причём вероятности наступления этих событий p1,…, pk одинаковы для всех i = 1, …, n. Введём функцию-индикатор

и рассмотрим вектор hi = (hi(1),…, hi(k - 1))T R k - 1. Для с.в. xi возможны k исходов {xi Ej}, j = 1,…, k, так что с.в. hi имеет мультиномиальное распределение. Когда Н верна, hi M (1; p1,…, pk - 1). Если M (1; p1,…, pk - 1), то её х.ф. (t) = (t1, …, tk - 1) = (С. Уилкс «Математическая статистика», 1967, стр. 153), откуда легко вычислить E{j } = pj, Var{j } = pj - pj2, cov{j, l} = - pj pl, j = 1,…, k-1; l = 1,…, k-1; l j.

В векторном виде два низших момента (и её выборочной реализации h i) запишутся в виде:

E{} = p = , cov{, } = = || jl pj - pj pl || R (k - 1) x (k - 1). (2)

Вернёмся к вектору r. Так как члены выборки - независимые одинаково распределённые с.в., то очевидно, что

r = (*)

будет иметь мультиномиальное распределение M (n; p1,…, pk - 1) (это вытекает из воспроизводимости мультиномиального распределения по n - числу испытаний). Из (2) и (*) легко найти м.о. и ковариационную матрицу для r:

E{r } = n p, cov {r, r} = n = || n( jl pj - pj pl)||, j, l = 1, …, k-1, (2')

а для M (n; p1,…, pk - 1) вероятность события {1 = r1, 2 = r2,…, k -1 = rk -1 } равна

Prob{1 = r1,…, k-1 = rk-1 } = (3)

2) Если r M (n; p1,…, pk - 1), то, согласно многомерному варианту ц.п.т. (см. С. Уилкс, стр. 269 - 270), при n

r - n p N k - 1 (0, n ), а y = N k - 1 (0, ), (**)

Действительно, согласно (*), r - сумма n одинаково распределённых и независимых слагаемых hi что доказывает первое утверждение. Справедливость второго вытекает из усиленной воспроизводимости многомерного нормального распределения.

3) Если y Nq (), > 0, то квадратичная форма Q = (y - )T - 1 (y - ) q2 (это утверждение доказано в теореме 2.3 книги М.В. Уфимцева «Методы многомерного статистического анализа», изд. МГУ, 1997 г.).

4) Для y = эта форма Q имеет вид

X 2 = (pk = 1 - p1 - … - pk-1; rk = n - r1 - … - rk -1). (4)

Действительно, непосредственным перемножением матриц и - 1 можно проверить, что

- 1 = || jl / pj +1 / pk ||, j, l = 1, …, k - 1: (5)

( - 1)ll = pl / pl - pl + pl / pk - pl / pk = 1 - pl + pl / pk - pl / pk + pl = 1;

( - 1)lj, l j = = pl / pk - pl - pl / pk = pl / pk - pl - pl / pk + pl = 0.

Так как асимптотически y N k - 1 (0, ), то в силу определения y и (5) квадратичная форма

Q =

== X 2.

Тогда, согласно утверждению 3, с.в. X 2 имеет асимптотически распределение k-1 2 независимо от формы гипотетического распределения F0 (x), т.е. статистика X 2 является свободной от распределения.

Можно показать (см. [2], стр. 290; [3], стр. 559), что статистика Пирсона X 2 асимптотически эквивалентна статистике отношения правдоподобия (ОП). Пусть верна Н ( F0 (x)); переобозначим вероятности в формуле (1) как p01, …, p0 k. Тогда ФП для Н, согласно (3), равна

L(p01, …, p0 k; r1, …, rk) = n! . (6)

Альтернативой К служит любая ф.р. F1 (x), для которой при данном разбиении ячеек E 1, E 2,…, E k найдётся хотя бы один номер j такой, что

p1 j = . (1')

Таким образом, при группировке в ячейки речь идёт о возможности различать распределения, имеющие разные вероятности (1), (1'), т.е. на самом деле вместо Н проверяется гипотеза, что для , порождающей выборку, вероятности попадания в ячейки равны p01, …, p0 k. Тогда F1 (x) соответствует ФП

L(p11, …, p1 k; r1, …, rk) = n! . (6')

Так как вероятности {p1 j} заранее неизвестны, в отличие от {p0 j}, найдём безусловный максимум для ФП (6'). Перейдя к логарифмам, имеем:

LL (p; r) = ln L (p; r) = ;

дифференцируем по p1j и приравниваем производные к 0. С учётом того, что p1 k = 1 - p11 - … - p1k-1, получим

, j = 1, 2, …, k - 1,

откуда в стационарной точке p1 j пропорциональна rj. Вспомнив, что {p1 j} нормированы на 1, получим МП-оценку в случае альтернативы F1(x): , j = 1, 2, …, k - 1. Нетрудно проверить, что найденное решение соответствует максимуму ФП (для этого нужно устремить p1 j к 0 или к 1). Значение L в точке максимума равно

L max = = . (7)

Обозначая n p0 j = a j, запишем ОП в виде

= . (8)

Логарифмируя (8), получим

-2 ln = -2. (9)

Если Н истинна, то E{rj } = aj, {rj } = , а по неравенству Чебышева {rj } как раз определяет характерные отклонения с.в. ri - ai. Поэтому можно разложить логарифм в правой части (9) по степеням n -1/2 и получить, учитывая, что :

G 2 =

= + O(n - 1 / 2). (10)

Поэтому статистика ОП G 2, равная -2ln , асимптотически эквивалентна статистике X 2. Поскольку для критерия ОП критическими являются малые значения , то из доказанной эквивалентности с.в.

G 2 = -2 ln = 2 X 2 (11)

следует, что критическими являются большие значения X2, и Н отвергается, если X 2 > k-1, 1 - 2.

В случае сложной гипотезы Н: x1, x2,…, xn F0 (x;), причём значение q-мерного параметра неизвестно, рассмотрение Пирсона не проходит, так как оценка - с.в. и в частности, E{rj - npj ()} = n(pj() - E{pj ()}) Здесь вероятности

pj() = , j = 1, …, k. (1»)

Фишер (1924) показал, что в случае сложной гипотезы статистика

X 2() = (4')

не распределена как k-1 2, а её распределение зависит от метода оценивания . Фишер предложил использовать оценку максимального правдоподобия (МП-оценку), основанную на частотах rj попадания в ячейки (мультиномиальную МП-оценку). В силу (3) ФП имеет вид

L(; r1, …, rk) = n! , (6»)

и тогда, логарифмируя (6»), беря производную логарифма ФП по l, l = 1, …, q и приравнивая её к 0, получим систему уравнений МП, однородную по rj:

= 0, l = 1, …, q. (12)

Вернёмся немного назад и приведём иной вывод асимптотического распределения (4) в случае простой гипотезы, принадлежащий Фишеру (1922). Это рассмотрение позволит нам понять, что изменится при наличии системы уравнений (12) для оценок параметров.

Предположим, что имеются k независимых пуассоновских с.в., из которых j-я имеет параметр npj. Вероятность того, что первая величина примет значение r1, вторая r2 и т.д., равна

P(r1, r2, …, rk) = = e - n n n .

Рассмотрим теперь условную вероятность наблюдения этих значений при фиксированной их сумме . Сумма k независимых пуассоновских с.в. сама имеет распределение Пуассона с параметром . Таким образом, вероятность того, что эта сумма равна n, есть

P = e - n n n / n!.

Теперь мы можем получить требуемую условную вероятность:

P(r1, r2, …, rk | ) = = .

Это в точности совпадает с ф.в. (3) мультиномиального распределения. Ранее я доказывал (см. файл NORM.DOC), что нормированная с.в.

j =

асимптотически нормальна N (01) при n . Следовательно, при при n с.в.

X 2 =

представляет собой сумму квадратов k независимых стандартных нормальных величин, подчинённых единственному условию , что эквивалентно условию . Следовательно, согласно примеру 11.6 книги М.Дж. Кендалл, А. Стьюарт «Теория распределений»; М.: «Наука», 1966 с.в. X 2 имеет асимптотически распределение 2 с k - 1 степенью свободы.

Польза от этого второго доказательства состоит в том, что в совокупности с примером 11.6 оно показывает, что если наложить дополнительно q однородных линейных условий (12) на rj, то всё влияние этого на асимптотическое распределение X 2 будет заключаться в уменьшении числа степеней свободы с (k - 1) до (k - q - 1).

Доказательство асимптотической эквивалентности статистики логарифма отношения правдоподобия (ОП) G 2 = -2ln и X 2 можно обобщить на случай сложной гипотезы. Отсюда Фишер вывел, что оценка, эквивалентная МП-оценке (12), может быть найдена путём минимизации (4') (метод минимума 2). Необходимое условие экстремума (4') приводит к системе уравнений

, l = 1, …, q (13)

(при получении (13) нужно воспользоваться последней формулой в (4')). Фишером было показано, что если - оценка, получаемая как решение (12) (или (13)) и дающая глобальный максимум (6») (глобальный минимум (4')), то

X 2()k - 1 - q2 (14)

(для эквивалентной статистики ОП G2() = -2ln() асимптотическое распределение 2 в случае, если Н верна <с числом степеней свободы, равным числу свободных параметров>, было получено при общих предположениях о критерии ОП Уилксом (1938)).

Позднее фон Нейман (1949) получил ещё одну оценку параметров, асимптотически эквивалентную X 2() и G2(): нужно минимизировать по модифицированную X 2

Xm 2() = , (15)

что приводит к системе уравнений

, l = 1, …, q, (16)

то решение задачи глобальной минимизации (15) асимптотически эквивалентно . Нередко (16) легче решить, чем (12) или (13). Однако даже она является нелинейной и обычно требует численного решения. Так, если F0 (x;) - функция одномерного нормального распределения, E j = (a j - 1, a j), а (z) = - ф.р. стандартного распределения N (0 1) (интеграл ошибок), то

pj () = , (17)

и указанная вероятность (17) вычисляется только численно.

Если же использовать оценки не , а обычные МП-оценки для негруппированных данных, например, в случае нормального распределения использовать обычные МП-оценки

,

то X 2() в (4') не распределена по k - 1 - q2. Как показали Chernoff and Lehmann, при использовании МП-оценок для не группированных данных статистика X 2() асимптотически распределена как

X 2() 0 + , (18)

где 0, 1, 2,…,q - независимые с.в., причём 0 k - 1 - q2, 1, …, q 1 2, соответственно, а 0 l - неизвестные числа. Поэтому при заданном размере критерия верные критические точки в этом случае попадают между критическими точками для 2k - 1 - q, 1 - и 2k - 1, 1 - .

Какую же статистику использовать? Показано, что если k фиксировано, а n , то G 2 предпочтительнее по мощности. Если же k растёт с n, то мощнее X2.

Каковы же рецепты по использованию критерия 2? Вообще говоря, нужно исходить из того, что средняя частота попаданий в каждую ячейку E{rj } = n pj должна быть велика, E{rj } 1, j = 1, …, k, чтобы можно было использовать ц.п.т. (предположение 2). В частности:

1. Mann and Wald (1942) доказали несмещённость критерия 2 в случае равновероятного разбиения при простой гипотезе, и поэтому рекомендовали использовать разбиение на ячейки с равновероятными попаданиями p1 = p2 = … = pk = 1/k. Это требование вытекает и из здравого смысла: при равновероятном разбиении величина достигает своего максимального значения, равного n/k. Если гипотеза сложная, то нужно использовать ячейки, равновероятные при значениях параметров, равных вычисленным оценкам.

2. Эти же исследователи обосновали выбор числа ячеек в случае простой гипотезы. Показано, что при равновероятном разбиении следует использовать для выборки объёма n и размера критерия число ячеек

k = 4 , (19)

где c() - (1-) - квантиль стандартного нормального распределения N (0 1): . Более поздние исследования показали, что при стандартном = 0.05 выбор k = 2 n 2 / 5 хорош даже при небольших n. Процедуры, реализующие критерий Пирсона, есть во многих статистических пакетах, например, S-PLUS, SPSS, STATISTICA.

Обобщение критериев типа 2 основано на использовании общих квадратичных форм. Пусть (здесь означает аргумент функции, а не постоянное истинное значение вектора параметров )

pj() = , j = 1, …, k. (1» ')

и пусть vn() - вектор размера k с компонентами . Пусть Qn = Qn(x1, x2,…, xn) = QnT Rk x k, Qn 0. Рассматривались статистики типа квадратичных форм

Rn = vnT() Qn vn(). (20)

Заметим, что статистика Пирсона X 2 тоже входит в семейство (20) (ей отвечает Qn = I k).

Рао и Робсон [Rao, K.C., and Robson, D.S. (1974) A chi-square statistic for goodness-of-fit within the exponential family. Comm. Statist., 3, 1139-1153] нашли квадратичную форму вида (20), которая имеет асимптотически распределение k - 1 2, если подставить в (20) вместо обычную МП-оценку для не группированных данных . Соответствующая матрица равна

Qn() = I k + B() [J() - B T() B()] - 1 B T(), (21)

где матрица B () Rk x q и имеет элементы

, j = 1, …k; l = 1, …q,

а J() R q x q - информационная матрица Фишера для F0 (x; ). Её rs-ый матричный элемент равен

Jr s () = .

Здесь f (x; ) = F0 (x; ) - ф.п.в. для непрерывных распределений и f (x; ) - ф.в. для дискретных распределений. В матрице (21) нужно взять вместо обычную МП-оценку для не группированных данных .

Заметим, что статистика Рао-Робсона (20) складывается из X 2 Пирсона, плюс член, связанный с B () и достраивающий (18) до k - 1 2, т.е.

Rn = X 2() + (vnT B) [J - B T B] - 1 (vnT B) T (22)

в точке = . Показано, что обычно Rn примерно на 40% мощнее, чем X 2 или G 2 (это обусловлено отсутствием потери числа степеней свободы в асимптотическом распределении Rn k - 1 2).

Тем не менее, при использовании критериев типа 2 в случае непрерывных распределений всегда происходит потеря информации при группировке в ячейки. Поэтому для непрерывных с.в. хотелось бы поискать более мощные критерии.

II. Статистики, основанные на эмпирической функции распределения (EDF Tests)

Пусть абсолютно непрерывная с.в. F(x) = P{ x}, и есть выборка x1, x2,…, xn. Построим вариационный ряд x(1) < x(2) <… < x (n). Тогда эмпирическая ф.р. определяется как

Fn(x) = (число наблюдений, x) / n, - < x < , (23)

или более подробно,

(23')

т.е. это ступенчатая функция со скачками в выборочных точках и высотой ступеньки n - 1. EDF-тесты основаны на вертикальных разностях между Fn(x) и F(x) и подразделяются на супремум-статистики и квадратичные статистики.

Супремум-статистики: примеры их

D+ = D- = (24)

и статистика Колмогорова

D = . (24')

Квадратичные статистики. Это семейство Крамера-фон Мизеса

Q = n , (25)

где x - заданная весовая функция. При x 1 имеем статистику Крамера-фон Мизеса W 2, а при

x = {F(x) (1 - F(x))}-1

статистику Андерсона-Дарлинга А2.

Теоретическое обоснование для рассмотрения EDF-тестов основано на общем результате теории вероятностей (теорема Гливенко-Колмогорова), следующем из свойств статистики Колмогорова (24') (Уилкс, стр. 350): Fn(x) сходится по вероятности к F(x) (это знал уже Бернулли), причём сходимость по x равномерная (Гливенко, Колмогоров) при n .

Пусть гипотеза Н простая: F(x) - с.в. непрерывного типа. Тогда справедливо вероятностное интегральное преобразование (PIT), или теорема Смирнова: Если F(), то её ф.р. F*(z) = z, 0 z 1, F*(z) = 0 при z < 0, и F*(z) = 1 при z > 1, т.е. с.в. имеет стандартное равномерное распределение R (1/2, 1). Действительно, случаи z < 0 и z > 1 тривиальны. Если 0 z 1, получим

F*(z) = P{ z} = P {F() z} = P{ F - 1(z)} = F(F - 1(z)) = z

(в случае, если решение уравнения z F(x) не единственно, можно условиться понимать под F - 1(z), например, наименьшее из таких x).

Обозначим zi F(xi), i = 1, …, n, и пусть F*n(z) - EDF для z1,…, zn. Тогда легко показать, что для и , связанных соотношением F(), соответствующие вертикальные разности равны, т.е.

Fn(x) - F(x) = F *n(z) - z = F *n(z) - F*(z). (26)

Значит, EDF-статистики, вычисленные для zi, сравниваемой с равномерным распределением, будут иметь те же значения, как если бы они были вычислены из EDF для xi, сравниваемой с F(x). Иными словами, EDF-критерии свободны от распределения, и достаточно вычислить их процентные точки для случая равномерного распределения. Если вариационный ряд для {zi } есть z(1) < z(1) < … < z(n), то справедливы формулы (см. гл. 4 книги D'Agostino and M.A. Stephens):

D + = (i/n - z(i)), D - = (z(i) - ), D = max{D +, D - },

W 2 = , A 2 = - n - = - n- . (#)

Если же гипотеза Н сложная, т.е. x1, x2,…, xn предполагается взятой из непрерывного распределения F (x;), где вектор параметров неизвестен и его нужно как-то оценить по выборке, то, взяв оценку и вычислив z(i) F(x(i); ), мы по-прежнему можем вычислить EDF-статистики по формулам (#), но не сможем апеллировать к теореме Смирнова, чтобы обосновать независимость статистик от проверяемой гипотезы, так как мы не получим упорядоченную равномерную выборку из z(i), ибо z(i) теперь зависят от проверяемого распределения, истинных значений параметров, метода оценивания, а также от объёма выборки.

Если неизвестные компоненты вектора - параметры положения и / или масштаба, и они оцениваются подходящими методами (МП), то распределения EDF-статистик не будут зависеть от истинных значений неизвестных параметров, а только от проверяемого семейства и от объёма выборки n. Однако точные распределения EDF-статистик и в этом случае найти трудно, и используется метод Монте-Карло. Для квадратичных статистик W 2 и A 2 есть асимптотическая теория, и процентные точки этих статистик для конечного n быстро сходятся к асимптотическим. Для D+, D - и D общей асимптотической теории нет (кроме случая простой гипотезы), и для них используется метод Монте-Карло для расчёта процентных точек.

В случае простой гипотезы EDF-статистики намного мощнее, чем 2. Статистика D Колмогорова часто менее мощная, чем W 2 и A 2. Особенно мощна A 2 при различии Fn(x) и F(x) на хвостах распределений. Почти во всех статистических пакетах реализована статистика Колмогорова (в том числе модификация для проверки нормальности, если параметры распределения неизвестны (Lilliefors test в STATISTICA, SPSS), а в STATISTICA есть ещё статистика Андерсона-Дарлинга A 2.

III. Критерии согласия для ф.п.в. вида f(w), где w = . Критерии нормальности

Рассмотрим ф.р. вида

dF0(x; ) = f() d () = f() ,

где параметр сдвига - а - параметр масштаба. Примеры:

(а) нормальное распределение,

f(w) = ,

т.е. в традиционных обозначениях, идущих от К. Пирсона, = , = ;

(б) распределение Коши, f(w)

= ;

(в) Лапласа, f(w)

= , - < x < + ;

(г) трёхпараметрическое гамма-распределение,

f(w) = , x , и f (x - ) = 0

при x < , где p > 0 - число степеней свободы.

Проверяется гипотеза Н: F0 (x; ). Пусть все параметры распределения F0 известны, неизвестны только и (в частности, в случае (г) p задано). Пусть w1, …, wn - выборка реализаций с.в. f(w), w = (w(1),…, w(n))T - вектор порядковых статистик для неё, и пусть mi = E{w(i)}, i = 1, …, n - множество констант. Введём вектор m = (m1, …, mn) T. Мы можем рассматривать w1, …, wn как выборку из F0(x; ) с = 0 и =1 и можем (при заданных и ) построить выборку x1, x2,…, xn из F0(x; ), вычисляя

xi = + wi, i = 1, …, n. (27)

Так как , то

x(i) = + w(i), (27')

и тогда

E{x(i)} = + m i. (28)

Введём вектор x = = (x(1), x(2), …, x(n))T. Тогда в векторном виде

x = 1 + w, (27»)

где вектор 1 = (1, 1, …, 1) T R n.

Соотношение (28) означает, что в плоскости (mi, x(i)) точки сосредоточатся примерно на прямой линии с пресечением вертикальной оси в точке и с тангенсом наклона . Квадрат выборочного коэффициента корреляции между m и x равен

, (29)

где . Значение r2 должно быть близко к 1 (это следует из теоремы Гёфдинга), а статистика

z = n {1 - r2(x, m)}, (30)

наряду с r2(x, m), также может служить для проверки Н. Гипотеза Н отвергается, если величина z > z - критического значения для размера (корреляционный критерий).

Легко показать, что статистика (29) не зависит от значений и . Из (27») следует, что

.

Тогда статистика (29) перепишется в форме

,

т.е. не зависит от параметров и .

Если вдобавок распределение f(w) симметрично, то для с.в. f(w) имеем E{} = 0. Тогда статистика (29) имеет более простой вид: в этом случае

n , и тогда

= . (29')

где S 2 = В частности, для нормального распределения N(, 2) с f(w) = (2) - 1 / 2 exp{-w2 / 2}, w = величины mi - уже знакомые нам нормальные метки. Тогда (29') может служить для проверки нормальности: если для заданного размера критерия выполнено r 2 (x, m) < r2, то нормальность отвергается (критерий Shapiro - Fransia). Аналогично, если в (30) z > z, то нормальность нужно отвергнуть.

Этот критерий, основанный на корреляциях, - не единственный критерий для проверки нормальности. К (28) можно подойти и с позиций регрессии. (Вплоть до формулы (33') моё изложение основано на результатах Ллойда: Lloid E.H. (1952) Least-squares estimation of location and scale parameters using order statistics, Biometrika, 39, p. 88). Обозначим через V R n x n матрицу с элементами Vi j = E{(w(i) - mi) (w(j) - mj)}; это ковариационная матрица для вектора w. Поскольку

x(i) = + m i + i, (28')

где i, i = 1, …, n - случайные отклонения x(i) от их м.о. (28), или в векторной форме

x = 1 + m + , E{} = 0, cov{, } = 2 V, (31)

Это обобщённые НК-оценки для и , минимизирующие целевую функцию

Q(, ) = (x - 1 - m)T V - 1 (x - 1 - m), (32)

равны ([3], стр. 126-127)

, (33) где матрица

(34)

(обобщённые НК-оценки будут рассмотрены дальше; сейчас кратко замечу, что если в линейной модели

y = A + ,

где y - вектор измерений, - вектор ошибок, для которого E{} = 0, cov{, } = V; - неизвестный вектор параметров, A - известная матрица данных < для (31) y = x, A = (1: m) R n x 2 >, и ищется минимум целевой функции (y - A ) TV - 1(y - A ), то обобщённая НК-оценка параметров равна

(A T V - 1 A) - 1 A T V - 1 y.

Осталось подставить нашу матрицу данных A, получить

A T V - 1 A =

обратить A T V - 1 A и найти и как

.

Предлагается сделать это как домашнее упражнение по МНК).

В случае симметричного распределения для с.в. f(w) распределение с.в. (-) такое же, как для . Отсюда следует, что совместное распределение упорядоченных наблюдений w(1), w(2) …, w(n) такое же, как множества {-w(n), - w(n - 1), …, - w(1) }.

Это можно выразить в матричной форме, введя матрицу перестановок J R n x n:

J = .

При умножении матрицы J на вектор v порядок его элементов меняется на обратный. Матрица J симметричная и ортогональная: J = J T = J - 1, а суммы её элементов по строкам все равны 1: J T 1 = 1. Тогда можно записать (-w(n), - w(n - 1), …, - w(1))T = - J w.

Так как с.в. w и - J w имеют одинаковые распределения, то E {-J w} = E{w} = m, cov {- J w, - J w} = cov {w, w} = V, т.е. (см. лемму 1.3 книги Уфимцева (1997 г.)) m = - J m, V = J V J, и отсюда V - 1 = J V - 1 J.

Возвращаясь к матрице A T V - 1 A, легко показать, что в случае симметричного распределения с.в. матрица A T V - 1 A - диагональная, т.е. что 1 T V - 1 m = 0. Действительно, 1 T V - 1 m = 1 T (J V - 1 J) (- J m) = - 1 T J V - 1 J 2 m = - 1 T V - 1 m, т.к. 1 T J = 1 T, J 2 = J J T = J J - 1 = In. Получили равенство d = - d, возможное только при d = 1 T V - 1 m = 0.

Тогда обратная матрица (A T V - 1 A) - 1 = diag {1/1 T V - 1 1, 1/ m T V - 1 m}, и наши оценки (33) переходят в

.

В случае нормального распределения, когда = и = , (см. Кендалл, Стъюарт «Статистические выводы и связи», стр. 126-129), оценки (33) сводятся к

. (33')

(Основания, по которым Ллойд пришёл к первому соотношению (33'): так как - (обобщённая) НК-оценка, то она не хуже всякой другой линейной несмещённой оценки, в частности, , т.е. Var{} Var {}, стало быть, Var{} Var {}. С другой стороны, в общем курсе статистики в теории точечных оценок доказывается, что в случае выборки из нормального распределения является эффективной оценкой параметра этого распределения, откуда Var{} Var {}. Приходим к выводу о равенстве дисперсий: Var{} = Var {}. Но так как эффективная оценка единственна <Кендалл и Стьюарт «Статистические выводы и связи», стр. 34 - 35>, то = ).

На основании этого Shapiro and Wilk предложили статистику отношения оценок (квадрата) масштаба

W = , (35)

где S 2 = , R 2 = m T V - 1 m, c 2 = m T V - 1 V - 1 m. Множители в (35) гарантируют, что 0 W 1, где W записано в эквивалентном виде

W = = . (35')

В самом деле, если рассмотреть corr 2 {V - 1 m, x} - квадрат выборочного коэффициента корреляции, то его можно представить в виде

corr 2 {V - 1 m, x} = . (35»)

Нетрудно видеть, что по доказанному n = = 0, и тогда мы получим, что corr 2 {V - 1 m, x} = W [0, 1]. Проводя такие же рассуждения, как в случае статистики (29), из (35») нетрудно видеть, что статистика Шапиро_Уилка W не зависит от параметров распределения и .

Если подставить из (33') в (35'), то мы увидим, что алгоритм вычислений следующий:

1. Вычислим вектор a* = V - 1m; тогда c 2 = || a *|| 2 = a *Ta *. Пусть a = a * / c.

2. Вычисляем статистику

W = = . (36)

Таким образом, нужны либо 1) нормальные метки mi и элементы матрицы V (а ещё лучше V -1), либо 2) величины ai; и то, и это - для разных значений n. В статье Шапиро, Уилка (и в упомянутой в начале лекции книге D'Agostino) для умеренных выборок затабулированы матричные элементы V, а для больших n есть асимптотики. Есть также и вычисленные по Монте-Карло значения величин ai, i = 1,…, n `для 3 < n <= 21, а для 21 < n <= 50 используется их аппроксимация. Точное распределение W при верной Н (нормальность) зависит от n, но не от истинных значений и . Критическими являются малые значения W. Критерий Шапиро-Уилка обычно используется при n 50, а при n > 50 был предложен критерий Shapiro-Fransia (29'). Для проверки нормальности статистика W слегка мощнее W 2 и A 2 и существенно мощнее D. Функции, реализующие критерий Шапиро-Уилка, есть в составе статистических пакетов SPSS и STATISTICA; фортранная программа вычисления W и проверки нормальности опубликована в журнале «Applied Statistics».

Критерий Шапиро-Уилка предложен в 1965 г. До этого пользовались специальными критериями нормальности, предложенными Пирсоном. Они, собственно, проверяют равенство нулю 3-го и 4-го семиинвариантов. Для справки: если (t) - х.ф. распределения F(x), то коэффициенты разложения её логарифма по степеням i t:

ln (t) =

называются семиинвариантами (кумулянтами) h. Так как для нормального распределения

ln (t) = it - 2 t 2 / 2,

то 3 = 4 = … = 0. С другой стороны, можно показать (Кендалл и Стъюарт «Теория распределений», стр. 103), что

3 = 3, 4 = 4 - 32 2, (37)

где j = E{( - E{})j} - j - ый центральный момент. Впрочем, для нормального распределения равенство 3 = 0 - очевидное следствие симметричности ф.п.в., а 4 = 32 2 = 3 4 легко подсчитать.

Рассмотрим величины

1 3 3 3 2 3 / 2 (асимметрия) и (38)

2 4 4 4 2 2 - 3 (эксцесс).

Если распределение нормальное, то 1 20. Пирсон счёл это характерным свойством нормального распределения. Рассмотрим выборочные аналоги 1 и 2:

b1 = m3 / (s 2) 3 / 2, b2 = m4 / (s 2) 2 - 3, (39)

где m - -ый выборочный центральный момент:

m = . (40)

Из теории вероятностей известно, что если существует E{}, то E{} по вероятности (теорема Хинчина), откуда , = 2, 3, 4, … Функции моментов b1 и b2 непрерывно зависят от m b1 1, b2 2 по вероятности. Но для нормального распределения 1 20. Поэтому Н: N(.) отвергается, если

(| b1 | > b1, ) (| b2 | > b2, ) (41)

для заданного размера критерия .

Распределения статистик b1 и b2 (а следовательно, и критические значения b1, и b2, ) не зависят от величин и . Действительно, введя zi = (xi - )/ (т.е. z1, z2, …, zn - выборка из N (0 1)), получим

xi = zi + .

Тогда (xi - ) = (zi - ) и, например,

,

т.е. зависимости от и нет. На дом: аналогичное рассмотрение для b2.

Поэтому достаточно затабулировать b1, и b2, для N (0 1). Следует отметить, что критерии нормальности Пирсона обычно применимы для выборок большого объёма n порядка сотен или даже тысяч наблюдений.

3.2 Разработка и реализация пользовательского интерфейса

3.2.1 История развития веб-дизайна от технической графики до современных сайтов

Сразу после создания Всемирной паутины, она, прежде всего, использовалась научными учреждениями, правительствами и военными, как средство обмена простой информацией «старого» образца. Так что документы тех времен были очень простыми. В конце концов, ученым и академикам нет особого дела до привлекательности web-страниц.

Первый в мире веб-сайт появился 6 августа 1991 года. http://info.cern.ch/ Его создатель Тим Бернерс-Ли (Tim Burners-Lee) опубликовал на нём описание новой технологии World Wide Web (WWW), основанной на протоколе передачи данных HTTP, системе адресации URI и языке гипертекстовой разметки HTML. Также на сайте были описаны принципы установки и работы веб-серверов и веб-браузеров. Сайт стал и первым в мире интернет-каталогом, так как позже Тим Бернерс-Ли разместил на нём список ссылок на другие сайты.

Вспомним, какими были первые сайты. Либо - аршинные красные буквы на бирюзовом фоне (сейчас такие сайты заводят школьники на narod. ru, да и то кажется пародией), либо - очень красивые, очень тяжелые и совершенно нефункциональные ресурсы. Явно дорогие. Явно сделаны профессионалами. Но - профессионалами в какой-то совершенно иной сфере. Красота и функциональность не находили точек соприкосновения. Уродство, правда, тоже - но уродливые сайты, по крайней мере, дешевле обходились владельцам.


Подобные документы

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.