Статистичний аналіз залежностей економічних показників типових підприємств для надання практичних рекомендацій по підвищенню продуктивності праці

Методи одержання стійких статистичних оцінок. Агломеративні методи кластерного аналізу. Грубі помилки та методи їх виявлення. Множинна нелінійна регресія. Метод головних компонент. Сутність завдання факторного аналізу. Робастне статистичне оцінювання.

Рубрика Экономико-математическое моделирование
Вид курсовая работа
Язык украинский
Дата добавления 28.04.2014
Размер файла 1,2 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Визначник матриці парних коефіцієнтів кореляції близький до нуля, що означає, що між незалежними змінними існує мультиколінеарність. Згідно алгоритму Фаррара-Глобера та економічного змісту факторів, було визначено, що для усунення мультиколінеарності необхідно виключити змінні Х12 - середньорічна чисельність ОВФ та Х17 - невиробничі витрати.

Перераховано матрицю парних коефіцієнтів кореляції (1.1).

Також обчислено матрицю часткових коефіцієнтів кореляції (таблиця 3.3.2)

Оскільки значення часткових коефіцієнтів кореляції менші за значення парних між факторами Y1 та X8 , Y1 та X11, X8 та X11, X9 та X11, X10 та X11 то при виключенні фактора X12 зв'язок між цими факторами слабшає. Це свідчить про те, що саме цей фактор посилює кореляцію між даними змінними.

Значення часткових коефіцієнтів детермінації між факторами Y1 та X10, X8 та X10, X9 та X10, X10 та X11 більші, ніж значення парних коефіцієнтів. Це означає, що фіксовані компоненти послаблюють зв'язок між парами даних факторів.

За - статистикою Фішера-Ієйтса перевірено значущість часткових коефіцієнтів кореляції та визначено, що значущим є коефіцієнт між факторами Х9 та Х10 (Таблиця 3.3.7).

Знайдено точкові оцінки п'яти коефіцієнтів множинної кореляції та детермінації (Таблиця 3.3.8).

За F - критерієм Фішера перевірено значущість множинних коефіцієнтів детермінації (Таблиця 3.3.8). Усі коефіцієнти детермінації виявились не значимими. Оскільки множинні коефіцієнти не значимі, то в сукупності відсутня лінійна залежність між результативним показником та незалежними змінними.

3.4 Регресійний аналіз

З метою встановлення аналітичної залежності між ознаками X та Y та надання практичних рекомендацій щодо підвищення продуктивності праці, проведено регресійний аналіз.

3.4.1 Парна лінійна регресія

Для побудови парної лінійної регресії вибрано фактор який краще впливає на результативну ознаку за результатами кореляційного аналізу. Найтісніший зв'язок існує між фактором Х10 - фондовіддача та результативної ознакою Y1 - продуктивність праці.

Знайдено оцінки параметрів регресії за методом найменших квадратів. Модель має вигляд:

Перевірено на значимість дане рівняння регресії за F - критерієм Фішера.

Оскільки , то рівняння регресії не значиме, тобто за даною моделлю не можна робити прогноз.

3.4.2 Парна нелінійна регресія

Побудовано парну нелінійну регресію. За методом найменших квадратів знайдено оцінки параметрів регресії. Дана регресія має вигляд:

За критерієм Фішера перевірено дану модель на значущість.

Оскільки, , то рівняння регресії незначиме. За даною моделлю не можна робити прогноз.

3.4.3 Множинна лінійна регресія

Побудовано модель вигляду (2.26).

Перевірено дану модель на значущість.

Знайдено емпіричне значення критерію Фішера.

Оскільки, , то модель неадекватна статистичним даним і її не можна використовувати для прогнозування.

3.4.4 Множинна нелінійна регресія

Побудовано адитивну модель вигляду

. (3.1)

Зробимо лінеаризацію

.

Використовуючи алгоритм множинної лінійної регресії знайдемо оцінки параметрів моделі. Отже, отримана модель має вигляд:

За критерієм Фішера перевірено дану модель на адекватність.

Оскільки, , то рівняння регресії незначиме. За даною моделлю не можна робити прогноз.

Побудуємо адитивну нелінійну модель вигляду

(3.2)

Знайдено оцінки параметрів моделі. Модель має вигляд:

Дану модель перевірено на адекватність за критерієм Фішера.

Оскільки, , то рівняння регресії незначиме. За даною моделлю не можна робити прогноз.

Побудуємо адитивну модель вигляду

(3.3)

Знайдено оцінки параметрів регресії. Отримано модель вигляду:

Дану модель перевірено на адекватність за критерієм Фішера.

Оскільки, , то рівняння регресії незначиме. За даною моделлю не можна робити прогноз.

Побудовано мультиплікативну модель вигляду

(3.4)

Знайдено оцінки параметрів даної регресії. Отримано модель наступного вигляду:

Дану модель перевірено на адекватність за критерієм Фішера.

Таблиця 3.3.9 - Результати регресійного аналізу

Назва регресії

Регресійна модель

Значення критерію Фішера

Кореляційне відношення

Парна лінійна регресія

Fемп< Fкр (неадекватна)

0,746

117,670

Парна нелінійна регресія

Fемп< Fкр (неадекватна)

0,947

119,185

Множинна лінійна регресія

Fемп< Fкр (неадекватна)

0,874

109,988

Множинна нелінійна регресія (адитивна)

Fемп< Fкр (неадекватна)

0,899

113,135

Множинна нелінійна регресія (адитивна)

Fемп< Fкр (неадекватна)

0,868

109,164

Множинна нелінійна регресія (адитивна)

Fемп< Fкр (неадекватна)

0,805

101,316

Множинна нелінійна регресія (мультиплікативна)

Fемп< Fкр (неадекватна)

0,896

112,739

Множинна нелінійна регресія (мультиплікативна)

Fемп< Fкр (неадекватна)

0,899

113,135

Оскільки, , то рівняння регресії незначиме. За даною моделлю не можна робити прогноз.

Побудовано модель вигляду

(3.5)

Знайдено оцінки параметрів моделі. Маємо наступну модель:

За критерієм Фішера дану модель перевірено на значущість.

Оскільки, , то рівняння регресії незначиме. За даною моделлю не можна робити прогноз.

Таким чином, з метою встановлення виду аналітичної залежності між ознаками X та Y, було проведено регресійний аналіз.

Було побудовано вісім регресійних моделей, а саме: парної лінійної та парної нелінійної регресії, множинної лінійної та 5 моделей множинної нелінійної регресій (Таблиця 3.3.9).

За результатами перевірки на значущість моделей за критерієм Фішера, виявлено, що всі моделі не адекватні (Таблиця 3.3.9). Також було обчислено кореляційні відношення для перевірки ступеня впливу неврахованих факторів (Таблиця 3.3.9). Оскільки всі кореляційні відношення становлять більше 20%, то це свідчить про те, необхідно надати інформацію про інші показники діяльності підприємства.

3.5 Факторний аналіз

3.5.1 Метод головних компонент

Метод головних компонент дозволяє за вихідними ознакам побудувати узагальнені ознаки, які називаються головними компонентами, і за допомогою регресійного аналізу виявити форму залежності результуючої ознаки від знайдених головних компонент.

Було використано алгоритм методу головних компонент (2.5.3), стандартизовано початкові значення (Додаток F) та обчислено кореляційну матрицю стандартизованих ознак (Таблиця G.1). Обчислено матрицю власних значень та матрицю нормованих власних векторів (Таблиця 3.5.1).

Таблиця 3.5.1 - Матриця нормованих власних значень та власних векторів

V8

V9

V10

V11

V12

V17

?

2,354

1,269

1,044

0,805

0,410

0,118

1

0,446

-0,083

0,324

0,638

0,419

0,326

2

0,362

0,501

-0,075

-0,544

0,560

0,051

3

-0,179

-0,449

0,708

-0,359

0,284

-0,234

4

0,456

-0,485

-0,095

-0,403

-0,312

0,536

5

0,584

-0,255

-0,205

0,068

-0,044

-0,738

6

-0,297

-0,489

-0,581

0,029

0,575

0,064

За (2.31) обчислено матрицю факторних навантажень (Таблиця 3.5.2)

Таблиця 3.5.2 - Матриця факторних навантажень

F1

F2

F3

F4

F5

F6

X8

0,685

-0,094

0,331

0,572

0,269

0,112

Х9

0,555

0,565

-0,076

-0,488

0,359

0,017

Х10

-0,275

-0,506

0,723

-0,322

0,182

-0,080

Х11

0,700

-0,547

-0,097

-0,362

-0,200

0,184

X12

0,896

-0,287

-0,210

0,061

-0,028

-0,254

X17

-0,456

-0,551

-0,593

0,026

0,368

0,022

Також обчислено частку пояснюючої дисперсії за(2.32).

Таблиця 3.5.3 - Частка пояснюючої дисперсії

Ознака

F1

F2

F3

F4

F5

F6

Накопичена сума

2,35

3,62

4,67

5,47

5,88

6,000

Частка дисперсії

39,23%

60,39%

77,78%

91,19%

98,03%

100,00%

Для дослідження відібрано лише чотири перші головні компоненти, оскільки вони пояснюють 77,78% дисперсії вхідних ознак, що прийнятно для нас.

Відібрано значення факторів для пояснення головних компонент (Таблиця 3.5.4)

Таблиця 3.5.4 - Відбір інформативних факторів

Латентні ознаки

F1

F2

Фактор

Значення факторного навантаження

Відсоток

Фактор

Значення факторного навантаження

Відсоток

Фактор

Значення факторного навантаження

Відсоток

X12

0,896

25,129%

Х9

0,565

22,150%

X10

0,723

35,641%

Х11

0,700

44,745%

Х17

0,551

43,769%

X17

0,593

64,863%

Х8

0,685

63,938%

X11

0,547

65,221%

X8

0,331

81,148%

Х9

0,555

79,493%

X10

0,506

85,067%

X12

0,210

91,486%

X17

0,456

92,288%

X12

0,287

96,322%

X11

0,097

96,250%

X10

0,275

100%

X8

0,094

100%

X9

0,076

100%

Відібрано компоненти за допомогою коефіцієнта інформативності (2.34) і в результаті отримано чотири латентних ознаки:

F1 - латентна ознака, яка включає: середньорічну вартість ОВФ (Х12), середньорічну чисельність ПП (Х11), премії та винагороди на одного працівника (Х8) та питому вагу утрат від браку (Х9).

F2 - латентна ознака, яка включає: питому вагу утрат від браку (Х9), невиробничі витрати (Х17), середньорічну чисельність ПП (Х11) та фондовіддачу (Х10)

F3 - латентна ознака, яка включає: фондовіддачу (Х10), невиробничі витрати (Х17) та премії та винагороди на одного працівника (Х8).

Обчислено матрицю значень головних компонент за формулою (2.33) та подано у таблиці G.5.

Побудовано факторну модель за допомогою алгоритму пункту (2.4.2) та перевірено на адекватність. Модель за критерієм Фішера є неадекватною, тому її не можна використовувати для прогнозування (Таблиця 3.5.2)

Модель має наступний вигляд:

(3.9)

3.5.2 Метод головних факторів

Було використано алгоритм методу головних факторів (2.5.4), стандартизовано початкові значення (Додаток F) та обчислено редуковану кореляційну матрицю стандартизованих ознак (Таблиця H.1). Обчислено матрицю власних значень та матрицю нормованих власних векторів (Таблиця 3.5.5).

Таблиця 3.5.5 - Матриця нормованих власних значень та власних векторів редукованої кореляційної матриці

V8

V9

V10

V11

V12

V17

?

1,989

0,757

0,443

0,308

-0,161

-0,210

1

0,434

0,143

0,631

-0,406

0,303

0,370

2

0,299

0,485

-0,403

0,350

0,625

0,022

3

-0,134

-0,312

0,552

0,527

0,380

-0,399

4

0,506

-0,531

-0,134

0,438

-0,178

0,469

5

0,626

-0,187

-0,138

-0,282

-0,062

-0,686

6

-0,239

-0,575

-0,313

-0,405

0,581

0,116

Обчислено матрицю залишкових кореляцій (Таблиця H.3)

Перевіримо значущість матриці залишкових кореляцій за критерієм Уілкіса 2 (формула 2.37)

Оскільки < , то дана кореляційна матриця незначуща.

Перевіримо, чи кількість вибраних факторів є достатньою за критерієм Лоулі (2.38)

Оскільки < , то кількість відібраних факторів є достатньою.

За аналогічним принципом відібрано фактори для пояснення даного головного фактору (Таблиця 3.5.6)

Таблиця 3.5.6 - Відбір інформативних факторів для F1

Фактори

Факторне навантаження

Відсотки

X12

0,883

27,984%

Х11

0,714

50,619%

Х8

0,611

70,002%

Х9

0,421

83,352%

X17

-0,337

94,026%

X10

-0,188

100%

F1 - латентна ознака, яка включає: середньорічну вартість ОВФ (Х12), середньорічну чисельність ПП (Х11), премії та винагороди на одного працівника (Х8).

Обчислено матрицю значень головних факторів (Таблиця .Н.5).

Побудовано факторну модель за допомогою алгоритму пункту (2.4.2).

Модель за критерієм Фішера є неадекватною, тому використовувати дану модель для прогнозування не можна (Таблиця 3.5.2)

Модель має наступний вигляд:

(3.10)

Таким чином, було здійснено факторний аналіз за допомогою методу головних компонент та методу головних факторів.

Для дослідження відібрано лише чотири перші головні компоненти, оскільки вони пояснюють 77,78% дисперсії вхідних ознак. (Таблиця 3.5.3).

Також відібрано значення факторів для пояснення даних головних компонент так, щоб коефіцієнт інформативності становив не менше 70%.(Таблиця 3.5.4). В результаті отримано наступні латентні ознаки:

F1 - латентна ознака, яка включає фактори: Х12 - середньорічна вартість ОВФ (25,129%), Х11 - середньорічна чисельність ПП (19,616%), Х8 - премії та винагороди на одного працівника (19,193%) та Х9 - питома вагу утрат від браку (15,554%).

F2 - латентна ознака, яка включає фактори: Х9 - питома вагу утрат від браку (22,150%), Х17 - невиробничі витрати (21,619%), Х11 - середньорічна чисельність ПП (21,451%) та Х10 - фондовіддача (19,847%)

F3 - латентна ознака, яка включає фактори: Х10 - фондовіддача (35,641%), Х17 - невиробничі витрати (29,222%) та Х8 - премії та винагороди на одного працівника (16,284%).

Таблиця 3.5.7 - Результати факторного аналізу

Назва регресії

Регресійна модель

Значення критерію Фішера

Кореляційне відношення

Регресія за методом головних компонент

Fемп< Fкр (неадекватна)

0,882

110,983

Регресія за методом головних факторів

Fемп< Fкр (неадекватна)

0,956

120,320

Також факторний аналіз було проведено за допомогою методу головних факторів. За критерієм Лоулі перевірено чи кількість відібраних факторів є достатньою.

Оскільки < , то кількість відібраних факторів є достатньою.

В результаті було відібрано одну латентну ознаку:

F1 - латентна ознака, яка включає фактори: Х12 - середньорічна вартість ОВФ (27,619%), Х11 - середньорічна чисельність ПП (22,635%), Х8 - премії та винагороди на одного працівника (19,383%).

Побудовано дві регресійні моделі та перевірено їх на адекватність (Таблиця 3.5.2). За результатами перевірки критерієм Фішера дані моделі є неадекватними. Також було обчислено кореляційні відношення для перевірки впливу неврахованих факторів. У зв'язку з тим, що кореляційні відношення складають більше 20%, то існує великий вплив неврахованих факторів.

3.6 Практичні рекомендації

У ході роботи було проведено статистичний аналіз впливу факторів на продуктивність праці.

Використовуючи лише наявні фактори, які впливають на розвиток підприємства, ми не можемо надати ніяких практичних рекомендацій щодо шляхів підвищення продуктивності праці. Це означає, що існує потреба в наданні додаткової інформації для отримання результату.

Поза межами дослідження залишилося 52-ге підприємство, оскільки значення його економічних показників значно відрізняються від основної групи.

Значну різницю між даними підприємствами та 52-гим підприємством можна пояснити, як специфічну особливість окремого елемента досліджуваної сукупності.

Висновки

У даній курсовій роботі за допомогою статистичних методів було здійснено аналіз підприємств по підвищенню рівня продуктивності праці.

Для розробки практичних рекомендацій по підвищенню продуктивності праці використано такі фактори, як премії та винагороди на одного працівника, питома вага утрат від браку, фондовіддача, середньорічна чисельність ПП, середньорічна вартість ОВФ та невиробничі витрати.

За отриманими даними 53 підприємств (Додаток А) було проведено дослідження .

Щоб вилучити дані, що значно відхиляються від значень основного масиву було проведено робастне статистичне оцінювання в результаті якого вилучено 52 підприємство.

За допомогою методів кластерного аналізу, генеральну сукупність було розділено на дві групи, елементи в яких розташовуються на мінімальній відстані один від одного. Групу з найбільшою кількістю елементів обрано для подальшої роботи. Така група є типовою і складається з 41 підприємства. (Додаток D). Інші підприємства, а саме: 1, 2, 3, 4, 7, 13, 24, 25, 37, 38, 39, було вилучено з основного масиву даних. Підприємства типової групи були використані для подальшого аналізу та розробки рекомендацій.

Для дослідження лінійних зв'язків між змінними було проведено кореляційний аналіз. Визначено, що висока залежність існує між факторами: Y1 та X10 , Y1 і X12 , X8 і X12 , X9 і X17, X11 і X12 , що підтверджує висунуті гіпотези. Між факторами Х11 та Х17 , Х10 та Х17 , Y1 та X17 існує слабка залежність. При перевірці на мультиколінеарність було виключено змінні Х12 - середньорічна чисельність ОВФ та Х17 - невиробничі витрати. Знайдено точкові оцінки п'яти коефіцієнтів множинної кореляції та детермінації Усі коефіцієнти детермінації виявились не значимими, тобто в сукупності відсутня лінійна залежність між результативним показником та незалежними змінними.

З метою встановлення виду аналітичної залежності між ознаками X та Y, було проведено регресійний аналіз.

Було побудовано вісім регресійних моделей, а саме: парної лінійної та парної нелінійної регресії, множинної лінійної та 5 моделей множинної нелінійної регресій.

За результатами перевірки моделей за критерієм Фішера, виявлено, що всі моделі не адекватні (Таблиця 3.3.9). Оскільки всі кореляційні відношення становлять більше 20% (Таблиця 3.3.9), то це свідчить про те, необхідно надати інформацію про інші показники діяльності підприємства.

Здійснено факторний аналіз за допомогою методу головних компонент та методу головних факторів.

В результаті проведення факторного аналізу методом головних компонент отримано наступні приховані фактори:

F1 - латентна ознака, яка включає фактори: Х12 - середньорічна вартість ОВФ (25,129%), Х11 - середньорічна чисельність ПП (19,616%), Х8 - премії та винагороди на одного працівника (19,193%) та Х9 - питома вагу утрат від браку (15,554%).

F2 - латентна ознака, яка включає фактори: Х9 - питома вагу утрат від браку (22,150%), Х17 - невиробничі витрати (21,619%), Х11 - середньорічна чисельність ПП (21,451%) та Х10 - фондовіддача (19,847%)

F3 - латентна ознака, яка включає фактори: Х10 - фондовіддача (35,641%), Х17 - невиробничі витрати (29,222%) та Х8 - премії та винагороди на одного працівника (16,284%).

В результаті проведення факторного аналізу методом головних факторів було відібрано одну латентну ознаку:

F1 - латентна ознака, яка включає фактори: Х12 - середньорічна вартість ОВФ (27,619%), Х11 - середньорічна чисельність ПП (22,635%), Х8 - премії та винагороди на одного працівника (19,383%).

Побудовано дві регресійні моделі та перевірено їх на адекватність (Таблиця 3.5.7). За результатами перевірки критерієм Фішера дані моделі є неадекватними. Кореляційні відношення є досить великими, що свідчить про великий вплив неврахованих факторів.

За результатами проведеного аналізу було визначено, що для надання практичних рекомендацій щодо шляхів підвищення продуктивності праці існує потреба в наданні додаткової інформації для отримання результату.

агломеративний кластерний регресія факторний

Перелік посилань

1. Башнянин Г.І., Лазур П.Ю, Медведєв В.С. Політична економія. - Київ, 2002.

2. Григорук П.М. Економетричне моделювання. Конспект лекцій / П.М. Григорук. Хмельницький 2005. - с.123

3. Мандель И.Д. Кластерный анализ / И.Д. Мандель.-Москва: Финансы и статистика, 1988.-176с.

4. Мороз В.С., Мороз В.В. Економетрія. - Хмельницький, 2000.

Додаток А

Таблиця А.1 - Вхідні дані

№ п-ва

Y1

X8

X9

X10

X11

X12

X17

1

9,26

1,23

0,23

1,45

26006

167,70

17,72

2

9,38

1,04

0,39

1,30

23935

186,10

18,39

3

12,11

1,80

0,43

1,37

22589

220,50

26,46

4

10,81

0,43

0,18

1,65

21220

169,30

22,37

5

9,35

0,88

0,15

1,91

7394

39,53

28,13

6

9,87

0,57

0,34

1,68

11586

40,41

17,55

7

8,17

1,72

0,38

1,94

26609

103,00

21,92

8

9,12

1,70

0,09

1,89

7801

37,02

19,52

9

5,88

0,84

0,14

1,94

11587

45,74

23,99

10

6,30

0,60

0,21

2,06

9475

40,07

21,76

11

6,22

0,82

0,42

1,96

10811

45,44

25,68

12

5,49

0,84

0,05

1,02

6371

41,08

18,13

13

6,50

0,67

0,29

1,85

26761

136,1

25,74

14

6,61

1,04

0,48

0,88

4210

42,39

21,21

15

4,32

0,66

0,41

0,62

3557

37,39

22,97

16

7,37

0,86

0,62

1,09

14148

101,80

16,38

17

7,02

0,79

0,56

1,60

9872

47,55

13,21

18

8,25

0,34

1,76

1,53

5975

32,61

14,48

19

8,15

1,6

1,31

1,4

16662

103,3

13,38

20

8,72

1,46

0,45

2,20

9166

38,95

13,69

21

6,64

1,27

0,50

1,32

15118

81,32

16,66

22

8,10

1,58

0,77

1,48

11429

67,26

15,06

23

5,52

0,68

1,20

0,68

6462

59,92

20,09

24

9,37

0,86

0,21

2,30

24628

107,30

15,98

25

13,17

1,98

0,25

1,37

49727

512,60

18,27

26

6,67

0,33

0,15

1,51

11470

53,81

14,42

27

5,68

0,45

0,66

1,43

19448

80,83

22,76

28

5,22

0,74

0,74

1,82

18963

59,42

15,41

29

10,02

0,03.

0,32

2,62

9185

36,96

19,35

30

8,16

0,99

0,89

1,75

17478

91,43

16,83

31

3,78

0,24

0,23

1,54

6265

17,16

30,53

32

6,48

0,57

0,32

2,25

8810

27,29

17,98

33

10,44

1,22

0,54

1,07

17659

184,30

22,09

34

7,65

0,68

0,75

1,44

10342

58,42

18,29

35

8,77

1,00

0,16

1,40

8901

59,40

26,05

36

7,00

0,81

0,24

1,31

8402

49,63

26,2

37

11,06

1,27

0,59

1,12

32625

391,30

17,26

38

9,02

1,14

0,56

1,16

31160

258,60

18,83

39

13,28

1,89

0,63

0,88

46461

75,66

19,7

40

9,27

0,67

1,10

1,07

13833

123,70

16,87

41

6,70

0,96

0,39

1,24

6391

37,21

14,63

42

6,69

0,67

0,73

1,49

11115

53,37

22,17

43

9,42

0,98

0,28

2,03

6555

32,87

22,62

44

7,24

1,16

0,10

1,84

11085

45,63

26,44

45

5,39

0,54

0,68

1,22

9484

48,41

22,26

46

5,61

1,23

0,87

1,72

3967

13,58

19,13

47

5,59

0,78

0,49

1,75

15283

63,99

18,28

48

6,57

1,16

0,16

1,46

20874

104,60

28,23

49

6,54

4,44

0,85

1,60

19418

222,10

12,39

50

4,23

1,06

0,13

1,47

3351

25,76

11,64

51

5,22

2,13

0,49

1,38

6338

29,52

8,62

52

11,03

2,20

0,79

1,39

11795

78,11

19,41

Додаток В

Таблиця В.1 - Проранжовані вхідні дані

Y1

X8

X9

X10

X11

X12

X17

31

3,78

29

0,03

12

0,05

15

0,62

50

3351

46

13,58

51

8,62

50

4,23

31

0,24

8

0,09

23

0,68

15

3557

31

17,16

50

11,64

15

4,32

26

0,33

52

0,09

14

0,88

46

3967

50

25,76

49

12,39

51

5,22

18

0,34

44

0,1

39

0,88

14

4210

32

27,29

17

13,21

28

5,22

4

0,43

50

0,13

12

1,02

18

5975

51

29,52

19

13,38

45

5,39

27

0,45

9

0,14

33

1,07

31

6265

18

32,61

20

13,69

12

5,49

45

0,54

5

0,15

40

1,07

51

6338

43

32,87

26

14,42

23

5,52

6

0,57

26

0,15

16

1,09

12

6371

29

36,96

18

14,48

47

5,59

32

0,57

35

0,16

37

1,12

41

6391

8

37,02

41

14,63

46

5,61

10

0,6

48

0,16

38

1,16

23

6462

41

37,21

22

15,06

27

5,68

15

0,66

4

0,18

45

1,22

43

6555

15

37,39

28

15,41

9

5,88

13

0,67

10

0,21

41

1,24

5

7394

20

38,95

24

15,98

11

6,22

40

0,67

24

0,21

2

1,3

8

7801

5

39,53

16

16,38

10

6,3

42

0,67

1

0,23

36

1,31

36

8402

10

40,07

21

16,66

32

6,48

23

0,68

31

0,23

21

1,32

32

8810

6

40,41

30

16,83

13

6,5

34

0,68

36

0,24

3

1,37

35

8901

12

41,08

40

16,87

49

6,54

28

0,74

25

0,25

25

1,37

20

9166

52

41,99

37

17,26

48

6,57

47

0,78

43

0,28

51

1,38

29

9185

14

42,39

6

17,55

14

6,61

17

0,79

13

0,29

53

1,39

10

9475

11

45,44

1

17,72

21

6,64

36

0,81

29

0,32

19

1,4

45

9484

44

45,63

32

17,98

26

6,67

11

0,82

32

0,32

35

1,4

52

9756

9

45,74

12

18,13

42

6,69

9

0,84

6

0,34

52

1,41

17

9872

17

47,55

25

18,27

41

6,7

12

0,84

7

0,38

27

1,43

34

10342

45

48,41

47

18,28

36

7

16

0,86

2

0,39

34

1,44

11

10811

36

49,63

34

18,29

17

7,02

24

0,86

41

0,39

1

1,45

44

11085

42

53,37

2

18,39

44

7,24

5

0,88

15

0,41

48

1,46

42

11115

26

53,81

38

18,83

16

7,37

41

0,96

11

0,42

50

1,47

22

11429

34

58,42

46

19,13

34

7,65

43

0,98

3

0,43

22

1,48

26

11470

35

59,4

29

19,35

22

8,1

30

0,99

20

0,45

42

1,49

6

11586

28

59,42

53

19,41

19

8,15

35

1

14

0,48

26

1,51

9

11587

23

59,92

8

19,52

30

8,16

2

1,04

47

0,49

18

1,53

53

11795

47

63,99

39

19,7

7

8,17

14

1,04

51

0,49

31

1,54

40

13833

22

67,26

23

20,09

18

8,25

50

1,06

21

0,5

17

1,6

16

14148

39

75,66

52

20,1

20

8,72

38

1,14

33

0,54

49

1,6

21

15118

53

78,11

14

21,21

35

8,77

44

1,16

17

0,56

4

1,65

47

15283

27

80,83

10

21,76

38

9,02

48

1,16

38

0,56

6

1,68

19

16662

21

81,32

7

21,92

8

9,12

52

1,21

37

0,59

46

1,72

30

17478

30

91,43

33

22,09

1

9,26

33

1,22

16

0,62

30

1,75

33

17659

16

101,8

42

22,17

40

9,27

1

1,23

39

0,63

47

1,75

28

18963

7

103

45

22,26

5

9,35

46

1,23

27

0,66

28

1,82

49

19418

19

103,3

4

22,37

24

9,37

21

1,27

45

0,68

44

1,84

27

19448

48

104,6

43

22,62

2

9,38

37

1,27

42

0,73

13

1,85

48

20874

24

107,3

27

22,76

43

9,42

20

1,46

28

0,74

8

1,89

4

21220

40

123,7

15

22,97

6

9,87

22

1,58

34

0,75

5

1,91

3

22589

13

136,1

9

23,99

29

10,02

19

1,6

22

0,77

7

1,94

2

23935

1

167,7

11

25,68

33

10,44

8

1,7

53

0,79

9

1,94

24

24628

4

169,3

13

25,74

4

10,81

7

1,72

49

0,85

11

1,96

1

26006

33

184,3

35

26,05

53

11,03

3

1,8

46

0,87

43

2,03

7

26609

2

186,1

36

26,2

37

11,06

39

1,89

30

0,89

10

2,06

13

26761

3

220,5

44

26,44

3

12,11

25

1,98

40

1,1

20

2,2

38

31160

49

222,1

3

26,46

25

13,17

51

2,13

23

1,2

32

2,25

37

32625

38

258,6

5

28,13

39

13,28

53

2,2

19

1,31

24

2,3

39

46461

37

391,3

48

28,23

52

18

49

4,44

18

1,76

29

2,62

25

49727

25

512,6

31

30,53

Додаток С

using System;

using System.Collections.Generic;

using System.IO;

using System.Linq;

using System.Text;

using System.Windows.Forms;

using MSExcel = TcKs.MSOffice.Excel;

namespace ClusterAnalysis

{ public partial class MainForm : Form

{ private double[,] distance_matrix, matrix_d;

private int size;

private bool isDalnySusid = false;

public MainForm()

{ InitializeComponent();

System.Threading.Thread.CurrentThread.CurrentCulture = new System.Globalization.CultureInfo( "ru-RU" );

}

void Button1Click(object sender, EventArgs e)

{

Aglomerative(distance_matrix, size);

}

string GetRowNameBySize(int index)

{ const int a_code = (int) 'A';

const int z_code = (int) 'Z';

var result = "";

if (index > z_code-a_code)

{

result = ((char) (a_code + index/(z_code-a_code) - 1)).ToString();

}

result += ((char) (a_code + index%(z_code-a_code)-index/(z_code-a_code))).ToString()

return result;

}

double[,] ObjectArrayToDoubleArray(ref object[,] arr, int size)

{ var result = new double[size, 7];

for (int i = 0; i < size; i++)

{ for (int j = 0; j < 7; j++)

result[i, j] = (double) arr[i + 1, j + 1];

} return result;

} double[,] CalculateDistanceMatrix(ref double[,] matrix, int size)

{ double[,] result = new double[size,size];

double tmp_distance, tmp_sum;

double[] avarageForColumn = new double[7], sigma = new double[7];

double[,] z = new double[size, 7];

// Середнє значення для кожного стовпця

for (int i = 0; i < 7; i++) { tmp_sum = 0.0;

for (int j = 0; j < size; j++)

tmp_sum += matrix[j, i];

avarageForColumn[i] = tmp_sum / size;

} // Виправлене сер. квадратичне відхилення

for (int i = 0; i < 7; i++)

{ tmp_sum = 0;

for (int j = 0; j < size; j++)

tmp_sum += Math.Pow(matrix[j, i] - avarageForColumn[i], 2);

sigma[i] = Math.Sqrt((tmp_sum * size) / (size - 1.0));

} // Створення тимчасової матриці Z

for (int i = 0; i < size; i++)

for (int j = 0; j < 7; j++)

z[i, j] = (matrix[i, j] - avarageForColumn[j])/sigma[j];

//WriteMatrixToOutout(ref z, size, " STANDART MATRIX ");

for (int i = 0; i < size; i++)

{ for (int j = 0; j < i; j++)

{ tmp_distance = GetDistanceFor(ref z, i, j);

result[i, j] = tmp_distance;

result[j, i] = tmp_distance;

} }

return result; }

private double GetDistanceFor(ref double[,] matrix, int row1, int row2)

{ double tmp_distance = 0;

for (int i = 0; i < 7; i++)

{ tmp_distance += (matrix[row1, i] - matrix[row2, i])*(matrix[row1, i] -

atrix[row2, i]); }

return Math.Sqrt(tmp_distance);

} double GetDistanceFor(double[] row1, double[] row2)

{ double tmp_distance = 0; for (int i = 0; i < 7; i++)

{ tmp_distance += (row1[i] - row2[i]) * (row1[i] - row2[i]);

} return Math.Sqrt(tmp_distance);

}

string[] Aglomerative(double[,] matrix, int size)

{ double min;

int index_i = 0, index_j = 0;

isDalnySusid = radioButton2.Checked;

//contains all clusters (if elem length>0 cluster exist)

string[] clusters = new string[size];

for (int i = 0; i < size; i++)

clusters[i] = (i + 1).ToString();

string method = (isDalnySusid) ? "ДАЛЬНЬОГО СУСІДА" :

"БЛИЖНЬОГО СУСІДА"; WriteTextToLog("\n ============== АГЛОМЕРАТИВНИЙ МЕТОД ("+method+") ================ \n");

while (size > 1)

{ min = Min(ref matrix, size, ref index_i, ref index_j);

if (index_j < index_i)

SwapVars(ref index_i, ref index_j);

matrix = MargeTwoClusters(matrix, index_i, index_j, size, ref clusters);

size--; //WriteMatrixToOutout(ref matrix, size, "MARGED MATRIX [" + (index_i + 1) + "," + (index_j + 1) + "]");

WriteTextToLog("> Dmin is " + min + ". Marged clusters [" + (index_i+1) + "," + (index_j+1) + "].\n " +

GlueCurrentClusters(ref clusters));

} MessageBox.Show("It seems like ok!");

return new[] {" ", " "};

}

string[] Dyvyzuvny(double[,] matrix, int size)

{ var clusters = new List<int[]>(size);

int[] startCluster = new int[size];

for (int i = 0; i < size; i++)

startCluster[i] = i;

clusters.Add(startCluster);

WriteTextToLog("\n ============== ДИВИЗИВНИЙ МЕТОД =============== \n");

while (clusters.Count<size)

{ SplitCluster(ref clusters, ref matrix);

WriteClustersToOutput(ref clusters);

}

MessageBox.Show("It seems like ok!");

return new[] { " ", " " };

}

void SplitCluster(ref List<int[]> clusters, ref double[,] matrix)

{ double max = double.MinValue;

int index_i = 0, index_j = 0, cluster_index = 0;

for (var i = 0; i < clusters.Count; i++)

{ for (int j = 0; j < clusters[i].Length - 1; j++)

{ for (int k = j + 1; k < clusters[i].Length; k++)

{ if (matrix[clusters[i][j], clusters[i][k]] > max)

{ max = matrix[clusters[i][j], clusters[i][k]];

index_i = j;

index_j = k;

cluster_index = i;

} }

} }

WriteTextToLog(string.Format("> Dmax is {0}, center of new clusters {1} {2}, current cluster - {3}", max, index_i+1, index_j+1, cluster_index+1));

int[] curr_cluster = clusters[cluster_index];

List<int> newcluster1 = new List<int>(), newcluster2= new List<int>();

clusters.RemoveAt(cluster_index);

switch (curr_cluster.Length)

{ case 1:

return;

case 2:

newcluster1.Add(curr_cluster[0]);

newcluster2.Add(curr_cluster[1]);

break;

default:

for (int j = 0; j < curr_cluster.Length; j++)

{

if (GetDistanceFor(ref matrix, j, index_i) <= GetDistanceFor(ref matrix, j, index_j)) newcluster1.Add(curr_cluster[j]);

else

newcluster2.Add(curr_cluster[j]);

}

break;

}

clusters.Add(newcluster1.ToArray());

clusters.Add(newcluster2.ToArray());

// WriteClustersToOutput(ref clusters);

}

/// <summary>

/// Search and return min value of matrix without diagonal

/// </summary>

/// <param name="matrix">matrix to search</param>

/// <param name="size">matrix size</param>

/// <param name="index_i">row of min in matrix</param>

/// <param name="index_j">column of min in matrix</param>

/// <returns></returns>

private static double Min(ref double[,] matrix, int size, ref int index_i, ref int index_j)

{ double min = double.MaxValue;

for (int i = 0; i < size; i++)

{ for (int j = 0; j < i; j++)

{ if (matrix[i, j] < min)

{ min = matrix[i, j];

index_i = i;

index_j = j;

}

} } return min;

} /// <summary>

/// Marge two clusters in distance matrix and return new distance matrix

/// </summary>

/// <param name="matrix">matrix with distances from clusters</param>

/// <param name="cluster1">index of lower cluster</param>

/// <param name="cluster2">index of bigest cluster</param>

/// <param name="size">Dimention of current matrix</param>

/// <returns>New matrix with marged rows (cluser1, cluster2) </returns>

double[,] MargeTwoClusters(double[,] matrix, int cluster1, int cluster2, int size, ref string[] clusters) { clusters[cluster1] += " " + clusters[cluster2];

string[] clusters_new = new string[size-1];

//leave minimum of two cluster to one (horizontal, vertical)

for (int i = 0; i < size; i++)

{ if (!isDalnySusid)

{ if (matrix[i, cluster1] > matrix[i, cluster2])

matrix[i, cluster1] = matrix[i, cluster2];

if (matrix[cluster1, i] > matrix[cluster2, i])

matrix[cluster1, i] = matrix[cluster2, i];

} else

{ if (matrix[i, cluster1] < matrix[i, cluster2])

matrix[i, cluster1] = matrix[i, cluster2];

if (matrix[cluster1, i] < matrix[cluster2, i])

matrix[cluster1, i] = matrix[cluster2, i];

} }

matrix[cluster1, cluster1] = 0;

//create new matrix with marged 2 clusters

double[,] result = new double[size-1,size-1];

for (int i = 0; i < size-1; i++)

{

for (int j = 0; j < size-1; j++)

{ result[i, j] = i < cluster2

? (j < cluster2 ? matrix[i, j] : matrix[i, j + 1])

: (j < cluster2 ? matrix[i + 1, j] : matrix[i + 1, j + 1]);

} clusters_new[i] = i < cluster2

? clusters[i]

: clusters[i + 1];

} clusters = clusters_new;

return result;

} /// <summary>

/// Write matrix to log.txt

/// </summary>

/// <param name="matrix">matrix to write</param>

/// <param name="size">size of matrix</param>

/// <param name="text">additional text</param>

void WriteMatrixToOutout(ref double[,] matrix, int size, string text)

{ var sw = new StreamWriter("log.txt",true);

sw.WriteLine(" ================= "+text+" ================= ");

for (int i = 0; i < size; i++)

{ for (int j = 0; j < 7; j++)

sw.Write(matrix[i, j] + "\t\t");

sw.WriteLine();

} sw.Close();

}

void WriteClustersToOutput(ref List<int[]> cluster)

{

var sw = new StreamWriter("log.txt", true);

for (int i = 0; i < cluster.Count; i++)

{ sw.Write("K"+(i+1)+"={");

for (int j = 0; j < cluster[i].Length; j++)

sw.Write((cluster[i][j] + 1) + " ");

sw.Write("} ");

} sw.WriteLine();

sw.Close();

}

void WriteClustersToOutput(ref List<List<int>> cluster)

{

var sw = new StreamWriter("log.txt", true);

for (int i = 0; i < cluster.Count; i++)

{

sw.Write("K" + (i + 1) + "={");

for (int j = 0; j < cluster[i].Count; j++)

sw.Write((cluster[i][j] + 1) + " ");

sw.Write("} ");

} sw.WriteLine();

sw.Close(); }

void WriteTextToLog(string text)

{

var sw = new StreamWriter("log.txt", true);

sw.WriteLine(text);

sw.Close();

} void SwapVars(ref int var1, ref int var2)

{ var tmp = var1;

var1 = var2;

var2 = tmp;

} string GlueCurrentClusters(ref string[] clusters)

{ var result = String.Empty;

for (int i = 0; i < clusters.Length; i++)

result += "K" + (i + 1) + "={" + clusters[i] + "} ";

return result;

} private void button2_Click(object sender, EventArgs e)

{ Dyvyzuvny(distance_matrix, size);

} private void button3_Click(object sender, EventArgs e)

{ using (var app = MSExcel.Application.CreateApplication())

{ var book1 = app.Workbooks.Open(Environment.CurrentDirectory + "/test1.xls");

var sheet1 = (MSExcel.Worksheet)book1.Worksheets[1];

//get matrix size

var sizeCell = sheet1.GetRange("A1", "A1");

size = (int)(double)(sizeCell.Value2);

lMatrix.Text = size + "x7";

//Console.WriteLine("26 is " + GetRowNameBySize(26));

//Console.WriteLine("53 is " + GetRowNameBySize(53));

string left_border = "G" + (size + 2);

object[,] initial_matrix =

(object[,])(sheet1.GetRange("A2", left_border).Value2);

matrix_d = ObjectArrayToDoubleArray(ref initial_matrix, size);

distance_matrix = CalculateDistanceMatrix(ref matrix_d, size);

app.Quit();

}

TcKs.MSOffice.Common.WrapperHelper.GCCollect();

button1.Enabled = true;

button2.Enabled = true;

button4.Enabled = true;

lMatrix.Enabled = true;

lMatrix_caption.Enabled = true;

radioButton1.Enabled = true;

radioButton2.Enabled = true;

label1.Enabled = true;

label2.Enabled = true;

numericUpDown1.Enabled = true;

numericUpDown2.Enabled = true;

//Clear file before writing

var sw = new StreamWriter("log.txt");

sw.Write("");

sw.Close();

//WriteMatrixToOutout(ref distance_matrix, size, " STANDART MATRIX");

}

private void button4_Click(object sender, EventArgs e)

{ int numOfClusters = (int)numericUpDown1.Value;

int numOfIterations = (int) numericUpDown2.Value;

Iteratyvny(matrix_d, size, numOfClusters, numOfIterations);

}

string[] Iteratyvny(double[,] matrix, int size, int numOfClusters, int numOfIterations)

{ //set centres of clusters to first elements

var centres = new List<double[]>(numOfClusters);

WriteTextToLog("\n ================ ІТЕРАТИВНИЙ ================== \n"); var tmp_center = new double[7];

var clusters = new List<List<int>>(numOfClusters);

var clusters_old = string.Empty;

var clusters_current = string.Empty;

for (int i = 0; i < numOfClusters; i++)

{ clusters.Add(new List<int>{i});

for (int j = 0; j < 7; j++)

tmp_center[j] = matrix[i, j];

centres.Add(tmp_center); }

double min_distance = double.MaxValue, currDistance;

int cluster_index = 0, start_point = numOfClusters + 1,numOfAllIteration = numOfIterations;

while (numOfIterations > 0)

{ for (var i = start_point; i < size; i++)

{ for (var j = 0; j < numOfClusters; j++)

{ currDistance = GetDistanceFor(centres[j], GetRowById(ref matrix, i));

if (currDistance <= min_distance)

{ min_distance = currDistance;

cluster_index = j;

} }

min_distance = double.MaxValue;

clusters[cluster_index].Add(i);
centres[cluster_index] = AvarageOfTwo(centres[cluster_index], GetRowById(ref matrix, i));

}

WriteTextToLog("> Iteration number - " + (numOfAllIteration - numOfIterations));

WriteClustersToOutput(ref clusters);

numOfIterations--;

start_point = 0;

clusters_current = ClustersToString(ref clusters);

if (String.Compare(clusters_current, clusters_old, StringComparison.Ordinal) == 0)

{ MessageBox.Show("Last iterations the same as this. Stop");

return new[] { "", "" };

}

clusters_old = ClustersToString(ref clusters);

for (var i = 0; i < numOfClusters; i++)

clusters[i].Clear();

}

MessageBox.Show("Iterations out!");

return new[] {"", ""};

}

string ClustersToString(ref List<List<int>> cluster)

{

var str = new StringBuilder();

for (int i = 0; i < cluster.Count; i++)

{

str.Append("K" + i + "={");

for (int j = 0; j < cluster[i].Count; j++)

str.Append(cluster[i][j]+" ");

str.Append("}");

} return str.ToString();

} double[] GetRowById(ref double[,] matrix, int id)

{ var current_row = new double[7];

for (int i = 0; i < 7; i++)

current_row[i] = matrix[id, i];

return current_row;

}

double[] AvarageOfTwo(double[] row1, double[] row2)

{ var result = new double[7];

for (int i = 0; i < 7; i++)

result[i] = (row1[i] + row2[i])/2.0;

return result;

}

}

}

Додаток D

Таблиця D.1 - Типові підприємства

№ п-ва

Y1

X8

X9

X10

X11

X12

X17

5

9,35

0,88

0,15

1,91

7394

39,53

28,13

6

9,87

0,57

0,34

1,68

11586

40,41

17,55

8

9,12

1,7

0,09

1,89

7801

37,02

19,52

9

5,88

0,84

0,14

1,94

11587

45,74

23,99

10

6,3

0,6

0,21

2,06

9475

40,07

21,76

11

6,22

0,82

0,42

1,96

10811

45,44

25,68

12

5,49

0,84

0,05

1,02

6371

41,08

18,13

14

6,61

1,04

0,48

0,88

4210

42,39

21,21

15

4,32

0,66

0,41

0,62

3557

37,39

22,97

16

7,37

0,86

0,62

1,09

14148

101,8

16,38

17

7,02

0,79

0,56

1,6

9872

47,55

13,21

18

8,25

0,34

1,76

1,53

5975

32,61

14,48

19

8,15

1,6

1,31

1,4

16662

103,3

13,38

20

8,72

1,46

0,45

2,2

9166

38,95

13,69

21

6,64

1,27

0,5

1,32

15118

81,32

16,66

22

8,1

1,58

0,77

1,48

11429

67,26

15,06

23

5,52

0,68

1,2

0,68

6462

59,92

20,09

26

6,67

0,33

0,15

1,51

11470

53,81

14,42

27

5,68

0,45

0,66

1,43

19448

80,83

22,76

28

5,22

0,74

0,74

1,82

18963

59,42

15,41

29

10,02

0,03

0,32

2,62

9185

36,96

19,35

30

8,16

0,99

0,89

1,75

17478

91,43

16,83

31

3,78

0,24

0,23

1,54

6265

17,16

30,53

32

6,48

0,57

0,32

2,25

8810

27,29

17,98

33

10,44

1,22

0,54

1,07

17659

184,3

22,09

34

7,65

0,68

0,75

1,44

10342

58,42

18,29

35

8,77

1

0,16

1,4

8901

59,4

26,05

36

7

0,81

0,24

1,31

8402

49,63

26,2

40

9,27

0,67

1,1

1,07

13833

123,7

16,87

41

6,7

0,96

0,39

1,24

6391

37,21

14,63

42

6,69

0,67

0,73

1,49

11115

53,37

22,17

43

9,42

0,98

0,28

2,03

6555

32,87

22,62

44

7,24

1,16

0,1

1,84

11085

45,63

26,44

45

5,39

0,54

0,68

1,22

9484

48,41

22,26

46

5,61

1,23

0,87

1,72

3967

13,58

19,13

47

5,59

0,78

0,49

1,75

15283

63,99

18,28

48

6,57

1,16

0,16

1,46

20874

104,6

28,23

49

6,54

4,44

0,85

1,6

19418

222,1

12,39

50

4,23

1,06

0,13

1,47

3351

25,76

11,64

51

5,22

2,13

0,49

1,38

6338

29,52

8,62

52

11,03

2,2

0,79

1,39

11795

78,11

19,41

Додаток Е

Рисунок Е.1 - Кореляційне поле для Y1 та фактора Х8

Рисунок Е 2 - Кореляційне поле для показника показника Y1 та фактора Х9

Рисунок В.3 - Кореляційне поле для показника Y1 та фактора Х10

Рисунок В.4 - Кореляційне поле для показника Y1 та фактора Х11

Рисунок В.5 - Кореляційне поле для показника Y1 та фактора Х12

Рисунок В.6 - Кореляційне поле для показника Y1 та фактора Х17

Рисунок В.7 - Кореляційне поле для фактора Х8 та фактора Х9

Рисунок В.8 - Кореляційне поле для Х8 та фактора Х10

Рисунок В.9 - Кореляційне поле для фактора Х8 та фактора Х11

Рисунок В.10 - Кореляційне поле для фактора Х8 та фактора Х12

Рисунок В.11 - Кореляційне поле для фактора Х8 та фактора Х17

Рисунок В.12 - Кореляційне поле для фактора Х9 та фактора Х10

Рисунок В.13 - Кореляційне поле для фактора Х9 та фактора Х11

Рисунок В.14 - Кореляційне поле для фактора Х9 та фактора Х12

Рисунок В.15 - Кореляційне поле для фактора Х9 та фактора Х17

Рисунок В.16 - Кореляційне поле для фактора Х10 та фактора Х11

Рисунок В.17 - Кореляційне поле для фактора Х10 та фактора Х12

Рисунок В.18 - Кореляційне поле для фактора Х10 та фактора Х17

Рисунок В.19 - Кореляційне поле для для фактора Х11 та фактора Х12

Рисунок В.20 - Кореляційне поле для фактора Х11 та фактора Х17

Рисунок В.21 - Кореляційне поле для фактора Х12 та фактора Х17

Додаток F

Перевірено фактори на мультиколінеарність. Для цього обчислено визначник матриці парних коефіцієнтів кореляції

Оскільки визначник матриці близький до нуля, то це свідчить про наявність мультиколінеарності.

За алгоритмом Фаррара-Глобера перевірено між якими факторами існує мультиколінеарність.

Для цього нормалізуємо змінні за формулою (2.17).

Матрицю нормалізованих змінних транспонуємо та знайдемо кореляційну матрицю.

Визначник матриці .

Обчислимо емпіричне значення критерію . Критичне значення.

Оскільки фактичне значення критерію більше за табличне, то робимо висновок, що серед незалежних змінних існує мультиколінеарність.

Розраховано F-статистику.

Табличне значення критерію Фішера .

Оскільки > та >, то фактори та мультиколінеарні з іншими.

Також розраховано коефіцієнт детермінації.

Обчислено емпіричні значення t - статистики.

Критичне значення .

Оскільки >, >, >, то між факторами та , та , та існує мультиколінеарність.

Проаналізувавши значення F-статистики, коефіцієнта детермінації та t - статистики визначено, що найкраще серед факторів та виключити фактор оскільки дана величина є менш керованою, ніж величина .

Перерахувавши кореляційну матрицю та емпіричне значення критерію Пірсона маємо:

;

.

Отже, між незалежними змінними існує мультиколінеарність.

Аналогічним чином розраховано F-статистику уже для 5 факторів.

Критичне значення критерію .

Обчислено коефіцієнти детермінації.

Оскільки за допомогою F-статистики не можна визначити які саме фактори є мультиколінеарними, то обчислено значення t - статистики.

Критичне значення критерію .

Оскільки, > , >, то між факторами та , та, існує мультиколінеарність.

Проаналізувавши значення F-статистики, коефіцієнта детермінації та t - статистики визначено, що найкраще виключити фактор , оскільки він є менш керованим ніж інші фактори.

Перерахувавши кореляційну матрицю, обчислено емпіричне значення критерію для 4 факторів.

;

.

Оскільки <, то в масиві незалежних змінних не існує мультиколінеарності.

Додаток G

Таблиця F.1 - Стандартизовані дані

№ п-ва

Z1

Z8

Z9

Z10

Z11

Z12

Z17

5

1,252

-0,187

-1,006

0,896

-0,699

-0,521

1,730

6

1,545

-0,620

-0,496

0,342

0,192

-0,499

-0,361

8

1,123

0,959

-1,167

0,848

-0,612

-0,582

0,028

9

-0,704

-0,243

-1,033

0,969

0,192

-0,370

0,912

10

-0,468

-0,579

-0,845

1,258

-0,257

-0,507

0,471

11

-0,513

-0,271

-0,281

1,017

0,027

-0,377

1,246

12

-0,924

-0,243

-1,274

-1,249

-0,916

-0,483

-0,247

14

-0,293

0,036

-0,120

-1,586

-1,375

-0,451

0,362

15

-1,584

-0,495

-0,308

-2,213

-1,514

-0,573

0,710

16

0,136

-0,215

0,255

-1,080

0,736

0,992

-0,593

17

-0,062

-0,313

0,094

0,149

-0,172

-0,326

-1,219

18

0,632

-0,942

3,315

-0,019

-1,000

-0,689

-0,968

19

0,576

0,819

2,107

-0,333

1,270

1,029

-1,185

20

0,897

0,624

-0,201

1,595

-0,322

-0,535

-1,124

21

-0,276

0,358

-0,067

-0,526

0,942

0,495

-0,537

22

0,547

0,791

0,658

-0,140

0,158

0,153

-0,853

23

-0,907

-0,467

1,812

-2,068

-0,897

-0,025

0,141

26

-0,259

-0,956

-1,006

-0,068

0,167

-0,174

-0,980

27

-0,817

-0,788

0,363

-0,260

1,862

0,483

0,669

28

-1,077

-0,383

0,577

0,680

1,759

-0,037

-0,784

29

1,630

-1,375

-0,550

2,608

-0,318

-0,583

-0,005

30

0,581

-0,033

0,980

0,511

1,443

0,740

-0,504

31

-1,889

-1,082

-0,791

0,005

-0,939

-1,064

2,204

32

-0,366

-0,620

-0,550

1,716

-0,398

-0,818

-0,276

33

1,867

0,288

0,041

-1,128

1,482

2,996

0,536

34

0,294

-0,467

0,604

-0,236

-0,073

-0,062

-0,215

35

0,925

-0,019

-0,979

-0,333

-0,379

-0,038

1,319

36

-0,073

-0,285

-0,765

-0,550

-0,485

-0,275

1,348

40

1,207

-0,481

1,543

-1,128

0,669

1,524

-0,496

41

-0,242

-0,075

-0,362

-0,718

-0,912

-0,577

-0,938

42

-0,248

-0,481

0,550

-0,116

0,092

-0,184

0,552

43

1,292

-0,047

-0,657

1,186

-0,877

-0,682

0,641

44

0,062

0,204

-1,140

0,728

0,085

-0,372

1,396

45

-0,981

-0,662

0,416

-0,767

-0,255

-0,305

0,570

46

-0,857

0,302

0,926

0,439

-1,427

-1,151

-0,049

47

-0,868

-0,327

-0,094

0,511

0,977

0,074

-0,217

48

-0,315

0,204

-0,979

-0,188

2,165

1,060

1,750

49

-0,332

4,789

0,873

0,149

1,855

3,914

-1,381

50

-1,635

0,064

-1,060

-0,164

-1,558

-0,855

-1,529

51

-1,077

1,560

-0,094

-0,381

-0,923

-0,764

-2,126

52

2,200

1,658

0,712

-0,357

0,236

0,417

0,006

Додаток H

Таблиця G.1 - Кореляційна матриця стандартизованих ознак

Z8

Z9

Z10

Z11

Z12

Z17

Z8

1,000

0,121

-0,047

0,258

0,572

-0,342

Z9

0,121

1,000

-0,273

0,194

0,306

-0,400

Z10

-0,047

-0,273

1,000

0,078

-0,257

0,033

Z11

0,258

0,194

0,078

1,000

0,741

-0,041

Z12

0,572

0,306

-0,257

0,741

1,000

-0,139

Z17

-0,342

-0,400

0,033

-0,041

-0,139

1,000

Таблиця G.5 - Матриця значень головних компонент

№ п-ва

F1

F2

F3

5

-1,138

-1,124

-0,178

6

-0,400

-0,124

0,365

8

-0,504

-0,545

1,135

9

-0,688

-1,223

0,208

10

-0,875

-0,814

0,609

11

-0,641

-0,978

0,005

12

-0,634

0,560

-0,527

14

-0,483

1,113

-1,067

15

-0,764

1,255

-1,816

16

0,835

0,276

-0,766

17

-0,025

0,683

0,772

18

0,138

2,560

0,228

19

1,773

0,745

0,224

20

-0,134

-0,024

2,095

21

0,722

-0,131

-0,127

22

0,672

0,558

0,545

23

0,230

1,996

-1,705

26

-0,334

0,043

0,300

27

0,494

-0,878

-1,106

28

0,606

-0,395

0,598

29

-1,150

-0,911

1,562

30

0,970

-0,336

0,276

31

-1,613

-0,586

-1,234

32

-0,887

-0,407

1,391

33

1,703

-1,102

-1,738

34

0,031

0,536

-0,214

35

-0,580

-0,703

-0,872

36

-0,709

-0,415

-1,082

40

1,231

0,755

-1,134

41

-0,332

1,062

0,238

42

-0,147

0,089

-0,558

43

-0,952

-0,508

0,709

44

-0,074

-0,682

-1,371

45

-1,010

-0,307

0,471

46

0,724

-0,598

1,111

47

0,275

0,184

-0,565

48

-1,403

0,558

-2,308

49

1,383

3,891

-1,110

50

1,170

-0,704

1,118

51

1,685

0,323

1,489

52

0,117

0,919

0,138

Додаток K

Таблиця Н.1 - Редукована кореляційна матриця стандартизованих ознак

Z8

Z9

Z10

Z11

Z12

Z17

Z8

0,572

0,121

-0,047

0,258

0,572

-0,342

Z9

0,121

0,400

-0,273

0,194

0,306

-0,400

Z10

-0,047

-0,273

0,273

0,078

-0,257

0,033

Z11

0,258

0,194

0,078

0,741

0,741

-0,041

Z12

0,572

0,306

-0,257

0,741

0,741

-0,139

Z17

-0,342

-0,400

0,033

-0,041

-0,139

0,400

Таблиця Н.3 - Матриця залишкових кореляцій

Z8

Z9

Z10

Z11

Z12

Z17

Z8

0,198

-0,137

0,068

-0,179

0,032

-0,136

Z9

-0,137

0,223

-0,193

-0,107

-0,066

-0,258

Z10

0,068

-0,193

0,237

0,212

-0,091

-0,030

Z11

-0,179

-0,107

0,212

0,231

0,110

0,200

Z12

0,032

-0,066

-0,091

0,110

-0,039

0,158

Z17

-0,136

-0,258

-0,030

0,200

0,158

0,287

Таблиця Н.5 - Матриця значень фактора F1

№ п-ва

F1

№ п-ва

F1

5

-2,248

30

2,149

6

-0,835

31

-3,347

8

-1,025

32

-1,847

9

-1,262

33

3,928

10

-1,736

34

-0,020

11

-1,209

35

-1,109

12

-1,447

36

-1,436

14

-1,231

40

2,558

15

-1,841

41

-0,907

16

1,780

42

-0,323

17

-0,180

43

-1,973

18

-0,173

44

-1,230

19

3,665

45

-0,728

20

-0,328

46

-1,526

21

1,580

47

0,500

22

1,323

48

1,640

23

0,157

49

8,512

26

-0,699

50

-1,728

27

1,250

51

0,369

28

1,368

52

1,915

29

-2,304

Размещено на Allbest.ur


Подобные документы

  • Завдання та етапи кластерного аналізу, вимоги до інформації. Приклад класифікації економічних об'єктів за допомогою алгоритму кластерного аналізу, методи перевірки стійкості кластеризації, інтерпретація результатів аналізу та побудування дендрограми.

    реферат [311,2 K], добавлен 15.07.2011

  • Система управління технологічним процесом. Методи експертних оцінок. Принципи виявлення колективної думки експертів про перспективи розвитку об'єкта аналізу. Статистична обробка результатів. Методи евристичного програмування, "мозкової атаки" й аналогії.

    реферат [34,1 K], добавлен 11.05.2009

  • Статистичні методи аналізу та обробки спостережень. Характерні ознаки типової і спеціалізованої звітності підприємств. Оцінка параметрів простої лінійної моделі методом найменших квадратів. Аналіз показників багатофакторної лінійної і нелінійної регресії.

    контрольная работа [327,1 K], добавлен 23.02.2014

  • Мета кластерного аналізу: поняття, алгоритм, завдання. Головні особливості процедури Мак-Кіна. Графік середніх значень за трьома кластерами. Метод К-методів, переваги та недоліки використання. Поняття про сіткові алгоритми кластеризації (grid-based).

    реферат [238,3 K], добавлен 27.05.2013

  • Методи розв’язування, аналізу та використання задач зі знаходженням екстремуму функції на множині допустимих варіантів у широкому спектрі теоретико-економічних та практичних проблем. Модель задачі лінійного програмування. Складання симплексної таблиці.

    контрольная работа [960,6 K], добавлен 08.10.2013

  • Упорядкування одиниць сукупності за допомогою інтегральних оцінок. Багатовимірне ранжування у системі Statistica. Формування однорідних одиниць сукупності за допомогою кластерного аналізу. Порядок об’єднання в кластери через опцію Amalgamation schedule.

    контрольная работа [1,8 M], добавлен 08.12.2010

  • Використання абсолютних, відносних та середніх величин, рядів динаміки у фінансовому аналізі, складання аналітичних таблиць. Застосування індексного та графічного методів. Послідовність аналізу економічних показників, взаємозв’язок факторних показників.

    курсовая работа [145,2 K], добавлен 31.05.2010

  • Особливості побудови математичної моделі економічного явища. Множинна лінійна регресія в стандартизованому масштабі. Множинна нелінійна регресія, комп’ютерна реалізація методу Брандона. Моделювання для підприємств аграрно-промислового комплексу.

    курсовая работа [1,9 M], добавлен 29.04.2010

  • Сутність статистичних індексів в економічних дослідження. Індивідуальні та загальні індекси кількісних та якісних показників. Аналіз статистичних даних по купівельній спроможності середньої заробітної плати та середньої пенсії на продовольчих ринках.

    курсовая работа [666,4 K], добавлен 16.07.2010

  • Зміст і мета кластеризації. Переваги її застосування перед іншими методами класифікації даних. Ієрархічні і неієрархічні методи кластерного аналізу. Приклад вертикальної дендрограми. Алгоритми найближчого і дальнього сусіда. Схема ітеративного методу.

    контрольная работа [2,4 M], добавлен 12.06.2019

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.