Статистичний аналіз залежностей економічних показників типових підприємств для надання практичних рекомендацій по підвищенню продуктивності праці
Методи одержання стійких статистичних оцінок. Агломеративні методи кластерного аналізу. Грубі помилки та методи їх виявлення. Множинна нелінійна регресія. Метод головних компонент. Сутність завдання факторного аналізу. Робастне статистичне оцінювання.
Рубрика | Экономико-математическое моделирование |
Вид | курсовая работа |
Язык | украинский |
Дата добавления | 28.04.2014 |
Размер файла | 1,2 M |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Визначник матриці парних коефіцієнтів кореляції близький до нуля, що означає, що між незалежними змінними існує мультиколінеарність. Згідно алгоритму Фаррара-Глобера та економічного змісту факторів, було визначено, що для усунення мультиколінеарності необхідно виключити змінні Х12 - середньорічна чисельність ОВФ та Х17 - невиробничі витрати.
Перераховано матрицю парних коефіцієнтів кореляції (1.1).
Також обчислено матрицю часткових коефіцієнтів кореляції (таблиця 3.3.2)
Оскільки значення часткових коефіцієнтів кореляції менші за значення парних між факторами Y1 та X8 , Y1 та X11, X8 та X11, X9 та X11, X10 та X11 то при виключенні фактора X12 зв'язок між цими факторами слабшає. Це свідчить про те, що саме цей фактор посилює кореляцію між даними змінними.
Значення часткових коефіцієнтів детермінації між факторами Y1 та X10, X8 та X10, X9 та X10, X10 та X11 більші, ніж значення парних коефіцієнтів. Це означає, що фіксовані компоненти послаблюють зв'язок між парами даних факторів.
За - статистикою Фішера-Ієйтса перевірено значущість часткових коефіцієнтів кореляції та визначено, що значущим є коефіцієнт між факторами Х9 та Х10 (Таблиця 3.3.7).
Знайдено точкові оцінки п'яти коефіцієнтів множинної кореляції та детермінації (Таблиця 3.3.8).
За F - критерієм Фішера перевірено значущість множинних коефіцієнтів детермінації (Таблиця 3.3.8). Усі коефіцієнти детермінації виявились не значимими. Оскільки множинні коефіцієнти не значимі, то в сукупності відсутня лінійна залежність між результативним показником та незалежними змінними.
3.4 Регресійний аналіз
З метою встановлення аналітичної залежності між ознаками X та Y та надання практичних рекомендацій щодо підвищення продуктивності праці, проведено регресійний аналіз.
3.4.1 Парна лінійна регресія
Для побудови парної лінійної регресії вибрано фактор який краще впливає на результативну ознаку за результатами кореляційного аналізу. Найтісніший зв'язок існує між фактором Х10 - фондовіддача та результативної ознакою Y1 - продуктивність праці.
Знайдено оцінки параметрів регресії за методом найменших квадратів. Модель має вигляд:
Перевірено на значимість дане рівняння регресії за F - критерієм Фішера.
Оскільки , то рівняння регресії не значиме, тобто за даною моделлю не можна робити прогноз.
3.4.2 Парна нелінійна регресія
Побудовано парну нелінійну регресію. За методом найменших квадратів знайдено оцінки параметрів регресії. Дана регресія має вигляд:
За критерієм Фішера перевірено дану модель на значущість.
Оскільки, , то рівняння регресії незначиме. За даною моделлю не можна робити прогноз.
3.4.3 Множинна лінійна регресія
Побудовано модель вигляду (2.26).
Перевірено дану модель на значущість.
Знайдено емпіричне значення критерію Фішера.
Оскільки, , то модель неадекватна статистичним даним і її не можна використовувати для прогнозування.
3.4.4 Множинна нелінійна регресія
Побудовано адитивну модель вигляду
. (3.1)
Зробимо лінеаризацію
.
Використовуючи алгоритм множинної лінійної регресії знайдемо оцінки параметрів моделі. Отже, отримана модель має вигляд:
За критерієм Фішера перевірено дану модель на адекватність.
Оскільки, , то рівняння регресії незначиме. За даною моделлю не можна робити прогноз.
Побудуємо адитивну нелінійну модель вигляду
(3.2)
Знайдено оцінки параметрів моделі. Модель має вигляд:
Дану модель перевірено на адекватність за критерієм Фішера.
Оскільки, , то рівняння регресії незначиме. За даною моделлю не можна робити прогноз.
Побудуємо адитивну модель вигляду
(3.3)
Знайдено оцінки параметрів регресії. Отримано модель вигляду:
Дану модель перевірено на адекватність за критерієм Фішера.
Оскільки, , то рівняння регресії незначиме. За даною моделлю не можна робити прогноз.
Побудовано мультиплікативну модель вигляду
(3.4)
Знайдено оцінки параметрів даної регресії. Отримано модель наступного вигляду:
Дану модель перевірено на адекватність за критерієм Фішера.
Таблиця 3.3.9 - Результати регресійного аналізу
Назва регресії |
Регресійна модель |
Значення критерію Фішера |
Кореляційне відношення |
||
Парна лінійна регресія |
Fемп< Fкр (неадекватна) |
0,746 |
117,670 |
||
Парна нелінійна регресія |
Fемп< Fкр (неадекватна) |
0,947 |
119,185 |
||
Множинна лінійна регресія |
Fемп< Fкр (неадекватна) |
0,874 |
109,988 |
||
Множинна нелінійна регресія (адитивна) |
Fемп< Fкр (неадекватна) |
0,899 |
113,135 |
||
Множинна нелінійна регресія (адитивна) |
Fемп< Fкр (неадекватна) |
0,868 |
109,164 |
||
Множинна нелінійна регресія (адитивна) |
Fемп< Fкр (неадекватна) |
0,805 |
101,316 |
||
Множинна нелінійна регресія (мультиплікативна) |
Fемп< Fкр (неадекватна) |
0,896 |
112,739 |
||
Множинна нелінійна регресія (мультиплікативна) |
Fемп< Fкр (неадекватна) |
0,899 |
113,135 |
Оскільки, , то рівняння регресії незначиме. За даною моделлю не можна робити прогноз.
Побудовано модель вигляду
(3.5)
Знайдено оцінки параметрів моделі. Маємо наступну модель:
За критерієм Фішера дану модель перевірено на значущість.
Оскільки, , то рівняння регресії незначиме. За даною моделлю не можна робити прогноз.
Таким чином, з метою встановлення виду аналітичної залежності між ознаками X та Y, було проведено регресійний аналіз.
Було побудовано вісім регресійних моделей, а саме: парної лінійної та парної нелінійної регресії, множинної лінійної та 5 моделей множинної нелінійної регресій (Таблиця 3.3.9).
За результатами перевірки на значущість моделей за критерієм Фішера, виявлено, що всі моделі не адекватні (Таблиця 3.3.9). Також було обчислено кореляційні відношення для перевірки ступеня впливу неврахованих факторів (Таблиця 3.3.9). Оскільки всі кореляційні відношення становлять більше 20%, то це свідчить про те, необхідно надати інформацію про інші показники діяльності підприємства.
3.5 Факторний аналіз
3.5.1 Метод головних компонент
Метод головних компонент дозволяє за вихідними ознакам побудувати узагальнені ознаки, які називаються головними компонентами, і за допомогою регресійного аналізу виявити форму залежності результуючої ознаки від знайдених головних компонент.
Було використано алгоритм методу головних компонент (2.5.3), стандартизовано початкові значення (Додаток F) та обчислено кореляційну матрицю стандартизованих ознак (Таблиця G.1). Обчислено матрицю власних значень та матрицю нормованих власних векторів (Таблиця 3.5.1).
Таблиця 3.5.1 - Матриця нормованих власних значень та власних векторів
V8 |
V9 |
V10 |
V11 |
V12 |
V17 |
||
? |
2,354 |
1,269 |
1,044 |
0,805 |
0,410 |
0,118 |
|
1 |
0,446 |
-0,083 |
0,324 |
0,638 |
0,419 |
0,326 |
|
2 |
0,362 |
0,501 |
-0,075 |
-0,544 |
0,560 |
0,051 |
|
3 |
-0,179 |
-0,449 |
0,708 |
-0,359 |
0,284 |
-0,234 |
|
4 |
0,456 |
-0,485 |
-0,095 |
-0,403 |
-0,312 |
0,536 |
|
5 |
0,584 |
-0,255 |
-0,205 |
0,068 |
-0,044 |
-0,738 |
|
6 |
-0,297 |
-0,489 |
-0,581 |
0,029 |
0,575 |
0,064 |
За (2.31) обчислено матрицю факторних навантажень (Таблиця 3.5.2)
Таблиця 3.5.2 - Матриця факторних навантажень
F1 |
F2 |
F3 |
F4 |
F5 |
F6 |
||
X8 |
0,685 |
-0,094 |
0,331 |
0,572 |
0,269 |
0,112 |
|
Х9 |
0,555 |
0,565 |
-0,076 |
-0,488 |
0,359 |
0,017 |
|
Х10 |
-0,275 |
-0,506 |
0,723 |
-0,322 |
0,182 |
-0,080 |
|
Х11 |
0,700 |
-0,547 |
-0,097 |
-0,362 |
-0,200 |
0,184 |
|
X12 |
0,896 |
-0,287 |
-0,210 |
0,061 |
-0,028 |
-0,254 |
|
X17 |
-0,456 |
-0,551 |
-0,593 |
0,026 |
0,368 |
0,022 |
Також обчислено частку пояснюючої дисперсії за(2.32).
Таблиця 3.5.3 - Частка пояснюючої дисперсії
Ознака |
F1 |
F2 |
F3 |
F4 |
F5 |
F6 |
|
Накопичена сума |
2,35 |
3,62 |
4,67 |
5,47 |
5,88 |
6,000 |
|
Частка дисперсії |
39,23% |
60,39% |
77,78% |
91,19% |
98,03% |
100,00% |
Для дослідження відібрано лише чотири перші головні компоненти, оскільки вони пояснюють 77,78% дисперсії вхідних ознак, що прийнятно для нас.
Відібрано значення факторів для пояснення головних компонент (Таблиця 3.5.4)
Таблиця 3.5.4 - Відбір інформативних факторів
Латентні ознаки |
|||||||||
F1 |
F2 |
||||||||
Фактор |
Значення факторного навантаження |
Відсоток |
Фактор |
Значення факторного навантаження |
Відсоток |
Фактор |
Значення факторного навантаження |
Відсоток |
|
X12 |
0,896 |
25,129% |
Х9 |
0,565 |
22,150% |
X10 |
0,723 |
35,641% |
|
Х11 |
0,700 |
44,745% |
Х17 |
0,551 |
43,769% |
X17 |
0,593 |
64,863% |
|
Х8 |
0,685 |
63,938% |
X11 |
0,547 |
65,221% |
X8 |
0,331 |
81,148% |
|
Х9 |
0,555 |
79,493% |
X10 |
0,506 |
85,067% |
X12 |
0,210 |
91,486% |
|
X17 |
0,456 |
92,288% |
X12 |
0,287 |
96,322% |
X11 |
0,097 |
96,250% |
|
X10 |
0,275 |
100% |
X8 |
0,094 |
100% |
X9 |
0,076 |
100% |
Відібрано компоненти за допомогою коефіцієнта інформативності (2.34) і в результаті отримано чотири латентних ознаки:
F1 - латентна ознака, яка включає: середньорічну вартість ОВФ (Х12), середньорічну чисельність ПП (Х11), премії та винагороди на одного працівника (Х8) та питому вагу утрат від браку (Х9).
F2 - латентна ознака, яка включає: питому вагу утрат від браку (Х9), невиробничі витрати (Х17), середньорічну чисельність ПП (Х11) та фондовіддачу (Х10)
F3 - латентна ознака, яка включає: фондовіддачу (Х10), невиробничі витрати (Х17) та премії та винагороди на одного працівника (Х8).
Обчислено матрицю значень головних компонент за формулою (2.33) та подано у таблиці G.5.
Побудовано факторну модель за допомогою алгоритму пункту (2.4.2) та перевірено на адекватність. Модель за критерієм Фішера є неадекватною, тому її не можна використовувати для прогнозування (Таблиця 3.5.2)
Модель має наступний вигляд:
(3.9)
3.5.2 Метод головних факторів
Було використано алгоритм методу головних факторів (2.5.4), стандартизовано початкові значення (Додаток F) та обчислено редуковану кореляційну матрицю стандартизованих ознак (Таблиця H.1). Обчислено матрицю власних значень та матрицю нормованих власних векторів (Таблиця 3.5.5).
Таблиця 3.5.5 - Матриця нормованих власних значень та власних векторів редукованої кореляційної матриці
V8 |
V9 |
V10 |
V11 |
V12 |
V17 |
||
? |
1,989 |
0,757 |
0,443 |
0,308 |
-0,161 |
-0,210 |
|
1 |
0,434 |
0,143 |
0,631 |
-0,406 |
0,303 |
0,370 |
|
2 |
0,299 |
0,485 |
-0,403 |
0,350 |
0,625 |
0,022 |
|
3 |
-0,134 |
-0,312 |
0,552 |
0,527 |
0,380 |
-0,399 |
|
4 |
0,506 |
-0,531 |
-0,134 |
0,438 |
-0,178 |
0,469 |
|
5 |
0,626 |
-0,187 |
-0,138 |
-0,282 |
-0,062 |
-0,686 |
|
6 |
-0,239 |
-0,575 |
-0,313 |
-0,405 |
0,581 |
0,116 |
Обчислено матрицю залишкових кореляцій (Таблиця H.3)
Перевіримо значущість матриці залишкових кореляцій за критерієм Уілкіса 2 (формула 2.37)
Оскільки < , то дана кореляційна матриця незначуща.
Перевіримо, чи кількість вибраних факторів є достатньою за критерієм Лоулі (2.38)
Оскільки < , то кількість відібраних факторів є достатньою.
За аналогічним принципом відібрано фактори для пояснення даного головного фактору (Таблиця 3.5.6)
Таблиця 3.5.6 - Відбір інформативних факторів для F1
Фактори |
Факторне навантаження |
Відсотки |
|
X12 |
0,883 |
27,984% |
|
Х11 |
0,714 |
50,619% |
|
Х8 |
0,611 |
70,002% |
|
Х9 |
0,421 |
83,352% |
|
X17 |
-0,337 |
94,026% |
|
X10 |
-0,188 |
100% |
F1 - латентна ознака, яка включає: середньорічну вартість ОВФ (Х12), середньорічну чисельність ПП (Х11), премії та винагороди на одного працівника (Х8).
Обчислено матрицю значень головних факторів (Таблиця .Н.5).
Побудовано факторну модель за допомогою алгоритму пункту (2.4.2).
Модель за критерієм Фішера є неадекватною, тому використовувати дану модель для прогнозування не можна (Таблиця 3.5.2)
Модель має наступний вигляд:
(3.10)
Таким чином, було здійснено факторний аналіз за допомогою методу головних компонент та методу головних факторів.
Для дослідження відібрано лише чотири перші головні компоненти, оскільки вони пояснюють 77,78% дисперсії вхідних ознак. (Таблиця 3.5.3).
Також відібрано значення факторів для пояснення даних головних компонент так, щоб коефіцієнт інформативності становив не менше 70%.(Таблиця 3.5.4). В результаті отримано наступні латентні ознаки:
F1 - латентна ознака, яка включає фактори: Х12 - середньорічна вартість ОВФ (25,129%), Х11 - середньорічна чисельність ПП (19,616%), Х8 - премії та винагороди на одного працівника (19,193%) та Х9 - питома вагу утрат від браку (15,554%).
F2 - латентна ознака, яка включає фактори: Х9 - питома вагу утрат від браку (22,150%), Х17 - невиробничі витрати (21,619%), Х11 - середньорічна чисельність ПП (21,451%) та Х10 - фондовіддача (19,847%)
F3 - латентна ознака, яка включає фактори: Х10 - фондовіддача (35,641%), Х17 - невиробничі витрати (29,222%) та Х8 - премії та винагороди на одного працівника (16,284%).
Таблиця 3.5.7 - Результати факторного аналізу
Назва регресії |
Регресійна модель |
Значення критерію Фішера |
Кореляційне відношення |
||
Регресія за методом головних компонент |
Fемп< Fкр (неадекватна) |
0,882 |
110,983 |
||
Регресія за методом головних факторів |
Fемп< Fкр (неадекватна) |
0,956 |
120,320 |
Також факторний аналіз було проведено за допомогою методу головних факторів. За критерієм Лоулі перевірено чи кількість відібраних факторів є достатньою.
Оскільки < , то кількість відібраних факторів є достатньою.
В результаті було відібрано одну латентну ознаку:
F1 - латентна ознака, яка включає фактори: Х12 - середньорічна вартість ОВФ (27,619%), Х11 - середньорічна чисельність ПП (22,635%), Х8 - премії та винагороди на одного працівника (19,383%).
Побудовано дві регресійні моделі та перевірено їх на адекватність (Таблиця 3.5.2). За результатами перевірки критерієм Фішера дані моделі є неадекватними. Також було обчислено кореляційні відношення для перевірки впливу неврахованих факторів. У зв'язку з тим, що кореляційні відношення складають більше 20%, то існує великий вплив неврахованих факторів.
3.6 Практичні рекомендації
У ході роботи було проведено статистичний аналіз впливу факторів на продуктивність праці.
Використовуючи лише наявні фактори, які впливають на розвиток підприємства, ми не можемо надати ніяких практичних рекомендацій щодо шляхів підвищення продуктивності праці. Це означає, що існує потреба в наданні додаткової інформації для отримання результату.
Поза межами дослідження залишилося 52-ге підприємство, оскільки значення його економічних показників значно відрізняються від основної групи.
Значну різницю між даними підприємствами та 52-гим підприємством можна пояснити, як специфічну особливість окремого елемента досліджуваної сукупності.
Висновки
У даній курсовій роботі за допомогою статистичних методів було здійснено аналіз підприємств по підвищенню рівня продуктивності праці.
Для розробки практичних рекомендацій по підвищенню продуктивності праці використано такі фактори, як премії та винагороди на одного працівника, питома вага утрат від браку, фондовіддача, середньорічна чисельність ПП, середньорічна вартість ОВФ та невиробничі витрати.
За отриманими даними 53 підприємств (Додаток А) було проведено дослідження .
Щоб вилучити дані, що значно відхиляються від значень основного масиву було проведено робастне статистичне оцінювання в результаті якого вилучено 52 підприємство.
За допомогою методів кластерного аналізу, генеральну сукупність було розділено на дві групи, елементи в яких розташовуються на мінімальній відстані один від одного. Групу з найбільшою кількістю елементів обрано для подальшої роботи. Така група є типовою і складається з 41 підприємства. (Додаток D). Інші підприємства, а саме: 1, 2, 3, 4, 7, 13, 24, 25, 37, 38, 39, було вилучено з основного масиву даних. Підприємства типової групи були використані для подальшого аналізу та розробки рекомендацій.
Для дослідження лінійних зв'язків між змінними було проведено кореляційний аналіз. Визначено, що висока залежність існує між факторами: Y1 та X10 , Y1 і X12 , X8 і X12 , X9 і X17, X11 і X12 , що підтверджує висунуті гіпотези. Між факторами Х11 та Х17 , Х10 та Х17 , Y1 та X17 існує слабка залежність. При перевірці на мультиколінеарність було виключено змінні Х12 - середньорічна чисельність ОВФ та Х17 - невиробничі витрати. Знайдено точкові оцінки п'яти коефіцієнтів множинної кореляції та детермінації Усі коефіцієнти детермінації виявились не значимими, тобто в сукупності відсутня лінійна залежність між результативним показником та незалежними змінними.
З метою встановлення виду аналітичної залежності між ознаками X та Y, було проведено регресійний аналіз.
Було побудовано вісім регресійних моделей, а саме: парної лінійної та парної нелінійної регресії, множинної лінійної та 5 моделей множинної нелінійної регресій.
За результатами перевірки моделей за критерієм Фішера, виявлено, що всі моделі не адекватні (Таблиця 3.3.9). Оскільки всі кореляційні відношення становлять більше 20% (Таблиця 3.3.9), то це свідчить про те, необхідно надати інформацію про інші показники діяльності підприємства.
Здійснено факторний аналіз за допомогою методу головних компонент та методу головних факторів.
В результаті проведення факторного аналізу методом головних компонент отримано наступні приховані фактори:
F1 - латентна ознака, яка включає фактори: Х12 - середньорічна вартість ОВФ (25,129%), Х11 - середньорічна чисельність ПП (19,616%), Х8 - премії та винагороди на одного працівника (19,193%) та Х9 - питома вагу утрат від браку (15,554%).
F2 - латентна ознака, яка включає фактори: Х9 - питома вагу утрат від браку (22,150%), Х17 - невиробничі витрати (21,619%), Х11 - середньорічна чисельність ПП (21,451%) та Х10 - фондовіддача (19,847%)
F3 - латентна ознака, яка включає фактори: Х10 - фондовіддача (35,641%), Х17 - невиробничі витрати (29,222%) та Х8 - премії та винагороди на одного працівника (16,284%).
В результаті проведення факторного аналізу методом головних факторів було відібрано одну латентну ознаку:
F1 - латентна ознака, яка включає фактори: Х12 - середньорічна вартість ОВФ (27,619%), Х11 - середньорічна чисельність ПП (22,635%), Х8 - премії та винагороди на одного працівника (19,383%).
Побудовано дві регресійні моделі та перевірено їх на адекватність (Таблиця 3.5.7). За результатами перевірки критерієм Фішера дані моделі є неадекватними. Кореляційні відношення є досить великими, що свідчить про великий вплив неврахованих факторів.
За результатами проведеного аналізу було визначено, що для надання практичних рекомендацій щодо шляхів підвищення продуктивності праці існує потреба в наданні додаткової інформації для отримання результату.
агломеративний кластерний регресія факторний
Перелік посилань
1. Башнянин Г.І., Лазур П.Ю, Медведєв В.С. Політична економія. - Київ, 2002.
2. Григорук П.М. Економетричне моделювання. Конспект лекцій / П.М. Григорук. Хмельницький 2005. - с.123
3. Мандель И.Д. Кластерный анализ / И.Д. Мандель.-Москва: Финансы и статистика, 1988.-176с.
4. Мороз В.С., Мороз В.В. Економетрія. - Хмельницький, 2000.
Додаток А
Таблиця А.1 - Вхідні дані
№ п-ва |
Y1 |
X8 |
X9 |
X10 |
X11 |
X12 |
X17 |
|
1 |
9,26 |
1,23 |
0,23 |
1,45 |
26006 |
167,70 |
17,72 |
|
2 |
9,38 |
1,04 |
0,39 |
1,30 |
23935 |
186,10 |
18,39 |
|
3 |
12,11 |
1,80 |
0,43 |
1,37 |
22589 |
220,50 |
26,46 |
|
4 |
10,81 |
0,43 |
0,18 |
1,65 |
21220 |
169,30 |
22,37 |
|
5 |
9,35 |
0,88 |
0,15 |
1,91 |
7394 |
39,53 |
28,13 |
|
6 |
9,87 |
0,57 |
0,34 |
1,68 |
11586 |
40,41 |
17,55 |
|
7 |
8,17 |
1,72 |
0,38 |
1,94 |
26609 |
103,00 |
21,92 |
|
8 |
9,12 |
1,70 |
0,09 |
1,89 |
7801 |
37,02 |
19,52 |
|
9 |
5,88 |
0,84 |
0,14 |
1,94 |
11587 |
45,74 |
23,99 |
|
10 |
6,30 |
0,60 |
0,21 |
2,06 |
9475 |
40,07 |
21,76 |
|
11 |
6,22 |
0,82 |
0,42 |
1,96 |
10811 |
45,44 |
25,68 |
|
12 |
5,49 |
0,84 |
0,05 |
1,02 |
6371 |
41,08 |
18,13 |
|
13 |
6,50 |
0,67 |
0,29 |
1,85 |
26761 |
136,1 |
25,74 |
|
14 |
6,61 |
1,04 |
0,48 |
0,88 |
4210 |
42,39 |
21,21 |
|
15 |
4,32 |
0,66 |
0,41 |
0,62 |
3557 |
37,39 |
22,97 |
|
16 |
7,37 |
0,86 |
0,62 |
1,09 |
14148 |
101,80 |
16,38 |
|
17 |
7,02 |
0,79 |
0,56 |
1,60 |
9872 |
47,55 |
13,21 |
|
18 |
8,25 |
0,34 |
1,76 |
1,53 |
5975 |
32,61 |
14,48 |
|
19 |
8,15 |
1,6 |
1,31 |
1,4 |
16662 |
103,3 |
13,38 |
|
20 |
8,72 |
1,46 |
0,45 |
2,20 |
9166 |
38,95 |
13,69 |
|
21 |
6,64 |
1,27 |
0,50 |
1,32 |
15118 |
81,32 |
16,66 |
|
22 |
8,10 |
1,58 |
0,77 |
1,48 |
11429 |
67,26 |
15,06 |
|
23 |
5,52 |
0,68 |
1,20 |
0,68 |
6462 |
59,92 |
20,09 |
|
24 |
9,37 |
0,86 |
0,21 |
2,30 |
24628 |
107,30 |
15,98 |
|
25 |
13,17 |
1,98 |
0,25 |
1,37 |
49727 |
512,60 |
18,27 |
|
26 |
6,67 |
0,33 |
0,15 |
1,51 |
11470 |
53,81 |
14,42 |
|
27 |
5,68 |
0,45 |
0,66 |
1,43 |
19448 |
80,83 |
22,76 |
|
28 |
5,22 |
0,74 |
0,74 |
1,82 |
18963 |
59,42 |
15,41 |
|
29 |
10,02 |
0,03. |
0,32 |
2,62 |
9185 |
36,96 |
19,35 |
|
30 |
8,16 |
0,99 |
0,89 |
1,75 |
17478 |
91,43 |
16,83 |
|
31 |
3,78 |
0,24 |
0,23 |
1,54 |
6265 |
17,16 |
30,53 |
|
32 |
6,48 |
0,57 |
0,32 |
2,25 |
8810 |
27,29 |
17,98 |
|
33 |
10,44 |
1,22 |
0,54 |
1,07 |
17659 |
184,30 |
22,09 |
|
34 |
7,65 |
0,68 |
0,75 |
1,44 |
10342 |
58,42 |
18,29 |
|
35 |
8,77 |
1,00 |
0,16 |
1,40 |
8901 |
59,40 |
26,05 |
|
36 |
7,00 |
0,81 |
0,24 |
1,31 |
8402 |
49,63 |
26,2 |
|
37 |
11,06 |
1,27 |
0,59 |
1,12 |
32625 |
391,30 |
17,26 |
|
38 |
9,02 |
1,14 |
0,56 |
1,16 |
31160 |
258,60 |
18,83 |
|
39 |
13,28 |
1,89 |
0,63 |
0,88 |
46461 |
75,66 |
19,7 |
|
40 |
9,27 |
0,67 |
1,10 |
1,07 |
13833 |
123,70 |
16,87 |
|
41 |
6,70 |
0,96 |
0,39 |
1,24 |
6391 |
37,21 |
14,63 |
|
42 |
6,69 |
0,67 |
0,73 |
1,49 |
11115 |
53,37 |
22,17 |
|
43 |
9,42 |
0,98 |
0,28 |
2,03 |
6555 |
32,87 |
22,62 |
|
44 |
7,24 |
1,16 |
0,10 |
1,84 |
11085 |
45,63 |
26,44 |
|
45 |
5,39 |
0,54 |
0,68 |
1,22 |
9484 |
48,41 |
22,26 |
|
46 |
5,61 |
1,23 |
0,87 |
1,72 |
3967 |
13,58 |
19,13 |
|
47 |
5,59 |
0,78 |
0,49 |
1,75 |
15283 |
63,99 |
18,28 |
|
48 |
6,57 |
1,16 |
0,16 |
1,46 |
20874 |
104,60 |
28,23 |
|
49 |
6,54 |
4,44 |
0,85 |
1,60 |
19418 |
222,10 |
12,39 |
|
50 |
4,23 |
1,06 |
0,13 |
1,47 |
3351 |
25,76 |
11,64 |
|
51 |
5,22 |
2,13 |
0,49 |
1,38 |
6338 |
29,52 |
8,62 |
|
52 |
11,03 |
2,20 |
0,79 |
1,39 |
11795 |
78,11 |
19,41 |
Додаток В
Таблиця В.1 - Проранжовані вхідні дані
№ |
Y1 |
№ |
X8 |
№ |
X9 |
№ |
X10 |
№ |
X11 |
№ |
X12 |
№ |
X17 |
|
31 |
3,78 |
29 |
0,03 |
12 |
0,05 |
15 |
0,62 |
50 |
3351 |
46 |
13,58 |
51 |
8,62 |
|
50 |
4,23 |
31 |
0,24 |
8 |
0,09 |
23 |
0,68 |
15 |
3557 |
31 |
17,16 |
50 |
11,64 |
|
15 |
4,32 |
26 |
0,33 |
52 |
0,09 |
14 |
0,88 |
46 |
3967 |
50 |
25,76 |
49 |
12,39 |
|
51 |
5,22 |
18 |
0,34 |
44 |
0,1 |
39 |
0,88 |
14 |
4210 |
32 |
27,29 |
17 |
13,21 |
|
28 |
5,22 |
4 |
0,43 |
50 |
0,13 |
12 |
1,02 |
18 |
5975 |
51 |
29,52 |
19 |
13,38 |
|
45 |
5,39 |
27 |
0,45 |
9 |
0,14 |
33 |
1,07 |
31 |
6265 |
18 |
32,61 |
20 |
13,69 |
|
12 |
5,49 |
45 |
0,54 |
5 |
0,15 |
40 |
1,07 |
51 |
6338 |
43 |
32,87 |
26 |
14,42 |
|
23 |
5,52 |
6 |
0,57 |
26 |
0,15 |
16 |
1,09 |
12 |
6371 |
29 |
36,96 |
18 |
14,48 |
|
47 |
5,59 |
32 |
0,57 |
35 |
0,16 |
37 |
1,12 |
41 |
6391 |
8 |
37,02 |
41 |
14,63 |
|
46 |
5,61 |
10 |
0,6 |
48 |
0,16 |
38 |
1,16 |
23 |
6462 |
41 |
37,21 |
22 |
15,06 |
|
27 |
5,68 |
15 |
0,66 |
4 |
0,18 |
45 |
1,22 |
43 |
6555 |
15 |
37,39 |
28 |
15,41 |
|
9 |
5,88 |
13 |
0,67 |
10 |
0,21 |
41 |
1,24 |
5 |
7394 |
20 |
38,95 |
24 |
15,98 |
|
11 |
6,22 |
40 |
0,67 |
24 |
0,21 |
2 |
1,3 |
8 |
7801 |
5 |
39,53 |
16 |
16,38 |
|
10 |
6,3 |
42 |
0,67 |
1 |
0,23 |
36 |
1,31 |
36 |
8402 |
10 |
40,07 |
21 |
16,66 |
|
32 |
6,48 |
23 |
0,68 |
31 |
0,23 |
21 |
1,32 |
32 |
8810 |
6 |
40,41 |
30 |
16,83 |
|
13 |
6,5 |
34 |
0,68 |
36 |
0,24 |
3 |
1,37 |
35 |
8901 |
12 |
41,08 |
40 |
16,87 |
|
49 |
6,54 |
28 |
0,74 |
25 |
0,25 |
25 |
1,37 |
20 |
9166 |
52 |
41,99 |
37 |
17,26 |
|
48 |
6,57 |
47 |
0,78 |
43 |
0,28 |
51 |
1,38 |
29 |
9185 |
14 |
42,39 |
6 |
17,55 |
|
14 |
6,61 |
17 |
0,79 |
13 |
0,29 |
53 |
1,39 |
10 |
9475 |
11 |
45,44 |
1 |
17,72 |
|
21 |
6,64 |
36 |
0,81 |
29 |
0,32 |
19 |
1,4 |
45 |
9484 |
44 |
45,63 |
32 |
17,98 |
|
26 |
6,67 |
11 |
0,82 |
32 |
0,32 |
35 |
1,4 |
52 |
9756 |
9 |
45,74 |
12 |
18,13 |
|
42 |
6,69 |
9 |
0,84 |
6 |
0,34 |
52 |
1,41 |
17 |
9872 |
17 |
47,55 |
25 |
18,27 |
|
41 |
6,7 |
12 |
0,84 |
7 |
0,38 |
27 |
1,43 |
34 |
10342 |
45 |
48,41 |
47 |
18,28 |
|
36 |
7 |
16 |
0,86 |
2 |
0,39 |
34 |
1,44 |
11 |
10811 |
36 |
49,63 |
34 |
18,29 |
|
17 |
7,02 |
24 |
0,86 |
41 |
0,39 |
1 |
1,45 |
44 |
11085 |
42 |
53,37 |
2 |
18,39 |
|
44 |
7,24 |
5 |
0,88 |
15 |
0,41 |
48 |
1,46 |
42 |
11115 |
26 |
53,81 |
38 |
18,83 |
|
16 |
7,37 |
41 |
0,96 |
11 |
0,42 |
50 |
1,47 |
22 |
11429 |
34 |
58,42 |
46 |
19,13 |
|
34 |
7,65 |
43 |
0,98 |
3 |
0,43 |
22 |
1,48 |
26 |
11470 |
35 |
59,4 |
29 |
19,35 |
|
22 |
8,1 |
30 |
0,99 |
20 |
0,45 |
42 |
1,49 |
6 |
11586 |
28 |
59,42 |
53 |
19,41 |
|
19 |
8,15 |
35 |
1 |
14 |
0,48 |
26 |
1,51 |
9 |
11587 |
23 |
59,92 |
8 |
19,52 |
|
30 |
8,16 |
2 |
1,04 |
47 |
0,49 |
18 |
1,53 |
53 |
11795 |
47 |
63,99 |
39 |
19,7 |
|
7 |
8,17 |
14 |
1,04 |
51 |
0,49 |
31 |
1,54 |
40 |
13833 |
22 |
67,26 |
23 |
20,09 |
|
18 |
8,25 |
50 |
1,06 |
21 |
0,5 |
17 |
1,6 |
16 |
14148 |
39 |
75,66 |
52 |
20,1 |
|
20 |
8,72 |
38 |
1,14 |
33 |
0,54 |
49 |
1,6 |
21 |
15118 |
53 |
78,11 |
14 |
21,21 |
|
35 |
8,77 |
44 |
1,16 |
17 |
0,56 |
4 |
1,65 |
47 |
15283 |
27 |
80,83 |
10 |
21,76 |
|
38 |
9,02 |
48 |
1,16 |
38 |
0,56 |
6 |
1,68 |
19 |
16662 |
21 |
81,32 |
7 |
21,92 |
|
8 |
9,12 |
52 |
1,21 |
37 |
0,59 |
46 |
1,72 |
30 |
17478 |
30 |
91,43 |
33 |
22,09 |
|
1 |
9,26 |
33 |
1,22 |
16 |
0,62 |
30 |
1,75 |
33 |
17659 |
16 |
101,8 |
42 |
22,17 |
|
40 |
9,27 |
1 |
1,23 |
39 |
0,63 |
47 |
1,75 |
28 |
18963 |
7 |
103 |
45 |
22,26 |
|
5 |
9,35 |
46 |
1,23 |
27 |
0,66 |
28 |
1,82 |
49 |
19418 |
19 |
103,3 |
4 |
22,37 |
|
24 |
9,37 |
21 |
1,27 |
45 |
0,68 |
44 |
1,84 |
27 |
19448 |
48 |
104,6 |
43 |
22,62 |
|
2 |
9,38 |
37 |
1,27 |
42 |
0,73 |
13 |
1,85 |
48 |
20874 |
24 |
107,3 |
27 |
22,76 |
|
43 |
9,42 |
20 |
1,46 |
28 |
0,74 |
8 |
1,89 |
4 |
21220 |
40 |
123,7 |
15 |
22,97 |
|
6 |
9,87 |
22 |
1,58 |
34 |
0,75 |
5 |
1,91 |
3 |
22589 |
13 |
136,1 |
9 |
23,99 |
|
29 |
10,02 |
19 |
1,6 |
22 |
0,77 |
7 |
1,94 |
2 |
23935 |
1 |
167,7 |
11 |
25,68 |
|
33 |
10,44 |
8 |
1,7 |
53 |
0,79 |
9 |
1,94 |
24 |
24628 |
4 |
169,3 |
13 |
25,74 |
|
4 |
10,81 |
7 |
1,72 |
49 |
0,85 |
11 |
1,96 |
1 |
26006 |
33 |
184,3 |
35 |
26,05 |
|
53 |
11,03 |
3 |
1,8 |
46 |
0,87 |
43 |
2,03 |
7 |
26609 |
2 |
186,1 |
36 |
26,2 |
|
37 |
11,06 |
39 |
1,89 |
30 |
0,89 |
10 |
2,06 |
13 |
26761 |
3 |
220,5 |
44 |
26,44 |
|
3 |
12,11 |
25 |
1,98 |
40 |
1,1 |
20 |
2,2 |
38 |
31160 |
49 |
222,1 |
3 |
26,46 |
|
25 |
13,17 |
51 |
2,13 |
23 |
1,2 |
32 |
2,25 |
37 |
32625 |
38 |
258,6 |
5 |
28,13 |
|
39 |
13,28 |
53 |
2,2 |
19 |
1,31 |
24 |
2,3 |
39 |
46461 |
37 |
391,3 |
48 |
28,23 |
|
52 |
18 |
49 |
4,44 |
18 |
1,76 |
29 |
2,62 |
25 |
49727 |
25 |
512,6 |
31 |
30,53 |
Додаток С
using System;
using System.Collections.Generic;
using System.IO;
using System.Linq;
using System.Text;
using System.Windows.Forms;
using MSExcel = TcKs.MSOffice.Excel;
namespace ClusterAnalysis
{ public partial class MainForm : Form
{ private double[,] distance_matrix, matrix_d;
private int size;
private bool isDalnySusid = false;
public MainForm()
{ InitializeComponent();
System.Threading.Thread.CurrentThread.CurrentCulture = new System.Globalization.CultureInfo( "ru-RU" );
}
void Button1Click(object sender, EventArgs e)
{
Aglomerative(distance_matrix, size);
}
string GetRowNameBySize(int index)
{ const int a_code = (int) 'A';
const int z_code = (int) 'Z';
var result = "";
if (index > z_code-a_code)
{
result = ((char) (a_code + index/(z_code-a_code) - 1)).ToString();
}
result += ((char) (a_code + index%(z_code-a_code)-index/(z_code-a_code))).ToString()
return result;
}
double[,] ObjectArrayToDoubleArray(ref object[,] arr, int size)
{ var result = new double[size, 7];
for (int i = 0; i < size; i++)
{ for (int j = 0; j < 7; j++)
result[i, j] = (double) arr[i + 1, j + 1];
} return result;
} double[,] CalculateDistanceMatrix(ref double[,] matrix, int size)
{ double[,] result = new double[size,size];
double tmp_distance, tmp_sum;
double[] avarageForColumn = new double[7], sigma = new double[7];
double[,] z = new double[size, 7];
// Середнє значення для кожного стовпця
for (int i = 0; i < 7; i++) { tmp_sum = 0.0;
for (int j = 0; j < size; j++)
tmp_sum += matrix[j, i];
avarageForColumn[i] = tmp_sum / size;
} // Виправлене сер. квадратичне відхилення
for (int i = 0; i < 7; i++)
{ tmp_sum = 0;
for (int j = 0; j < size; j++)
tmp_sum += Math.Pow(matrix[j, i] - avarageForColumn[i], 2);
sigma[i] = Math.Sqrt((tmp_sum * size) / (size - 1.0));
} // Створення тимчасової матриці Z
for (int i = 0; i < size; i++)
for (int j = 0; j < 7; j++)
z[i, j] = (matrix[i, j] - avarageForColumn[j])/sigma[j];
//WriteMatrixToOutout(ref z, size, " STANDART MATRIX ");
for (int i = 0; i < size; i++)
{ for (int j = 0; j < i; j++)
{ tmp_distance = GetDistanceFor(ref z, i, j);
result[i, j] = tmp_distance;
result[j, i] = tmp_distance;
} }
return result; }
private double GetDistanceFor(ref double[,] matrix, int row1, int row2)
{ double tmp_distance = 0;
for (int i = 0; i < 7; i++)
{ tmp_distance += (matrix[row1, i] - matrix[row2, i])*(matrix[row1, i] -
atrix[row2, i]); }
return Math.Sqrt(tmp_distance);
} double GetDistanceFor(double[] row1, double[] row2)
{ double tmp_distance = 0; for (int i = 0; i < 7; i++)
{ tmp_distance += (row1[i] - row2[i]) * (row1[i] - row2[i]);
} return Math.Sqrt(tmp_distance);
}
string[] Aglomerative(double[,] matrix, int size)
{ double min;
int index_i = 0, index_j = 0;
isDalnySusid = radioButton2.Checked;
//contains all clusters (if elem length>0 cluster exist)
string[] clusters = new string[size];
for (int i = 0; i < size; i++)
clusters[i] = (i + 1).ToString();
string method = (isDalnySusid) ? "ДАЛЬНЬОГО СУСІДА" :
"БЛИЖНЬОГО СУСІДА"; WriteTextToLog("\n ============== АГЛОМЕРАТИВНИЙ МЕТОД ("+method+") ================ \n");
while (size > 1)
{ min = Min(ref matrix, size, ref index_i, ref index_j);
if (index_j < index_i)
SwapVars(ref index_i, ref index_j);
matrix = MargeTwoClusters(matrix, index_i, index_j, size, ref clusters);
size--; //WriteMatrixToOutout(ref matrix, size, "MARGED MATRIX [" + (index_i + 1) + "," + (index_j + 1) + "]");
WriteTextToLog("> Dmin is " + min + ". Marged clusters [" + (index_i+1) + "," + (index_j+1) + "].\n " +
GlueCurrentClusters(ref clusters));
} MessageBox.Show("It seems like ok!");
return new[] {" ", " "};
}
string[] Dyvyzuvny(double[,] matrix, int size)
{ var clusters = new List<int[]>(size);
int[] startCluster = new int[size];
for (int i = 0; i < size; i++)
startCluster[i] = i;
clusters.Add(startCluster);
WriteTextToLog("\n ============== ДИВИЗИВНИЙ МЕТОД =============== \n");
while (clusters.Count<size)
{ SplitCluster(ref clusters, ref matrix);
WriteClustersToOutput(ref clusters);
}
MessageBox.Show("It seems like ok!");
return new[] { " ", " " };
}
void SplitCluster(ref List<int[]> clusters, ref double[,] matrix)
{ double max = double.MinValue;
int index_i = 0, index_j = 0, cluster_index = 0;
for (var i = 0; i < clusters.Count; i++)
{ for (int j = 0; j < clusters[i].Length - 1; j++)
{ for (int k = j + 1; k < clusters[i].Length; k++)
{ if (matrix[clusters[i][j], clusters[i][k]] > max)
{ max = matrix[clusters[i][j], clusters[i][k]];
index_i = j;
index_j = k;
cluster_index = i;
} }
} }
WriteTextToLog(string.Format("> Dmax is {0}, center of new clusters {1} {2}, current cluster - {3}", max, index_i+1, index_j+1, cluster_index+1));
int[] curr_cluster = clusters[cluster_index];
List<int> newcluster1 = new List<int>(), newcluster2= new List<int>();
clusters.RemoveAt(cluster_index);
switch (curr_cluster.Length)
{ case 1:
return;
case 2:
newcluster1.Add(curr_cluster[0]);
newcluster2.Add(curr_cluster[1]);
break;
default:
for (int j = 0; j < curr_cluster.Length; j++)
{
if (GetDistanceFor(ref matrix, j, index_i) <= GetDistanceFor(ref matrix, j, index_j)) newcluster1.Add(curr_cluster[j]);
else
newcluster2.Add(curr_cluster[j]);
}
break;
}
clusters.Add(newcluster1.ToArray());
clusters.Add(newcluster2.ToArray());
// WriteClustersToOutput(ref clusters);
}
/// <summary>
/// Search and return min value of matrix without diagonal
/// </summary>
/// <param name="matrix">matrix to search</param>
/// <param name="size">matrix size</param>
/// <param name="index_i">row of min in matrix</param>
/// <param name="index_j">column of min in matrix</param>
/// <returns></returns>
private static double Min(ref double[,] matrix, int size, ref int index_i, ref int index_j)
{ double min = double.MaxValue;
for (int i = 0; i < size; i++)
{ for (int j = 0; j < i; j++)
{ if (matrix[i, j] < min)
{ min = matrix[i, j];
index_i = i;
index_j = j;
}
} } return min;
} /// <summary>
/// Marge two clusters in distance matrix and return new distance matrix
/// </summary>
/// <param name="matrix">matrix with distances from clusters</param>
/// <param name="cluster1">index of lower cluster</param>
/// <param name="cluster2">index of bigest cluster</param>
/// <param name="size">Dimention of current matrix</param>
/// <returns>New matrix with marged rows (cluser1, cluster2) </returns>
double[,] MargeTwoClusters(double[,] matrix, int cluster1, int cluster2, int size, ref string[] clusters) { clusters[cluster1] += " " + clusters[cluster2];
string[] clusters_new = new string[size-1];
//leave minimum of two cluster to one (horizontal, vertical)
for (int i = 0; i < size; i++)
{ if (!isDalnySusid)
{ if (matrix[i, cluster1] > matrix[i, cluster2])
matrix[i, cluster1] = matrix[i, cluster2];
if (matrix[cluster1, i] > matrix[cluster2, i])
matrix[cluster1, i] = matrix[cluster2, i];
} else
{ if (matrix[i, cluster1] < matrix[i, cluster2])
matrix[i, cluster1] = matrix[i, cluster2];
if (matrix[cluster1, i] < matrix[cluster2, i])
matrix[cluster1, i] = matrix[cluster2, i];
} }
matrix[cluster1, cluster1] = 0;
//create new matrix with marged 2 clusters
double[,] result = new double[size-1,size-1];
for (int i = 0; i < size-1; i++)
{
for (int j = 0; j < size-1; j++)
{ result[i, j] = i < cluster2
? (j < cluster2 ? matrix[i, j] : matrix[i, j + 1])
: (j < cluster2 ? matrix[i + 1, j] : matrix[i + 1, j + 1]);
} clusters_new[i] = i < cluster2
? clusters[i]
: clusters[i + 1];
} clusters = clusters_new;
return result;
} /// <summary>
/// Write matrix to log.txt
/// </summary>
/// <param name="matrix">matrix to write</param>
/// <param name="size">size of matrix</param>
/// <param name="text">additional text</param>
void WriteMatrixToOutout(ref double[,] matrix, int size, string text)
{ var sw = new StreamWriter("log.txt",true);
sw.WriteLine(" ================= "+text+" ================= ");
for (int i = 0; i < size; i++)
{ for (int j = 0; j < 7; j++)
sw.Write(matrix[i, j] + "\t\t");
sw.WriteLine();
} sw.Close();
}
void WriteClustersToOutput(ref List<int[]> cluster)
{
var sw = new StreamWriter("log.txt", true);
for (int i = 0; i < cluster.Count; i++)
{ sw.Write("K"+(i+1)+"={");
for (int j = 0; j < cluster[i].Length; j++)
sw.Write((cluster[i][j] + 1) + " ");
sw.Write("} ");
} sw.WriteLine();
sw.Close();
}
void WriteClustersToOutput(ref List<List<int>> cluster)
{
var sw = new StreamWriter("log.txt", true);
for (int i = 0; i < cluster.Count; i++)
{
sw.Write("K" + (i + 1) + "={");
for (int j = 0; j < cluster[i].Count; j++)
sw.Write((cluster[i][j] + 1) + " ");
sw.Write("} ");
} sw.WriteLine();
sw.Close(); }
void WriteTextToLog(string text)
{
var sw = new StreamWriter("log.txt", true);
sw.WriteLine(text);
sw.Close();
} void SwapVars(ref int var1, ref int var2)
{ var tmp = var1;
var1 = var2;
var2 = tmp;
} string GlueCurrentClusters(ref string[] clusters)
{ var result = String.Empty;
for (int i = 0; i < clusters.Length; i++)
result += "K" + (i + 1) + "={" + clusters[i] + "} ";
return result;
} private void button2_Click(object sender, EventArgs e)
{ Dyvyzuvny(distance_matrix, size);
} private void button3_Click(object sender, EventArgs e)
{ using (var app = MSExcel.Application.CreateApplication())
{ var book1 = app.Workbooks.Open(Environment.CurrentDirectory + "/test1.xls");
var sheet1 = (MSExcel.Worksheet)book1.Worksheets[1];
//get matrix size
var sizeCell = sheet1.GetRange("A1", "A1");
size = (int)(double)(sizeCell.Value2);
lMatrix.Text = size + "x7";
//Console.WriteLine("26 is " + GetRowNameBySize(26));
//Console.WriteLine("53 is " + GetRowNameBySize(53));
string left_border = "G" + (size + 2);
object[,] initial_matrix =
(object[,])(sheet1.GetRange("A2", left_border).Value2);
matrix_d = ObjectArrayToDoubleArray(ref initial_matrix, size);
distance_matrix = CalculateDistanceMatrix(ref matrix_d, size);
app.Quit();
}
TcKs.MSOffice.Common.WrapperHelper.GCCollect();
button1.Enabled = true;
button2.Enabled = true;
button4.Enabled = true;
lMatrix.Enabled = true;
lMatrix_caption.Enabled = true;
radioButton1.Enabled = true;
radioButton2.Enabled = true;
label1.Enabled = true;
label2.Enabled = true;
numericUpDown1.Enabled = true;
numericUpDown2.Enabled = true;
//Clear file before writing
var sw = new StreamWriter("log.txt");
sw.Write("");
sw.Close();
//WriteMatrixToOutout(ref distance_matrix, size, " STANDART MATRIX");
}
private void button4_Click(object sender, EventArgs e)
{ int numOfClusters = (int)numericUpDown1.Value;
int numOfIterations = (int) numericUpDown2.Value;
Iteratyvny(matrix_d, size, numOfClusters, numOfIterations);
}
string[] Iteratyvny(double[,] matrix, int size, int numOfClusters, int numOfIterations)
{ //set centres of clusters to first elements
var centres = new List<double[]>(numOfClusters);
WriteTextToLog("\n ================ ІТЕРАТИВНИЙ ================== \n"); var tmp_center = new double[7];
var clusters = new List<List<int>>(numOfClusters);
var clusters_old = string.Empty;
var clusters_current = string.Empty;
for (int i = 0; i < numOfClusters; i++)
{ clusters.Add(new List<int>{i});
for (int j = 0; j < 7; j++)
tmp_center[j] = matrix[i, j];
centres.Add(tmp_center); }
double min_distance = double.MaxValue, currDistance;
int cluster_index = 0, start_point = numOfClusters + 1,numOfAllIteration = numOfIterations;
while (numOfIterations > 0)
{ for (var i = start_point; i < size; i++)
{ for (var j = 0; j < numOfClusters; j++)
{ currDistance = GetDistanceFor(centres[j], GetRowById(ref matrix, i));
if (currDistance <= min_distance)
{ min_distance = currDistance;
cluster_index = j;
} }
min_distance = double.MaxValue;
clusters[cluster_index].Add(i);
centres[cluster_index] = AvarageOfTwo(centres[cluster_index], GetRowById(ref matrix, i));
}
WriteTextToLog("> Iteration number - " + (numOfAllIteration - numOfIterations));
WriteClustersToOutput(ref clusters);
numOfIterations--;
start_point = 0;
clusters_current = ClustersToString(ref clusters);
if (String.Compare(clusters_current, clusters_old, StringComparison.Ordinal) == 0)
{ MessageBox.Show("Last iterations the same as this. Stop");
return new[] { "", "" };
}
clusters_old = ClustersToString(ref clusters);
for (var i = 0; i < numOfClusters; i++)
clusters[i].Clear();
}
MessageBox.Show("Iterations out!");
return new[] {"", ""};
}
string ClustersToString(ref List<List<int>> cluster)
{
var str = new StringBuilder();
for (int i = 0; i < cluster.Count; i++)
{
str.Append("K" + i + "={");
for (int j = 0; j < cluster[i].Count; j++)
str.Append(cluster[i][j]+" ");
str.Append("}");
} return str.ToString();
} double[] GetRowById(ref double[,] matrix, int id)
{ var current_row = new double[7];
for (int i = 0; i < 7; i++)
current_row[i] = matrix[id, i];
return current_row;
}
double[] AvarageOfTwo(double[] row1, double[] row2)
{ var result = new double[7];
for (int i = 0; i < 7; i++)
result[i] = (row1[i] + row2[i])/2.0;
return result;
}
}
}
Додаток D
Таблиця D.1 - Типові підприємства
№ п-ва |
Y1 |
X8 |
X9 |
X10 |
X11 |
X12 |
X17 |
|
5 |
9,35 |
0,88 |
0,15 |
1,91 |
7394 |
39,53 |
28,13 |
|
6 |
9,87 |
0,57 |
0,34 |
1,68 |
11586 |
40,41 |
17,55 |
|
8 |
9,12 |
1,7 |
0,09 |
1,89 |
7801 |
37,02 |
19,52 |
|
9 |
5,88 |
0,84 |
0,14 |
1,94 |
11587 |
45,74 |
23,99 |
|
10 |
6,3 |
0,6 |
0,21 |
2,06 |
9475 |
40,07 |
21,76 |
|
11 |
6,22 |
0,82 |
0,42 |
1,96 |
10811 |
45,44 |
25,68 |
|
12 |
5,49 |
0,84 |
0,05 |
1,02 |
6371 |
41,08 |
18,13 |
|
14 |
6,61 |
1,04 |
0,48 |
0,88 |
4210 |
42,39 |
21,21 |
|
15 |
4,32 |
0,66 |
0,41 |
0,62 |
3557 |
37,39 |
22,97 |
|
16 |
7,37 |
0,86 |
0,62 |
1,09 |
14148 |
101,8 |
16,38 |
|
17 |
7,02 |
0,79 |
0,56 |
1,6 |
9872 |
47,55 |
13,21 |
|
18 |
8,25 |
0,34 |
1,76 |
1,53 |
5975 |
32,61 |
14,48 |
|
19 |
8,15 |
1,6 |
1,31 |
1,4 |
16662 |
103,3 |
13,38 |
|
20 |
8,72 |
1,46 |
0,45 |
2,2 |
9166 |
38,95 |
13,69 |
|
21 |
6,64 |
1,27 |
0,5 |
1,32 |
15118 |
81,32 |
16,66 |
|
22 |
8,1 |
1,58 |
0,77 |
1,48 |
11429 |
67,26 |
15,06 |
|
23 |
5,52 |
0,68 |
1,2 |
0,68 |
6462 |
59,92 |
20,09 |
|
26 |
6,67 |
0,33 |
0,15 |
1,51 |
11470 |
53,81 |
14,42 |
|
27 |
5,68 |
0,45 |
0,66 |
1,43 |
19448 |
80,83 |
22,76 |
|
28 |
5,22 |
0,74 |
0,74 |
1,82 |
18963 |
59,42 |
15,41 |
|
29 |
10,02 |
0,03 |
0,32 |
2,62 |
9185 |
36,96 |
19,35 |
|
30 |
8,16 |
0,99 |
0,89 |
1,75 |
17478 |
91,43 |
16,83 |
|
31 |
3,78 |
0,24 |
0,23 |
1,54 |
6265 |
17,16 |
30,53 |
|
32 |
6,48 |
0,57 |
0,32 |
2,25 |
8810 |
27,29 |
17,98 |
|
33 |
10,44 |
1,22 |
0,54 |
1,07 |
17659 |
184,3 |
22,09 |
|
34 |
7,65 |
0,68 |
0,75 |
1,44 |
10342 |
58,42 |
18,29 |
|
35 |
8,77 |
1 |
0,16 |
1,4 |
8901 |
59,4 |
26,05 |
|
36 |
7 |
0,81 |
0,24 |
1,31 |
8402 |
49,63 |
26,2 |
|
40 |
9,27 |
0,67 |
1,1 |
1,07 |
13833 |
123,7 |
16,87 |
|
41 |
6,7 |
0,96 |
0,39 |
1,24 |
6391 |
37,21 |
14,63 |
|
42 |
6,69 |
0,67 |
0,73 |
1,49 |
11115 |
53,37 |
22,17 |
|
43 |
9,42 |
0,98 |
0,28 |
2,03 |
6555 |
32,87 |
22,62 |
|
44 |
7,24 |
1,16 |
0,1 |
1,84 |
11085 |
45,63 |
26,44 |
|
45 |
5,39 |
0,54 |
0,68 |
1,22 |
9484 |
48,41 |
22,26 |
|
46 |
5,61 |
1,23 |
0,87 |
1,72 |
3967 |
13,58 |
19,13 |
|
47 |
5,59 |
0,78 |
0,49 |
1,75 |
15283 |
63,99 |
18,28 |
|
48 |
6,57 |
1,16 |
0,16 |
1,46 |
20874 |
104,6 |
28,23 |
|
49 |
6,54 |
4,44 |
0,85 |
1,6 |
19418 |
222,1 |
12,39 |
|
50 |
4,23 |
1,06 |
0,13 |
1,47 |
3351 |
25,76 |
11,64 |
|
51 |
5,22 |
2,13 |
0,49 |
1,38 |
6338 |
29,52 |
8,62 |
|
52 |
11,03 |
2,2 |
0,79 |
1,39 |
11795 |
78,11 |
19,41 |
Додаток Е
Рисунок Е.1 - Кореляційне поле для Y1 та фактора Х8
Рисунок Е 2 - Кореляційне поле для показника показника Y1 та фактора Х9
Рисунок В.3 - Кореляційне поле для показника Y1 та фактора Х10
Рисунок В.4 - Кореляційне поле для показника Y1 та фактора Х11
Рисунок В.5 - Кореляційне поле для показника Y1 та фактора Х12
Рисунок В.6 - Кореляційне поле для показника Y1 та фактора Х17
Рисунок В.7 - Кореляційне поле для фактора Х8 та фактора Х9
Рисунок В.8 - Кореляційне поле для Х8 та фактора Х10
Рисунок В.9 - Кореляційне поле для фактора Х8 та фактора Х11
Рисунок В.10 - Кореляційне поле для фактора Х8 та фактора Х12
Рисунок В.11 - Кореляційне поле для фактора Х8 та фактора Х17
Рисунок В.12 - Кореляційне поле для фактора Х9 та фактора Х10
Рисунок В.13 - Кореляційне поле для фактора Х9 та фактора Х11
Рисунок В.14 - Кореляційне поле для фактора Х9 та фактора Х12
Рисунок В.15 - Кореляційне поле для фактора Х9 та фактора Х17
Рисунок В.16 - Кореляційне поле для фактора Х10 та фактора Х11
Рисунок В.17 - Кореляційне поле для фактора Х10 та фактора Х12
Рисунок В.18 - Кореляційне поле для фактора Х10 та фактора Х17
Рисунок В.19 - Кореляційне поле для для фактора Х11 та фактора Х12
Рисунок В.20 - Кореляційне поле для фактора Х11 та фактора Х17
Рисунок В.21 - Кореляційне поле для фактора Х12 та фактора Х17
Додаток F
Перевірено фактори на мультиколінеарність. Для цього обчислено визначник матриці парних коефіцієнтів кореляції
Оскільки визначник матриці близький до нуля, то це свідчить про наявність мультиколінеарності.
За алгоритмом Фаррара-Глобера перевірено між якими факторами існує мультиколінеарність.
Для цього нормалізуємо змінні за формулою (2.17).
Матрицю нормалізованих змінних транспонуємо та знайдемо кореляційну матрицю.
Визначник матриці .
Обчислимо емпіричне значення критерію . Критичне значення.
Оскільки фактичне значення критерію більше за табличне, то робимо висновок, що серед незалежних змінних існує мультиколінеарність.
Розраховано F-статистику.
Табличне значення критерію Фішера .
Оскільки > та >, то фактори та мультиколінеарні з іншими.
Також розраховано коефіцієнт детермінації.
Обчислено емпіричні значення t - статистики.
Критичне значення .
Оскільки >, >, >, то між факторами та , та , та існує мультиколінеарність.
Проаналізувавши значення F-статистики, коефіцієнта детермінації та t - статистики визначено, що найкраще серед факторів та виключити фактор оскільки дана величина є менш керованою, ніж величина .
Перерахувавши кореляційну матрицю та емпіричне значення критерію Пірсона маємо:
;
.
Отже, між незалежними змінними існує мультиколінеарність.
Аналогічним чином розраховано F-статистику уже для 5 факторів.
Критичне значення критерію .
Обчислено коефіцієнти детермінації.
Оскільки за допомогою F-статистики не можна визначити які саме фактори є мультиколінеарними, то обчислено значення t - статистики.
Критичне значення критерію .
Оскільки, > , >, то між факторами та , та, існує мультиколінеарність.
Проаналізувавши значення F-статистики, коефіцієнта детермінації та t - статистики визначено, що найкраще виключити фактор , оскільки він є менш керованим ніж інші фактори.
Перерахувавши кореляційну матрицю, обчислено емпіричне значення критерію для 4 факторів.
;
.
Оскільки <, то в масиві незалежних змінних не існує мультиколінеарності.
Додаток G
Таблиця F.1 - Стандартизовані дані
№ п-ва |
Z1 |
Z8 |
Z9 |
Z10 |
Z11 |
Z12 |
Z17 |
|
5 |
1,252 |
-0,187 |
-1,006 |
0,896 |
-0,699 |
-0,521 |
1,730 |
|
6 |
1,545 |
-0,620 |
-0,496 |
0,342 |
0,192 |
-0,499 |
-0,361 |
|
8 |
1,123 |
0,959 |
-1,167 |
0,848 |
-0,612 |
-0,582 |
0,028 |
|
9 |
-0,704 |
-0,243 |
-1,033 |
0,969 |
0,192 |
-0,370 |
0,912 |
|
10 |
-0,468 |
-0,579 |
-0,845 |
1,258 |
-0,257 |
-0,507 |
0,471 |
|
11 |
-0,513 |
-0,271 |
-0,281 |
1,017 |
0,027 |
-0,377 |
1,246 |
|
12 |
-0,924 |
-0,243 |
-1,274 |
-1,249 |
-0,916 |
-0,483 |
-0,247 |
|
14 |
-0,293 |
0,036 |
-0,120 |
-1,586 |
-1,375 |
-0,451 |
0,362 |
|
15 |
-1,584 |
-0,495 |
-0,308 |
-2,213 |
-1,514 |
-0,573 |
0,710 |
|
16 |
0,136 |
-0,215 |
0,255 |
-1,080 |
0,736 |
0,992 |
-0,593 |
|
17 |
-0,062 |
-0,313 |
0,094 |
0,149 |
-0,172 |
-0,326 |
-1,219 |
|
18 |
0,632 |
-0,942 |
3,315 |
-0,019 |
-1,000 |
-0,689 |
-0,968 |
|
19 |
0,576 |
0,819 |
2,107 |
-0,333 |
1,270 |
1,029 |
-1,185 |
|
20 |
0,897 |
0,624 |
-0,201 |
1,595 |
-0,322 |
-0,535 |
-1,124 |
|
21 |
-0,276 |
0,358 |
-0,067 |
-0,526 |
0,942 |
0,495 |
-0,537 |
|
22 |
0,547 |
0,791 |
0,658 |
-0,140 |
0,158 |
0,153 |
-0,853 |
|
23 |
-0,907 |
-0,467 |
1,812 |
-2,068 |
-0,897 |
-0,025 |
0,141 |
|
26 |
-0,259 |
-0,956 |
-1,006 |
-0,068 |
0,167 |
-0,174 |
-0,980 |
|
27 |
-0,817 |
-0,788 |
0,363 |
-0,260 |
1,862 |
0,483 |
0,669 |
|
28 |
-1,077 |
-0,383 |
0,577 |
0,680 |
1,759 |
-0,037 |
-0,784 |
|
29 |
1,630 |
-1,375 |
-0,550 |
2,608 |
-0,318 |
-0,583 |
-0,005 |
|
30 |
0,581 |
-0,033 |
0,980 |
0,511 |
1,443 |
0,740 |
-0,504 |
|
31 |
-1,889 |
-1,082 |
-0,791 |
0,005 |
-0,939 |
-1,064 |
2,204 |
|
32 |
-0,366 |
-0,620 |
-0,550 |
1,716 |
-0,398 |
-0,818 |
-0,276 |
|
33 |
1,867 |
0,288 |
0,041 |
-1,128 |
1,482 |
2,996 |
0,536 |
|
34 |
0,294 |
-0,467 |
0,604 |
-0,236 |
-0,073 |
-0,062 |
-0,215 |
|
35 |
0,925 |
-0,019 |
-0,979 |
-0,333 |
-0,379 |
-0,038 |
1,319 |
|
36 |
-0,073 |
-0,285 |
-0,765 |
-0,550 |
-0,485 |
-0,275 |
1,348 |
|
40 |
1,207 |
-0,481 |
1,543 |
-1,128 |
0,669 |
1,524 |
-0,496 |
|
41 |
-0,242 |
-0,075 |
-0,362 |
-0,718 |
-0,912 |
-0,577 |
-0,938 |
|
42 |
-0,248 |
-0,481 |
0,550 |
-0,116 |
0,092 |
-0,184 |
0,552 |
|
43 |
1,292 |
-0,047 |
-0,657 |
1,186 |
-0,877 |
-0,682 |
0,641 |
|
44 |
0,062 |
0,204 |
-1,140 |
0,728 |
0,085 |
-0,372 |
1,396 |
|
45 |
-0,981 |
-0,662 |
0,416 |
-0,767 |
-0,255 |
-0,305 |
0,570 |
|
46 |
-0,857 |
0,302 |
0,926 |
0,439 |
-1,427 |
-1,151 |
-0,049 |
|
47 |
-0,868 |
-0,327 |
-0,094 |
0,511 |
0,977 |
0,074 |
-0,217 |
|
48 |
-0,315 |
0,204 |
-0,979 |
-0,188 |
2,165 |
1,060 |
1,750 |
|
49 |
-0,332 |
4,789 |
0,873 |
0,149 |
1,855 |
3,914 |
-1,381 |
|
50 |
-1,635 |
0,064 |
-1,060 |
-0,164 |
-1,558 |
-0,855 |
-1,529 |
|
51 |
-1,077 |
1,560 |
-0,094 |
-0,381 |
-0,923 |
-0,764 |
-2,126 |
|
52 |
2,200 |
1,658 |
0,712 |
-0,357 |
0,236 |
0,417 |
0,006 |
Додаток H
Таблиця G.1 - Кореляційна матриця стандартизованих ознак
Z8 |
Z9 |
Z10 |
Z11 |
Z12 |
Z17 |
||
Z8 |
1,000 |
0,121 |
-0,047 |
0,258 |
0,572 |
-0,342 |
|
Z9 |
0,121 |
1,000 |
-0,273 |
0,194 |
0,306 |
-0,400 |
|
Z10 |
-0,047 |
-0,273 |
1,000 |
0,078 |
-0,257 |
0,033 |
|
Z11 |
0,258 |
0,194 |
0,078 |
1,000 |
0,741 |
-0,041 |
|
Z12 |
0,572 |
0,306 |
-0,257 |
0,741 |
1,000 |
-0,139 |
|
Z17 |
-0,342 |
-0,400 |
0,033 |
-0,041 |
-0,139 |
1,000 |
Таблиця G.5 - Матриця значень головних компонент
№ п-ва |
F1 |
F2 |
F3 |
|
5 |
-1,138 |
-1,124 |
-0,178 |
|
6 |
-0,400 |
-0,124 |
0,365 |
|
8 |
-0,504 |
-0,545 |
1,135 |
|
9 |
-0,688 |
-1,223 |
0,208 |
|
10 |
-0,875 |
-0,814 |
0,609 |
|
11 |
-0,641 |
-0,978 |
0,005 |
|
12 |
-0,634 |
0,560 |
-0,527 |
|
14 |
-0,483 |
1,113 |
-1,067 |
|
15 |
-0,764 |
1,255 |
-1,816 |
|
16 |
0,835 |
0,276 |
-0,766 |
|
17 |
-0,025 |
0,683 |
0,772 |
|
18 |
0,138 |
2,560 |
0,228 |
|
19 |
1,773 |
0,745 |
0,224 |
|
20 |
-0,134 |
-0,024 |
2,095 |
|
21 |
0,722 |
-0,131 |
-0,127 |
|
22 |
0,672 |
0,558 |
0,545 |
|
23 |
0,230 |
1,996 |
-1,705 |
|
26 |
-0,334 |
0,043 |
0,300 |
|
27 |
0,494 |
-0,878 |
-1,106 |
|
28 |
0,606 |
-0,395 |
0,598 |
|
29 |
-1,150 |
-0,911 |
1,562 |
|
30 |
0,970 |
-0,336 |
0,276 |
|
31 |
-1,613 |
-0,586 |
-1,234 |
|
32 |
-0,887 |
-0,407 |
1,391 |
|
33 |
1,703 |
-1,102 |
-1,738 |
|
34 |
0,031 |
0,536 |
-0,214 |
|
35 |
-0,580 |
-0,703 |
-0,872 |
|
36 |
-0,709 |
-0,415 |
-1,082 |
|
40 |
1,231 |
0,755 |
-1,134 |
|
41 |
-0,332 |
1,062 |
0,238 |
|
42 |
-0,147 |
0,089 |
-0,558 |
|
43 |
-0,952 |
-0,508 |
0,709 |
|
44 |
-0,074 |
-0,682 |
-1,371 |
|
45 |
-1,010 |
-0,307 |
0,471 |
|
46 |
0,724 |
-0,598 |
1,111 |
|
47 |
0,275 |
0,184 |
-0,565 |
|
48 |
-1,403 |
0,558 |
-2,308 |
|
49 |
1,383 |
3,891 |
-1,110 |
|
50 |
1,170 |
-0,704 |
1,118 |
|
51 |
1,685 |
0,323 |
1,489 |
|
52 |
0,117 |
0,919 |
0,138 |
Додаток K
Таблиця Н.1 - Редукована кореляційна матриця стандартизованих ознак
Z8 |
Z9 |
Z10 |
Z11 |
Z12 |
Z17 |
||
Z8 |
0,572 |
0,121 |
-0,047 |
0,258 |
0,572 |
-0,342 |
|
Z9 |
0,121 |
0,400 |
-0,273 |
0,194 |
0,306 |
-0,400 |
|
Z10 |
-0,047 |
-0,273 |
0,273 |
0,078 |
-0,257 |
0,033 |
|
Z11 |
0,258 |
0,194 |
0,078 |
0,741 |
0,741 |
-0,041 |
|
Z12 |
0,572 |
0,306 |
-0,257 |
0,741 |
0,741 |
-0,139 |
|
Z17 |
-0,342 |
-0,400 |
0,033 |
-0,041 |
-0,139 |
0,400 |
Таблиця Н.3 - Матриця залишкових кореляцій
Z8 |
Z9 |
Z10 |
Z11 |
Z12 |
Z17 |
||
Z8 |
0,198 |
-0,137 |
0,068 |
-0,179 |
0,032 |
-0,136 |
|
Z9 |
-0,137 |
0,223 |
-0,193 |
-0,107 |
-0,066 |
-0,258 |
|
Z10 |
0,068 |
-0,193 |
0,237 |
0,212 |
-0,091 |
-0,030 |
|
Z11 |
-0,179 |
-0,107 |
0,212 |
0,231 |
0,110 |
0,200 |
|
Z12 |
0,032 |
-0,066 |
-0,091 |
0,110 |
-0,039 |
0,158 |
|
Z17 |
-0,136 |
-0,258 |
-0,030 |
0,200 |
0,158 |
0,287 |
Таблиця Н.5 - Матриця значень фактора F1
№ п-ва |
F1 |
№ п-ва |
F1 |
|
5 |
-2,248 |
30 |
2,149 |
|
6 |
-0,835 |
31 |
-3,347 |
|
8 |
-1,025 |
32 |
-1,847 |
|
9 |
-1,262 |
33 |
3,928 |
|
10 |
-1,736 |
34 |
-0,020 |
|
11 |
-1,209 |
35 |
-1,109 |
|
12 |
-1,447 |
36 |
-1,436 |
|
14 |
-1,231 |
40 |
2,558 |
|
15 |
-1,841 |
41 |
-0,907 |
|
16 |
1,780 |
42 |
-0,323 |
|
17 |
-0,180 |
43 |
-1,973 |
|
18 |
-0,173 |
44 |
-1,230 |
|
19 |
3,665 |
45 |
-0,728 |
|
20 |
-0,328 |
46 |
-1,526 |
|
21 |
1,580 |
47 |
0,500 |
|
22 |
1,323 |
48 |
1,640 |
|
23 |
0,157 |
49 |
8,512 |
|
26 |
-0,699 |
50 |
-1,728 |
|
27 |
1,250 |
51 |
0,369 |
|
28 |
1,368 |
52 |
1,915 |
|
29 |
-2,304 |
Размещено на Allbest.ur
Подобные документы
Завдання та етапи кластерного аналізу, вимоги до інформації. Приклад класифікації економічних об'єктів за допомогою алгоритму кластерного аналізу, методи перевірки стійкості кластеризації, інтерпретація результатів аналізу та побудування дендрограми.
реферат [311,2 K], добавлен 15.07.2011Система управління технологічним процесом. Методи експертних оцінок. Принципи виявлення колективної думки експертів про перспективи розвитку об'єкта аналізу. Статистична обробка результатів. Методи евристичного програмування, "мозкової атаки" й аналогії.
реферат [34,1 K], добавлен 11.05.2009Статистичні методи аналізу та обробки спостережень. Характерні ознаки типової і спеціалізованої звітності підприємств. Оцінка параметрів простої лінійної моделі методом найменших квадратів. Аналіз показників багатофакторної лінійної і нелінійної регресії.
контрольная работа [327,1 K], добавлен 23.02.2014Мета кластерного аналізу: поняття, алгоритм, завдання. Головні особливості процедури Мак-Кіна. Графік середніх значень за трьома кластерами. Метод К-методів, переваги та недоліки використання. Поняття про сіткові алгоритми кластеризації (grid-based).
реферат [238,3 K], добавлен 27.05.2013Методи розв’язування, аналізу та використання задач зі знаходженням екстремуму функції на множині допустимих варіантів у широкому спектрі теоретико-економічних та практичних проблем. Модель задачі лінійного програмування. Складання симплексної таблиці.
контрольная работа [960,6 K], добавлен 08.10.2013Упорядкування одиниць сукупності за допомогою інтегральних оцінок. Багатовимірне ранжування у системі Statistica. Формування однорідних одиниць сукупності за допомогою кластерного аналізу. Порядок об’єднання в кластери через опцію Amalgamation schedule.
контрольная работа [1,8 M], добавлен 08.12.2010Використання абсолютних, відносних та середніх величин, рядів динаміки у фінансовому аналізі, складання аналітичних таблиць. Застосування індексного та графічного методів. Послідовність аналізу економічних показників, взаємозв’язок факторних показників.
курсовая работа [145,2 K], добавлен 31.05.2010Особливості побудови математичної моделі економічного явища. Множинна лінійна регресія в стандартизованому масштабі. Множинна нелінійна регресія, комп’ютерна реалізація методу Брандона. Моделювання для підприємств аграрно-промислового комплексу.
курсовая работа [1,9 M], добавлен 29.04.2010Сутність статистичних індексів в економічних дослідження. Індивідуальні та загальні індекси кількісних та якісних показників. Аналіз статистичних даних по купівельній спроможності середньої заробітної плати та середньої пенсії на продовольчих ринках.
курсовая работа [666,4 K], добавлен 16.07.2010Зміст і мета кластеризації. Переваги її застосування перед іншими методами класифікації даних. Ієрархічні і неієрархічні методи кластерного аналізу. Приклад вертикальної дендрограми. Алгоритми найближчого і дальнього сусіда. Схема ітеративного методу.
контрольная работа [2,4 M], добавлен 12.06.2019