Разработка и исследование гибридного алгоритма решения сложных задач оптимизации

Оптимизация показателей эффективности функционирования технологического контура системы управления космическим аппаратом, исследование свойств его показателей. Настройка нейронной сети, гибридизация генетического алгоритма с алгоритмами локального поиска.

Рубрика Программирование, компьютеры и кибернетика
Вид дипломная работа
Язык русский
Дата добавления 02.06.2011
Размер файла 4,5 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

1. Возможно, генетическому алгоритму оказывается гораздо проще найти точку оптимума функции, чем ждать пока настроится сеть на эту функцию с целью сокращения время оптимизации.

2. Возможно, генетический алгоритм при оптимизации использует те точки пространства, по которым настроить НС нельзя, то есть себя проявляет одна из проблем настройки сети - проблема генерации обучающей выборки или, по другому, проблема формирования точек обучения таким образом, чтобы они адекватно описывали функциональную зависимость (функцию на которую настраиваем НС).

3. Приведенные исследования показали, что при оптимальной структуре ГА требуется около 800 вычислений для нахождения точки оптимума, а НС была настроена при 1000 точек в обучающей выборке. Причем эти точки были случайно сгенерированы, а ГА, как известно, делает все-таки неравномерный разброс по поисковому пространству. То есть, возможно не хватило точек в обучающей выборке.

2.5 Проверка настройки НС во время оптимизации ГА одномерных функций

В предыдущем параграфе были высказаны сомнения по поводу целесообразности обучения НС в процессе оптимизации целевой функции генетическим алгоритмом, так как она должным образом не настраивается. Таким образом, было предложено проверить оправданность настройки нейронной сети на целевую функцию с целью применения ее при оптимизации генетическим алгоритмом в качестве вычисления целевой функции на «простых», одномерных функциях. Для этого вышеописанная программа подверглась некоторой модернизации - в качестве блока функций вычисления того или иного коэффициента готовности КА были «зашиты» простые для оптимизации функции: парабола, модуль корня от числа, комбинация косинуса в качестве многоэкстремальной функции. Начальное окно программы теперь выглядит так (см. рисунок 2.14).

Рис. 2.14 Начальное окно программы настройки сети

В ходе многократных запусков программы было замечено, что функция которую представляет собой НС, настроенная по точкам пройденным ГА, не отражает собой глобальный оптимум (то есть не применима в качестве замены для «настоящей» целевой функции) до тех пор, пока точки ГА не захватят реальный глобальный оптимум. Только тогда можно применять НС, когда она отражает реальный глобальный оптимум. Но остается вопрос: «Как определить что НС начала отражать глобальный оптимум или что ГА нащупал область глобального оптимума?». Ответ на этот вопрос на данный момент еще не найден. По величине ошибки обучения нейронной сети ответить на этот вопрос невозможно. Это доказано многократными запусками программы с одними и теми же настройками.

Приведем пример: на рисунке 2.15 изображено результирующее окно программы. Видно, что хоть НС и настроилась на глобальный оптимум многоэкстремальной функции, но это произошло во-первых после того как ГА нашел (вышел в область глобального оптимума) глобальный оптимум (см. лучшую точку найденную ГА) и во-вторых ошибка обучения достаточно велика.

Рис. 2.15 Результирующее окно программы настройки сети

Следовательно вопрос о целесообразности применения НС в качестве аппроксиматора целевой функции при оптимизации ГА остается открытым. Из проведенных исследований следует, что ответ на этот вопрос скорее «Нет», чем «Да». Во всяком случае, это можно, конечно не уверенно, но хоть как-то обосновать результатами тех исследований, которые были проведены на данный момент. Во всяком случае, попытка решить данный вопрос порождает серию не менее сложных и важных вопросов, чем исходный.

Выводы

Гипотеза о возможности применения нейронной сети в качестве аппроксиматора целевой функции во время оптимизации ее ГА не подтвердилась на практике. Основной причиной на взгляд автора является то, что пока генетический алгоритм не вышел в область глобального оптимума, нейронная сеть обучается на точках которые не имеют ни какого отношения к точке глобального оптимума и поэтому настраиваемая НС не может спрогнозировать точку глобального оптимума. То есть, обучающая выборка НС является не представительной - недостаточно точно отражает поверхность отклика настраиваемой функции. После того ГА вышел в область глобального оптимума нейронная сеть настраивается сравнительно долго и гибридному алгоритму проще сделать несколько шагов ГА и уточнить точку глобального оптимума, чем тратить время на подстройку сети под этот оптимум.

2.6 Гибридизация ГА с алгоритмами локального поиска

Дальнейшим направлением модификации ГА стало его соединение с методами локального поиска (ЛП). Речь идет не об очевидном использовании ЛП после остановки ГА для уточнения положения экстремума, т.к., как отмечалось выше, ГА работал абсолютно надежно, а об использовании ЛП в качестве еще одного "генетического" оператора.

Один из видов гибридизации ГА заключается в следующем. На каждом поколении ГА отбираются несколько (перспективных) индивидов для того, чтобы из них были выполнены несколько шагов ЛП (моделирование прижизненной адаптации индивидов). В зависимости от типа моделируемой эволюции, индивид после локального спуска в следующую популяцию переходит: либо таким же, каким он был перед ЛП, но с «новой» пригодностью (прижизненная адаптация делает индивида более пригодным, но по наследству не передается - эволюция по Дарвину), или таким, каким он стал после ЛП (прижизненная адаптация делает индивида более пригодным и передается по наследству - эволюция по Ламарку). Обе концепции гибридного алгоритма были реализованы совместно с обыкновенным ГА. Для этого была разработана соответствующая программная система, начальное и финальное окна которой представлены на рисунках 2.16 и 2.17.

Рис. 2.16 Начальное окно программы ГА + локальный поиск

Рис. 2.17 Финальное окно программы ГА + локальный поиск

Необходимо обратить внимание на различие в поведении графиков пригодности на рис. 2.7 и 2.17. Очевидно, что гибридный алгоритм намного быстрее выходит на экстремум, чем обычный ГА. Кроме того, он сглаживает осцилляции целевой функции.

Как и в исследованиях с обыкновенным ГА, постоянными параметрами гибридного алгоритма были: численность популяции - 25, число поколений - 35.

В приложениях Б и В приведены таблицы, в которых изображены результаты оптимизации коэффициентов готовности технологического контура КА с помощью гибридного ГА для каждой концепции локального поиска. Также, как и для простого ГА, полужирным шрифтом выделена оптимальная структура алгоритма.

Результаты проведенных экспериментов по сравнению эффективности алгоритмов по тем же показателям, что и раньше: надежность, скорость, разброс:

1. Оптимальной структурой гибридного ГА при использовании концепции ЛП по Дарвину является: турнирная селекция, слабая или сильная мутация, двухточечная рекомбинация.

2. Оптимальной структурой гибридного ГА при использовании концепции ЛП по Ламарку является: турнирная селекция, слабая или средняя мутация, скрещивание может быть различным.

3. При решении данной задачи использование концепции по Ламарку оказалась значительно эффективней, чем по Дарвину.

4. Гибридный алгоритм успешно справился с задачей оптимизации (т.к. показатели надежности равны 1 при использовании концепции по Ламарку)

5. Скорость гибридного алгоритма по сравнению с обыкновенным ГА в два раза выше при оптимальных структурах (см. таблицы 2.1, 2.2 и 2.3).

6. Использование заранее настроенной нейросети для аппроксимации целевых функций в ходе оптимизации не снижает показателей эффективности гибридных алгоритмов, но ускоряет оптимизацию.

Таблица 2.1. Сравнение показателей эффективности ГА и гибридного алгоритма при оптимизации коэффициента готовности КА

Надежность

Скорость

Разброс

Гибридный ГА

1

4

[2; 32]

Обыкновенный ГА

1

10

[4; 21]

Таблица 2.2. Сравнение показателей эффективности ГА и гибридного алгоритма при оптимизации коэффициента готовности ЦА

Надежность

Скорость

Разброс

Гибридный ГА

1

3

[2; 11]

Обыкновенный ГА

1

7

[3; 14]

Таблица 2.3. Сравнение показателей эффективности ГА и гибридного алгоритма при оптимизации коэффициента готовности БКУ

Надежность

Скорость

Разброс

Гибридный ГА

1

2

[2; 3]

Обыкновенный ГА

1

4

[1; 7]

Вывод: использование генетического алгоритма, моделирующего эволюцию по Ламарку, предпочтительнее в силу его большей надежности и скорости сходимости (в 2 раз выше по сравнению с эволюцией по Дарвину) в точку глобального оптимума.

Заключение

При решении сложных задач оптимизации следует сначала исследовать целевые функции на наличие удобных для оптимизации свойств этих функций. Для этого предлагается использовать алгоритмы целочисленной оптимизации: обобщенные и неулучшаемые. После того как свойства изучены, следует применять для оптимизации определенный алгоритм, ориентированный на эффективную оптимизацию функции с данными свойствами.

Если функции оказываются немонотонными и многоэкстремальными, как в нашем случае, то следует использовать генетический алгоритм, моделирующий эволюцию по Ламарку, который имеет хорошую глобальную сходимость. В некоторых случаях, если известно что это оправдано с точки зрения временных затрат, удобно использовать нейронную сеть, заранее настроенную на вычисление значений целевой функции.

Список литературы

1. Воловик М.А. Коэффициент готовности прибора со встроенной системой контроля // Системный анализ и исследование операций. - Новосибирск: ВЦ АН СССР, 1977.

2. Семенкина О.Э. Оптимизация управления сложными системами методом обобщенного локального поиска. - М.: МАКС Пресс, 2002. - 215 с.

3. Semenkin E., Volovik M. Modelling and Optimization of Spacecrafts' Systems Design // Operations research'95. - Berlin: Springer, 1995. - Pp. 353-358.

4. Semenkina O. Adaptive Search Algorithms for Solving Mixed Optimization Problems in CAD of Spacecraft Control Systems // Operations Research'97. - Jena: TU-Jena, 1997.

5. Goldberg D.E. Genetic algorithms in search, optimization and machine learning. Reading, MA: Addison-Wesley, 1989.

6. Семенкин Е.С., Семенкина О.Э., Терсков В.А. Методы оптимизации в управлении сложными системами // Учебное пособие. - Красноярск: СибЮИ МВД РФ, 2000. - 254 с.

7. Уоссермен Ф. Нейрокомпьютерная техника. Теория и практика. - М.: Мир, 1984.

Список публикаций автора

1. Бежитский С.С. О трудоемкости алгоритмов локального поиска для задачи выбора структуры технологического контура космического аппарата //Информатика и информационные технологии: Межвуз. сб. научн. тр./Красноярск: ИПЦ КГТУ, 2003. с.17-19.

2. Бежитский С.С. О свойствах целевой функции в задаче выбора структуры технологического контура космического аппарата // Тезисы докладов 7-й Всероссийской научной конференции «Решетневские чтения». Красноярск: СибГАУ, 2003. - С. 266.

3. Бежитский С.С., Семенкин Е.С., Семенкина О.Э. Разработка и исследование эволюционного алгоритма для оптимизации управления сложными системами // Вестник Кемеровского государственного университета. Журнал теоретических и прикладных исследований. Выпуск 1(17) - Кемерово: КемГУ, 2004. - с.26-33.

4. Бежитский С.С. Гибридный эволюционный алгоритм для решения сложных задач оптимизации // Вестник университетского комплекса. Сборник научных трудов. Выпуск 1(15). - Красноярск: ВСФ РГУИТП, НИИ СУВПТ, 2004. - с.166- 173.

5. Бежитский С.С. Разработка и исследование гибридного эволюционного алгоритма для решения сложных задач оптимизации // Сборник научных трудов. Красноярск: СИБУП, 2004.

6. Бежитский С.С. О монотонности показателей эффективности технологического контура системы управления космическим аппаратом / C.С. Бежитский //Вестник Сибирского государственного аэрокосмического университета. - Выпуск 5. - Красноярск: СибГАУ, 2004. - с. 19-26.

7. Бежитский С.С. Модификация генетического алгоритма для решения задачи оптимизации показателей эффективности технологического контура системы управления космическим аппаратом / С.С. Бежитский // Труды пятой международной конференции молодых ученых и студентов «Актуальные проблемы современной науки». - Самара. 2004. - с.20-23.

8. Бежитский С.С. Сравнение эффективности работы генетического алгоритма и алгоритма эволюционных стратегий на задачах оптимизации многоэкстремальных функций /С.С. Бежитский // Материалы международной «8-ой тамбовской межвузовской» научно-практической конференции.- Тамбов: ТГУ, 2004. - с. 81-82.

Приложение А

Результаты выполнения оптимизации с помощью ГА для каждой из целевых функций

Таблица А.1. Усредненные результаты работы ГА для коэффициента готовности КА

Рекомбинация

Мутация

Селекция

Надежность

Скорость

Интервал

Одноточечная

Слабая

Пропорц.

0.34

21

[5;30]

Турнирная

1

11

[5;25]

Ранговая

0.27

22

[12;30]

Элитарная

0.21

22

[9;30]

Средняя

Пропорц.

0.13

16

[1;29]

Турнирная

0.68

16

[2;28]

Ранговая

0.09

16

[3;28]

Элитарная

0.05

20

[9;30]

Сильная

Пропорц.

0.03

8

[3;14]

Турнирная

0.17

17

[5;29]

Ранговая

0.02

19

[16;21]

Элитарная

0.05

18

[4;29]

Двухточечная

Слабая

Пропорц.

0.32

20

[11;30]

Турнирная

1

10

[4;25]

Ранговая

0.32

18

[11;29]

Элитарная

0.53

22

[9;30]

Средняя

Пропорц.

0.08

17

[3;29]

Турнирная

0.71

17

[2;30]

Ранговая

0.04

20

[10;25]

Элитарная

0,17

23

[10;30]

Сильная

Пропорц.

0.06

15

[8;24]

Турнирная

0.14

19

[7;30]

Ранговая

0

0

0

Элитарная

0.04

25

[22;25]

Равномерная

Слабая

Пропорц.

0.38

20

[5;30]

Турнирная

1

10

[4;21]

Ранговая

0.44

19

[7;30]

Элитарная

0.46

21

[6;30]

Средняя

Пропорц.

0.07

22

[7;30]

Турнирная

0.85

17

[4;30]

Ранговая

0.06

19

[16;25]

Элитарная

0.11

23

[5;30]

Сильная

Пропорц.

0.07

14

[2;26]

Турнирная

0.26

19

[6;30]

Ранговая

0.03

18

[13;27]

Элитарная

0.04

17

[9;27]

Таблица А.2. Усредненные результаты работы ГА для коэффициента готовности ЦА

Рекомбинация

Мутация

Селекция

Надежность

Скорость

Интервал

Одноточечная

Слабая

Пропорц.

0,56

16

[3;28]

Турнирная

1

8

[4;20]

Ранговая

0.71

19

[4;30]

Элитарная

0.69

22

[10;30]

Средняя

Пропорц.

0.32

15

[5;30]

Турнирная

0.99

12

[4;30]

Ранговая

0.31

15

[3;30]

Элитарная

0.38

19

[8;30]

Сильная

Пропорц.

0.03

16

[3;30]

Турнирная

0.61

16

[2;30]

Ранговая

0.08

14

[2;23]

Элитарная

0.19

20

[3;30]

Двухточечная

Слабая

Пропорц.

0.51

18

[2;30]

Турнирная

1

8

[3;16]

Ранговая

0.68

17

[8;29]

Элитарная

0.77

21

[5;30]

Средняя

Пропорц.

0.45

17

[2;30]

Турнирная

0.99

12

[4;29]

Ранговая

0.23

17

[7;30]

Элитарная

0,37

21

[6;29]

Сильная

Пропорц.

0.22

16

[3;30]

Турнирная

0.61

14

[4;29]

Ранговая

0.15

16

[8;24]

Элитарная

0.22

20

[7;29]

Равномерная

Слабая

Пропорц.

0.66

15

[8;30]

Турнирная

1

7

[3;14]

Ранговая

0.8

17

[3;30]

Элитарная

0.78

19

[7;30]

Средняя

Пропорц.

0.36

15

[4;29]

Турнирная

0.97

10

[2;27]

Ранговая

0.29

17

[6;30]

Элитарная

0.41

20

[5;30]

Сильная

Пропорц.

0.29

13

[2;28]

Турнирная

0.63

13

[2;30]

Ранговая

0.11

19

[6;28]

Элитарная

0.17

18

[6;29]

Таблица А.3. Усредненные результаты работы ГА для коэффициента готовности БКУ

Рекомбинация

Мутация

Селекция

Надежность

Скорость

Интервал

Одноточечная

Слабая

Пропорц.

0.99

7

[1;26]

Турнирная

1

4

[1;9]

Ранговая

1

6

[1;15]

Элитарная

1

9

[1;28]

Средняя

Пропорц.

0.98

7

[1;29]

Турнирная

1

4

[1;10]

Ранговая

1

7

[1;24]

Элитарная

1

9

[19;25]

Сильная

Пропорц.

0.98

8

[1;27]

Турнирная

1

4

[1;14]

Ранговая

0.98

9

[1;29]

Элитарная

1

11

[1;30]

Двухточечная

Слабая

Пропорц.

0.98

9

[1;30]

Турнирная

1

4

[1;10]

Ранговая

1

7

[1;17]

Элитарная

1

9

[1;26]

Средняя

Пропорц.

1

7

[1;27]

Турнирная

1

4

[1;10]

Ранговая

0.99

8

[1;26]

Элитарная

1

10

[1;22]

Сильная

Пропорц.

1

8

[1;29]

Турнирная

1

4

[1;14]

Ранговая

0.98

10

[1;30]

Элитарная

0.99

11

[1;29]

Равномерная

Слабая

Пропорц.

0.98

7

[1;30]

Турнирная

1

4

[1;11]

Ранговая

1

6

[2;15]

Элитарная

1

8

[1;21]

Средняя

Пропорц.

0.99

7

[0;26]

Турнирная

1

4

[1;7]

Ранговая

0.99

8

[1;24]

Элитарная

1

10

[1;26]

Сильная

Пропорц.

0.99

8

[1;30]

Турнирная

1

4

[1;10]

Ранговая

0.99

7

[1;27]

Элитарная

0.99

9

[1;30]

Приложение Б
Результаты выполнения оптимизации с помощью гибридного ГА для каждой из целевых функций при использовании концепции эволюции по Дарвину

Таблица Б.1 Усредненные результаты работы гибридного ГА для коэффициента готовности КА

Рекомбинация

Мутация

Селекция

Надежность

Скорость

Интервал

Одноточечная

Слабая

Пропорц.

0,29

21

[5;35]

Турнирная

0,29

17

[3;35]

Ранговая

0,26

21

[9;35]

Элитарная

0,04

19

[16;23]

Средняя

Пропорц.

0,14

16

[5;33]

Турнирная

0,3

14

[5;30]

Ранговая

0,2

13

[9;18]

Элитарная

0,06

22

[13;35]

Сильная

Пропорц.

0,05

19

[10;35]

Турнирная

0,17

17

[2;30]

Ранговая

0,02

7

[3;12]

Элитарная

0,01

24

[24;24]

Двухточечная

Слабая

Пропорц.

0,29

21

[8;34]

Турнирная

0,39

14

[4;35]

Ранговая

0,29

22

[8;35]

Элитарная

0,14

23

[10;34]

Средняя

Пропорц.

0,11

29

[23;35]

Турнирная

0,38

19

[3;33]

Ранговая

0,1

24

[8;35]

Элитарная

0,07

20

[5;33]

Сильная

Пропорц.

0,07

21

[10;29]

Турнирная

0,23

15

[2;35]

Ранговая

0,03

17

[8;24]

Элитарная

0,02

32

[30;35]

Равномерная

Слабая

Пропорц.

0,34

20

[7;34]

Турнирная

0,38

16

[3;34]

Ранговая

0,32

23

[7;35]

Элитарная

0,13

18

[10;32]

Средняя

Пропорц.

0,15

24

[6;34]

Турнирная

0,39

16

[3;34]

Ранговая

0,14

23

[9;35]

Элитарная

0,14

24

[16;33]

Сильная

Пропорц.

0,06

18

[5;34]

Турнирная

0,17

18

[6;34]

Ранговая

0,04

19

[8;34]

Элитарная

0,05

17

[8;24]

Таблица Б.2 Усредненные результаты работы гибридного ГА для коэффициента готовности ЦА

Рекомбинация

Мутация

Селекция

Надежность

Скорость

Интервал

Одноточечная

Слабая

Пропорц.

0,48

17

[2;35]

Турнирная

0,55

11

[2;34]

Ранговая

0,48

20

[3;34]

Элитарная

0,22

16

[3;35]

Средняя

Пропорц.

0,37

19

[3;34]

Турнирная

0,55

13

[2;35]

Ранговая

0,3

16

[5;35]

Элитарная

0,19

19

[5;32]

Сильная

Пропорц.

0,15

16

[4;35]

Турнирная

0,39

12

[3;32]

Ранговая

0,17

15

[6;24]

Элитарная

0,08

16

[8;33]

Двухточечная

Слабая

Пропорц.

0,58

16

[4;34]

Турнирная

0,5

11

[2;34]

Ранговая

0,42

20

[3;35]

Элитарная

0,19

20

[10;32]

Средняя

Пропорц.

0,37

18

[4;32]

Турнирная

0,44

11

[3;34]

Ранговая

0,32

17

[3;35]

Элитарная

0,11

14

[2;32]

Сильная

Пропорц.

0,22

19

[6;34]

Турнирная

0,5

11

[2;32]

Ранговая

0,14

19

[7;33]

Элитарная

0,05

17

[3;34]

Равномерная

Слабая

Пропорц.

0,57

16

[5;34]

Турнирная

0,53

11

[3;33]

Ранговая

0,58

18

[5;35]

Элитарная

0,34

21

[9;32]

Средняя

Пропорц.

0,36

15

[2;34]

Турнирная

0,63

12

[2;35]

Ранговая

0,3

20

[9;32]

Элитарная

0,3

22

[5;32]

Сильная

Пропорц.

0,29

17

[3;34]

Турнирная

0,54

12

[2;31]

Ранговая

0,18

19

[4;32]

Элитарная

0,11

18

[11;25]

Таблица Б.3 Усредненные результаты работы гибридного ГА для коэффициента готовности БКУ

Рекомбинация

Мутация

Селекция

Надежность

Скорость

Интервал

Одноточечная

Слабая

Пропорц.

0.91

8

[2;29]

Турнирная

0,9

6

[2;33]

Ранговая

0,93

9

[2;35]

Элитарная

0,7

11

[2;35]

Средняя

Пропорц.

0,96

8

[2;31]

Турнирная

0,93

5

[2;34]

Ранговая

0,9

10

[2;34]

Элитарная

0,79

11

[2;32]

Сильная

Пропорц.

0,99

9

[2;27]

Турнирная

0,97

6

[2;35]

Ранговая

0,89

11

[2;35]

Элитарная

0,7

12

[2;32]

Двухточечная

Слабая

Пропорц.

0,91

7

[2;35]

Турнирная

0,89

7

[2;29]

Ранговая

0,9

10

[2;34]

Элитарная

0,62

12

[2;35]

Средняя

Пропорц.

0,96

9

[2;32]

Турнирная

0,99

6

[2;33]

Ранговая

0,91

10

[2;35]

Элитарная

0,81

10

[2;35]

Сильная

Пропорц.

0,98

10

[2;33]

Турнирная

1

6

[2;31]

Ранговая

0,91

9

[2;34]

Элитарная

0,78

11

[3;35]

Равномерная

Слабая

Пропорц.

0,96

9

[2;34]

Турнирная

0,98

5

[2;35]

Ранговая

0,89

9

[2;33]

Элитарная

0,89

9

[2;32]

Средняя

Пропорц.

0.99

8

[2;31]

Турнирная

0,98

5

[2;33]

Ранговая

0.93

9

[2;35]

Элитарная

0.79

11

[2;32]

Сильная

Пропорц.

1

9

[2;33]

Турнирная

0.93

4

[2;35]

Ранговая

0.94

10

[2;34]

Элитарная

0.77

11

[2;33]

Приложение В
Результаты выполнения оптимизации с помощью гибридного ГА для каждой из целевых функций при использовании концепции эволюции по Ламарку

Таблица В.1 Усредненные результаты работы гибридного ГА коэффициента готовности КА

Рекомбинация

Мутация

Селекция

Надежность

Скорость

Интервал

Одноточечная

Слабая

Пропорц.

0,99

5

[2;12]

Турнирная

1

4

[2;33]

Ранговая

1

5

[3;16]

Элитарная

0,97

6

[2;35]

Средняя

Пропорц.

1

6

[2;32]

Турнирная

0,97

5

[2;33]

Ранговая

1

7

[2;29]

Элитарная

0,95

7

[2;33]

Сильная

Пропорц.

0,98

9

[2;35]

Турнирная

0,97

7

[2;30]

Ранговая

0,98

10

[2;35]

Элитарная

0,89

6

[2;31]

Двухточечная

Слабая

Пропорц.

1

5

[2;27]

Турнирная

0,96

4

[2;23]

Ранговая

1

6

[2;24]

Элитарная

0,99

7

[2;32]

Средняя

Пропорц.

1

7

[2;35]

Турнирная

0,98

5

[2;33]

Ранговая

1

8

[2;23]

Элитарная

0,96

7

[2;34]

Сильная

Пропорц.

0,99

8

[8;33]

Турнирная

0,94

7

[2;33]

Ранговая

0,94

9

[3;31]

Элитарная

0,89

8

[2;35]

Равномерная

Слабая

Пропорц.

1

5

[2;10]

Турнирная

1

4

[2;32]

Ранговая

1

5

[2;25]

Элитарная

0,94

6

[3;28]

Средняя

Пропорц.

1

6

[2;20]

Турнирная

0,98

5

[2;35]

Ранговая

0,99

7

[2;27]

Элитарная

0,92

7

[2;33]

Сильная

Пропорц.

0,97

7

[2;25]

Турнирная

0,92

6

[2;33]

Ранговая

0,95

8

[2;26]

Элитарная

0,87

8

[2;35]

Таблица В.2. Усредненные результаты работы гибридного ГА коэффициента готовности ЦА

Рекомбинация

Мутация

Селекция

Надежность

Скорость

Интервал

Одноточечная

Слабая

Пропорц.

1

4

[2;11]

Турнирная

1

3

[2;25]

Ранговая

1

4

[2;10]

Элитарная

1

6

[2;17]

Средняя

Пропорц.

1

4

[2;13]

Турнирная

1

3

[2;11]

Ранговая

1

5

[2;21]

Элитарная

1

7

[2;28]

Сильная

Пропорц.

1

5

[2;21]

Турнирная

1

5

[2;32]

Ранговая

1

6

[2;30]

Элитарная

1

7

[2;28]

Двухточечная

Слабая

Пропорц.

1

4

[2;16]

Турнирная

1

3

[2;30]

Ранговая

1

4

[2;21]

Элитарная

1

6

[2;28]

Средняя

Пропорц.

1

4

[2;14]

Турнирная

1

3

[2;18]

Ранговая

1

5

[2;30]

Элитарная

0.99

7

[2;35]

Сильная

Пропорц.

1

5

[2;20]

Турнирная

0.99

4

[2;32]

Ранговая

1

7

[2;32]

Элитарная

0.98

7

[2;33]

Равномерная

Слабая

Пропорц.

1

4

[2;18]

Турнирная

1

3

[2;22]

Ранговая

1

4

[2;17]

Элитарная

1

7

[2;29]

Средняя

Пропорц.

1

4

[2;24]

Турнирная

1

3

[2;20]

Ранговая

1

4

[2;19]

Элитарная

1

7

[2;23]

Сильная

Пропорц.

1

5

[2;16]

Турнирная

0.99

4

[2;27]

Ранговая

1

7

[2;31]

Элитарная

0.97

9

[2;34]

Таблица В.3 Усредненные результаты работы гибридного ГА для коэффициента готовности БКУ

Рекомбинация

Мутация

Селекция

Надежность

Скорость

Интервал

Одноточечная

Слабая

Пропорц.

1

2

[2;4]

Турнирная

1

2

[2;6]

Ранговая

1

3

[2;8]

Элитарная

1

2

[2;6]

Средняя

Пропорц.

1

2

[2;6]

Турнирная

1

2

[2;5]

Ранговая

1

2

[2;7]

Элитарная

1

2

[2;8]

Сильная

Пропорц.

1

2

[2;7]

Турнирная

1

2

[2;17]

Ранговая

1

3

[2;23]

Элитарная

1

3

[2;6]

Двухточечная

Слабая

Пропорц.

1

2

[2;6]

Турнирная

1

2

[2;4]

Ранговая

1

2

[2;6]

Элитарная

1

3

[2;9]

Средняя

Пропорц.

1

2

[2;6]

Турнирная

1

2

[2;3]

Ранговая

1

2

[2;8]

Элитарная

1

3

[2;11]

Сильная

Пропорц.

1

2

[2;6]

Турнирная

1

2

[2;5]

Ранговая

1

3

[2;13]

Элитарная

1

3

[2;14]

Равномерная

Слабая

Пропорц.

1

2

[2;5]

Турнирная

1

2

[2;4]

Ранговая

1

2

[2;10]

Элитарная

1

2

[2;5]

Средняя

Пропорц.

1

2

[2;5]

Турнирная

1

2

[2;33]

Ранговая

1

3

[2;10]

Элитарная

1

3

[2;8]

Сильная

Пропорц.

1

2

[2;6]

Турнирная

1

2

[2;10]

Ранговая

1

2

[2;9]

Элитарная

1

3

[2;8]

Размещено на Allbest


Подобные документы

  • Исследование нечеткой модели управления. Создание нейронной сети, выполняющей различные функции. Исследование генетического алгоритма поиска экстремума целевой функции. Сравнительный анализ нечеткой логики и нейронной сети на примере печи кипящего слоя.

    лабораторная работа [2,3 M], добавлен 25.03.2014

  • Сравнение результатов работы генетического алгоритма по решению "несимметричной незамкнутой задачи коммивояжера" с результатами работы алгоритма динамического программирования по параметрам - время работы, точность результата и объем используемой памяти.

    курсовая работа [65,3 K], добавлен 16.04.2014

  • Описание принципа работы генетического алгоритма, проверка его работы на функции согласно варианту на основе готовой программы. Основные параметры генетического алгоритма, его структура и содержание. Способы реализации алгоритма и его компонентов.

    лабораторная работа [20,2 K], добавлен 03.12.2014

  • Оптимизация решения задачи с помощью алгоритма отжига. Анализ теории оптимизации как целевой функции. Метод градиентного спуска. Переменные и описание алгоритма отжига. Представление задачи коммивояжера через граф. Сведение задачи к переменным и решение.

    курсовая работа [784,0 K], добавлен 21.05.2015

  • Основные положения, связанные с маршрутизацией компьютерных сетей и её видами, протоколами маршрутизации и их разновидностями, алгоритмами маршрутизации, их классификацией, типами и свойствами. Разработка программы и моделирование компьютерной сети.

    курсовая работа [1,8 M], добавлен 04.11.2012

  • Разработка алгоритма и программы для распознавания пола по фотографии с использованием искусственной нейронной сети. Создание алгоритмов: математического, работы с приложением, установки весов, реализации функции активации и обучения нейронной сети.

    курсовая работа [1,0 M], добавлен 05.01.2013

  • Основные этапы создания алгоритмов, представление в виде программы. Рассмотрение методов решения задач. Метод поэтапных уточнений. Различие между численными и логическими алгоритмами. Реализация цикла со счетчиком. Процесс разработки сложного алгоритма.

    презентация [1,3 M], добавлен 22.10.2013

  • Характеристика методов нечеткого моделирования и изучение системы кластеризации в пакетах прикладных программ. Разработка и реализация алгоритма для оптимизации базы правил нечеткого классификатора с помощью генетического алгоритма аппроксимации функции.

    дипломная работа [1,9 M], добавлен 21.06.2014

  • Исследование системы распределения ключей на основе линейных преобразований. Описание компонентов сети конфиденциальной связи. Характеристика отечественного алгоритма шифрования данных. Обзор результатов расчетов криптостойкости алгоритма шифрования.

    контрольная работа [56,5 K], добавлен 26.09.2012

  • Описание генетических алгоритмов. Применение генетического алгоритма для решения задачи коммивояжера. Постановка задачи безусловной оптимизации. Изучение распространения генетических алгоритмов на модель с несколькими взаимодействующими популяциями.

    дипломная работа [979,1 K], добавлен 30.05.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.