Управление снарядами класса воздух-поверхность с помощью нейронной сети
Нейронные сети и оценка возможности их применения к распознаванию подвижных объектов. Обучение нейронной сети распознаванию вращающегося трехмерного объекта. Задача управления огнем самолета по самолету. Оценка экономической эффективности программы.
Рубрика | Программирование, компьютеры и кибернетика |
Вид | дипломная работа |
Язык | русский |
Дата добавления | 07.02.2013 |
Размер файла | 2,4 M |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
1. Специальная часть
1.1 Анализ функционирования системы наведения
нейронный распознавание самолет программа
1.1.1 Анализ объекта управления
Управляемый снаряд можно определить как устройство, движущееся в пространстве без экипажа и обладающее средствами управления собственной траекторией.
Управляемый снаряд есть наиболее современный представитель ряда различных типов оружия, предназначенных для того, чтобы позволить человеку попасть в цель и поразить ее, оставаясь на относительно безопасном расстоянии. Он является естественным развитием брошенного камня, метательного копья, огнестрельного оружия и ракеты. Если отвлечься от технического прогресса и от оборонительного или наступательного характера оружия, - главная задача всегда была неизменной: поразить цель, оставаясь в безопасности.
Цели изменяются и будут продолжать изменяться по своему устройству и характеристикам. Но существуют два главных класса целей: подвижные и неподвижные. Исторически это разделение произошло следующим образом. Когда оказалось более важным оборонять некоторый объект или группу людей, чем отдельного человека, стала развиваться специализация оружия. Наступательное оружие должно было стать достаточно мощным, чтобы преодолеть пояс обороны. Поскольку обороняемые объекты сначала были неподвижными, атакующий, естественно, должен был приближаться к ним; средства нападения стали подвижными. Подвижные средства нападения в свою очередь превратились в цели для обороняющегося. Поскольку войны становились всеобщими, подвижность средств нападения развивалась многими путями - на земле, на море и в воздухе. Но при всем разнообразии конструкций целей два главных класса оставались неизменными.
В случае неподвижной цели данные, необходимые для того, чтобы обстрелять ее, получаются просто из относительного расположения орудия и цели; это расположение должно быть нам известно. Продолжающийся и сейчас рост дальности действия средств обороны требует увеличения дальности действия наступательного оружия. При обычном артиллерийском огне положение цели определяется визуальными средствами; ошибки стрельбы вообще возрастают с увеличением дальности. Когда дальность возрастает до сотен миль, даже самое точное прицеливание может дать недопустимо большие ошибки у цели. Когда же речь заходит о межконтинентальных дальностях, снаряд должен быть способен получать из земных или астрономических источников специальную информацию, необходимую для выдерживания направления на цель.
В случае подвижной цели и обычного оружия необходимая для прицеливания информация получается непосредственно из наблюдения цели и измерения элементов ее движения. Так как снаряд или ракета затрачивают конечное время на полет до цели, необходимо предсказание ее будущего положения; прицеливание и стрельба ведутся в это будущее положение. Если цель движется медленно, а время полета снаряда невелико, можно ожидать достаточной точности. Если же цель движется быстро в том смысле, что она может значительно отклониться от предсказанного положения в течение времени полета снаряда, вероятность поражения становится низкой. Точно так же, если цель трудна для наблюдения и элементы ее движения не могут быть надежно измерены, вероятность поражения падает. Так как воздушные цели продолжают увеличивать свою скорость и становятся все хуже наблюдаемыми, для поражения таких целей снаряд должен быть управляемым в полете в соответствии с изменением движения цели. В случае неуправляемого снаряда вся информация, необходимая для направления его в цель, сосредоточивается в точке выстрела. В случае же управляемого снаряда эта информация или, по крайней мере, ее часть должна быть передана на снаряд.
Наиболее наглядный с оперативно-тактической точки зрения способ классификации управляемых снарядов состоит в том, чтобы различать их по месту старта и месту цели. Место старта определяет общую обстановку и, до некоторой степени, область применения, тактически наиболее целесообразную для данного класса. Место цели определяет ее природу и тактическое назначение снаряда. Более подробные сведения об этом читатель найдет в одном из последующих томов этой серии.
Управляемые снаряды можно разделить на следующие четыре главных класса:
а) поверхность - поверхность,
б) поверхность - воздух,
в) воздух - поверхность,
г) воздух - воздух.
Здесь под «поверхностью» следует понимать поверхность нашей планеты, не делая различия между сушей и морем.
В данной дипломной работе создана нейросетевая система управления снарядом класса «воздух-поверхность», поэтому рассмотрим особенности данного класса.
1.1.2 Управление снарядами класса воздух - поверхность
Класс воздух - поверхность включает в себя любой управляемый снаряд, стартующий с самолета и атакующий какую угодно цель на поверхности Земли. При этом не учитывается ни тип самолета-носителя, с которого снаряд стартует, ни тип атакуемой цели. Устройство системы управления, боевой части, самого снаряда и т.п. вообще не существенно с точки зрения этой классификации.
Если мы снова рассмотрим свойства целей на поверхности Земли, но теперь уже с точки зрения тактического применения снарядов, стартующих с самолета, то можно будет опять прийти к некоторым выводам общего характера относительно требований к системам управления для таких снарядов. Цели, находящиеся на поверхности Земли, могут быть как подвижными, так и неподвижными. Самолет, служащий для снаряда стартовой площадкой, всегда находится в быстром движении. Неподвижные цели очень разнообразны по своим размерам, что вызывает подобное же разнообразие в потребной точности систем управления. Подвижные цели обладают малой скоростью по сравнению с самолетом-носителем и снарядом; несмотря на это, при не очень малой продолжительности полета снаряда их движением нельзя пренебрегать. В этих условиях главное соображение в пользу применения самолетов-носителей в качестве оружия дальнего действия состоит в том, что цель становится наблюдаемой с самолета (рисунок 1.3); это увеличивает точность огня независимо от дальности, покрытой самолетом-носителем. Кроме того, подвижность самолета-носителя позволяет ему самому отыскивать цели, подлежащие уничтожению; в случае подвижных или малых неподвижных целей это иногда затруднительно сделать другими средствами.
Рисунок 1.1 - Некоторая часть системы управления должна быть предназначена для наблюдения за целью
Однако известно, что всегда стараются применить любые способы, чтобы сделать цели плохо наблюдаемыми с воздуха. Неподвижные цели бывают укрыты, подвижные - закамуфлированы. Даже если наблюдение ведется при помощи средств электроники, применяются различные контрмеры. Из сказанного для снарядов класса воздух - поверхность можно сделать следующие главные выводы:
а) Некоторая часть системы управления должна быть предназначена для наблюдения за целью.
б) Нужно учитывать, что противником будут использованы все способы, чтобы сделать цель неотличимой от местности, и что им будут применены различные контрмеры, имеющие целью снизить эффективность системы управления.
1.1.3 Этапы управления снарядом
В полете управляемого снаряда существуют три столь существенно различных этапа полета, что в некоторых случаях может потребоваться более чем одна система управления для одного и того же снаряда. Рисунок 1.6 показывает все три этапа на примере полета снаряда класса поверхность - воздух: старт, сближение, конечный этап. Разработанная нейронная сеть функционирует на этапе сближения с целью, функционирования на этапе старта не рассматривается в данной дипломной работе. Конечный этап является столь непродолжительным, что не требует управления системой наведения, так как при правильной отработке СУ на этапе сближения цель будет уничтожена с большой вероятностью, близкой к 1.
Рисунок 1.2 - Этапы полета управляемого снаряда
Управление при старте. Старт есть этап полета между собственно выстрелом и моментом, когда снаряд достигает скорости, на которой он уже нормально слушается своих органов управления. Например, снаряд, стартующий с поверхности Земли, может использовать ускоритель, который является вспомогательным двигателем, отделяющимся от снаряда после того, как весь импульс ускорителя израсходован. После сбрасывания ускорителя снаряд или просто летит, пользуясь приобретенной энергией, или продолжает полет до некоторой назначенной скорости при помощи собственного двигателя. В течение времени, когда снаряд еще связан с ускорителем, летные характеристики системы снаряд-ускоритель существенно отличаются от характеристик одного снаряда без ускорителя. Поэтому, если существует необходимость в большой точности управления еще до того, как снаряд отделился от ускорителя и начал полет со своей нормальной скоростью, то может потребоваться особая система управления снарядом при старте.
Сближение. Предположим, что в примере, изображенном на рис. 1.6, мы располагаем достаточными сведениями относительно положения цели, полученными из наблюдений с Земли, но эти сведения недостаточно надежны, чтобы привести снаряд к встрече с целью. В то же время снаряд несет на себе очень точную, но обладающую малым радиусом действия бортовую аппаратуру управления. Поэтому после старта снаряд сначала наводится с Земли до тех пор, пока расстояние до цели не станет меньше радиуса действия бортовой аппаратуры, которая этого момента и примет на себя управление. Таким образом, сближение есть этап управления между концом старта и началом конечного этапа.
Конечный этап. Конечный этап есть участок между концом сближения, и накрытием цели (прямое попадание или разрыв вблизи цели).
1.2 Нейронные сети и оценка возможности их применения к распознаванию подвижных объектов
1.2.1 Нейронные сети основные положения
Искусственные нейронные сети (ИНС) - математические модели, а также их программные или аппаратные реализации, построенные по принципу организации и функционирования биологических нейронных сетей - сетей нервных клеток живого организма. Это понятие возникло при изучении процессов, протекающих в мозге, и при попытке смоделировать эти процессы. Впоследствии, после разработки алгоритмов обучения, получаемые модели стали использовать в практических целях: в задачах прогнозирования, для распознавания образов, в задачах управления и др.
На рисунке 1.3 показана структура пары типичных биологических нейронов. Дендриты идут от тела нервной клетки к другим нейронам, где они принимают сигналы в точках соединения, называемых синапсами. Принятые синапсом входные сигналы подводятся к телу нейрона. Здесь они суммируются, причем одни входы стремятся возбудить нейрон, другие - воспрепятствовать его возбуждению. Когда суммарное возбуждение в теле нейрона превышает некоторый порог, нейрон возбуждается, посылая по аксону сигнал другим нейронам. У этой основной функциональной схемы много усложнений и исключений, тем не менее большинство искусственных нейронных сетей моделируют лишь эти простые свойства.
Искусственный нейрон имитирует в первом приближении свойства биологического нейрона. На вход искусственного нейрона поступает некоторое множество сигналов, каждый из которых является выходом другого нейрона. Каждый вход умножается на соответствующий вес, аналогичный синаптической силе, и все произведения суммируются, определяя уровень активации нейрона.
Рисунок 1.3 - Биологический нейрон
На рис. 1.2 представлена модель, реализующая эту идею. Хотя сетевые парадигмы весьма разнообразны, в основе почти всех их лежит эта конфигурация. Здесь множество входных сигналов, обозначенных x1, x2,…, xn, поступает на искусственный нейрон. Эти входные сигналы, в совокупности обозначаемые вектором X, соответствуют сигналам, приходящим в синапсы биологического нейрона. Каждый сигнал умножается на соответствующий вес w1, w2,…, wn, и поступает на суммирующий блок, обозначенный У. Каждый вес соответствует «силе» одной биологической синаптической связи. (Множество весов в совокупности обозначается вектором W.) Суммирующий блок, соответствующий телу биологического элемента, складывает взвешенные входы алгебраически, создавая выход, который мы будем называть NET.
В векторных обозначениях это может быть компактно записано следующим образом:
NET = XW
Рисунок 1.4 - Искусственный нейрон
Сигнал NET далее, как правило, преобразуется активационной функцией F и дает выходной нейронный сигнал OUT. Активационная функция может быть обычной линейной функцией
OUT = K(NET),
где К - постоянная, пороговой функции
OUT = 1, если NET > T,
OUT = 0 в остальных случаях,
где Т - некоторая постоянная пороговая величина, или же функцией, более точно моделирующей нелинейную передаточную характеристику биологического нейрона и представляющей нейронной сети большие возможности.
На рис. 1.3 блок, обозначенный F, принимает сигнал NET и выдает сигнал OUT. Если блок F сужает диапазон изменения величины NET так, что при любых значениях NET значения OUT принадлежат некоторому конечному интервалу, то F называется «сжимающей» функцией. В качестве «сжимающей» функции часто используется логистическая или «сигмоидальная» (S-образная) функция, показанная на рис. 1.4а. Эта функция математически выражается как F(x) = 1/(1 + е-x). Таким образом,
. (1.1)
Рисунок 1.5 - Искусственный нейрон с активационной функцией
1.2.2 Анализ нейронных сетей и выбор НС для задачи распознавания подвижного объекта
Рассмотрим топология многослойных нейронных сетей и проанализируем их.
Архитектура многослойной нейронной сети состоит из множества слоев нейронных элементов (рисунок 1.6).
Рисунок 1.6 - Искусственный нейрон с активационной функцией
Входной слой (распределительный) нейронных элементов выполняет распределительные функции. Выходной слой нейронов служит для обработки информации от предыдущих слоев и выдачи результатов. Слои нейронных элементов, расположенные между входным и выходным слоем, называются промежуточными или скрытыми (промежуточными). Как и выходной слой, скрытые слои являются обрабатывающими. Выход каждого нейронного элемента предыдущего слоя нейронной сети соединен синаптическими связями со всеми входами нейронных элементов следующего слоя. Таким образом, топология многослойной нейронной сети является однородной и регулярной.
В качестве функции активации нейронных элементов здесь используются обычно гиперболический тангенс или сигмоидная функция. Пусть - матрица весовых коэффициентов i-го слоя многослойной сети. Тогда для нейронной сети с двумя скрытыми слоями выходные значения можно определить следующим образом:
(1.2)
где - вектор-строка входных сигналов; - оператор нелинейного преобразования.
Количество слоев в многослойной нейронной сети характеризует, каким образом входное пространство может быть разбито на подпространства меньшей размерности. Так, двухслойная нейронная сеть с одним слоем нелинейных нейронов разбивает входное пространство образов на классы при помощи гиперплоскости. Трехслойная нейронная сеть, где в качестве двух последних слоев используются нейронные элементы с нелинейной функцией активации, позволяет формировать любые выпуклые области в пространстве решений. При помощи четырехслойной нейронной сети, которая имеет три нелинейных слоя, можно получать область решений любой формы и сложности, в том числе и невыпуклой.
Релаксационные нейронные сети.
Релаксационные нейронные сети характеризуются прямым и обратным распространением информации между слоями нейронной сети. В основе функционирования таких сетей лежит итеративный принцип работы. Он заключается в том, что на каждой итерации процесса происходит обработка данных, полученных на предыдущем шаге. Такая циркуляция информации продолжается до тех пор, пока не установится состояние равновесия. При этом состояния нейронных элементов перестают изменяться и характеризуются стационарными значениями. Для анализа устойчивости релаксационных нейронных сетей используются функции Ляпунова. Такие сети применяются в качестве ассоциативной памяти и для решения комбинаторных задач оптимизации. К релаксационным сетям относится нейронная сеть Хопфилда, Хэмминга, двунаправленная ассоциативная память и машина Больцмана. Для задачи распознавания я выбрал сеть Хопфилда.
1.2.3 Сеть Хопфилда
Архитектура сети
Представляет собой нейронную сеть с обратными связями. Функционирование таких сетей характеризуется релаксационным процессом обработки информации, который происходит до тех пор, пока не установится состояние равновесия. Американский биофизик Хопфилд представил математический анализ релаксационных сетей с обратными связями. Он базировался на теории изинговых спинов, которая используется для изучения ферромагнетиков при низких температурах. Поэтому такие нейронные сети получили название сетей Хопфилда.
Нейронная сеть Хопфилда характеризуется обратными связями. В ней каждый нейрон имеет синаптические связи со всеми остальными нейронами сети. Такую модель можно представить в виде графа (рисунок 1.7):
Рисунок 1.7 - Граф-модель сети Хопфилда
Архитектуру такой сети будем представлять в виде двух слоев нейронных элементов (рисунок 1.8).
Рисунок 1.8. Архитектура сети Хопфилда
При этом первый слой является распределительным, а второй слой нейронных элементов осуществляет нелинейное преобразование взвешенной суммы:
, (1.3)
где - выходное значение i-го нейронного элемента в момент времени ;- оператор нелинейного преобразования; - пороговое значение i-го нейрона.
В матричной форме модель Хопфилда можно представить, как
, (1.4)
.
При этом используемые векторы имеют вид:
,
,
,
. (1.5)
В качестве матрицы весовых коэффициентов Хопфилд использовал симметричную матрицу () с нулевой главной диагональю (). Последнее условие соответствует отсутствию обратной связи нейронного элемента на себя. В качестве функции активации нейронных элементов может использоваться как пороговая, так и непрерывная функция, например, сигмоидная или гиперболический тангенс.
Будем рассматривать нейронную сеть Хопфилда с дискретным временем. Тогда при использовании пороговой функции активации она называется нейронной сетью с дискретным состоянием и временем. Нейронная сеть с непрерывной функцией активации называется нейронной сетью с непрерывным состоянием и дискретным временем. При использовании непрерывного времени модель Хопфилда называется непрерывной.
Для описания функционирования таких сетей Хопфилд использовал аппарат статистической физики. При этом каждый нейрон имеет два состояния активности (1, -1), которые аналогичны значениям спина некоторой частицы. Весовой коэффициент можно интерпретировать, как вклад поля j-ой частицы в величину потенциала i-ой частицы. Хопфилд показал, что поведение такой сети аналогично поведению изингового спинового стекла. При этом он ввел понятие вычислительной энергии, которую можно интерпретировать в виде ландшафта с долинами и впадинами. Структура соединений сети определяет очертания ландшафта. Нейронная сеть выполняет вычисления, следуя по пути, уменьшающему вычислительную энергию сети. Это происходит до тех пор, пока путь не приведет на дно впадины. Данный процесс аналогичен скатыванию капли жидкости по склону, когда она минимизирует свою потенциальную энергию в поле тяготения. Впадины и долины в сети Хопфилда соответствуют наборам информации, которую хранит сеть. Если процесс начинается с приближенной или неполной информации, то он следует по пути, который ведет к ближайшей впадине. Это соответствует операции ассоциативного распознавания.
Нейронная сеть Хопфилда, как динамическая система
Нейронная сеть Хопфилда является динамической системой с непрерывным или дискретным временем. Состояния нейронов такой сети характеризуют фазовое пространство системы, когда каждому состоянию соответствует точка в фазовом пространстве. Тогда релаксационный процесс изменения состояния нейронов можно интерпретировать, как движение точки в фазовом пространстве в устойчивое положение. Траектория движения такой точки может характеризовать процесс воспоминания информации.
Существует параллельная и последовательная динамика работы сети Хопфилда.
Параллельная динамика характеризуется синхронным функционированием нейронных элементов сети. При этом за один такт работы сети все нейроны одновременно изменяют свое состояние:
, (1.6)
где .
Синхронную модель функционирования предложил Литтл.
Последовательная динамика характеризуется асинхронным процессом работы нейронной сети. В этом случае за один такт работы нейронной сети изменяется состояние только одного нейронного элемента:
(1.7)
Выбор нейрона, который на данном такте должен изменить свое состояние, производится случайным образом. Асинхронную модель функционирования исследовал Хопфилд.
Назовем динамическую систему диссипативной, если производная энергии ее по времени всегда отрицательна или равна нулю (в равновесном состоянии). В диссипативных системах на каждом шаге происходит необратимое уменьшение энергии. В установившемся режиме () все состояния таких систем сосредотачиваются на некотором подмножестве фазового пространства:
(1.8)
Такое подмножество называется аттрактором и характеризует область притяжения системы. Оно является предельным множеством для фазовых траекторий, близких к.
Зададим динамическую систему в стандартном виде:
(1.9)
где .
Энергия сети Хопфилда
Рассмотрим нейронную сеть Хопфилда с дискретным временем и непрерывным состоянием. В этом случае, как уже отмечалось, в качестве функции активации нейронных элементов можно использовать гиперболический тангенс. Тогда
, (1.10)
(1.11)
где .
Состояние нейронного элемента зависит от взвешенной суммы , которая характеризует входную активность i-го нейрона. Энергия одного нейронного элемента должна определяться таким образом, чтобы изменение состояния и входной активности нейрона приводило бы к уменьшению энергии. Тогда выходное значение i-го нейрона должно быть пропорционально градиенту энергии:
, (1.12)
где E(yi, t) - энергия i-го нейронного элемента в момент времени t.
Такие системы называются градиентными. Понятие энергии в градиентных системах соответствует функции Ляпунова. Из выражения (1.12) определим энергию i-го нейронного элемента:
, (1.13)
Входную активность можно определить при помощи обратной функции :
, (4.18)
, (1.14)
С учетом (1.11) энергия i-го нейронного элемента в момент времени равняется
, (1.15)
Изменение энергии для одного нейрона можно определить следующим образом:
, (1.16)
Определим изменение энергии при асинхронном функционировании сети. Тогда
(1.17)
Отсюда получаем
, (1.18)
Согласно теореме о среднем определенного интеграла
, (1.19)
где .
Преобразуя последнее выражение, имеем:
, (1.20)
Тогда (4.23) можно представить, как
. (1.21)
Рассмотрим, как изменяется энергия нейрона при изменении его входной и выходной активности.
Пусть. Тогда , и . В результате получим, что .
Предположим, что . Тогда и . Так как в этом случае , то .
Отсюда следует, что изменение входной активности одного нейрона приводит к необратимому уменьшению энергии этого нейрона. В результате, согласно теореме Ляпунова, обеспечивается сходимость нейронного элемента.
Определим полную энергию нейронной сети для системы с дискретным временем и непрерывным состоянием. Энергия сети представляет собой сумму энергий всех нейронных элементов, образующих нейронную сеть. Тогда
, (1.22)
Преобразуя первое слагаемое последнего выражения, получим
, (1.23)
Так как для нейронной сети Хопфилда матрица весовых коэффициентов является симметричной (), то первое слагаемое выражения (1.23)
обычно умножается на. Тогда
, (1.24)
В матричной форме энергию системы можно представить в следующем виде:
, (1.25)
Таким образом энергия сети определяется композицией квадратичной формы и интеграла от нелинейности.
Определим теперь энергию сети Хопфилда для системы с дискретными временем и состоянием. В этом случае в качестве функции нелинейного преобразования используется пороговая функция. Тогда
, (1.26)
, (1.27)
где .
Энергия нейронного элемента в момент времени равняется:
, (1.28)
Рассмотрим изменение энергии нейронного элемента при асинхронном режиме функционирования сети. Тогда
, (1.29)
, (1.30)
Пусть . Тогда и . Получаем . Если , то и . В результате .
Таким образом, в результате изменения входной активности нейронного элемента, энергия его остается отрицательной. Это гарантирует устойчивость нейронного элемента. Выходное значение нейронного элемента при асинхронном режиме функционирования можно представить в зависимости от изменения энергии нейрона следующим образом:
, (1.31)
Энергия системы равняется:
, (1.32)
Преобразуя последнее выражение, получим:
, (1.33)
Представим (1.33) в матричной форме. Тогда
, (1.34)
Отсюда следует, что энергия сети с дискретными временем и состоянием определяется квадратичной формой. Это соответствует функции Ляпунова (4.3). Для синхронного режима функционирования энергия сети обычно задается на двух последовательных состояниях сети:
, (1.35)
Преобразуя выражение (1.35), получим:
, (1.36)
Существенного различия между выражениями (1.36) и (1.35) нет.
Таким образом, состояние нейронной сети Хопфилда описывается функцией энергии, которая эквивалентна функции Ляпунова. В процессе функционирования сети состояния нейронных элементов изменяются таким образом, что функция энергии их уменьшается. Это гарантирует сходимость нейронных элементов и сети в целом.
Ассоциативная память
Сеть Хопфилда может использоваться в качестве ассоциативной памяти. В этом случае она способна распознавать зашумленные или искаженные образы. Для обучения нейронной сети Хопфилда используется правило Хебба. Представим входные образы, которые необходимо запомнить, в виде следующей матрицы:
,
где L, n - соответственно общее количество и размерность входных образов.
Пусть входные векторы являются биполярными, т.е. {-1,1}. Тогда синаптические коэффициенты нейронной сети определяются, как
(1.37)
или в обычной форме:
(1.38)
где , причем .
Так как главная диагональ матрицы весовых коэффициентов сети Хопфилда должна быть нулевой, то
(1.39)
где I - единичная матрица.
При использовании бинарных векторов, когда , правило обучения можно представить в следующем виде:
, (1.40)
, (1.41)
где .
Приведенные выше выражения являются модификацией правила обучения Хебба. Они допускают усиление силы связи не только между одновременно активными, но и одновременно неактивными нейронами. На практике обычно используется биполярное представление входных сигналов.
Для настройки порогов нейронных элементов можно использовать следующее выражение:
, (1.42)
где - i-ая компонента k-го входного образа.
В ассоциативной памяти пороговые значения нейронных элементов обычно принимаются равными нулю. Матрица весовых коэффициентов, получаемая в соответствии с правилом Хебба является симметричной и характеризуется нулевой главной диагональю. Она представляет собой ковариационную матрицу входных образов, собственные векторы которой являются ортогональными. Тогда взвешенную сумму i-го нейрона можно представить в следующем виде:
, (1.43)
где - i-ое собственное значение матрицы W.
В результате энергия сети определяется, как
, (1.44)
Из этого выражения следует, что если < 0, то при минимизации энергии значение yi(t) должно стремиться к нулю. В противном случае, если > 0, то значение yi(t) для минимизации энергии будет увеличиваться. Таким образом, в процессе релаксации сети она будет ослаблять одни компоненты вектора Y и усиливать другие. На этом основана коррекция нейронной сетью Хопфилда ошибок во входных образах.
После обучения нейронной сети входные образы образуют впадины, соответствующие определенным наборам информации (рисунок 1.9).
На рисунке 1.9 ось ординат соответствует энергии сети Хопфилда, а характеризует k-ый образ, хранимый в сети. Таким образом информация хранится в локальных минимумах функции энергии, которые соответствуют стабильным состояниям сети.
Рисунок 1.9 - Хранение образов в нейронной сети Хопфилда
Совокупность точек, которые при равновесном состоянии сети отображаются в точку локального минимума, называется бассейном притяжения. Паттерны, соответствующие бассейну притяжения, характеризуют зашумленные образы памяти. При подаче на вход сети зашумленного образа она за конечное число шагов переходит в состояние, соответствующее ближайшему локальному минимуму (рисунок 1.9). Количество шагов определяется расстоянием Хэмминга между искаженным и эталонным образом. Чем дальше расположен входной образ от локального минимума, тем больше итераций необходимо сети для перехода в стабильное состояние. Если наборы входных данных оказываются слишком похожими или слишком многочисленными, то в этом случае локальные минимумы будут располагаться слишком близко друг от друга и начинают интерферировать между собой (рисунок 1.10). При этом появляются локальные минимумы, соответствующие комбинациям из достаточно больших фрагментов эталонных образов. Такое явление Хопфилд назвал химерами. Если количество образов, хранящихся в сети, больше 0.15n, то локальные минимумы начинают исчезать и поведение сети становится хаотическим (состояние спинового стекла). Размер бассейна притяжения можно регулировать при помощи синаптических связей и порогов нейронных элементов. Так, если увеличивать силу тормозящих соединений, то бассейн притяжения станет больше, а впадины - глубже. Если уменьшить порог нейрона, то впадина станет также глубже. При достаточном уменьшении порога (в отрицательную сторону), бассейн притяжения может охватить все пространство конфигураций, ликвидировав впадины, соответствующие другим стабильным состояниям.
Рисунок 1.10 - Иллюстрация ложных минимумов
Хопфилд установил экспериментально, что объем памяти для устойчивой работы сети определяется, как
, (1.45)
где n - количество нейронов сети.
Позже были получены различные аналитические оценки допустимого объема памяти сети Хопфилда, например:
, (1.46)
Данные выражения являются ориентировочными. Так при увеличении корреляции между входными образами и соответственно уменьшении расстояния Хэмминга емкость памяти уменьшается. Поэтому рекомендуется в качестве запоминаемых паттернов использовать линейно независимые, а лучше ортогональные векторы. Для получения ортогональных векторов можно воспользоваться матрицей Адамара порядка n, элементами которой являются действительные числа ±1. Так матрица Адамара второго порядка определяется, как:
,
Матрица Адамара более высокого порядка определяется на основе матриц меньшего порядка.
.
Так, например, матрица четвертого порядка имеет следующий вид:
Для ортогональных векторов расстояние Хэмминга определяется, как
,
Назовем радиусом притяжения число битов, на которое может отличаться входной вектор от эталонного, чтобы произошел процесс идентификации. Для ортогональных векторов радиус притяжения определяется следующим образом:
, (1.47)
где L - количество образцов, хранимых сетью.
При увеличении емкости памяти уменьшается радиус притяжения и соответственно корректирующие свойства сети Хопфилда. В некоторых работах для увеличения емкости памяти рекомендуется использовать сети Хопфилда высокого порядка. Так, например, для сети второго порядка, выходное значение i-го нейронного элемента определяется, как
, (1.48)
, (1.49)
где whji - синаптическая связь от h-го и j-го к i-му нейрону.
Обобщая правило обучения Хебба можно получить выражение для настройки весовых коэффициентов сети второго порядка
, (1.50)
где I - трехмерная единичная матрица.
Весовые коэффициенты для такой нейронной сети являются также симметричными, т.е.
Использование нейронной сети Хопфилда второго порядка позволяет повысить емкость памяти приблизительно до 0.3n.
Функционирование сети Хопфилда
Функционирование сети Хопфилда представляет собой релаксационный процесс в ходе которого сеть достигает устойчивого состояния. Алгоритм функционирования можно представить в виде следующей последовательности шагов.
1. На вход сети подается неизвестный образ.
2. В зависимости от синхронного или асинхронного режима работы сети производятся следующие вычисления:
а) При синхронном режиме функционирования сети выходы нейронных элементов изменяются одновременно
где в качестве оператора нелинейного преобразования F обычно используется пороговая функция.
б) В случае асинхронного режима работы в каждый такт времени изменяется состояние только одного нейронного элемента :
если
для
При этом на каждом шаге работы сети такой нейронный элемент выбирается случайно из всей совокупности нейронных элементов или из тех нейронов, которые на предыдущем шаге не изменяли свое состояние.
3. Пункт 2 повторяется до тех пор, пока сеть не перейдет в стабильное состояние. При этом состояния всех нейронных элементов перестают изменяться, т.е.
1.2.4 Самоорганизующиеся нейронные сети Кохонена
Самоорганизующиеся нейронные сети характеризуются обучением без учителя, в результате которого происходит адаптация сети к решаемой задаче. Как уже отмечалось в первой главе, к таким сетям относятся нейронные сети Кохонена, адаптивного резонанса и рециркуляционные сети. В каждой из этих сетей самоорганизация происходит в результате различных механизмов обучения. Наиболее известными среди самоорганизующихся нейронных сетей являются сети, которые разработал в 80-х годах финский ученый Кохонен. В настоящее время такие сети называют его именем. Нейронные сети Кохонена осуществляют топологическое упорядочивание входного пространства паттернов. Они нашли широкое применение в задачах распознавания образов, оптимизации и управления. В главе рассмотрены архитектура, обучение и функционирование таких нейронных сетей. Приводится алгоритм решения задачи коммивояжера с использованием сети Кохонена.
Общая характеристика сетей Кохонена
Данные сети позволяют в результате обучения осуществлять топологически непрерывное отображение F входного n-мерного пространства в выходное m-мерное пространство; т.е. . При этом обучение здесь происходит без учителя на основе образов поступающих на сеть. В качестве метода обучения используется конкурентное обучение. Структура самоорганизующейся нейронной сети представляет собой сеть с прямым распространением сигнала. По мере поступления входных образов на такую сеть посредством обучения происходит разбиение n-мерного входного пространства на различные области решений, каждой из которых соответствует отдельный нейрон. Границы отдельной области перпендикулярны линиям, проведенным между центроидами соседних областей решений. Такое разделение пространства называется диаграммой Вороного или картами Кохонена. Для двухмерного случая (n=2, m>n) область решений представляет собой правильные шестиугольники (рисунок 1.11), в результате чего получается наименьшая ошибка. Для n>2 наилучшая форма областей решений является неизвестной.
Рисунок 1.11 - Разбиение входного пространства образов
Топологическое упорядочивание информации напоминает процессы происходящие в головном мозге при его развитии (введение), когда осуществляется формирование топологически упорядоченных нейронных структур.
Самоорганизующиеся нейронные сети применяются для решения различных проблем: кластеризация, векторное квантование, сокращение размерности входного пространства, выделение характерных признаков и т.д. При кластеризации входные образы группируются в кластеры, причем каждому кластеру ставится в соответствие отдельный нейрон. Векторное квантование применяется для сжатия данных. Для обучения самоорганизующихся нейронных сетей используется конкурентный метод, который был предложен в 1976 году С. Гроссбергом и затем развит в работах финского ученого Т. Кохонена.
Конкурентное обучение
Конкурентное обучение является основным методом для обучения нейронных сетей Кохонена. Нейронные сети, использующие такой метод обучения называются конкурентными. Конкурентная нейронная сеть в общем случае представляет собой двухслойную нейронную сеть с прямыми связями (рисунок 1.12). Первый слой выполняет чисто распределительные функции, причем каждый нейрон его имеет соединения со всеми нейронными элементами выходного слоя. Во втором слое происходит конкуренция между нейронными элементами, в результате которой определяется нейрон-победитель.
Рисунок 1.12 - Топология конкурентной нейронной сети
Для нейрона-победителя синаптические связи усиливаются, а для остальных нейронов не изменяются или могут уменьшатся. В результате этого процесса осуществляется конкурентное обучение. Победителем в конкуренции является нейрон, который в результате подачи на вход сети определенного образа имеет максимальную взвешенную активность
(1.51)
где - входной образ, - вектор столбец весовых коэффициентов j-го выходного нейрона. Пусть
.
Тогда активность выходных нейронов принимается следующей
(1.52)
где
Таким образом, после обучения нейронной сети при подаче входного образа активность нейрона-победителя принимается равной единице, а остальных нейронов нулю. Это правило известно под названием «победитель получает все». Выражение (1.51) эквивалентно скалярному произведению вектора весов соответствующего нейронного элемента на входной вектор нейронной сети
(1.53)
где , и - модули векторов и .
Обозначим , где Р - проекция вектора Х на вектор W. Тогда
(1.54)
Если векторы и не нормированы, то происходит неадекватное определение нейрона победителя (рисунок 1.13). Как следует из рисунка нейрон, вектор весов которого больше отличается от входного образа Х чем нейрон имеющий весовой вектор , становится победителем.
Поэтому, при определении нейрона-победителя по взвешенной активности (1.53) необходимо нормализовать весовые и входные векторы для каждого нейрона. Нормализация осуществляется следующим образом:
(1.55)
(1.56)
Рисунок 1.13 - Геометрическая интерпретация определения нейрона победителя при ненормированных весовом векторе и входном образе
Тогда взвешенную активность j-го нейрона можно представить как
. (1.57)
Из этого выражения следует, что максимальную активность будет иметь тот нейрон, весовой вектор которого коллинеарен входному вектору. Концы векторов при этом находятся на поверхности n-мерной сферы (гиперсферы), радиус которой равен 1 (рисунок 1.14).
Рисунок 1.14 - Гиперсфера входных и весовых векторов
В выражении (1.57) взвешенная сумма эквивалентна коэффициенту взаимной корреляции между входным и весовым вектором. Он будет равен 1, когда угол между векторами равен нулю. Отсюда следует, что правило настройки весовых коэффициентов нейрона-победителя должно соответствовать вращению вектора Wk в сторону вектора X (рисунок 1.15).
Рисунок 1.15. Модификация весового вектора нейрона победителя
В результате можно записать следующее правило обучения для вектора весов нейрона-победителя:
, (1.58)
где характеризует скорость обучения.
В качестве нейрона победителя выбирается такой нейрон, весовой вектор которого наиболее близок к входному вектору. В обычной форме правило обучения для к-го нейрона-победителя можно представить, как
где
При применении данного правила к к-му нейрону усиливается его выходная активность (рисунок 1.16).
Рисунок 1.16 - Профили активности нейронов. 1 - профиль активности нейронов до обучения; 2 - профиль активности нейронов после обучения
Так как весовой вектор должен быть нормированным, то правило (1.58) изменения весового вектора модифицируется следующим образом:
. (1.59)
Соответственно в скалярной форме весовые коэффициенты к-го нейронного элемента определяются, как
, (1.60)
где
При применении этого правила для обучения нейронной сети весовые векторы нейронов будут вращаться в направлении кластеров входных образов, как показано на рисунке 1.17.
Рисунок 1.17. Изменение весовых векторов в процессе обучения: р - вектор паттернов; - вектор весов.
В случае использования ненормализованных векторов для определения нейрона победителя нужно оперировать вместо взвешенной активности (5.1) евклидовым расстоянием:
. (1.61)
При помощи (1.61) определяется нейрон победитель с номером k, который соответствует минимальному евклидовому расстоянию между входным и весовым вектором:
. (1.62)
Тогда настройка весового вектора нейрона-победителя происходит следующим образом:
. (1.63)
При использовании выражения (1.63) для обучения одного нейронного элемента на интервале входных значений [a, b] (x [a, b]) вес нейрона с течением времени стремиться к середине интервала.
Недостатком описанного выше метода обучения является то, что при случайной инициализации весовых векторов, может получиться так, что некоторые нейроны никогда не будут победителями. Для нейтрализации этого недостатка можно расширить правило обучения следующим образом:
, (1.64)
где . Данное правило позволяет отобразить весовые векторы побежденных нейронов в такую область, где увеличиваются их шансы в конкуренции. Другим вариантом является частотно чувствительное конкурентное обучение. Здесь для каждого нейрона ведется статистика его побед. Пусть - частота нахождения j-го нейрона в состоянии победителя. Тогда нейрон победитель определяется следующим образом
. (1.65)
Чем чаще нейрон становится победителем, тем меньше шансов он имеет в конкуренции.
Итак, при конкурентном обучении все множество входных образов разбивается на кластеры, каждому из которых соответствует свой нейрон. При поступлении на вход нейронной сети неизвестного образа, она будет его относить к такому кластеру, на который он больше всего похож. В этом заключается обобщающая способность такого типа нейронных сетей.
1.3 Обучение нейронной сети распознаванию вращающегося трехмерного объекта
Для распознавания объекта была выбрана нейронная сеть (НС) Хопфилда. Была создана модель корабля, и сделаны при разной ориентации его в пространстве. Угол, под которым ведётся на съемка был принят постоянным. В результате получилось 8 изображений (Рисунок 1.18), которые НС и должна будет распознать. Для обработке исходных данных, а так же для создания и обучения нейронной сети был выбран математический пакет Matlab 2011R, так как он обладает огромным количество функций для решения данной задачи. Пакеты, входящие в комплект Matlab, Image processing toolbox и Image Acquisition toolbox содержут множество функций для работы с изображения, а пакет Neural network toolbox функция для обучения нейронной сети.
Рисунок 1.18 - Исходные данные
Мы не рассматриваем алгоритм обработки изображения от телекамеры. Для ускорения работы НС и системы в целом предполагается, что на входе только точи, несущие полезную информацию. Например, точки перепада контраста.
Для создания обучающей выборки на 8 примеров потребуется матрица:
Где L - размерность примера для обучения,
n - количество примеров.
Элемент матрицы должен принимать значение либо 1, либо -1.
Исходя из требования к обучающей выборке преобразуем наши исходные изображения, убрав лишнюю информацию из кадров: отразим изображение в оттенках серого и уменьшим его разрешение.
Используем оператор Собеля для выделение контуров объекта (перепадов яркости).
Оператор использует ядра 3?3, с которыми сворачивают исходное изображение для вычисления приближенных значений производных по горизонтали и по вертикали. Пусть A исходное изображение, а Gx и Gy - два изображения, где каждая точка содержит приближенные производные по x и по y. Они вычисляются следующим образом:
(1.67)
где * обозначает двумерную операцию свертки.
Координата x здесь возрастает «направо», а y - «вниз». В каждой точке изображения приближенное значение величины градиента можно вычислить, используя полученные приближенные значения производных:
(1.68)
Используя эту информацию, мы также можем вычислить направление градиента:
(1.69)
После обработки получим изображения, показанные на рисунке 1.19.
Рисунок 1.19 - Обработанные изображения
Размерность каждого кадра 100 на 115 пикселей.
Для формирования обучающий примеров преобразуем растровые изображения в нужный массив данных.
Листинг 1.1
bw1=reshape (bw1, 99*114,1);
bw2=reshape (bw2, 99*114,1);
bw3=reshape (bw3, 99*114,1);
bw4=reshape (bw4, 99*114,1);
bw5=reshape (bw5, 99*114,1);
bw6=reshape (bw6, 99*114,1);
bw7=reshape (bw7, 99*114,1);
bw8=reshape (bw8, 99*114,1);
InData=[bw1 bw2 bw3 bw4 bw5 bw6 bw7 bw8];
for i=1:99*114
for j=1:8
if InData (i, j)==0
InData (i, j)=-1;
end
end
end
Синтез сети
Если задано множество целевых точек равновесия, представленных матрицей T, то функция возвращает матрицу весов и вектор смещений для рекуррентного слоя сети Хопфилда. При этом гарантируется, что точки устойчивого равновесия будут соответствовать целевым векторам, но могут появиться и так называемые паразитные точки. В процессе синтеза сети число таких нежелательных точек сводится к минимуму.
Пусть задано Q целевых векторов, образующих матрицу T размера SQ:
(1.70)
Образуем новую матрицу Y размера SQ-1 следующего вида:
(1.71)
Вычислим разложение матрицы Y по сингулярным числам:
(1.72)
Далее образуем матрицы
(1.73)
где K - ранг матрицы Y.
Построим динамическую систему
, (1.74)
где T - матрица вида ТР - ТМ; - динамический параметр (в алгоритме принят равным 10); E - единичная матрица.
Вычислим дискретную модель для системы (1.74):
, (1.75)
где Ф - переходная матрица вида ; F - матрица передачи входа вида с1 = eh -1, c2 = (1-e-h)/; h - такт дискретности (в алгоритме принят равным 0.15 c).
Соответствующая матрица весов рекуррентного слоя и вектор смещения вычисляются следующим образом:
Рисунок 1.20 - Структура сети
Входной вектор данных имеет размерность 10*115 = 1150, для обучения потребуется мощная рабочая станция и продолжительное время. Был выбран ЭВМ с характеристиками:
· Тактовая частота процессора 3,3 ГГц
· Количества оперативной памяти 8 Гб
· Частота памяти 2 ГГц
Обучение сети заняло 3 часа.
Проверим правильность распознавания и восстановления изображения сетью. Для этого подадим на вход сильно зашумленное изображение и произвольно искаженное (Рисунок 1.21).
Рисунок 1.21
Сформируем входные вектора из изображений и пошлем на вход сети.
Листинг 1.2
bw1=reshape (bw1, 100*115,1);
for i=1:99*114
if bw1 (i, 1)==0
bw1 (i, 1)=-1;
end
end
[RecognizeResult]=sim (net, {1 10}, {}, bw1);
RecognizeShip(:, 1)=RecognizeResult {1,10} (:, 1);
RecognizeShip=reshape (RecognizeShip, 100,115);
imshow(RecognizeShip);
В результате работы изображения были идентифицированы и получены он исходное изображения (Рисунок 1.22).
Рисунок 1.22
Время работы сети 0,06 секунд.
Сеть была промоделирована на нескольких примерах и в целом показала хороший процент распознавания, 89% образов были идентифицированы верно. Некоторые образы были распознаны неверно, сеть выдала «химеру». Данное явление было описано в математическом описание сети. Решить данную проблему может увеличение количества обучающих образов и переобучение сети.
1.4 Формирование закона управления наведение ЛА
Системы управления снарядами класса воздух - поверхность тесно связаны с управлением огнем самолетного оружия. Причиной этого является то, что один и тот же самолет должен выполнять много различных задач. Например, перехватчик должен быть в состоянии сражаться с другим самолетом при помощи пушек и управляемых снарядов, а также действовать по земным целям при помощи пушек, ракет или бомб. Вследствие того, что от самолетного вооружения требуется экономия веса, необходимо приложить все усилия, чтобы сделать одну и ту же систему сопровождения и одну и ту же систему управления оружием пригодной если не во всех, то, по крайней мере, во многих из перечисленных случаев. Идеальная система управления самолетным оружием должна была бы быть пригодной для пушек, ракет, бомб и управляемых снарядов. Требования малых размера и веса аппаратуры, а также множественности выполняемых ею функций сделали гироскоп наиболее удобным прибором для вычисления упреждения.
Проблема управления воздушной стрельбой включает в себя важный элемент, отсутствующий в прочей артиллерии - большую скорость перемещения оружия. Собственная начальная скорость 20-миллиметрового снаряда приблизительно равна 850 м/сек. Скорость самолета может достигать примерно одной трети этой величины. Абсолютная скорость снаряда в момент выстрела есть векторная сумма его собственной начальной скорости и скорости самолета, как показано на рисунок 1.16. Это обстоятельство дает заметный эффект не только для оружия, которое может действовать поперек воздушного потока, как это имеет место, например, при стрельбе из турельных пулеметов или при бомбометании, но даже и при стрельбе вперед из фиксированных пушек, если самолет летит со скольжением.
Угол J между линией выстрела и вектором абсолютной скорости Vpr обычно называется углом относа и определяется выражением
(1.76)
Рисунок 1.17 поясняет задачу управления огнем самолета по самолету и принятые обозначения. Предположим для упрощения задачи, что в течение всего полета снаряда его скорость постоянна и равна абсолютной начальной скорости Vpr. Тогда для того, чтобы состоялась встреча, скорости снаряда и цели должны удовлетворять условию
(1.77)
Подобные документы
Прогнозирование на фондовом рынке с помощью нейронных сетей. Описание типа нейронной сети. Определение входных данных и их обработка. Архитектура нейронной сети. Точность результата. Моделирование торговли. Нейронная сеть прямого распространения сигнала.
дипломная работа [2,7 M], добавлен 18.02.2017Математическая модель нейронной сети. Однослойный и многослойный персептрон, рекуррентные сети. Обучение нейронных сетей с учителем и без него. Алгоритм обратного распространения ошибки. Подготовка данных, схема системы сети с динамическим объектом.
дипломная работа [2,6 M], добавлен 23.09.2013Описание структурной схемы искусственного нейрона. Характеристика искусственной нейронной сети как математической модели и устройств параллельных вычислений на основе микропроцессоров. Применение нейронной сети для распознавания образов и сжатия данных.
презентация [387,5 K], добавлен 11.12.2015Базовые архитектуры компьютеров: последовательная обработка символов по заданной программе и параллельное распознавание образов по обучающим примерам. Искусственные нейронные сети. Прототип для создания нейрона. Поведение искусственной нейронной сети.
контрольная работа [229,5 K], добавлен 28.05.2010Разработка алгоритма и программы для распознавания пола по фотографии с использованием искусственной нейронной сети. Создание алгоритмов: математического, работы с приложением, установки весов, реализации функции активации и обучения нейронной сети.
курсовая работа [1,0 M], добавлен 05.01.2013Преимущества нейронных сетей. Модели нейронов, представляющих собой единицу обработки информации в нейронной сети. Ее представление с помощью направленных графов. Понятие обратной связи (feedback). Основная задача и значение искусственного интеллекта.
реферат [1,2 M], добавлен 24.05.2015Исследование нечеткой модели управления. Создание нейронной сети, выполняющей различные функции. Исследование генетического алгоритма поиска экстремума целевой функции. Сравнительный анализ нечеткой логики и нейронной сети на примере печи кипящего слоя.
лабораторная работа [2,3 M], добавлен 25.03.2014Математическая модель искусственной нейронной сети. Структура многослойного персептрона. Обучение без учителя, методом соревнования. Правило коррекции по ошибке. Метод Хэбба. Генетический алгоритм. Применение нейронных сетей для синтеза регуляторов.
дипломная работа [1,5 M], добавлен 17.09.2013Механизм работы нервной системы и мозга человека. Схема биологического нейрона и его математическая модель. Принцип работы искусственной нейронной сети, этапы ее построения и обучения. Применение нейронных сетей в интеллектуальных системах управления.
презентация [98,6 K], добавлен 16.10.2013Разработка нейронной сети, ее применение в алгоритме выбора оружия ботом в трехмерном шутере от первого лица, тестирование алгоритма и выявление достоинств и недостатков данного подхода. Обучение с подкреплением. Описание проекта в Unreal Engine 4.
контрольная работа [611,0 K], добавлен 30.11.2016