Обработка информации и принятие решения в системах ближней локации
Сущность и методика исследования вероятностной структуры сигналов, законы распределения случайных величин. Проверка гипотезы по критерию Колмогорова-Смирнова и Пирсона. Разработка программы вычисления признаков и формирования обучающего множества данных.
Рубрика | Программирование, компьютеры и кибернетика |
Вид | курсовая работа |
Язык | русский |
Дата добавления | 03.12.2009 |
Размер файла | 509,6 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Третьи аргументы функции определяют вид функции активации в каждом слое. Выражение {'logsig', 'logsig'} означает, что в каждом слое используется сигмоидально-логистическая функция активации , область значений которой - (0, 1).
Четвертый аргумент задает вид функции обучения нейронной сети. В примере задана функция обучения, использующая алгоритм оптимизации Левенберга-Марквардта - 'trainlm'.
Первые половина векторов матрицы Т инициализируются значениями {1, 0}, а последующие - {0, 1}.
net=newff (minmax(P_o), [10 2], {'logsig', 'logsig'}, 'trainlm', 'learngdm');
net.trainParam.epochs = 1000;
net.trainParam.show = 5;
net.trainParam.min_grad = 0;
net.trainParam.max_fail = 5;
net.trainParam.searchFcn = 'srchcha';
net.trainParam.goal = 0;
Программа инициализации желаемых выходов нейронной сети Т:
n1=length (Mt(:, 1));
n2=length (Mf(:, 1));
T1=zeros (2, n1);
T2=zeros (2, n2);
T1 (1,:)=1;
T2 (2,:)=1;
T=cat (2, T1, T2);
Обучение нейросети:
net = train (net, P_o, T);
Рисунок 25 - График обучения нейронной сети.
Произведем контроль нейросети:
P_k=[Mt; Mf];
P_k=P_k';
Y_k=sim (net, P_k);
Команда sim передает данные из контрольного множества P_k на вход нейронной сети net, при этом результаты записываются в матрицу выходов Y_k. Количество строк в матрицах P_k и Y_k совпадает.
Pb=sum (round(Y_k (1,1:100)))/100
Оценка вероятности правильного обнаружения гусеничной техники Pb=1 alpha = sum (round(Y_k (1,110:157)))/110
Оценка вероятности ложной тревоги alpha =0
Определяем среднеквадратическую ошибку контроля с помощью желаемых и реальных выходов нейронной сети Еk.
[Ek] = T-Y_k;
sqe_k = mse(Ek)
Величина среднеквадратической ошибки контроля составляет:
sqe_k = 2.5919e-026
Протестируем работу нейросети. Для этого сформируем матрицу признаков тестового сигнала:
h3=tr_t50-mean (tr_t50);
Mh1=MATRPRIZP (h3,500, N1, N2);
Mh1=Mh1 (1:50,:);
P_t=[Mh1; Mt];
P_t=P_t';
Y_t=sim (net, P_t);
Pb=sum (round(Y_t (1,1:100)))/100
Оценка вероятности правильного обнаружения гусеничной техники Pb=1
Находим разницу желаемых и реальных выходов нейронной сети Е и определяем среднеквадратическую ошибку тестирования.
[Ek] = T-Y_t;
sqe_t = mse(Ek)
Величина среднеквадратической ошибки тестирования составляет:
sqe_t = 3.185e-025
Вывод: в данном разделе мы построили модель обнаружителя сейсмических сигналов на нейронной сети с обучением по методу обратного распространения ошибки. Задача обнаружения решается с не большими погрешностями, следовательно признаки подходят для обнаружения.
Данную двухслойную нейронную сеть можно применить в построении системы обнаружения объектов.
Заключение
Целью данной курсовой работы было изучение методов обработки информации и применение их для решения задач обнаружения объектов.
В ходе проделанной работы, которая выполнялась в четыре этапа, были получены следующие результаты:
1) Были построены гистограммы выборочных плотностей вероятности амплитуд сигналов, как случайных величин.
Оценены параметры распределения: математическое ожидание, дисперсию, среднеквадратическое отклонение.
Сделали предположение о законе распределения амплитуды и проверили гипотезу по критериям Колмогорова-Смирнова и Пирсона на уровне значимости 0,05. По критерию Колмогорова-Смирнова распределение подобрано, верно. По критерию Пирсона распределение подобрано верно только для фонового сигнала. Для него приняли гипотезу о нормальном распределении.
Приняли сигналы за реализации случайных функций и построили для них корреляционные функции. По корреляционным функциям определили, что сигналы имеют случайный колебательный характер.
2) Сформировали обучающее и контрольное множества данных (для обучения и контроля нейронной сети).
3) Для обучающей матрицы оценили параметры распределения признаков: математическое ожидание, дисперсию, среднее квадратическое отклонение. По каждому признаку обучающей матрицы заданных классов вычислили расстояние и выбрали признак с максимальной разностью. Вычислили порог принятия решения и построили на одном графике кривые плотности распределения вероятности. Сформулировали решающее правило.
4) Обучили двухслойную нейронную сеть на решение задачи классификации. Оценили вероятности правильного обнаружения и ложной тревоги. Те же показатели оценили по тестовым сигналам.
Список используемой литературы
1. Лекции по теории обработки информации в СБЛ. Лектор: Чистова Г.К.
2. Чистова Г.К. «Основы обработки и обнаружения случайных сигналов»
3. Вентцель Е.С. «Теория вероятности и математическая статистика»
Подобные документы
Разработка алгоритма и программы на языке С++ для генерации значений случайных величин, имеющих нормальный закон распределения. Проверка нулевой гипотезы об отсутствии статистически значимых различий между двумя выборками с помощью t-критерия Стьюдента.
лабораторная работа [763,5 K], добавлен 19.02.2014Применение случайных чисел в моделировании, выборке, численном анализе, программировании и принятии решений. Понятие равномерного распределения вероятности. Способы получения последовательности. Правила выбора модуля. Критерий Колмогорова-Смирнова.
курсовая работа [1,3 M], добавлен 17.03.2011Моделирование работы генератора случайных двоичных чисел с ограниченной последовательностью 0 и 1, подчиняющегося равномерному закону распределения, заданному с помощью модели Гильберта. Представление программного решения задачи средствами языка С++.
лабораторная работа [857,7 K], добавлен 05.06.2011Разработка программы для работы с множеством данных, перечень и работа ее модулей. Проверка работы программы. Реализация поиска элемента в файле по его номеру и добавление элементов в конец уже созданного НД. Возможности и особенности применения программы
курсовая работа [3,5 M], добавлен 22.06.2012Разработка программы для вычисления производительности труда рабочих цеха. Описание среды и языка программирования. Требования к программному и аппаратному обеспечению. Математическая модель решения задачи. Методы тестирования. Техника безопасности.
курсовая работа [2,6 M], добавлен 29.03.2013Обнаружение грубых погрешностей. Проверка случайности и независимости результатов измерений в выборке. Приближенная проверка гипотезы о нормальном распределении экспериментальных данных. Проверка гипотезы о равенстве дисперсий и средних значений.
курсовая работа [1,1 M], добавлен 01.07.2011Описание структуры обучающего блока. Проектирование его алгоритма и лингвистического и информационного обеспечения. Организация его взаимодействия с базой данных. Разработка графического интерфейса. Программная реализация основных функций приложения.
дипломная работа [2,1 M], добавлен 20.12.2015Применение и генерирование независимого случайного процесса. Исследование вариантов формирования случайных величин с разными законами распределения. Оценка их независимости с помощью построения гистограммы распределения в программной среде LabVIEW.
контрольная работа [611,5 K], добавлен 18.03.2011Разработка программы на языке Си++ и осуществление постановки и выбора алгоритмов решения задач обработки экономической информации, создание и редактирование базы данных, сортировка записей по определенному запросу, анализ эффективности обработки данных.
контрольная работа [316,8 K], добавлен 28.08.2012Создание программы, работающей с набором данных на внешнем устройстве. Описание программного комплекса. Обзор структуры главной программы. Процедура добавления новых элементов, поиска и создания на экране вертикального меню. Проверка работы программы.
курсовая работа [265,6 K], добавлен 28.08.2017