Прогнозирование цен на рынке драгоценных металлов с помощью нейронных сетей

Виды сделок на рынке драгоценных металлов. Основы нейросетей и нейросетевого моделирования. Проектирование и разработка приложения с использованием искусственного интеллекта для решения задач по прогнозированию цен на рынке драгоценных металлов.

Рубрика Программирование, компьютеры и кибернетика
Вид дипломная работа
Язык русский
Дата добавления 30.06.2012
Размер файла 3,6 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Искусственные нейронные сети индуцированы биологией, так как они состоят из элементов, функциональные возможности которых аналогичны большинству элементарных функций биологического нейрона. Эти элементы затем организуются по способу, который соответствует анатомии мозга. Даже при таком поверхностном сходстве, искусственные нейронные сети демонстрируют удивительное число свойств, присущих мозгу. Например, они обучаются на основе опыта, обобщают предыдущие прецеденты на новые случаи и извлекают существенные свойства из поступающей информации, содержащей излишние данные[16].

Несмотря на такое функциональное сходство, даже самый оптимистичный их защитник не предположит, что в скором будущем искусственные нейронные сети будут дублировать функции человеческого мозга. Однако равным образом было бы неверным игнорировать удивительное сходство в функционировании некоторых нейронных сетей с человеческим мозгом. Эти возможности, как бы они ни были ограничены сегодня, наводят на мысль, что глубокое проникновение в человеческий интеллект, а также множество революционных приложений, могут быть не за горами.

Итак, рассмотрим некоторые свойства нейронных сетей.

1. Обучение. Искусственные нейронные сети могут менять свое поведение в зависимости от внешней среды. Этот фактор в большей степени, чем любой другой, ответствен за тот интерес, который они вызывают. После предъявления входных сигналов (возможно, вместе с требуемыми выходами) они самонастраиваются, чтобы обеспечивать требуемую реакцию. Было разработано множество обучающих алгоритмов, каждый со своими сильными и слабыми сторонами. Все еще существуют проблемы относительно того, чему сеть может обучиться и как обучение должно проводиться.

2. Обобщение. Отклик сети после обучения может быть до некоторой степени нечувствителен к небольшим изменениям входных сигналов. Эта внутренне присущая способность видеть образ сквозь шум и искажения жизненно важна для распознавания образов в реальном мире. Она позволяет преодолеть требование строгой точности, предъявляемое обычным компьютером, и открывает путь к системе, которая может иметь дело с тем несовершенным миром, в котором мы живем. Важно отметить, что искусственная нейронная сеть делает обобщения автоматически благодаря своей структуре, а не с помощью использования «человеческого интеллекта» в форме специально написанных компьютерных программ.

3. Абстрагирование. Некоторые из искусственных нейронных сетей обладают способностью извлекать сущность из входных сигналов. Например, сеть может быть обучена на последовательности искаженных версий буквы «А». После соответствующего обучения предъявление такого искаженного примера приведет к тому, что сеть породит букву совершенной формы (в данном случае букву «А»). В некотором смысле она научится порождать то, что никогда не видела. Способность извлекать идеальные прототипы является для людей весьма ценным качеством.

4. Применимость. Искусственные нейронные сети не являются панацеей. Они, очевидно, не пригодны для выполнения таких задач, как начисление заработной платы, однако они незаменимы в большом классе других задач, с которыми плохо или вообще не справляются обычные вычислительные системы[12].

Таким образом, нейронные сети имеют ряд преимуществ перед традиционными вычислительными системами. Приведем некоторые наиболее важные из них.

1. Решение задач при неизвестных закономерностях. Используя способность обучения на множестве примеров, нейронная сеть способна решать задачи, в которых неизвестны закономерности развития ситуации и зависимости между входными и выходными данными. Традиционные математические методы и экспертные системы в таких случаях неприменимы.

2. Устойчивость к шумам во входных данных. Возможность работы при наличии большого числа неинформативных, шумовых входных сигналов. Нет необходимости делать их предварительный отсев, нейронная сеть сама определит их малопригодность для решения задачи и отбросит их.

3. Адаптирование к изменениям окружающей среды. Нейронные сети обладают способностью адаптироваться к изменениям окружающей среды. В частности, нейронные сети, обученные действовать в определенной среде, могут быть легко переучены для работы в условиях незначительных колебаний параметров среды. Более того, для работы в нестационарной среде (где статистика изменяется с течением времени) могут быть созданы нейронные сети, переучивающиеся в реальном времени. Чем выше адаптивные способности системы, тем более устойчивой будет ее работа в нестационарной среде. При этом следует заметить, что адаптивность не всегда ведет к устойчивости; иногда она приводит к совершенно противоположному результату. Например, адаптивная система с параметрами, быстро изменяющимися во времени, может также быстро реагировать и на посторонние возбуждения, что вызовет потерю производительности. Для того чтобы использовать все достоинства адаптивности, основные параметры системы должны быть достаточно стабильными, чтобы можно было не учитывать внешние помехи, и достаточно гибкими, чтобы обеспечить реакцию на существенные изменения среды.

4. Потенциальное сверхвысокое быстродействие. Нейронные сети обладают потенциальным сверхвысоким быстродействием за счет использования массового параллелизма обработки информации.

5. Отказоустойчивость при аппаратной реализации нейронной сети. Нейронные сети потенциально отказоустойчивы. Это значит, что при неблагоприятных условиях их производительность падает незначительно. Например, если поврежден какой-то нейрон или его связи, извлечение запомненной информации затрудняется. Однако, принимая в расчет распределенный характер хранения информации в нейронной сети, можно утверждать, что только серьезные повреждения структуры нейронной сети существенно повлияют на ее работоспособность. Поэтому снижение качества работы нейронной сети происходит медленно[18].

Нейронные сети могут быть классифицированы по ряду признаков.

Классификация нейронных сетей по характеру обучения делит их на:

· нейронные сети, использующие обучение с учителем;

· нейронные сети, использующие обучение без учителя.

Рассмотрим их подробнее.

В нейронных сетях, использующих обучение с учителем, для каждого входного вектора существует целевой вектор, представляющий собой требуемый выход. Вместе они называются обучающей парой. Обычно сеть обучается на некотором числе таких обучающих пар. Предъявляется выходной вектор, вычисляется выход сети и сравнивается с соответствующим целевым вектором. Далее веса изменяются в соответствии с алгоритмом, стремящимся минимизировать ошибку. Векторы обучающего множества предъявляются последовательно, вычисляются ошибки и веса подстраиваются для каждого вектора до тех пор, пока ошибка по всему обучающему массиву не достигнет приемлемого уровня.

Обучение нейросети без учителя является намного более правдоподобной моделью обучения с точки зрения биологических корней искусственных нейронных сетей. Развитая Кохоненом и его последователями, она не нуждается в целевом векторе для выходов и, следовательно, не требует сравнения с предопределенными идеальными ответами. Обучающее множество состоит лишь из входных векторов. Обучающий алгоритм подстраивает веса сети так, чтобы получались согласованные выходные векторы, т. е. чтобы предъявление достаточно близких входных векторов давало одинаковые выходы. Процесс обучения, следовательно, выделяет статистические свойства обучающего множества и группирует сходные векторы в классы.

По методу настройки весов нейронные сети делятся на:

· сети с фиксированными связями - весовые коэффициенты нейронной сети выбираются сразу, исходя из условий задачи;

· сети с динамическими связями - для них в процессе обучения происходит настройка синаптических весов.

По типу входной информации нейросети классифицируются на:

· сети с аналоговой входной информацией - входная информация представлена в форме действительных чисел;

· сети с двоичной входной информацией - вся входная информация в таких сетях представляется в виде нулей и единиц.

В зависимости от применяемой модели нейронной сети, нейросети можно разделить на четыре класса: сети прямого распространения, реккурентные сети, радиально базисные функции и самоорганизующиеся карты или Сети Кохонена.

В сетях прямого распространения все связи направлены строго от входных нейронов к выходным. К таким сетям относятся, например: простейший персептрон (разработанный Розенблаттом) и многослойный персептрон.

В реккурентных нейросетях сигнал с выходных нейронов или нейронов скрытого слоя частично передается обратно на входы нейронов входного слоя.

Радиально базисные функции - вид нейронной сети, имеющий скрытый слой из радиальных элементов и выходной слой из линейных элементов. Сети этого типа довольно компактны и быстро обучаются. Предложены в работах Broomhead and Lowe (1988) и Moody and Darkin (1989). Радиально базисная сеть обладает следующими особенностями: один скрытый слой, только нейроны скрытого слоя имеют нелинейную активационную функцию и синаптические веса входного и скрытого слоев равны единице.

Самоорганизующиеся карты или Сети Кохонена - такой класс сетей, как правило, обучается без учителя и успешно применяется в задачах распознавания. Сети такого класса способны выявлять новизну во входных данных: если после обучения сеть встретится с набором данных, непохожим ни на один из известных образцов, то она не сможет классифицировать такой набор и тем самым выявит его новизну. Сеть Кохонена имеет всего два слоя: входной и выходной, составленный из радиальных элементов.

Нейрон представляет собой единицу обработки информации в нейронной сети. На рисунке ниже приведена модель нейрона, лежащего в основе искусственных нейронных сетей.

Рис.1.2. Модель нейрона

В этой модели нейрона можно выделить три основных элемента:

· синапсы, каждый из которых характеризуется своим весом или силой. Они осуществляют связь между нейронами, умножают входной сигнал на весовой коэффициент синапса , характеризующий силу синаптической связи;

· сумматор, аналог тела клетки нейрона. Выполняет сложение внешних входных сигналов или сигналов, поступающих по синаптическим связям от других нейронов. Определяет уровень возбуждения нейрона;

функция активации, определяет окончательный выходной уровень нейрона, с которым сигнал возбуждения (торможения) поступает на синапсы следующих нейронов[12]. Наиболее часто используются следующие функции активации.

1. Единичный скачок или жесткая пороговая функция. Простая кусочно-линейная функция. Если входное значение меньше порогового, то значение функции активации равно минимальному допустимому, иначе - максимально допустимому.

Рис.1.3. Жесткая пороговая активационная функция

2. Линейный порог или гистерезис. Несложная кусочно-линейная функция. Имеет два линейных участка, где функция активации тождественно равна минимально допустимому и максимально допустимому значению и есть участок, на котором функция строго монотонно возрастает.

Рис.1.4. Линейная пороговая активационная функция

3. Сигмоидальная функция или сигмоид. Монотонно возрастающая всюду дифференцируемая S-образная нелинейная функция с насыщением. Сигмоид позволяет усиливать слабые сигналы и не насыщаться от сильных сигналов.

Примером сигмоидальной функции активации может служить логистическая функция, задаваемая следующим выражением: , где - параметр наклона сигмоидальной функции активации. Изменяя этот параметр, можно построить функции с различной крутизной.

Рис.1.5. .Логистическая активационная функция

Следует отметить, что функции активации типа единичного скачка и линейного порога встречаются очень редко и, как правило, используются на учебных примерах. В практических задач почти всегда применяется сигмоидальная функция активации[14].

Модель нейрона имитирует в первом приближении свойства биологического нейрона. На вход искусственного нейрона поступает некоторое множество сигналов, каждый из которых является выходом другого нейрона. Каждый вход умножается на соответствующий вес, пропорциональный синаптической силе, и все произведения суммируются, определяя уровень активации нейрона.

Хотя сетевые парадигмы весьма разнообразны, в основе почти всех их лежит эта модель нейрона. Здесь множество входных сигналов, обозначенных , , … поступает на искусственный нейрон. Эти входные сигналы, в совокупности обозначаемые вектором , соответствуют сигналам, приходящим в синапсы биологического нейрона. Каждый сигнал умножается на соответствующий вес , , … и поступает на суммирующий блок, обозначенный . Каждый вес соответствует «силе» одной биологической синаптической связи. Множество весов в совокупности обозначается вектором . Суммирующий блок, соответствующий телу биологического элемента, складывает взвешенные входы алгебраически, создавая выход . Далее поступает на вход функции активации, определяя окончательный сигнал возбуждения или торможения нейрона на выходе. Этот сигнал поступает на синапсы следующих нейронов и т.д.

Рассмотренная простая модель нейрона игнорирует многие свойства своего биологического двойника. Например, она не принимает во внимание задержки во времени, которые воздействуют на динамику системы. Входные сигналы сразу же порождают выходной сигнал. И, что более важно, данная модель нейрона не учитывает воздействий функции частотной модуляции или синхронизирующей функции биологического нейрона, которые ряд исследователей считают решающими.

Несмотря на эти ограничения, сети, построенные на основе этой модели нейрона, обнаруживают свойства, сильно напоминающие биологическую систему. Только время и исследования смогут ответить на вопрос, являются ли подобные совпадения случайными или следствием того, что именно в этой модели нейрона, верно схвачены важнейшие черты биологического прототипа.

Вероятно, архитектура многослойных нейронных сетей используется сейчас наиболее часто. Она была предложена в работе Rumelhart, McClelland в 1986 году и подробно обсуждается почти во всех учебниках по нейронным сетям. Многослойными персептронами называют многослойные нейронные сети прямого распространения. Входной сигнал в таких сетях распространяется в прямом направлении, от слоя к слою. Многослойный персептрон в общем представлении состоит из следующих элементов:

· множества входных узлов, которые образуют входной слой;

· одного или нескольких скрытых слоев вычислительных нейронов;

· одного выходного слоя нейронов.

Многослойный персептрон представляет собой обобщение однослойного персептрона Розенблатта. Примером многослойного персептрона является следующая модель нейронной сети:

Рис.1.6. Пример двухслойного персептрона

Количество входных и выходных элементов в многослойном персептроне определяется условиями задачи. Сомнения могут возникнуть в отношении того, какие входные значения использовать, а какие нет. Вопрос о том, сколько использовать промежуточных слоев и элементов в них, пока совершенно неясен. В качестве начального приближения можно взять один промежуточный слой, а число элементов в нем определить по формуле Арнольда-Колмогорова-Хехт-Нельсова: , где - размерность выходного сигнала, - число элементов множества обучающих примеров, - необходимое число синаптических связей, - размерность входного сигнала. Оценив с помощью этой формулы необходимое число синаптических связей , можно рассчитать необходимое число нейронов в скрытых слоях. Так, число нейронов скрытого слоя двухслойного персептрона будет равно .

Многослойные персептроны успешно применяются для решения разнообразных сложных задач и имеют три следующих отличительных свойства.

1. Каждый нейрон сети имеет нелинейную функцию активации. Важно подчеркнуть, что такая нелинейная функция должна быть гладкой (т.е. всюду дифференцируемой), в отличие от жесткой пороговой функции, используемой в персептроне Розенблатта. Самой популярной формой функции, удовлетворяющей этому требованию, является сигмоидальная. Наличие нелинейности играет очень важную роль, так как в противном случае отображение «вход-выход» сети можно свести к обычному однослойному персептрону.

2. Несколько скрытых слоев. Многослойный персептрон содержит один или несколько слоев скрытых нейронов, не являющихся частью входа или выхода сети. Эти нейроны позволяют сети обучаться решению сложных задач, последовательно извлекая наиболее важные признаки из входного образа.

3. Высокая связность. Многослойный персептрон обладает высокой степенью связности, реализуемой посредством синаптических соединений. Изменение уровня связности сети требует изменения множества синаптических соединений или их весовых коэффициентов.

Комбинация всех этих свойств наряду со способностью к обучению на собственном опыте обеспечивает вычислительную мощность многослойного персептрона. Однако эти же качества являются причиной неполноты современных знаний о поведении такого рода сетей: распределенная форма нелинейности и высокая связность сети существенно усложняют теоретический анализ многослойного персептрона.

Алгоритм обратного распространения ошибки является одним из самых эффективных методов обучения многослойных персептронов. Обучение алгоритмом обратного распространения ошибки предполагает два прохода по всем слоям сети: прямого и обратного. При прямом проходе входной вектор подается на входной слой нейронной сети, после чего распространяется по сети от слоя к слою. В результате генерируется набор выходных сигналов, который и является фактической реакцией сети на данный входной образ. Во время прямого прохода все синаптические веса сети фиксированы. Во время обратного прохода все синаптические веса настраиваются в соответствии с правилом коррекции ошибок, а именно: фактический выход сети вычитается из желаемого, в результате чего формируется сигнал ошибки. Этот сигнал впоследствии распространяется по сети в направлении, обратном направлению синаптических связей. Отсюда и название - алгоритм обратного распространения ошибки[16].

Целью обучения сети алгоритмом обратного распространения ошибки является такая подстройка ее весов, чтобы приложение некоторого множества входов приводило к требуемому множеству выходов. Для краткости эти множества входов и выходов будут называться векторами. При обучении предполагается, что для каждого входного вектора существует парный ему целевой вектор, задающий требуемый выход. Вместе они называются обучающей парой. Сеть обучается на многих парах.

Таким образом, алгоритм обратного распространения ошибки следующий:

1. Инициализировать синаптические веса небольшими случайными значениями.

2. Выбрать очередную обучающую пару из обучающего множества; подать входной вектор на вход сети.

3. Вычислить выход сети.

4. Вычислить разность между выходом сети и требуемым выходом (целевым вектором обучающей пары).

5. Подкорректировать веса сети для минимизации ошибки.

6. Повторять шаги с 2 по 5 для каждого вектора обучающего множества до тех пор, пока ошибка на всем множестве не достигнет приемлемого уровня.

Алгоритм обратного распространения ошибки осуществляет так называемый градиентный спуск по поверхности ошибок. Не углубляясь, это означает следующее: в данной точке поверхности находится направление скорейшего спуска, затем делается прыжок вниз на расстояние, пропорциональное коэффициенту скорости обучения и крутизне склона, при этом учитывается инерция, то есть стремление сохранить прежнее направление движения. Можно сказать, что метод ведет себя как слепой кенгуру - каждый раз прыгает в направлении, которое кажется ему наилучшим. На самом деле шаг спуска вычисляется отдельно для всех обучающих наблюдений, взятых в случайном порядке, но в результате получается достаточно хорошая аппроксимация спуска по совокупной поверхности ошибок.

Несмотря на достаточную простоту и применимость в решении большого круга задач, алгоритм обратного распространения ошибки имеет ряд серьезных недостатков. Отдельно стоит отметить неопределенно долгий процесс обучения. В сложных задачах для обучения сети могут потребоваться дни или даже недели, а иногда она может и вообще не обучиться. Это может произойти из-за следующих нижеописанных факторов.

1. Паралич сети. В процессе обучения сети, значения весов могут в результате коррекции стать очень большими величинами. Это может привести к тому, что все или большинство нейронов будут выдавать на выходе сети большие значения, где производная функции активации от них будет очень мала. Так как посылаемая обратно в процессе обучения ошибка пропорциональна этой производной, то процесс обучения может практически замереть. В теоретическом отношении эта проблема плохо изучена. Обычно этого избегают уменьшением размера шага (скорости обучения), но это увеличивает время обучения. Различные эвристики использовались для предохранения от паралича или для восстановления после него, но пока что они могут рассматриваться лишь как экспериментальные.

2. Локальные минимумы. Как говорилось вначале, алгоритм обратного распространения ошибки использует разновидность градиентного спуска, т. е. осуществляет спуск вниз по поверхности ошибки, непрерывно подстраивая веса в направлении к минимуму. Поверхность ошибки сложной сети сильно изрезана и состоит из холмов, долин, складок и оврагов в пространстве высокой размерности. Сеть может попасть в локальный минимум (неглубокую долину), когда рядом имеется более глубокий минимум. В точке локального минимума все направления ведут вверх, и сеть неспособна из него выбраться. Статистические методы обучения могут помочь избежать этой ловушки, но они медленны.

3. Размер шага. Алгоритм обратного распространения ошибки имеет доказательство своей сходимости. Это доказательство основывается на том, что коррекция весов предполагается бесконечно малой. Ясно, что это неосуществимо на практике, так как ведет к бесконечному времени обучения. Размер шага должен браться конечным, и в этом вопросе приходится опираться только на опыт. Если размер шага очень мал, то сходимость слишком медленная, если же очень велик, то может возникнуть паралич или постоянная неустойчивость.

4. Временная неустойчивость. Если сеть учится распознавать буквы, то нет смысла учить «Б», если при этом забывается «А». Процесс обучения должен быть таким, чтобы сеть обучалась на всем обучающем множестве без пропусков того, что уже выучено. В доказательстве сходимости это условие выполнено, но требуется также, чтобы сети предъявлялись все векторы обучающего множества прежде, чем выполняется коррекция весов. Необходимые изменения весов должны вычисляться на всем множестве, а это требует дополнительной памяти; после ряда таких обучающих циклов веса сойдутся к минимальной ошибке. Этот метод может оказаться бесполезным, если сеть находится в постоянно меняющейся внешней среде, так что второй раз один и тот же вектор может уже не повториться. В этом случае процесс обучения может никогда не сойтись. В этом смысле алгоритм обратного распространения ошибки не похож на биологические системы.

Глава 2. Прогнозирование цен на рынке драгоценных металлов с помощью нейронных сетей

2.1 Сбор данных для проектирования нейросети

Для прогнозирования цены золота, использовался метод нейросетевого моделирования. Этот метод позволяет решать задачи, для которых еще не существует строго формализованных или работающих с приемлемой точностью алгоритмов, а также для задач с неполной или плохо определенной информацией.

Нейросетевая модель была создана при помощи специальной программы «Нейросимулятор 3.0»[10], которая представляет собой полноценный симулятор полносвязных нейронных сетей. Нейросимулятор обладает простым, понятным, настраиваемым, удобным интерфейсом. Каждое действие снабжено пиктограммой и кратким пояснением. При задании структуры сети она в реальном времени отображается в графическом виде. Каждая функция активации снабжена окном конфигурации, на котором приводиться её формула, график. В этом же окне можно настроить параметры функции, при их наличии. Это же относится к функциям начальной инициализации весов и к функциям предобработки данных. В программе также присутствуют средства автоматизированного анализа данных, такие как: определение значимости параметров и обнаружение выбросов в обучающей выборке[19].

В рамках модели рассматриваются цена золота за 3 месяца. Нейросети обучаются по некоторому набору примеров из предметной области с известными входными и выходными параметрами - обучающей выборке.

Обучающая выборка была составлена на основе данных, взятых на официальных сайтах ЦБ[13] и инвестиционного фонда[15]. В нее были включены такие основополагающие показатели, как индексы Dow Jones, S&P500, RTS, ММВБ, FTSE100, Nasdaq Composite. Цены на нефть марки Brent, доллар и евро. Инфляция, ставка рефинансирования, динамика роста курсов доллара и евро, цены предыдущего дня на золото. Таким образом, цену золота в обучающей выборке отражают 15 показателей.

Таблица 1. Описание входных и выходных параметров

Х1

День недели (1 - понедельник, 2 - вторник… 5 - пятница)

Х2

Цена золота

Х3

Курс доллара

Х4

Цена нефти марки Brent

Х5

Ставка рефинансирования

Х6

Индекс ММВБ

Х7

Индекс RTS

Х8

Индекс Dou Jones

Х9

Индекс S&P500

Х10

Индекс FTSE_100

Х11

Курс евро

Х12

Динамика роста доллара(1 - есть рост, 0 - нет роста)

Х13

Динамика роста евро(1 - есть рост, 0 - нет роста)

Х14

Индекс Nasdaq Composite

Х15

Инфляция

Y1

Цена золота на следующий день

Разработанная нейросетевая модель имеет один выходной параметр - цена золота на следующий день - его и должна спрогнозировать обученная нейросеть.

В обучающую выборку вошло 56 примеров (приложение 1), что является достаточным количеством для довольно успешного обучения нейросети. После того как сформирована обучающая выборка, можно переходить непосредственно к проектированию сеть и ее обучению.

2.2 Проектирование нейросети

Уже известно количество входных и выходных параметров - 15 и 1 соответственно, осталось определить количество скрытых слоев и число нейронов в каждом из них.

Как уже было сказано в предыдущей главе, изначально можно взять один промежуточный слой, а число элементов в нем определить по формуле Арнольда-Колмогорова - Хехт-Нельсона:

где - размерность выходного сигнала, - число элементов множества обучающих примеров, - необходимое число синаптических связей, - размерность входного сигнала. Сделав необходимые вычисления, можно заключить, что необходимое число синаптических связей находится в диапазоне . Необходимое количество нейронов в скрытом слое определяется по формуле: . Таким образом, число нейронов в скрытом слое будет в диапазоне . Исследуем весь диапазон и выберем то количество нейронов на скрытом слое, при котором ошибка обучения будет меньше. Возьмем для начала 6 нейронов на скрытом слое.

Осталось выбрать активационные функции для каждого слоя. Нейроны входного и выходного слоя отвечают только за ввод и вывод данных, их функции можно оставить линейными. Основная расчетная нагрузка ложится на нейроны скрытого слоя, поэтому его активационную функцию следует сделать сигмоидной.

Рис.2.1. Проектирование сети в «Нейросимуляторе 3.0»

Таким образом, первоначальное проектирование сети завершено, и можно приступать к его обучению.

2.3 Обучение и тестирование нейросети

Обучение. С помощью специальной кнопки «Загрузить данные из файла Excel» загружаем обучающую выборку из соответствующего файла. Необходимо проследить, чтобы количество столбцов в таблице Excel строго совпадало с числом нейронов на входном и выходном слое. В данном случае это число должно быть равным 16 (15 нейронов на входе, 1 - на выходе).

Далее необходимо выбрать алгоритм обучения сети. Для многослойного персептрона более всего подходит алгоритм обратного распространения ошибки. Данный алгоритм имеет ряд недостатков, описанных в предыдущей главе. Чтобы их избежать, нужно серьезно подходить к выбору скорости обучения и количества эпох - полных циклов предъявления полного набора примеров обучения.

При очень маленьких значениях скорости обучение нейронной сети будет проходить медленно. При очень больших ее значениях возникает вероятность того, что в момент достижения минимума функции ошибки нейронная сеть не сможет попасть в этот минимум и будет бесконечно долго «прыгать» справа и слева от него, производя перерасчеты весовых коэффициентов. Становится очевидным, что динамическое управление величиной скорости обучения может серьезно повысить эффективность обучения нейронной сети методом обратного распространения ошибки.

Рис.2.2. Обучение сети в «Нейросимуляторе 3.0»

Присвоение скорости большего значения в момент начала обучения позволит получить более быстрое приближение к области, где находится оптимальное множество весовых коэффициентов.

Таким образом, сначала нужно задать достаточно высокую скорость обучения. Зададим скорость обучения - 0,1 и количество эпох - 5000.

Теперь, когда загружена обучающая выборка и заданы параметры обучения, можно начать обучение. После того как сеть обучилась, на экране появится график обучения.

Рис.2.3. График обучения сети

После обучения, посмотрим на значимость параметров. Как видно из следующего рисунка 2.4, наиболее значимый параметр для обучаемой сети - это курс доллара().

Рис.2.4. Значимость входных параметров для обучаемой сети

Тестироваие. На этом этапе можно рассчитать максимальную ошибку обучения, скопировав с помощью специальной функции примеры из обучающего множества. В данном случае ошибка составила 1,03 %.

Рис.2.5. Расчет максимальной ошибки обучения

Рассчитаем также максимальную ошибку обобщения, загрузив на вкладку «Проверка» тестирующее множество (приложение 2), не вошедших в обучающую выборку. Ошибка обобщения составила 2,47%.

Рис.2.6. Расчет максимальной ошибки обобщения

2.4 Оптимизация нейросети

После того как произвели первоначальное проектирование сети нужно оптимизировать ее для лучшего получения результата при прогнозировании. Для начала исследуем весь диапазон нейронов на скрытом слое.

В таблице 2 показаны итоги исследований всего диапазона нейронов на скрытом слое.

Таблица 2

Количество нейронов на скрытом слое

Ошибка обучения

Ошибка обобщения

6

1,03%

2,47%

5

0,79%

0,89%

4

1,61%

1,91%

3

0,86%

2,03%

2

1,66%

1,01%

1

1,61%

0,90%

Для дальнейшего прогнозирования возьмем 5 нейронов на скрытом слое, так как при таком количестве нейронов ошибка обучения наименьшая.

Теперь увеличим количество эпох до 8000, и обучим сеть заново.

Рис.2.7. График обучения сети

После того как сеть обучилась ошибки обучения и обобщения уменьшились с 0,79% и 0,89% до 0,47% и 0,77% соответственно, что позволяет более точно спрогнозировать цену золота.

Рис. 2.8. Ошибка обучения

Рис.2.9. Ошибка обобщения

Рис.2.10. Значимость параметров

Из рисунка 2.10 следует, что самыми значимыми параметрами являются Х2(цена золота на предыдущий день), Х3(курс доллара), Х4(цена нефти), Х11(курс евро). Если мы удалим наименее значимые параметры, то ошибка возрастет, следовательно, их надо оставить.

Исследуем влияние значимых параметров на цену золота. Для этого сначала будем уменьшать значение параметра, а потом увеличивать, и увидим, как влияет параметр на цену. Результаты показали, что при увеличении курса доллара цена золота падает, а при уменьшении - возрастает (Рис.2.11). При увеличении цены нефти цена золота увеличивается, а при уменьшении - уменьшается (Рис.2.12). При увеличении курса евро цена золота увеличивается, а при уменьшении - уменьшается (Рис.2.13).

Рис.2.11. Влияние курса доллара на цену золота

Рис.2.12. Влияние цена нефти на цену золота

Рис.2.13. Влияние курса евро на цену золота

В программе «Нейросимулятор 3.0» существует возможность рассчитывать результат для данных, не вошедших в обучающую выборку - этим и должен заниматься обученный персептрон - для этого нужно перейти на вкладку «Вычисления». Но у неподготовленного пользователя могут возникнуть проблемы с вводом параметров и анализом рассчитанного персептроном результата. Поэтому для этой программы был разработан понятный интерфейс.

Рис.2.14. Главная форма интерфейса

Пользователь последовательно вводит входные параметры для нейросети. Уже введенные параметры выделяются зеленым цветом, оставшиеся - красным. В каждой стоке ввода предусмотрены подсказки, например, «Курс доллара, вводится в рублях за доллар», так что у пользователя не должно возникнуть особых проблем с заполнением данной формы.

Внизу формы показывается процент заполнения, и пользователь не может случайно пропустить какую-либо строку. После того как заполнены все строки, необходимо нажать на кнопку «Далее».

Рис.2.15. Форма интерфейса для вывода

Таким образом, сконструированная нейросетевая модель достаточно успешно обучилась и может использоваться в качестве определения цены золота на следующий день.

Глава 3. Расчет экономической эффективности

3.1 Расчет себестоимости программы

Расчет экономической эффективности разработки информационной системы прогнозирования цены золота включает:

1. Определение количества затраченного времени на проектирование и разработку информационной системы;

2. Расчет экономических затрат на разработку информационной системы;

3. Определение приблизительной стоимости разработанной информационной системы.

4. Срок окупаемости при продаже данной информационной системы. Определим объем затраченного времени на разработку информационной системы.

При реализации нейросети тратится значительное количество времени на сбор данных для ее проектирования. Объем затраченного времени для проектирования данной нейросети составил 8 рабочих недель по 4 часа в день.

На этапе проектирования и разработки решались следующие задачи:

1. Сбор данных в программе «MS Excel» с официального сайта ЦБ: такие как индексы Dow Jones, S&P500, RTS, ММВБ, FTSE100, Nasdaq Composite. Цены на доллар, евро, нефть марки Brent. Инфляция, ставка рефинансирования.

2. Подготовка собранных данных в программе «MS Excel» (формирование в сводные таблицы, создание выборки для обучения сети), для ввода в программу «Нейросимулятор 3.0».

3. Разработка интерфейса для конечного пользователя информационной системы

В целом разработка информационной системы заняла 11 рабочих недель по 4 часа в день:

· сбор и обработка данных: 7 нед. Ч 5 дней Ч 4 ч. = 140 ч.

· обучение нейросети: 2 нед. Ч 5 дней Ч 4 ч. = 40 ч.

· разработка интерфейса: 2 нед. Ч 5 дней Ч 4ч. = 40 ч.

Итого в сумме объем затраченного времени на разработку информационной системы составил 220 часов.

Далее произведем расчет экономических затрат на разработку системы.

Затраты на разработку информационной системы включают в себя:

1. Определение себестоимости программного продукта:

Себестоимость программного продукта (Зтр) рассчитывается по следующей формуле:

ЧСi - часовая ставка i-го работника (руб./ч.);

Тi - время разработки проекта (ч);

i - категория работника;

n - количество работников, занятых разработкой проекта.

Общее время работы разработчика нейросети Ti определили ранее, 220 часов.

Среднечасовая заработная плата разработчика рассчитывается по формуле:

ЗПi - среднемесячная заработная плата разработчика проекта.

ФРВi - среднемесячный фонд рабочего времени.

Среднемесячная заработная плата начинающего программиста составляет 12 000 рублей.

Среднемесячный фонд рабочего времени берется = 100 часов.

Таким образом, стоимость одного часа работы программиста, равна:

ЧС = 12 000руб./100ч.=120руб.

Затраты на оплату труда каждого работника приведены в таблице 1.

Таблица 3. Затраты на оплату труда

Категория работника

Квалификация работника

Время разработки нейросети (час)

Часовая ставка(руб/ч.)

Сумма (руб.)

Разработчик нейросети

Программист

220

120.0

26 400

Итого

26 400

Таким образом, общая сумма затрат на разработку продукта, рассчитанная по формуле, равна: Зтр = 26 400 рублей.

2. Амортизация

Так как оборудование уже имеется в наличии, рассчитаем годовую сумму амортизационных отчислений.

Годовая сумма амортизационных отчислений рассчитывается по формуле:

Ф - первоначальная стоимость основных фондов по видам, в руб.

Nа - норма амортизации основных фондов по видам, в %

ТNi - возможный срок использования оборудования. Возьмем за возможный срок использования гарантийный срок оборудования, равный 5 лет.

Таблица 4. Затраты на амортизационные отчисления

Элементы основных фондов

Кол-во

Стоимость,

руб./ ед.изм

Норма амортизации, %

Амортизационные отчисления, руб.

Системный блок

1 шт.

12300

20

2460

Монитор

1 шт.

5000

20

1000

Итого

3460

Таким образом, годовая сумма амортизационных отчислений составляет 3460 рублей.

Рассчитаем сумму амортизационных отчислений оборудования и помещения за период разработки нейросети:

Агод - годовая сумма амортизационных отчислений

Тфакт - фактический объем затраченных часов

N - количество рабочих часов в году, равный 1981 час. (8 час. x 245 дней + 7 час. x 3 дня);

Следовательно, сумма амортизационных отчислений, по формуле 2 составляет

Афакт= (3460*240)/1981 = 420 рублей

3. Затраты на электроэнергию

Таблица 5. Затраты на электроэнергию.

Наименование оборудования

Паспортная

мощность, кВт

Кол-во, шт

Время работы оборудования на разработку нейросети, ч

Цена электроэнергии, руб./кВт*ч

Сумма, руб.

Системный блок

0,5

1

240

2,49

298,8

Монитор

0,3

1

240

2,49

179,3

Лампы освещения

0,6

2

240

2,49

717

Итого:

1195,1

4. Общие хозяйственные расходы.

В прочие затраты отнесем оплату на Интернет, канцтовары, диски, бумага, чернила что составит примерно 800 рублей.

Таблица 6. Итоговая таблица статей затрат.

Статья затрат

Сумма, руб.

затраты на оплату труда

26 400

амортизационные отчисления основных фондов

420

затраты на электроэнергию

1195,1

иные затраты

800

Итого:

28815,1

Затраты на разработку нейросетевой системы составили 28815,1 рублей.

3.2 Определение цены и срока окупаемости программного продукта

Процент рентабельности (условно) - 25% ,

Прибыль рассчитывается по формуле:

П = ,

где Сполн - себестоимость

Р - процент рентабельности

П = = 7203,8руб.

Цена программного продукта равна сумме полной себестоимости и прибыли:

Ц = Сполн + П

Ц =28815,1+ 7 203,8 = 36018,9руб.

Цена программного продукта с НДС:

НДС =

НДС = = 6483,4руб.

Цена = 36018,9 + 6483,4 = 42502,3руб.

Таким образом, стоимость программного продукта составляет 42503рублей.

Окупаемость программного продукта.

Эта программа сделана на заказ. В роли заказчика выступает частное лицо. Посчитаем выгоду от использования этой программы за год.

Возьмем динамику курса золота за прошлый год. Допустим, у заказчика есть 150 000руб. Проведем расчет: посчитаем прибыль, которую заказчик получит при использовании программы, при 100% попадании в локальные минимумы и максимумы.

Рис.3.1. График цены золота за 2010 год

На рисунке 3.1 показаны моменты покупки (красные точки) и продажи (синие точки) золота.

В точке 1 покупаем золото за 1030,7руб./гр. на 150 000руб. и получаем 145,5гр. золота, потом это количество золота в точке 2 продаем за 1088,77руб./гр. и получаем 158 416руб. и так далее.

1) 150 000руб. / 1 030,7 руб./гр. = 145,5гр.

2) 145,5гр. * 1 088,77руб./гр. = 158 416руб.

3) 158 416руб. / 1 041,9руб./гр. = 152гр.

4) 152 гр.. * 1 241,41руб./гр. = 188 694,3руб.

5) 188 694,3руб. / 1 133,58руб./гр. = 166,5гр.

6) 166,5гр. * 1 333,89руб./гр. = 222 092,7руб.

7) 222 092,7руб. / 1 293,31руб./гр. = 177,7гр.

8) 177,7гр. * 1 398,94руб./гр. = 240 198руб.

Полученная прибыль с использованием программы составляет:

240 198руб. - 150 000руб. = 90 198руб.

Учитывая погрешность программы, точность прогнозирования будет 95%. Следовательно, прибыль заказчика станет 90 198руб. * 0.95 = 85 688руб.

Рассчитаем срок окупаемости программы:

Чистая прибыль составит 85 688руб. - 42 503руб. = 43185руб. следовательно, для заказчика эта программа экономически эффективна. Экономическая эффективность = 1/(срок окупаемости) = 2.

Заключение

В заключение хочется отметить, что формирование рыночной цены золота - многофакторный процесс: она колеблется в зависимости от экономических, политических, спекулятивных факторов. В их числе: экономическая и политическая обстановка, объем промышленного потребления золота и инвестиционно-тезаврационного спроса, инфляция, колебания ведущих валют и процентных ставок, распространение альтернативных золоту финансовых инструментов, используемых для страхования рисков.

Результаты применения нейронных сетей для решения задач прогнозирования в данной работе показали, что система может быть обучена так, чтобы выполнять прогнозирование цены золота. Можно заключить, что работа по созданию собственной автоматизированной системы прогнозирования имеет перспективы.

Сегодня многие крупные фирмы и частные лица имеют собственные разработки в области технологий прогнозирования с использованием ИНС, но они не торопятся обнародовать их, предпочитая получать доход от непосредственного использования своих систем.

Данная работа, посвященная использованию нейронных сетей, для решения задачи прогнозирования цены золота, показала хорошие результаты. Прогноз основывался на различных показателях таких как: индексы Dow Jones, S&P500, RTS, ММВБ, FTSE100, Nasdaq Composite. Цены на доллар, евро, нефть марки Brent, инфляция, ставка рефинансирования.

Анализ показателей позволил сделать вывод, что наибольшее значение играют следующие факторы: цена золота на предыдущий день, курс доллара, цена нефти, курс евро. Наименьшее значение оказали факторы, такие как день недели, RTS, S&P500.

При анализируемых 15 факторах различного характера, оптимальной оказалась сеть с одним скрытым слоем (5 нейронов). При такой архитектуре достигается оптимизация ошибок обучения и обобщения. Максимальная ошибка прогноза составляет 0,77%.

Цель данной работы исследование и разработка информационной системы в области прогнозирования цены золота с использованием искусственных нейросетей была достигнута. Все поставленные задачи были выполнены.

Литература

1. Архипов В.Я. Мировой рынок золота и его перспективы.- М.: Финансы. - 2007. - 69-71с.;

2. Балабанов И.Т. Драгоценные металлы и драгоценные камни: операции на российском рынке. - М.: Финансы и статистика. - 2006. - 288 с.

3. Борисов С.М. Мировой рынок золота: новый этап развития. Мировые лидеры, страны-экспортеры // Деньги и кредит. - 2004 №8, с. 32-41.

4. Борисов С.М. Трансформация мирового рынка золота //Деньги и кредит. - 2003 №1, с. 57-64.

5. Борисов, С.М. Цена золота / С.М. Борисов // Деньги и кредит.2005.-№4.-С. 32-36.

6. Гаврилов, Д. А. Рынок золота / Д.А. Гаврилов //Финансы. 2005. -№7.-С. 51-55.

7. Галлямова А.З. Драгоценные металлы в структуре финансовых активов // Банковское дело. 2006. № 5.

8. Сердинов Э.М. Мировой рынок золота //Банковское дело. - 2005 №1, с.37-43.

9. Что представляет собой E-Gold // Драгоценные металлы и драгоценные камни. 2001. № 8.

10. Черепанов Ф.М., Ясницкий Л.Н. Симулятор нейронных сетей «Нейросимулятор 1.0» // Свидетельство об отраслевой регистрации разработки № 8756. Зарегистрировано в Отраслевом фонде алгоритмов и программ 12.07.2007

11. Ясницкий Л.Н. Введение в искусственный интеллект // Издательский центр «Академия», 2005.

Электронные ресурсы:

12. http://www.aiportal.ru/ Статьи и файлы по искусственному интеллекту.

13. www.cbr.ru Официальный сайт Центрального Банка Российской Федерации.

14. http://www.emi-trust.ru/analitika Аналитика финансовых рынков.

15. http://gold.investfunds.ru/indicators/224/ Индикаторы рынка, российские фондовые индексы.

16. http://www.neuropro.ru/neu.shtml Возможности нейронных сетей.

17. www.neuroproject.ru/what.php Учебник «Нейросети».

18. http://www.osp.ru/os/1997/04/179189/ Анил К. Джейн, Жианчанг Мао, Моиуддин К М. Введение в искусственные нейронные сети.

19. www.lbai.ru/files/publications/sims.doc Учебный симулятор нейронных сетей.

Приложения

Приложение 1. Обучающее множество

Х1

Х2

Х3

Х4

Х5

Х6

Х7

Х8

Х9

Х10

Х11

Х12

Х13

Х14

Х15

Y1

3

1296,78

28,17

115,99

8

1 779,24

2 012,22

12 213,09

1 320,02

5 937,30

39,4

0

0

2 751,72

3,8

1 298,53

4

1 298,53

28,29

115,25

8

1 731,80

1 949,35

11 984,61

1 295,11

5 845,29

39,3

1

1

2 701,02

3,8

1 302,22

5

1 302,22

28,44

113,34

8

1 719,95

1 929,59

12 044,40

1 304,28

5 828,67

39,32

1

1

2 715,61

3,8

1 302,09

1

1 302,09

28,63

113,13

8

1 726,78

1 944,91

11 993,16

1 296,39

5 775,24

39,54

1

1

2 700,97

3,8

1 302,72

2

1 302,72

28,66

109,35

8

1 700,54

1 906,83

11 855,42

1 281,87

5 695,28

39,93

1

1

2 667,33

3,8

1 312,77

3

1 312,77

28,73

110,18

8

1 705,18

1 915,95

11 613,30

1 256,88

5 598,23

39,98

1

1

2 616,82

3,8

1 299,46

4

1 299,46

28,66

115,81

8

1 737,62

1 945,74

11 774,59

1 273,72

5 696,11

40,07

0

1

2 636,05

3,8

1 288,55

5

1 288,55

28,74

114,49

8

1 747,32

1 962,92

11 858,52

1 279,20

5 718,13

40,11

1

1

2 643,67

3,8

1 296,95

1

1 296,95

28,48

114,59

8

1 753,19

1 981,98

12 036,53

1 298,38

5 786,09

40,06

0

0

2 692,09

3,8

1 299,94

2

1 299,94

28,37

116,09

8

1 741,34

1 976,38

12 018,63

1 293,77

5 762,71

40,2

0

1

2 683,87

3,8

1 302,16

3

1 302,16

28,16

115,36

8

1 770,56

1 997,00

12 086,02

1 297,54

5 795,88

40,09

0

0

2 698,30

3,8

1 290,42

4

1 290,42

28,27

115,75

8

1 795,40

2 027,89

12 170,56

1 309,66

5 880,87

40,06

1

0

2 736,42

3,8

1 302,46

5

1 302,46

28,41

115,88

8

1 807,46

2 041,49

12 220,59

1 313,80

5 900,76

39,95

1

0

2 743,06

3,8

1 316,05

1

1 316,05

28,22

114,76

8

1 810,90

2 045,06

12 197,88

1 310,19

5 904,49

40,02

0

1

2 730,68

3,8

1 298,23

2

1 298,23

28,41

115,09

8

1 788,14

2 018,74

12 279,01

1 319,44

5 932,17

39,93

1

0

2 756,89

3,8

1 297,08

3

1 297,08

28,34

115,15

8

1 815,60

2 035,92

12 350,61

1 328,26

5 948,30

40,03

0

1

2 776,79

3,8

1 288,53

4

1 288,53

28,43

117,32

8

1 813,59

2 044,20

12 319,73

1 325,83

5 908,76

40,02

1

0

2 781,07

3,8

1 296,98

5

1 296,98

28,52

119,12

8

1 843,43

2 076,78

12 376,72

1 332,41

6 009,92

40,39

1

1

2 789,60

4,3

1 311,96

1

1 311,96

28,37

121,02

8

1 852,02

2 092,32

12 400,03

1 332,87

6 016,98

40,2

0

0

2 789,19

4,3

1 303,36

2

1 303,36

28,23

121,66

8

1 848,21

2 088,64

12 393,90

1 332,63

6 007,06

40,16

0

0

2 791,19

4,3

1 300,05

3

1 300,05

28,31

122,14

8

1 859,99

2 110,90

12 426,75

1 335,54

6 041,13

40,17

1

1

2 799,82

4,3

1 305,72

4

1 305,72

28,22

122,56

8

1 844,33

2 089,52

12 409,49

1 333,51

6 007,37

40,28

0

1

2 796,14

4,3

1 321,76

5

1 321,76

28,23

126,66

8

1 855,97

2 123,56

12 380,05

1 328,17

6 055,75

40,35

1

1

2 780,42

4,3

1 321,88

1

1 321,88

28,12

123,22

8

1 845,78

2 113,55

12 381,11

1 324,46

6 053,44

40,49

0

1

2 771,51

4,3

1 327,50

2

1 327,50

27,98

121,21

8

1 799,94

2 062,52

12 263,58

1 314,16

5 964,47

40,44

0

0

2 744,79

4,3

1 321,73

3

1 321,73

28,15

123,25

8

1 809,83

2 062,47

12 270,99

1 314,41

6 010,44

40,53

1

1

2 761,52

4,3

1 322,29

4

1 322,29

28,11

122,41

8

1 781,51

2 028,67

12 285,15

1 314,52

5 963,80

40,76

0

1

2 760,22

4,3

1 317,89

5

1 317,89

28,19

123,66

8

1 780,36

2 030,32

12 341,83

1 319,68

5 996,01

40,88

1

1

2 764,65

4,3

1 320,91

1

1 320,91

28,22

121,93

8

1 714,07

1 950,15

12 201,59

1 305,14

5 870,08

40,83

1

0

2 735,38

4,3

1 340,05

2

1 340,05

28,16

121,29

8

1 755,63

1 988,12

12 266,75

1 312,62

5 896,87

40,47

0

0

2 744,97

4,3

1 344,19

3

1 344,19

28,42

123,92

8

1 783,38

2 030,97

12 453,54

1 330,36

6 022,26

40,44

1

0

2 802,51

4,3

1 366,08

4

1 366,08

28,15

123,95

8

1 780,60

2 040,60

12 505,99

1 337,38

6 018,30

40,55

0

1

2 820,16

4,3

1 361,88

5

1 361,88

27,94

123,95

8

1 793,96

2 049,03

12 501,83

1 336,73

6 059,53

40,81

0

1

2 823,72

4,3

1 353,72

1

1 353,72

27,94

123,59

8

1 769,94

2 030,93

12 479,88

1 335,25

6 063,10

40,74

0

0

2 825,88

4,3

1 352,01

2

1 352,01

27,99

123,71

8

1 766,28

2 033,32

12 595,37

1 347,24

6 069,36

40,79

1

1

2 847,54

4,3

1 353,56

3

1 353,56

27,91

125,47

8

1 744,95

2 017,64

12 690,96

1 355,66

6 068,16

40,58

0

0

2 869,88

4,3

1 349,82

4

1 349,82

27,71

124,81

8

1 749,65

2 028,94

12 763,31

1 360,48

6 069,90

40,67

0

1

2 872,53

4,3

1 343,69

5

1 343,69

27,51

126,28

8

1 741,84

2 026,94

12 810,54

1 363,61

6 073,19

40,81

0

1

2 873,54

4,3

1 353,51

2

1 353,51

27,51

122,15

8

1 691,45

1 976,74

12 807,51

1 356,62

6 082,88

40,81

0

1

2 841,62

4,3

1 358,71

3

1 358,71

27,33

120,64

8

1 657,54

1 949,94

12 723,58

1 347,32

5 984,07

40,52

0

0

2 828,23

4,3

1 359,12

4

1 359,12

27,37

110,51

8

1 644,92

1 916,33

12 584,17

1 335,10

5 919,98

40,58

1

1

2 814,72

4,3

1 351,50

5

1 351,50

27,26

109,24

8

1 681,01

1 936,29

12 638,74

1 340,20

5 976,77

40,54

0

0

2 827,56

4,3

1 327,47

2

1 327,47

27,66

117,48

8

1 678,13

1 927,82

12 760,36

1 357,16

6 018,89

40,3

1

0

2 871,89

4,3

1 345,21

3

1 345,21

27,86

113,06

8

1 654,78

1 908,46

12 630,03

1 342,08

5 976,00

39,87

1

0

2 845,06

4,3

1 359,25

4

1 359,25

27,63

112,91

8

1 630,78

1 864,95

12 695,92

1 348,65

5 944,96

39,78

0

0

2 863,04

4,3

1 354,19

5

1 354,19

27,95

113,84

8

1 632,23

1 866,30

12 595,75

1 337,77

5 925,87

39,69

1

0

2 828,47

4,3

1 337,23

1

1 337,23

27,85

112,87

8

1 622,98

1 846,32

12 548,37

1 329,62

5 923,69

39,71

0

1

2 782,31

4,3

1 351,93

2

1 351,93

28,12

110,89

8

1 608,66

1 828,89

12 479,58

1 328,98

5 861,00

39,68

0

0

2 783,21

4,3

1 351,69

3

1 351,69

28,12

112,01

8

1 627,03

1 849,60

12 560,18

1 340,68

5 923,49

39,85

0

1

2 815,00

4,3

1 351,94

4

1 351,94

28,05

111,43

8

1 630,72

1 859,14

12 605,32

1 343,60

5 955,99

40,01

0

1

2 823,31

4,3

1 344,69

5

1 344,69

27,96

112,35

8

1 603,97

1 825,34

12 512,04

1 333,27

5 948,49

39,89

0

0

2 803,32

4,3

1 338,33

1

1 338,33

27,91

109,93

8

1 573,14

1 765,04

12 381,26

1 317,37

5 835,89

39,97

0

1

2 758,90

4,3

1 364,68

2

1 364,68

28,34

112,24

8

1 598,82

1 800,04

12 356,21

1 316,28

5 858,41

39,81

1

0

2 746,16

4,3

1 374,56

3

1 374,56

28,44

114,87

8

1 614,86

1 808,13

12 394,66

1 320,47

5 870,14

39,99

1

1

2 761,38

4,3

1 390,38

4

1 390,38

28,48

114,99

8

1 606,21

1 818,36

12 402,76

1 325,69

5 880,99

39,96

1

0

2 782,92

4,3

1 398,17

5

1 398,17

28,23

115,11

8

1 638,06

1 858,39

12 441,58

1 331,10

5 938,87

40,02

0

1

2 796,86

4,3

1 380,84

Приложение 2. Тестирующее множество

Х1

Х2

Х3

Х4

Х5

Х6

Х7

Х8

Х9

Х10

Х11

Х12

Х13

Х14

Х15

Y1

1

1381,29

28,11

114,54

8

1 644,99

1 865,74

12 553,02

1 329,82

5 984,33

40,08

0

0

2 822,81

4,3

1 382,64

2

1 382,64

28,06

116,72

8

1 666,30

1 888,60

12 569,79

1 345,20

5 989,99

40,06

0

1

2 835,30

4,3

1 383,41

3

1 383,41

27,98

114,02

8

1 650,68

1 876,81

12 290,14

1 314,55

5 928,61

40,24

0

1

2 769,19

4,3

1 382,67

4

1 382,67

27,96

115,88

8

1 658,39

1 883,09

12 248,55

1 312,94

5 847,92

40,35

0

1

2 773,31

4,3

1 377,80

5

1 377,80

28,04

115,49

8

1 633,02

1 858,08

12 240,39

1 311,34

5 855,01

40,31

1

0

2 798,92

4,3

1 389,09

Размещено на Allbest.ru


Подобные документы

  • Возможности программ моделирования нейронных сетей. Виды нейросетей: персептроны, сети Кохонена, сети радиальных базисных функций. Генетический алгоритм, его применение для оптимизации нейросетей. Система моделирования нейронных сетей Trajan 2.0.

    дипломная работа [2,3 M], добавлен 13.10.2015

  • Анализ применения нейронных сетей для прогнозирования ситуации и принятия решений на фондовом рынке с помощью программного пакета моделирования нейронных сетей Trajan 3.0. Преобразование первичных данных, таблиц. Эргономическая оценка программы.

    дипломная работа [3,8 M], добавлен 27.06.2011

  • Применение нейрокомпьютеров на российском финансовом рынке. Прогнозирование временных рядов на основе нейросетевых методов обработки. Определение курсов облигаций и акций предприятий. Применение нейронных сетей к задачам анализа биржевой деятельности.

    курсовая работа [527,2 K], добавлен 28.05.2009

  • Понятие искусственного интеллекта как свойства автоматических систем брать на себя отдельные функции интеллекта человека. Экспертные системы в области медицины. Различные подходы к построению систем искусственного интеллекта. Создание нейронных сетей.

    презентация [3,0 M], добавлен 28.05.2015

  • Технологии решения задач с использованием нейронных сетей в пакетах расширения Neural Networks Toolbox и Simulink. Создание этого вида сети, анализ сценария формирования и степени достоверности результатов вычислений на тестовом массиве входных векторов.

    лабораторная работа [352,2 K], добавлен 20.05.2013

  • История создания и основные направления в моделировании искусственного интеллекта. Проблемы обучения зрительному восприятию и распознаванию. Разработка элементов интеллекта роботов. Исследования в области нейронных сетей. Принцип обратной связи Винера.

    реферат [45,1 K], добавлен 20.11.2009

  • Эффективность применения нейронных сетей при выборе модели телефона. История искусственного интеллекта. Сущность нейросетевых технологий, обучение нейросимулятора. Пример выбора по определенным параметрам модели сотового телефона с помощью персептрона.

    презентация [93,8 K], добавлен 14.08.2013

  • Прогнозирование на фондовом рынке с помощью нейронных сетей. Описание типа нейронной сети. Определение входных данных и их обработка. Архитектура нейронной сети. Точность результата. Моделирование торговли. Нейронная сеть прямого распространения сигнала.

    дипломная работа [2,7 M], добавлен 18.02.2017

  • Основные отличия нейросетей от других методов. Неформализуемые и трудно формализуемые задачи. Моделирование интеллектуальной деятельности человека. Оценка стоимости квартир в Перми с использованием нейронных сетей. Проектирование и обучение нейросети.

    презентация [139,4 K], добавлен 14.08.2013

  • Разработка систем автоматического управления. Свойства нейронных сетей. Сравнительные оценки традиционных ЭВМ и нейрокомпьютеров. Формальная модель искусственного нейрона. Обучение нейроконтроллера при помощи алгоритма обратного распространения ошибки.

    реферат [1,4 M], добавлен 05.12.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.