Исследование возможности применения искусственных нейронных сетей для автоматического управления процессом металлизации

Изучение основных функций активации (пороговой, линейный, сигмоидный) элементов нейронных сетей и правил их обучения (Больцман, Хебб) сетей с целью разработки метода автоматизации процесса металлизации на базе адаптивного нейросетевого подхода.

Рубрика Производство и технологии
Вид дипломная работа
Язык русский
Дата добавления 31.05.2010
Размер файла 305,8 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Число контекстных нейронов равняется числу выходных нейронных элементов рекуррентной сети. В качестве выходного слоя таких сетей используются нейронные элементы с линейной функцией активации. Тогда выходное значение j-го нейронного элемента последнего слоя определяется по формуле:

где vij - весовой коэффициент между i-м нейроном промежуточного и j-м нейроном выходного слоев; pi(t) - выходное значение i-го нейрона промежуточного слоя; Tj - пороговое значение j-го нейрона выходного слоя.

Взвешенная сумма i-ro нейронного элемента промежуточного слоя определяется следующим образом:

где wji - весовой коэффициент между j-м нейроном входного и i-м нейроном промежуточного слоев;

р - число нейронов выходного слоя; wki - весовой коэффициент между k-м контекстным нейроном и i-м нейроном промежуточного слоя;

Тj - пороговое значение i-го нейрона промежуточного слоя;

n - размерность входного вектора.

Тогда выходное значение i-го нейрона скрытого слоя:

pi(t)=F(Si(t)) (5.2.1.)

В качестве функции нелинейного преобразования F обычно используется гиперболический тангенс или сигмоидная функция.

Другой вариант рекуррентной нейронной сети предложил Элман (Elman) в 1990 году.

В такой сети выходы нейронных элементов промежуточного слоя соединяются с контекстными нейронами входного слоя.

Тогда взвешенная сумма i-го нейронного элемента промежуточного слоя:

где т - число нейронов промежуточного слоя; pk(t-1) - выходное значение k-го нейрона промежуточного слоя.

Выходное значение k-го нейрона промежуточного слоя определяется следующим образом:

pk(t-1)=F(Si(t-1))(5.2.3.)

Для построения рекуррентных нейронных сетей можно использовать также два приведенных выше подхода.

В этом случае существуют обратные связи к контекстным нейронам, как от нейронных элементов выходного, так и промежуточного слоев.

Число контекстных нейронов входного слоя равняется общему числу нейронов промежуточного и выходного слоев. Тогда:

где p - число нейронов выходного слоя.

Рециркуляционные нейронные сети

Рециркуляционные сети характеризуются как прямым У = f (X), так и обратным Х = f (У) преобразованием информации. Задача такого преобразования - достижение наилучшего автопрогноза или самовоспроизводимости вектора Х. Рециркуляционные нейронные сети применяются для сжатия (прямое преобразование) и восстановления исходной (обратное преобразование) информации. Такие сети являются самоорганизующимися в процессе работы, где обучение производится без учителя. Они были предложены в 1988 г. Теоретической основой рециркуляционных нейронных сетей служит анализ главных компонент (principal component analysis). Этот метод применяется в статистике для сжатия информации без существенных потерь её информативности. Он состоит в линейном ортогональном преобразовании входного вектора X размерности n в выходной вектор Y размерности p, где p < n. При этом компоненты вектора Y являются некоррелированными ,и общая дисперсия после преобразования остаётся неизменной.

Рециркуляционная нейронная сеть представляет собой совокупность двух слоев нейронных элементов, которые соединены между собой двунаправленными связями (рис. 5.8).

Каждый из слоев нейронных элементов может использоваться в качестве входного или выходного. Если слой нейронных элементов служит в качестве входного, то он выполняет распределительные функции.

В противном случае нейронные элементы слоя являются обрабатывающими. Весовые коэффициенты, соответствующие прямым и обратным связям, характеризуются матрицей весовых коэффициентов W и W'. Для наглядности рециркуляционную сеть можно представить в развернутом виде, как показано на рис. 5.9.

Такое представление сети является эквивалентным и характеризует полный цикл преобразования информации. При этом промежуточный слой нейронных элементов производит кодирование (сжатие) входных данных X, а последний слой - восстановление сжатой информации Y. Слой нейронной сети, соответствующий матрице связи W, назовем прямым, а соответствующий матрице связей W' - обратным.

Рециркуляционная сеть предназначена для сжатия данных и восстановления сжатой информации. Сжатие данных осуществляется при прямом преобразовании информации в соответствии с выражением

Y=F(WTX) (5.2.5.)

Восстановление или реконструкция данных происходит при обратном преобразовании информации:

X=F(W'Y) (5.2.6.)

В качестве функции активации нейронных элементов F может использоваться как линейная, так и нелинейная функции. При использовании линейной функции активации.Релаксационные нейронные сети

Релаксационные нейронные сети характеризуются прямым и обратным распространением информации между слоями сети. В основе функционирования таких сетей лежит итеративный принцип работы. Он заключается в том, что на каждой итерации происходит обработка данных, полученных на предыдущем шаге. Такая циркуляция происходит до тех пор, пока не установится состояние равновесия. При этом состояния нейронных элементов перестают изменяться и характеризуются стационарными значениями. Для анализа устойчивости релаксационных нейронных сетей используются функции Ляпунова. Такие сети применяются в качестве ассоциативной памяти и для решения комбинаторных задач оптимизации. К релаксационным относятся нейронные сети Хопфилда, Хемминга, двунаправленная ассоциативная память и машина Больцмана.

В 1982 г. американский биофизик Д. Хопфилд (Hopfield) представил математический анализ релаксационных сетей с обратными связями. В основе анализа лежит теория изинговых спинов, которая используется для изучения ферромагнетиков при низких температурах. Поэтому такие нейронные сети получили название сетей Хопфилда.

Нейронная сеть Хопфилда характеризуется обратными связями. В ней каждый нейрон имеет синаптические связи со всеми остальными нейронами сети.

Архитектуру такой сети представим в виде двух слоёв нейронных элементов (рис. 5.10).

При этом первый слой является распределительным, а второй слой нейронных элементов осуществляет нелинейное преобразование взвешенной суммы:

где yi(t+1) - выходное значение i-го нейронного элемента в момент времени t+1; F - оператор нелинейного преобразования; Ti - пороговое значение i-го нейрона.

В матричной форме модель Хопфилда можно представить как:

Y(t+1)=F (S(t)); S(t)=WTY(t)-T (5.2.8.)

При этом используемые векторы имеют вид:

S=[S1, S2,…,Sn]T; Y=[y1, y2,…,yn]T; T=[T1, T2,…,Tn]T;

(5.2.9.)

В качестве матрицы весовых коэффициентов Хопфилд использовал симметричную матрицу (wij=wji) с нулевой главной диагональю (wii=0). Последнее условие соответствует отсутствию обратной связи нейронного элемента на себя. В качестве функции активации нейронных элементов F может служит как пороговая, и непрерывная функции, например сигмоидная или гиперболический тангенс.

Сеть Хопфилда может использоваться в качестве ассоциативной памяти. В этом случая она способна распознавать зашумлённые или искажённые образы. Для обучения нейронной сети Хопфилда используется правило Хебба.

В 1987 г. Р. Липпманом (Lippman) была предложена нейронная сеть Хэмминга (Hamming Network). Она представляет собой релаксационную, многослойную нейронную сеть с обратными связями между отдельными слоями. Сеть Хэмминга применяется в качестве ассоциативной памяти. При распознавании образов она использует в качестве меры близости расстояние Хэмминга. Весовые коэффициенты и пороги сети Хэмминга определяются из условия задачи, поэтому такая сеть является нейронной сетью с фиксированными связями.

Сеть Хэмминга является многослойной, состоящей из различных классов нейронных сетей. Пусть имеется m образов, каждый из которых имеет размерность n:

Тогда нейронная сеть Хэмминга будет состоять из сети с прямыми связями, сети Хопфилда и слоя выходных нейронов (рис. 5.11).

Сеть с прямыми связями состоит из n входных распределительных и m выходных нейронных элементов. Она вычисляет меру подобия между входными и эталонными образами, хранящимися в ней. В качестве меры подобия используется число одинаковых разрядов между входным и эталонным образом.

Сеть Хопфилда используется для разрешения возникающих конфликтов, когда входной паттерн является подобным нескольким эталонным образам, хранящимся в сети. При этом на выходе сети остаётся активным только один нейрон-победитель.

Выходной слой нейронной сети состоит из m нейронов, каждый из которых имеет пороговую функцию активации. Он предназначен для преобразования выходной активности нейрона-победителя сети Хэмминга в единичное значение. При этом значения всех остальных нейронов выходного слоя устанавливаются в нулевое состояние. Таким образом, происходит идентификация входного паттерна, который кодируется номером нейрона выходного слоя, имеющим единичное значение. Если входной образ не совпадает с эталонным, то на выходе сети Хэмминга будет формироваться такой эталонный паттерн, который имеет минимальное расстояние Хэмминга по отношению к выходному образу.

В 1988 г. Б. Коско предложил дальнейшее развитие сети Хопфилда - двунаправленную ассоциативную память, представляющей собой релаксационную сеть с циркуляцией информации.

Двунаправленная ассоциативная память состоит из двух слоёв нейронных элементов. Нейроны каждого из слоёв могут быть как входными, так и выходными. Архитектура двунаправленной ассоциативной памяти аналогична рециркуляционной нейронной сети (рис. 5.8). Однако принципы функционирования таких сетей разные.

4.2.3.2 Саморганизующиеся нейронные сети

Самоорганизующиеся нейронные сети (self-organising networks) характеризуются обучением без учителя, в результате которого происходит адаптация сети к решаемой задаче. К таким сетям относятся нейронные сети Кохонена, адаптивного резонанса и рециркуляционные сети (см. п. 5.2.3.1). В каждой из этих сетей самоорганизация происходит в результате различных механизмов обучения. Наиболее известными среди самоорганизующихся нейронных сетей являются сети, которые разработал в 80-х годах финский ученый Т.Кохонен (Kohonen). Нейронные сети Кохонена осуществляют топологическое упорядочивание входного пространства паттернов. Они широко применяются в задачах распознавания образов, оптимизации и управления.

Самоорганизующиеся нейронные сети используются для решения различных задач: кластеризации, векторного квантования, сокращения размерности входного пространства, выделения характерных признаков и т.д. При кластеризации входные образы группируются в кластеры, причем каждому кластеру ставится в соответствие отдельный нейрон. Векторное квантование применяется для сжатия данных. Для обучения самоорганизующихся нейронных сетей используется конкурентный метод, который был предложен в 1976 г. С. Гроссбергом (S. Grossberg) и затем развит в работах финского ученого Т. Кохонена (Т. Kohonen).

Сети адаптивного резонанса

Нейронные сети адаптивного резонанса были предложены С. Гроссбергом (S.Grossberg) в 1976 г. Они основываются на теории адаптивного резонанса (Adaptive Resonance Theory). В соответствии с ней такие нейронные сети называются ART-сетями. Резонанс в них происходит при идентификации какого-либо события или образа. В процессе функционирования ART-сетей в них происходит циркуляция информации до тех пор, пока не наступит состояния резонанса. Нейронные сети адаптивного резонанса обучаются без учителя и характеризуются самоорганизацией в процессе работы. Они могут использоваться для распознавания образов, обработки речевых сигналов и в задачах управления.

Теория адаптивного резонанса базируется на следующих основных принципах:

1. Адаптация входного паттерна к паттернам, хранящимся в сети, осуществляется при помощи резонанса.

2. Резонанс происходит при идентификации входного образа, когда он максимально совпадает с образом, хранящимся в сети. В процессе функционирования сеть резонирует до тех пор, пока не выделит паттерн наименее отличающийся от входного, или не зарезервирует новый класс.

3. В процессе адаптации входного паттерна к образам, имеющимся в сети, происходит его контрастное усиление. Оно характеризуется тем, что только отличительные особенности входного паттерна отображаются на синаптические веса. Это напоминает процесс биологической эволюции, когда отдельные признаки усиливаются, а другие ослабляются.

4. Хранение информации осуществляется в кратковременной (short-term-memory) и долговременной (long-term memory) памяти. Кратковременная память хранит входной паттерн, который должен быть декодирован, а долговременная соответствует образам, которые хранятся в нейронной сети.

Отсюда следует, что теория адаптивного резонанса имеет биологические предпосылки. Так, долговременная и кратковременная память соответствует типам памяти, которые имеются у человека. Явление резонанса играет большую роль, как при самоорганизации индивида, так и биологической системы.

Постановка задачи при распознавании образов методом адаптивного резонанса состоит в следующем. Необходимо найти такие синаптические векторы W1,W2,...,Wm, которые разбивают входное пространство паттернов на различные кластеры. Каждый кластер имеет размер, который характеризуется угловым расстоянием (рис. 5.15) и соответствующей ему величиной = cos , называемой параметром бдительности.

Если имеет маленькое значение, то входные векторы будут отображаться на большие кластеры, в противном случае на маленькие (рис. 5.15). В соответствии с параметром бдительности нейронная сеть должна каждый раз решать, принадлежит ли входной вектор уже имеющемуся кластеру, или резервировать для него новый кластер с соответствующим весовым вектором. Это обеспечивает, с одной стороны, пластичность сети, так как каждый раз сеть может реагировать на незнакомый образ и, с другой стороны, стабильность, так как уже идентифицированные кластеры не размываются посредством новых входных векторов.

Существуют различные модели нейронных сетей, основанных на теории адаптивного резонанса. В общем случае архитектура таких сетей представлена на рис. 5.16. Она состоит из двух слоев, которые соединены между собой прямыми и обратными синаптическими связями. Весовой вектор W характеризует прямые синаптические связи, а вектор V - обратные синаптические связи (рис. 5.16).

Информация, хранящаяся в этих связях, характеризует долговременную память (LTM), активизация нейронов каждого из слоев - кратковременную память (STM). При помощи конкурентного слоя входной паттерн отображается в соответствующий кластер.

Сравнивающий слой анализирует степень совпадения входного и выделенного сетью образа. При достаточной степени совпадения наступает резонанс, что соответствует идентификации образа.

Для описания функционирования и обучения таких сетей С. Гроссберг использовал дифференциальные уравнения. Используя функцию Ляпунова, С.Гроссберг доказал сходимость нейронных сетей, в основе которых лежит теория адаптивного резонанса.

4.2.4 Гибридные нейронные сети

Гибридные нейронные сети представляют собой объединение различного рода нейронных сетей и концепций их обучения. Они предназначены для решения различного рода задач, таких как распознавание образов, прогнозирование, аппроксимация функций и т. д.

Нейронные сети встречного распространения

Нейронные сети встречного распространения (Counterpropagation networks) были предложены в 1987 г. Р. Хечт-Нильсоном (Hecht-Nielsen). Они являются дальнейшим расширением нейронных сетей Кохонена и предназначены для аппроксимации функций. В отличие от сети Кохонена, которая разбивает входное n- мерное пространство на разные области, сеть встречного распространения ставит в соответствие каждой области числовое значение аппроксимируемой функции. Она характеризуется сочетанием двух подходов к обучению: с учителем и без учителя. Существуют различные варианты нейронных сетей встречного распространения, которые используют разные методы аппроксимации функций.

Нейронные сети с радиально-базисной функцией

Нейронные сети с радиально-базисной функцией (Radial Basis Function Network) являются дальнейшим развитием сетей встречного распространения. Они были предложены в 1989 г. и предназначены для решения задач распознавания образов, прогнозирования, сжатия данных и аппроксимации функций. Нейроны входного слоя выполняют распределительные функции. Промежуточный слой состоит из нейронов Кохонена. Каждый элемент скрытого слоя использует в качестве активационной функции радиальную базисную функцию типа гауссовой, а в качестве выходного слоя используются нейронные элементы с линейной функцией активации.

4.3 ОБУЧЕНИЕ НЕЙРОННЫХ СЕТЕЙ

4.3.1 Структура сети

Способность к обучению является фундаментальным свойством мозга. В контексте ИНС процесс обучения может рассматриваться как настройка архитектуры сети и весов связей для эффективного выполнения специальной задачи. Обычно нейронная сеть должна настроить веса связей по имеющейся обучающей выборке. Функционирование сети улучшается по мере итеративной настройки весовых коэффициентов. Свойство сети обучаться на примерах делает их более привлекательными по сравнению с системами, которые следуют определенной системе правил функционирования, сформулированной экспертами.

Теория обучения рассматривает три фундаментальных свойства, связанных с обучением по примерам: емкость, сложность образцов и вычислительная сложность. Под емкостью понимается сколько образцов может запомнить сеть, и какие функции и границы принятия решений могут быть на ней сформированы. Сложность образцов определяет число обучающих примеров, необходимых для достижения способности сети к обобщению. Слишком малое число примеров может вызвать переобученность сети, когда она хорошо функционирует на примерах обучающей выборки, но плохо - на тестовых примерах, подчиненных тому же статистическому распределению.

Для конструирования процесса обучения, прежде всего, необходимо иметь модель внешней среды, в которой функционирует нейронная сеть - знать доступную для сети информацию. Эта модель определяет парадигму обучения. Во-вторых, необходимо понять, как (по какому алгоритму) модифицировать весовые параметры сети - какие правила обучения управляют процессом настройки. Алгоритм обучения означает процедуру, в которой используются правила обучения для настройки весов. Эффективность обучения многослойных нейронных сетей зависит от числа слоев, числа элементов в скрытых слоях нейронной сети и начальной инициализации весовых коэффициентов. Разная инициализация весовых коэффициентов нейронной сети может приводить к различным решениям задачи. Важную роль здесь играет размер случайно инициализируемых синаптических связей. Так, для сигмоидной функции активации нейронных элементов, если весовые коэффициенты будут иметь большие значения (положительные или отрицательные), то выходная активность нейронных элементов будет близка к единице или нулю. Это приведет к тому, что процесс обучения остановится в ближайшем, локальном минимуме от стартовой точки. Рекомендуется случайно выбирать значения весовых коэффициентов, которые имеют следующий порядок:

где -- число нейронных элементов в слое .

Другой способ - случайным образом инициализировать весовые коэффициенты в диапазоне [-0,05; 0,05] или [-0,1; 0,1]. При этом пороговые значения нейронных элементов устанавливаются в начальный момент времени в единичные значения.

Большую роль для эффективности обучения играет архитектура нейронной сети. Размерность входного и выходного слоев нейронной сети определяется из условия решаемой задачи или обучающей выборки. Как было доказано в [16], при помощи трехслойной нейронной сети можно аппроксимировать любую функцию со сколь угодно заданной точностью. При этом точность аппроксимации зависит от числа нейронов в скрытом слое. Чем больше число нейронных элементов в скрытом слое, тем больше точность. Однако при слишком большой размерности скрытого слоя может наступить явление, называемое перетренировкой сети, так как слишком большое число нейронов в скрытом слое ухудшает обобщающие способности нейронных сетей. Поэтому число нейронных элементов в скрытом слое должно быть меньше числа тренировочных образцов. С другой стороны, при слишком малой размерности скрытого слоя можно попасть в нежелательный локальный минимум или процесс обучения будет слишком длительным. Поэтому здесь необходим разумный компромисс.

Для обеспечения требуемой точности и обобщающей способности можно использовать нейронную сеть с двумя скрытыми слоями, размерность которых меньше, чем при использовании трехслойной сети. Однако нейронные сети, которые имеют несколько скрытых слоев, обучаются значительно медленнее.

Исходя из проведенных в данном разделе рассуждений, можно сделать следующие выводы:

нейронная сеть с одним скрытым слоем позволяет осуществить любое отображение входных сигналов в выходные;

число нейронных элементов в промежуточном слое должно быть меньше числа тренировочных образцов;

мощность нейронной сети можно увеличивать как за счет числа нейронов в слое, так и за счет числа слоев. Если на нейронную сеть накладываются ограничения, и она не может решить поставленную задачу, то необходимо увеличивать число скрытых слоев нейронной сети;

случайная инициализация весовых коэффициентов нейронной сети должна проходить в достаточно узком диапазоне значений.

4.3.2 Алгоритмы обучения

Существуют три парадигмы обучения: "с учителем", "без учителя" (самообучение) и смешанная. В первом случае нейронная сеть располагает правильными ответами (выходами сети) на каждый входной пример. Веса настраиваются так, чтобы сеть производила ответы как можно более близкие к известным правильным ответам. Усиленный вариант обучения с учителем предполагает, что известна только критическая оценка правильности выхода нейронной сети, но не сами правильные значения выхода. Обучение без учителя не требует знания правильных ответов на каждый пример обучающей выборки. В этом случае раскрывается внутренняя структура данных или корреляции между образцами в системе данных, что позволяет распределить образцы по категориям. При смешанном обучении часть весов определяется посредством обучения с учителем, в то время как остальная получается с помощью самообучения.

Известны четыре основных типа правил обучения: коррекция по ошибке, машина Больцмана, правило Хебба и обучение методом соревнования.

Правило коррекции по ошибке

При обучении с учителем для каждого входного примера задан желаемый выход d. Реальный выход сети y может не совпадать с желаемым. Принцип коррекции по ошибке при обучении состоит в использовании сигнала (d-y) для модификации весов, обеспечивающей постепенное уменьшение ошибки. Чтобы реализовать эту процедуру, нам нужно изменять каждый вес на величину, пропорциональную скорости, с которой изменяется ошибка по мере изменения веса. Эта величина (называемая производной ошибки по весу и обозначаемая EW) вычисляется не просто. Один из способов вычисления EW заключается в том, чтобы изменить вес на очень маленькую величину и посмотреть, как изменится ошибка. Однако, этот метод не эффективен, поскольку требует отдельных вариаций для каждого из многих весов. Известны различные модификации этого алгоритма обучения (например, на базе одного из градиентных методов - метод обратного распространения ошибки).

Обучение Больцмана

Представляет собой стохастическое правило обучения, которое следует из информационных теоретических и термодинамических принципов. Целью обучения Больцмана является такая настройка весовых коэффициентов, при которой состояния видимых нейронов удовлетворяют желаемому распределению вероятностей. Обучение Больцмана может рассматриваться как специальный случай коррекции по ошибке, в котором под ошибкой понимается расхождение корреляций состояний в двух режимах.

Правило Хебба

Самым старым обучающим правилом является постулат обучения Хебба. Хебб опирался на следующие нейрофизиологические наблюдения: если нейроны с обеих сторон синапса активизируются одновременно и регулярно, то сила синаптической связи возрастает. Важной особенностью этого правила является то, что изменение синаптического веса зависит только от активности нейронов, которые связаны данным синапсом. Это существенно упрощает цепи обучения.

Обучение методом соревнования

В отличие от обучения Хебба, в котором множество выходных нейронов могут возбуждаться одновременно, при соревновательном обучении выходные нейроны соревнуются между собой за активизацию. Это явление известно как правило "победитель берет все". Подобное обучение имеет место в биологических нейронных сетях. Обучение посредством соревнования позволяет кластеризовать входные данные: подобные примеры группируются сетью в соответствии с корреляциями и представляются одним элементом. При обучении модифицируются только веса "победившего" нейрона. Эффект этого правила достигается за счет такого изменения сохраненного в сети образца (вектора весов связей победившего нейрона), при котором он становится чуть ближе к входному примеру.

В таблице 2 представлены различные алгоритмы обучения и связанные с ними архитектуры сетей (список не является исчерпывающим). В последней колонке перечислены задачи, для которых может быть применен каждый алгоритм. Каждый алгоритм обучения ориентирован на сеть определенной архитектуры и предназначен для ограниченного класса задач. Кроме рассмотренных, следует упомянуть некоторые другие алгоритмы: Adaline и Madaline , линейный дискриминантный анализ , проекции Саммона, анализ главных компонентов .

4.3.2 Алгоритм обратного распространения ошибки

Математические основы алгоритма

Примерно в 1974 году Поль Дж. Вербос изобрел значительно более эффективную процедуру для вычисления EW, когда работал над своей докторской диссертацией в Гарвардском университете. Процедура, известная теперь как алгоритм обратного распространения (back propagation algorithm), стала одним из наиболее важных инструментов в обучении нейронных сетей.

Алгоритм обратного распространением проще всего понять, когда все элементы сети линейны. Алгоритм вычисляет каждую EW, сначала вычисляя EA - скорость, с которой изменяется ошибка при изменении уровня активности элемента. Для выходных элементов EA является просто разностью между действительным и желаемым выходом. Чтобы вычислить EA для скрытого элемента в слое, непосредственно предшествующем выходному слою, мы сначала идентифицируем все веса между этим скрытым элементом и выходными элементами, с которыми соединен данный скрытый элемент. Затем мы умножаем эти веса на величины EA для этих выходных элементов и складываем полученные произведения. Эта сумма и равна EA для данного скрытого элемента. Вычислив EA для всех элементов скрытого слоя, прилегающего к выходному, мы можем аналогичным образом рассчитать EA и для других слоев, перемещаясь в направлении, обратном тому направлению, в котором активность нейронов распространяется по сети. Отсюда и название алгоритма обратного прослеживания (или обратного распространения). После того как значение EA для элемента вычислено, подсчитать EW для каждой входной связи элемента уже несложно. Величина EW является произведением EA и активности во входной цепи.

Для нелинейных элементов алгоритм обратного распространения включает дополнительный шаг. Перед перемещением в обратном направлении EA необходимо преобразовать в EI - скорость, с которой изменяется ошибка по мере изменения суммарного входа элемента.

Чтобы реализовать этот алгоритм, мы сначала должны дать математическое описание нейронной сети. Рассмотрим нейронную сеть, состоящую из четырех слоев (рис. 5.17). Обозначим слои нейронных элементов от входа к выходу соответственно через . Тогда выходное значение -го нейрона последнего слоя:

где - взвешенная сумма -го нейрона выходного слоя; - выходное значение -го нейрона предпоследнего слоя; - весовой коэффициент -го нейрона выходного слоя; - порог -го нейрона выходного слоя.

Аналогичным образом выходное значение -го нейрона предпоследнего слоя:

Соответственно для -го слоя:

Алгоритм обратного распространения ошибки минимизирует среднеквадратичную ошибку нейронной сети. Для этого с целью настройки синаптических связей используется метод градиентного спуска в пространстве весовых коэффициентов и порогов нейронной сети. Согласно методу градиентного спуска изменение весовых коэффициентов и порогов нейронной сети происходит по следующему правилу:

где - среднеквадратичная ошибка нейронной сети для одного набора значений входов.

Эта среднеквадратичная ошибка определяется по формуле:

где - эталонное выходное значение -го нейрона.

Ошибка -го нейрона выходного слоя:

Ошибка некоторого -го нейрона произвольного слоя сети зависит от ошибки нейронных элементов следующего слоя и определяется по формуле:

где и - выходное значение -го и -го нейрона соответственно; - взвешенная сумма -го нейрона.

Принимая во внимание:

получаем, что для любого скрытого слоя i ошибка i-го нейронного элемента определяется рекурсивным образом через ошибки нейронов следующего слоя j по следующей формуле:

где m - число нейронов следующего слоя по отношению к слою i.

Аналогичным образом доказывается, что производные среднеквадратичной ошибки по весовым коэффициентам и порогам нейронных элементов для любых двух слоев i и j определяются по формулам:

Из последних формул очевидно, что для минимизации среднеквадратичной ошибки сети весовые коэффициенты и пороги нейронных элементов должны изменяться с течением времени следующим образом:

где - скорость обучения.

Последние два выражения () и () определяют правило обучения многослойных нейронных сетей в общем виде, которое называют обобщенным дельта-правилом.

Недостатки алгоритма обратного распространения ошибки

Алгоритм обратного распространения ошибки, в основе которого лежит градиентный метод, создает ряд проблем при обучении многослойных нейронных сетей. К таким проблемам можно отнести следующие:

неизвестность выбора числа слоев и количества нейронных элементов в слое для многослойных сетей;

медленную сходимость градиентного метода с постоянным шагом обучения;

сложность выбора подходящей скорости обучения . Так, слишком малая скорость обучения увеличивает время обучения и приводит к скатыванию нейронной сети в локальный минимум. Большая скорость обучения может привести к пропуску глобального минимума и сделать процесс обучения расходящимся;

невозможность определения точек локального и глобального минимумов, так как градиентный метод их не различает;

влияние случайной инициализации весовых коэффициентов нейронной сети на поиск минимума функции среднеквадратичной ошибки.

Последний пункт отражает, что при разной инициализации синаптических связей могут получаться различные решения задачи. Это характеризует неустойчивость алгоритма обучения, когда нейронная сеть в одних случаях может обучаться до требуемой суммарной среднеквадратичной ошибки, а в других нет. То, что алгоритм обратного распространения ошибки не позволяет в общем случае достичь глобального минимума, не умаляет его достоинств, так как во многих практических задачах достаточно обучить нейронную сеть до требуемой среднеквадратичной ошибки. Является ли при этом найденный минимум локальным или глобальным, не имеет большого значения.

Адаптивный шаг обучения

Ранее отмечалось, что в стандартном алгоритме обратного распространения ошибки существует проблема выбора подходящего шага обучения, чтобы увеличить быстродействие и обеспечить сходимость алгоритма. Для выбора адаптивного шага обучения можно использовать метод наискорейшего спуска [4]. В соответствии с ним на каждой итерации обучения нейронной сети необходимо выбирать шаг обучения для каждого слоя таким, чтобы минимизировать среднеквадратичную ошибку сети:

где ; -- число нейронных элементов последнего слоя.

Выходное значение j-го нейрона зависит от функции активации нейронных элементов и в общем случае определяется следующим образом:

При этом весовые коэффициенты и пороги нейронной сети модифицируются, как:

Среднеквадратичная ошибка нейронной сети:

Тогда для нахождения (t) необходимо решить следующее уравнение:

Данное уравнение невозможно решить относительно (t) аналитическим путем. Поэтому в ряде работ для определения адаптивного шага обучения предлагается использовать методы линейного поиска [14]. Однако это связано со значительными вычислениями. Поэтому можно предложить приближенный метод нахождения скорости обучения (t). Он базируется на разложении функции активации нейронных элементов в ряд Тейлора.

Пусть выходное значение j-го нейрона последнего слоя нейронной сети

где -- выходное значение -го нейрона скрытого слоя.

Для определения взвешенной суммы -го нейрона в момент подставим в (111) выражения (222) и (333):

Обозначим:

Тогда можно представить в следующем виде:

Выходное значение j-го нейрона в момент времени t +1:

Разложим по формуле Тейлора и ограничимся первыми двумя членами:

Тогда

Так как

то (888) можно переписать в виде

Для обеспечения адаптивного шага обучения необходимо обеспечить:

Тогда

Откуда

Так как , то при данном обеспечивается минимум среднеквадратичной ошибки. Найдем выражение для . Для этого определим:

получим:

Исходя из принципа независимости слоев, предполагаем, что

получим приближенное выражение для вычисления адаптивного шага обучения различных слоев нейронной сети:

где -- ошибка -го нейронного элемента..

Следует отметить, что в приведенном выше выражении вычисляется отдельно для каждого слоя нейронной сети. Как показывают эксперименты, при использовании адаптивного шага обучения могут получаться слишком большие значения . Это может привести к десинхронизации процесса обучения, когда весовые коэффициенты резко изменяются в определенном направлении. В результате изменение среднеквадратичной ошибки с течением времени будет иметь колебательный характер. Поэтому рекомендуется ограничивать по абсолютному значению. Полученное выше выражение для адаптивного шага обучения позволяет значительно повысить скорость обучения нейронной сети и избежать выбора подходящего шага. Это является существенным преимуществом по сравнению со стандартным алгоритмом обратного распространения ошибки. Хотя при удачном выборе постоянного шага обучения данный алгоритм будет сходиться не быстрее, чем метод градиентного спуска.

5. ЭКОНОМИЧЕСКАЯ ЧАСТЬ

5.1 ВВЕДЕНИЕ

Экономическое планирование является нормой любой деятельности, направленной на получение прибыли. Исследования по использованию новых технологий в металлургии имеют экономические предпосылки. В связи с этим желательно предусмотреть в рамках исследовательской работы оценку экономической эффективности новых методов, которая могла бы служить в дальнейшем основанием для проектного решения по этой проблеме.

Как метод экономического планирования выберем составление бизнес-плана. Бизнес-план выступает как объективная оценка собственной деятельности предприятия и, в то же время, необходимый инструмент проектно - инвестиционных решений в соответствии с потребностями рынка. В нем характеризуются основные аспекты коммерческого предприятия, анализируются проблемы, с которыми оно столкнется, и определяются способы их решения. Следовательно, бизнес-план - одновременно поисковая, научно-исследовательская и проектная работа.

Цель бизнес-плана может быть разная, Например, получение кредита или привлечение инвестиций, определение стратегических и тактических ориентиров предприятия и др.

В зависимости от рыночной ситуации цели составления бизнес-плана могут быть различны. Вследствие этого бизнес-планы по объектам бизнеса можно классифицировать в соответствии со схемой (см. приложение 10). Бизнес-планы разрабатываются в различных модификациях в зависимости от назначения: по бизнес линиям (продукция, работы, услуги, технические решения), по предприятию в целом (новому или уже действующему). Бизнес-план может быть нацелен как на развитие предприятия, так и на его финансовое оздоровление. Также может планироваться деятельность всего предприятия или его отдельного подразделения.

Необходимо отметить, что различные экономисты выделяют несколько разные структуры бизнес-планов, однако, все они имеют приблизительно одинаковое строение. Такая структура представлена в приложении 12.

5.2 РАЗРАБОТКА БИЗНЕС-ПЛАНА

5.2.1 Концепция

Целью данного исследования является развитие производственного подразделения. Возможность решения может быть предоставлена внутренними ресурсами предприятия. Проект развития, в основе которого лежат выше проведённые исследования позволит:

снизить расход топлива и энергоносителей;

снизить себестоимость продукции;

повысить производительность и качество;

на много увеличить надёжность работы;

Для реализации проекта потребуются капитальные затраты в размере 3 648 600,00 руб., срок окупаемости которых составит 1,2 года и по истечение пяти лет даст планируемую прибыль 13 636 733,84.

5.2.2 Краткая информация о предприятии

Открытое Акционерное Общество Оскольский электрометаллургический комбинат (ОАО "ОЭМК") - это частное предприятие, вышестоящим органом которого является собрание акционеров.

Адрес: 309500, Белгородская обл., г. Старый Оскол - 15.

E-mail: oemk@oskolnet.ru

http://www.oemk.oskol.ru

5.2.3 Характеристика предприятия и продукции

ОЭМК являет собой интегрированное (с полным циклом) металлургическое предприятие, предназначенное для производства высококачественной металлопродукции из стали, выплавленной из металлизованных окатышей (с добавкой металлолома), производство которых, как и производство окисленных окатышей, входит в состав комбината.

Основные достоинства ОЭМК:

1. Принципиально новая технология производства металла, основанная на прямом получении железа из руды по способу "Мидрекс", позволяет исключить из состава комбината такие сильные источники загрязнения атмосферы, как аглофабрика, коксохимическое производство, доменный цех. Практически отсутствуют выбросы в атмосферу серы, фенолов, цианидов и других вредных веществ. Исключение из процесса жидких высоконагретых продуктов при восстановлении окисленных окатышей улучшает условия труда рабочих.

2. Применение металлизованных окатышей в качестве основного шихтового материала для производства стали позволяет получать металл нового уровня качества, особо чистый по содержанию вредных примесей и примесей цветных металлов (в два-три раза ниже, чем в металле, выплавленном традиционными методами). Это особенно важно в связи с возрастающим загрязнением металлолома. Среднее содержание остаточных элементов в стали, выплавленной из металлизованных окатышей, составляет в процентах: серы - 0,006; фосфора - 0,008; никеля - 0,05; меди - 0,06. Впервые регламентировано содержание остаточных цветных металлов в процентах: свинца - менее 0,003; цинка - менее 0,004; сурьмы - менее 0,003; олова - менее 0,01; висмута - менее 0,005.

3. Выплавка высококачественной стали из металлизованных окатышей в сверхмощных электродуговых печах с непрерывной разливкой металла в заготовки сечением 300х360 мм. Выплавка производится в электропечах вместимостью 150 т. с трансформатором мощностью 90 МВА. Для снижения вредных воздействий на окружающую среду электропечь заключена в шумоизолирующий кожух. Материалы по программе подаются в печь или ковш, окатыши и известь в процессе плавки загружаются непрерывно через отверстие в своде печи.

4. Применение системы гидротранспорта для поставки железорудного концентрата (пульпы). Исключены железнодорожный транспорт, парк вагонов, операции погрузки и разгрузки, потери металлов, ручной труд. Процесс бесшумен, легко поддается контролю, регулированию и автоматизации. Транспорт не зависит от природы.

5. Использование для межцеховых и внутрицеховых перевозок не железнодорожного транспорта, а конвейерных систем и специального автотранспорта. Это позволило более компактно расположить цехи, повысить гибкость управления их работой.

6. Использование при обезвоживании концентрата блочной системы фильтрации, при которой каждый фильтр обслуживает отдельный вакуумный насос, что повышает качество фильтрации и стабильность работы оборудования при повышении энерговооруженности процесса.

7. Эксплуатация электро-газовых подстанций на 330/110 и 110/10 кВ повышает надежность работы оборудования и сокращает площади для подстанций. Использование современного оборудования, сырья нового качества и прогрессивных технологических приемов производства и контроля качества (металлизованные окатыши, внепечная обработка жидкого металла, защита от вторичного окисления металла на МНЛЗ, автоматическое поддержание уровня металла в кристаллизаторах, использование шиберных затворов на промежуточных ковшах, водовоздушное вторичное охлаждение заготовок, регламентированное охлаждение литой заготовки, термообработка, обточка, установки неразрушающего контроля проката) позволяют гарантированно получать металлопродукцию заданного высокого качества.

Металлопродукция ОЭМК:

Окатыши металлизованные термически пассивированные

Непрерывнолитая заготовка сечением 300х360 мм, длиной 4,2-11,8 м

Квадратная заготовка для переката со стор. 70-125 мм, длин. 9,1-11,8м

Сортовой прокат диаметром 80-160 мм, длиной 4,5-5,9 м и 9,1-11,8 м

Трубная заготовка диаметром 80-160 мм, длиной 9,1-11,8 м

Основные преимущества металла ОЭМК:

Особая чистота металла по содержанию вредных примесей и газов (кислород, азот).

Высокая точность проката по диаметру и кривизне.

Высокая технологическая пластичность металла при горячей и холодной деформации, которая на 10-50% выше, чем на обычном металле, что позволяет обеспечить осадку в горячем и холодном состоянии до 1/4 первоначальной высоты и специальные виды технологических испытаний. Это дает возможность гарантировать отсутствие дефектов при изготовлении деталей у потребителей.

Особенно явно преимущества металла ОЭМК выявляются в мелкосортном и среднесортном прокате. Такой металл обеспечивает осадку на 80-85%, что не может быть достигнуто на любом другом металле и не нормируется ни в отечественных, ни в зарубежных стандартах. При переработке расход металла снижается на 150-200 кг/т, расход инструмента - в 1,3-2,5 раза.

Повышенные механические и пластические свойства (относительное удлинение и сужение выше на 10-20%, ударная вязкость - на 20%, особенно повышается ударная вязкость при пониженных температурах).

Высокая чистота поверхности проката.

Низкая прокаливаемость, суженные пределы по химическому составу обеспечивают лучшую технологичность при термической обработке металла у потребителей.

Повышенная долговечность деталей.

Редукторы заднего моста и коробки передач автомобилей с деталями из металла ОЭМК имеют изгибно-усталостную прочность шестерен на 20-30% выше, сопротивление усталости коленчатых валов из металла ОЭМК на 30% выше, чем на обычном металле.

Котельные трубы имеют долговечность на 50% выше, чем из обычного металла, стойкость колец подшипников и тел качения из непрерывно-литой заготовки ОЭМК значительно превышает нормируемый показатель.

Все потребители металла ОЭМК подтверждают его высокое качество и эффективность использования для уменьшения брака, снижения расхода металла и инструмента, повышения других показателей, отказа от закупок по импорту. Фирмой TUV CERT (Германия) сертифицированы:

система качества ОЭМК по Международному стандарту ИСО 9002;

непрерывнолитая заготовка, сортовой прокат и трубная заготовка по техническим правилам AD-WO\TRD 100;

арматурные марки стали на знак "U".

ОЭМК является одним из крупнейших в мире металлургических предприятий, производящих металлопродукцию на базе процесса прямого получения железа. Продукция ОАО "ОЭМК" хорошо известна не только на внутреннем, но и на внешнем рынке. Основными потребителями являются машиностроительные, экскаваторные, тракторные, автомобильные, трубные и подшипниковые заводы, в том числе такие крупные как ЗИЛ, ГАЗ, КАМАЗ, БелавтоМАЗ. Благодаря высокому качеству продукция комбината высоко ценится потребителями и уверенно выходит на мировой рынок металла. С 1989 года комбинат экспортирует продукцию в Южную Корею, Тайвань, США, Италию, Югославию и другие страны.

Основными потребителями металлопродукции комбината на внутреннем рынке являются предприятия топливно-энергетического комплекса, тяжелого и автомобильного машиностроения, подшипниковые заводы:

Первоуральский новотрубный завод (ПНТЗ)

Синарский трубный завод (СинТЗ)

Волжский трубный завод

Белорусский металлургический завод (БМЗ)

АвтоВАЗ

ГАЗ

УАЗ

Челябинский трубопрокатный завод (ЧТПЗ)

Орловский сталепрокатный завод (ОСПАЗ)

Череповецкий сталепрокатный завод (ЧСПЗ)

Из металла ОЭМК изготавливаются шестерни, коленчатые валы, оси, толкатели, втулки, подшипники, котельные трубы, трубы нефтяного сортамента и др. Особенно успешно металл применяется при производстве деталей методами холодной высадки (степень осадки 75%), горячей штамповки, формовки в условиях сложной пластической деформации. Высокопластичные стали эффективны для производства крепежных изделий методом холодной высадки без подготовительной термообработки сортового проката и термообработки готовой продукции.

Благодаря высокому качеству продукция комбината высоко ценится потребителями и уверенно выходит на мировой рынок металла.

5.2.4. План производства

Производство окисленных окатышей

Цех окомкования производит окисленные окатыши из железорудного концентрата Лебединского горнообогатительного комбината, транспортируемого на комбинат по пульпопроводу в виде пульпы на расстояние 26,5 км.Из пульпы на дисковых вакуумных фильтрах получают кек, из которого в свою очередь получают окатыши.

Обжиг окатышей производится на конвейерной машине площадью 480 м2. Производительность цеха окомкования 2600 тыс. т. в год. Окисленные окатыши имеют размер 5-20 мм, содержание железа в окатышах не менее 67%, кремнезема - не более 3,3%, прочность - не менее 250 кг/окатыш.

Производство металлизованных окатышей

Окисленные окатыши по транспортерам поступают в шахтные печи цеха металлизации. Цех металлизации производит металлизованные окатыши из окисленных окатышей по технологии Мидрекс - нагретым восстановительным газом, полученным из природного газа после его конверсии в реформерах. В цехе имеются четыре установки металлизации общей производительностью 1800 тыс. тонн в год, на которых производятся пассивированные металлизованные окатыши, которые передаются в электросталеплавильный цех комбината, и отгружаются другим металлургическим заводам, а также на экспорт. Они пригодны для перевозки в открытых вагонах, речным и морским транспортом. Таким образом, план производства продукции представлен на рис. 6.1.

Металлизованные термически пассивированные окатыши ОЭМК - это высококачественное металлургическое сырье, полученное в установках металлизации по специальной технологии, обеспечивающей низкую склонность к вторичному окислению при увлажнении. Владельцем "ноу-хау" технологии пассивации металлизованных окатышей является ОЭМК.

Достоинством окатышей являются:

высокое содержание железа;

широкий диапазон регулирования степени металлизации и содержания углерода;

низкое содержание серы, фосфора и цветных металлов;

низкая склонность к вторичному окислению.

Рис. 5.1. План производства продукции ОЭМК

Таблица 5.1. Химический состав металлизованных окатышей, вес %:

Fe общ.

90,0 (минимум)

Cao+SiО2

6,0 (максимум)

Fe мет.

86,0 (минимум)

S

0,005 (максимум)

С

1,2 (минимум)

P

0,015 (максимум)

Содержание остаточных элементов и примесей цветных металлов (Cu, Ni, As, Sn, Pb, Zn, Sb, Biи т.д.) в металлизованных окатышах в10 и более раз ниже, чем в металлоломе.

Таблица 5.2. Физические свойства:

Средний размер - 5-20мм

Прочность - более 100 кг/окатыш

Насыпной вес - 1,9 - 2,1 т/м3

5.2.5 Вспомогательные цеха и службы

Работа основных цехов комбината обеспечивается энергетическим и ремонтно-механическим хозяйством в составе электроэнергоремонтных и механоремонтных цехов.

Техническое управление охватывает все основные производства комбината, оснащено современным химико-аналитическим, контрольно-испытательным, металлографическим и специальным исследовательским оборудованием, изготовленным ведущими фирмами ФРГ, Японии и др., и имеет большие возможности для проведения исследований по различным направлениям.

5.2.6 Автоматизация производства

ОЭМК - это высокоавтоматизированное производство. Интегрированная автоматизированная система управления комбинатом является многоуровневой и построена по иерархическому принципу.

Верхний уровень управления комбинатом поддерживается информационной системой класса ERP на базе R/3 SAP, которая совместно с локальными цеховыми системами обеспечивает выполнение основных бизнес-процессов.

Цеховые системы автоматизации, в свою очередь, имеют три уровня:

на уровне цеховых АСУ решаются задачи сменно-суточного планирования выплавки стали и производства проката, слежения за металлом на всех переделах производства, формирования базы данных по технологическим маршрутам обработки металла, анализа данных, выдачи отчетных документов;

на следующем уровне реализуются программы автоматизированного управления технологическими процессами и основными агрегатами (электродуговыми и термическими печами, машинами непрерывной разливки стали, прокатными клетями и т.д.);

на уровне базисной автоматизации решаются задачи локального управления и регулирования, а также сбора и первичной обработки информации о ходе технологического процесса и сопряжения с другими системами.

Интеграцию всех автоматизированных систем в единое информационное пространство обеспечивает отказоустойчивая и высокоскоростная корпоративная оптоволоконная сеть.

5.2.7 Персонал и управление

Центральное место в материальном стимулировании результатов труда занимает организация заработной платы. Организация заработной платы производится в соответствии с требованиями ряда объективных экономических законов (в частности, закона повышения производительности труда).

Статьей 132 КЗоТ закреплено положение о том, что размер оплаты труда работника зависит только от его личного трудового вклада, качества труда и не ограничивается максимум. На предприятиях и в организациях всех отраслей промышленности России действует государственный документ - "Единый тарифно-квалификационный справочник работ и профессий" (ЕТКС).

Организационная структура управления цехом окомкования и металлизации представлена на рис. 6.2.

5.2.8 Финансовый план

При определении экономического аспекта эффективности капитальных вложений должен достигаться наиболее полный учет затрат в основные и смежные производства, должна быть выявлена общая сумма эффекта от этих затрат как у производителя, так и у потребителя.


Подобные документы

  • Анализ научных разработок в области прогнозирования качества продукции и оценка математических методов решения статистических задач. Разработка структуры нейронной сети. Прогнозирование качества швейных изделий с использованием аппарата нейронных сетей.

    дипломная работа [3,9 M], добавлен 14.04.2013

  • Классификация методов металлизации железорудного сырья: на конвейерных машинах и комбинированных установках. Схема процесса при работе на руде или сырых окатышах. Реторта для металлизации по способу "Охалата и Ламина". Очистка природного газа от серы.

    курсовая работа [619,6 K], добавлен 06.05.2014

  • Понятие и основные этапы вакуумной металлизации как процесса формирования покрытий путем испарения металлов в вакууме и конденсации их на поверхности полимеров. Главные условия эффективного применения данной методики. Свойства полимерных материалов.

    курсовая работа [178,2 K], добавлен 12.03.2016

  • Изготовление печатных плат с учетом современной практики печатного монтажа. Метод металлизации сквозных отверстий - сочетание химического метода в изготовлении внутренних слоев и позитивного метода при металлизации отверстий и изготовлении наружных слоев.

    контрольная работа [10,7 M], добавлен 01.08.2009

  • Определение оптимальных режимов резания для технологической обработки металлов. Расчет времени для технического нормирования операции. Сущность и применение процесса высокочастотной металлизации. Характеристика применяемого оборудования для металлизации.

    контрольная работа [154,8 K], добавлен 06.01.2011

  • Восстановления железа газовыми восстановителями. Характеристика сырья, используемого в процессе ХИЛ III. Технология получения восстановительного газа. Методы расчета баланса твердых веществ в процессе металлизации. Тепловое излучение и организм человека.

    дипломная работа [130,9 K], добавлен 06.05.2015

  • Сущность и назначение диффузионной металлизации. Виды диффузионной металлизации. Температура рекристаллизации меди и свинца. Явление наклепа металлов. Схема резания при зенкеровании. Превращения в твердом состоянии. Обработка давлением чистых металлов.

    контрольная работа [242,6 K], добавлен 08.04.2014

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.