Оптимальная система автоматического управления линейным объектом второго порядка
Модели оптимальных систем автоматического управления с объектами, динамика которых описывается линейными дифференциальными уравнениями второго порядка. Моделирование объекта с передаточной функцией. Расчет стоимости разработки программы. Расчет освещения.
Рубрика | Экономико-математическое моделирование |
Вид | дипломная работа |
Язык | русский |
Дата добавления | 24.04.2013 |
Размер файла | 1,8 M |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
105
Размещено на http://www.allbest.ru/
ОГЛАВЛЕНИЕ
АННОТАЦИЯ
ВВЕДЕНИЕ
1. КЛАССИФОИКАЦИЯ ОПТИМАЛЬНЫХ СИСТЕМ АВТОМАТИЧЕСКОГО УПРАВЛЕНИЯ
1.1 Критерии оптимального управления
1.2 Условия трансверсальности
1.3 Типы задач
1.4 Методы решения задач синтеза оптимальных систем
1.4.1 Вариационное исчисление
1.4.2 Принцип максимума
1.4.3 Динамическое программирование
2. РАСЧЕТ ОПТИМАЛЬНЫХ СИСТЕМ АВТОМАТИЧЕСКОГО УПРАВЛЕНИЯ ОБЪЕКТОВ II ПОРЯДКА ПО БЫСТРОДЕЙСТВИЮ
2.1 Представление объектов в пространстве состояний
2.2 Синтез системы объекта с
2.3 Синтез системы объекта с
2.4 Синтез системы объекта с
3. МОДЕЛИРОВНИЕ ОПТИМАЛЬНЫХ СИСТЕМ АВТОМАТИЧЕСКОГО УПРАВЛЕНИЯ
3.1 Описание пакета "20-sim Pro 2.3"
3.2 Моделирование объекта с передаточной функцией
3.3 Моделирование объекта с передаточной функцией
3.4 Моделирование объекта с передаточной функцией
4. ЭКОНОМИЧЕСКОЕ ОБОСНОВАНИЕ РАЗРАБОТКИ ПРОГРАММЫ
4.1 Стоимость одного машинного времени
4.2 Расчет стоимости разработки программы
4.3 Цена программного продукта
4.4 Расчет экономической эффективности от внедрения программы.
5. БЕЗОПАСНОСТЬ И ЭКОЛОГИЧНОСТЬ ПРОЕКТНЫХ РЕШЕНИЙ
5.1 Организация рабочего места и обеспечение безопасности при использовании ЭВМ
5.2 Мероприятия, обеспечивающие комфортные условия труда
5.3 Установления микроклимата производственной среды в лабораториях использующих ЭВМ
5.4 Мероприятия по борьбе с шумом и вибрациями
5.5 Освещение рабочего места
5.6 Расчет освещения
ЗАКЛЮЧЕНИЕ
ЛИТЕРАТУРА
ПРИЛОЖЕНИЯ
АННОТАЦИЯ
Дипломная работа посвящена исследованию на модели оптимальных систем автоматического управления с объектами, динамика которых описывается линейными дифференциальными уравнениями второго порядка.
Из всего класса оптимальных систем выбраны системы оптимальные по быстродействию. Моделирование этих выполнено с использованием с использованием программного продукта "20-sim Pro 2.3".
В дипломной работе так же рассмотрены вопросы экологии и безопасности жизнедеятельности. Включен экономический
ANNOTATION
Degree work is dedicated to study on models of the optimum systems of the autocontrol with object, which track record is described by linear differential equations of the second order.
Systems optimum are chose In current whole of class of the optimum systems on speed. Modeling these are executed with use with use the programmer product "20-sim Pro 2.3".
In degree work in the same way considered questions to ecologies and safety to vital activity. It is Enclosed economic
ВВЕДЕНИЕ
Бурное развитие техники, интенсификация производства, необходимость увеличения производительности труда выдвинули перед учеными и инженерами, работающими в области автоматики, задачи создания высококачественных систем автоматического управления, которые способны решать все более сложные задачи управления и заменить человека в сложных сферах его деятельности.
Параллельно с развитием техники развивалась и общая теория управления -- техническая кибернетика, являющаяся базой современной автоматики информационных технологий. Одним из важнейших направлений технической кибернетики является теория оптимальных автоматических систем, которая зародилась в конце сороковых годов. Под оптимальной САУ понимается наилучшая в известном смысле система. Решение проблемы оптимальности позволит довести до максимума эффективность использования производственных агрегатов, увеличить производительность и качество продукции, обеспечить экономию энергии и ценного сырья и т. д.
Во многих аспектах техники управления существуют проблемы оптимальных систем. Это -- задачи построения оптимальных по быстродействию САУ, задачи оптимальной фильтрации сигнала, принимаемого на фоне помех, задачи построения оптимальных прогнозирующих устройств, оптимальных методов распознавания образов, оптимальной организации автоматического поиска и т. д. Между всеми этими различными на первый взгляд задачами имеется внутренняя связь, которая является базой для построения единой теории оптимальных систем [1].
Критерии оптимальности, на основе которых строится система, могут быть различны и зависят от специфики решаемой задачи. Это могут быть производительность, экономичность, надежность. Для процессов в САУ критериями могут быть: время регулирования, вид кривой переходного процесса, точность воспроизведения входного сигнала при наличии помех и т. п.
Значение теории оптимальных систем для практики исключительно велико. Без нее весьма трудно создавать оптимальные и близкие к оптимальным САУ. Теория оптимальных систем позволяет оценить тот предел, который может быть достигнут в оптимальной системе, сравнить ее с показателями действующей неоптимальной системы и выяснить целесообразность в рассматриваемом случае заниматься разработкой оптимальной системы.
Наибольшее развитие в современной теории оптимальных САУ получили два направления. Первое -- теория оптимального управления движением системы в фазовом пространстве; второе--теория оптимального управления системами при воздействии случайных сигналов и помех.
Принципы оптимального управления получают все большее распространение на практике. Они позволили создать новые автоматические регуляторы, следящие системы и многие другие технические устройства и достигнуть существенного прогресса в их основных свойствах [4].
1. КЛАССИФИКАЦИЯ ОПТИМАЛЬНЫХ СИСТЕМ АВТОМАТИЧЕСКОГО УПРАВЛЕНИЯ
1.1 Критерии оптимального управления
Любая автоматическая система предназначена для управления каким-либо объектом, должна быть построена таким образом, чтобы осуществляемое ею управление было оптимальным, т.е наилучшем в том или ином смысле. Задачи оптимального управления чаще всего возникают в подсистемах управления технологическими процессами. В каждом случае существует некоторая технологическая задача, для выполнения которой предназначается соответствующая машина или установка (объект управления), снабженная соответствующая системой управления, т.е. речь идет о некоторой САУ, состоящей из объекта управления и совокупности устройств, которые обеспечивают управление этим объектом. Как правило эта совокупность включает в себя измерительные, усилительные преобразовательные и исполнительные устройства. Если объединить усилительные, преобразовательные и исполнительные устройства в одно звено, называемое управляющим устройством или регулятором, то функциональная схема САУ может быть приведена к виду на рис. 1. 1.
Рис. 1. 2 Функциональная схема оптимальной системы
На вход управляющего устройства поступает задающее воздействие , которое содержит инструкцию о том, каково должно быть состояние объекта - так называемое «желаемое состояние».
На объект управления может поступать возмущающие воздействие z, представляющие нагрузку или помеху. Измерение координат объекта измерительным устройством может производиться с некоторыми случайными погрешностями x (ошибка) [2].
Таким образом, задачей управляющего устройства является выработка такого управляющего воздействия , чтобы качество функционирования САУ в целом было бы наилучшим в некотором смысле. Для определения алгоритма управляющего устройства необходимо знать характеристики объекта и характер информации об объекте и возмущениях, которая поступает в управляющее устройство.
Под характеристиками объекта понимают зависимость выходных величин объекта от входных
,
где F, в общем случае,-- оператор, который устанавливает закон соответствия между двумя множествами функций. Оператор F объекта может быть задан различными способами: с помощью формул, таблиц, графиков. Его задают и в виде системы дифференциальных уравнений, которая в векторной форме записывается так
,
где и задавалось начальное и конечное значения вектора .
Существует много различных путей решения рассматриваемой задачи. Но только один способ управления объектом дает наилучший в некотором смысле результат. Этот способ управления и реализующую его систему называют оптимальными.
Чтобы иметь количественные основания для предпочтения одного способа управления всем другим, необходимо определить цель управления, а затем ввести меру, характеризующую эффективность достижения цели -критерий оптимальности управления. Обычно критерий оптимальности - это числовая величина, зависящая от изменяющихся во времени и пространстве координат и параметров системы так, что каждому закону управления соответствует определенное значение критерия. В качестве критерия оптимальности могут быть выбраны различные технические и экономические показатели рассматриваемого процесса.
Иногда к системе управления предъявляются различные, подчас противоречивые требования. Законы управления, которые одновременно наилучшим образом удовлетворяли бы каждому требованию, не существует. Поэтому из всех требований нужно выбрать одно главное, которое должно удовлетворяться наилучшим образом. Другие требования играют роль ограничений. Следовательно, выбор критерия оптимальности должен производиться, только на основании изучения технологии и экономики рассматриваемого объекта и среды. Эта задача выходит за рамки теории ОУ.
При решении задач оптимального управления наиболее важным является задание цели управления, что математически можно рассматривать как задачу достижения экстремума некоторой величины Q -- критерия оптимальности. В математике такую величину называют функционалом. В зависимости от решаемой задачи необходимо достижение минимума либо максимума Q. Например, запишем критерий оптимальности, в котором Q должно быть минимально
(1.1)
Как видно, величина Q зависит от функций .
В качестве критерия оптимальности могут быть приняты различные технические и технико-экономические показатели и оценки. Выбор критерия оптимальности -- это инженерная и инженерно-экономическая задача, которая решается на основе глубокого и всестороннего изучения управляемого процесса. В теории управления широко распространены интегральные функционалы, характеризующие качество функционирования системы. Достижение максимального или минимального значения этого функционала указывает на оптимальное поведение или состояние системы. Интегральные функционалы обычно отражают условия работы объектов управления и учитывают ограничения (по нагреву, прочности, мощности источников энергии и т. д.), накладываемые на координаты [8].
Для процессов управления использоваться такие критерии:
1. оптимальное быстродействие (время переходного процесса)
2. минимум среднеквадратичного значения ошибки.
3. минимум расхода затрачиваемой энергии.
Таким образом, критерий оптимальности может относиться к переходному или к установившемуся процессу в системе.
В зависимости от критерия оптимальности оптимальные системы можно разделить на два основных класса -- оптимальные по быстродействию и оптимальные по точности.
Системы оптимального управления в зависимости от характера критерия оптимальности можно разделить на три типа:
а) равномерно-оптимальные системы;
б) статистически-оптимальные системы;
в) минимаксно-оптимальные системы.
Равномерно-оптимальная -- это такая система, у которой каждый отдельный процесс является оптимальным. Например, в оптимальных по быстродействию системах при любых начальных условиях и любых возмущениях система приходит наикратчайшим во времени путем к требуемому состоянию.
В статистически-оптимальных системах критерий оптимальности имеет статистический характер. Такие системы должны быть наилучшими в среднем. Здесь не требуется или невозможна оптимизация в каждом отдельном процессе. В качестве статистического критерия чаще всего фигурирует среднее значение какого-либо первичного критерия, например математическое ожидание выхода некоторой величины за определенные пределы.
Минимаксно-оптимальные -- это такие системы, которые в наихудшем случае дают возможно наилучший результат. Они отличаются от равномерно-оптимальных тем, что в ненаихудшем случае могут дать худший результат, чем какая-либо другая система [11].
Оптимальные системы можно также подразделить на три типа в зависимости от способа получения информация об управляемом объекте:
оптимальные системы с полной информацией об объекте;
оптимальные системы с неполной информацией об объекте и пассивным ее накоплением;
оптимальные системы с неполной информацией об объекте и активным ее накоплением в процессе управления (системы дуального управления).
Существует две разновидности задач синтеза оптимальных систем:
-- определение оптимальных значений параметров регулятора при заданных параметрах объекта и заданной структуре системы;
-- синтез структуры и определение параметров регулятора при заданных параметрах и структуре объекта управления.
Решение задач первого типа возможно различными аналитическими методами при минимизации интегральных оценок, а также с помощью вычислительной техники (моделирование на ЭВМ), рассматривая заданный критерий оптимальности.
Решение задач второго типа основано на использовании специальных методов: методы классического вариационного исчисления, принципа максимума Понтрягина и динамического программирования Беллмана, а также методы математического программирования. Для синтеза оптимальных систем при случайных сигналах используются методы Винера, вариационные и частотные методы. При разработке адаптивных систем наиболее широкое применение имеют градиентные методы, позволяющие определить законы, изменения настраиваемых параметров.
1.2 Условия трансверсальности
В практике встречаются задачи определения экстремума функционалов, когда концы варьируемых кривых фиксированы, свободны, либо принадлежат некоторому многообразию . В этих граничных точках должны выполняться так называемые условия трансверсальности.
Условия трансверсальности для фиксированного интервала T:
необходимо исследовать совместно с граничными значениями для x(t), которые могут быть фиксированными или свободными (рис. 1).
Рис. 1.2.1 Допустимые функции x(t) в зависимости от граничных условий
Если граничное значение х(tгр) задано (где tгр =0 или T), то вариация должна быть равна нулю и на значение производной никаких ограничений не накладывается.
Если граничное значение х(tгр) свободно, то вариация может быть произвольной, следовательно, должна быть равна нулю [2].
Рассмотрим различные задачи для фиксированного интервала оптимизации Т.
1. Начальное х(0) и конечное х(Т) значения выходной величины заданы (задача с закрепленными граничными точками, рис. 1.2.1, а).
В этой задаче все возможные кривые x(t), среди которых ищется экстремаль x*(t), должны начинаться и заканчиваться в заданных точках. Вариации (0) и (Т) равны нулю и на значения производной меры ошибки на границах интервала никаких ограничений не накладывается. Постоянные интегрирования C1, С2 находятся из граничных условий для х(0), х(Т) и условия трансверсальности не используются.
2. Начальное х(0) значение выходной величины фиксировано, а конечное х(Т) - свободно (задача с подвижной правой границей, рис .12.1, б).
Так как х(Т) может принимать произвольные значения, то вариация (Т) также может быть любой, следовательно, условие трансверсальности будет выполнено только при равенстве нулю производной
Таким образом, два граничных условия х(0) и позволяют найти значения постоянных интегрирования C1, С2 .
3. Аналогично определяются граничные условия в задаче с незакрепленной начальной точкой х(0) и фиксированной конечной х(Т) (задача с подвижной левой границей, рис. 1.2.1, в).
На левой границе вариация (0) может быть любой, тогда. Из этого условия и граничного значения х(Т) находятся постоянные интегрирования.
4. Начальное x(0) и конечное х(Т) значения выходной величины свободны (задача с незакрепленными граничными точками, рис. 12.1, г).
Так как вариации (0) и (Т) могут быть любыми, то из условий трансверсальности следует, что на границах должна обращаться в нуль производная меры ошибки
Отсюда определяются постоянные интегрирования С1 и С2 .
1.3 Типы задач
Пусть дан следующий функционал
(1.3.1)
где: функция характеризует состояние системы в момент t=T.
При имеет задачу Больца,
задачу Майера,
- задачу Лагранжа.
Задачи Больца относится к задачам на условный экстремум. Эта задача является одной из наиболее общих задач на условный экстремум
Дадим формулировку задачи Больца: среди кусочно-гладких функций, удовлетворяющих уравнениям связей (1.3.1), т. е.
(j=1, 2.....k), (1.3.1)
и граничным условиям
, (1.3.2)
определить функцию, доставляющую экстремум функционалу
(1.3.3)
При этом полагается, что матрица имеет ранг k в некоторой области (2n+1)-мерного пространства , функции
и
обладают непрерывными частными производными, а матрица имеет ранг р во всех точках многообразия , определяемого уравнениями (1.3.2).
Далее задача Больца эквивалентна задаче Лагранжа сводится к задаче Лагранжа, в которой необходимо определить кусочно-гладкую функцию, удовлетворяющую уравнениям связей и граничным условиям.
Задача Лагранжа
Введем в рассмотрение новый функционал.
(1.3.4)
причем
(1.3.5)
где: - неопределенные множители Лагранжа.
- левые части уравнений связи с нулевыми правами частями.
В формуле (1.3.5) неизвестными являются и т.е. всего переменных. Найдем безусловный этого функционала по всем переменным.
Для этого составим уравнения Эйлера-Лагранжа:
(1.3.6)
(1.3.7)
Эта система уравнений позволяет найти неизвестные множители Лагранжа. и , доставляющий безусловный функционала (2) и одновременно условный функционала при наличии уравнений связи .
Задача Майера.
Приведем формулировку задачи Майера, которая входит в класс задач на условный экстремум: среди всех кусочно-гладких векторных функций , удовлетворяющих уравнениям связи
(1.3.8)
и граничным условиям
(1.3.9)
требуется найти такую функцию, у которой первая составляющая имеет при х = x1 экстремум.
Задача Майера может быть сведена к задаче Лагранжа на условный экстремум которая формулируется следующим образом: среди кусочно-гладких векторных функций , удовлетворяющих уравнениям связей (1.3.8) и граничным условиям (9), требуется найти такую функцию, для которой функционал
(1.3.10)
достигает экстремума. В свою очередь, путем введения новой функции
(1.3.11)
задача Лагранжа может быть сведена к задаче Майера [1].
1.4 Методы решения задач синтеза оптимальных систем
1.4.1 Вариационное исчисление
Метод классического вариационного исчисления целесообразно применять при решении задач синтеза оптимальных систем, когда области отклонений координат объекта и управления открыты, т. е. не имеется ограничений. Это бывает в тех случаях, когда рассматриваются малые отклонения координат объекта и управления от их установившихся значений. Методы решения вариационных задач подобны методам исследования функций на максимум и минимум. Существенным отличием при этом является то, что в вариационных задачах рассматривается не функция x(t), а функционал. Постановка задачи в вариационном исчислении: пусть имеется некоторый функционал I зависящий от функции Y(X)
(1.4.1.1)
а функция F однозначна и непрерывна.
Пусть функция Y=f(X) также однозначна и непрерывна в пределах [xо, x1] и имеет непрерывную производную в этом промежутке, то есть принадлежит к классу C(1).
Кривая f(X) -- допустимая, если она принадлежит к классу C(1) лежит в области R и проходит через точки (x0 y0) и (x1, y1,), где y0,= f(x), а y1= f(x1). Требуется найти среди допустимых кривых f(x) экстремаль, то есть такую функцию, при которой интеграл (1. 4.1.1) минимизируется.
Найдем условие, которому должна удовлетворять экстремаль. Пусть f(X)--искомая функция. Рассмотрим другую, близкую к f(X), функцию
, (1. 4.1.2)
где (X) -- произвольная функция класса С(1), обращающаяся в нуль в точках Х0 и Х1 а а-- некоторое малое число.
Подставив (1. 4.1.1) в (1.4.1.2), получим
(1. 4.1.3)
Разложим I(a) в ряд по степеням а
(1.4.1.4)
Выражения и называются первой и второй вариациями интеграла I соответственно. Если f (X) минимизирует I, то
= 0. (1.4.1.5)
Дифференцируя (1.4.1.4) по а и произведя ряд преобразований, получим уравнение
(1.4.1.6)
Для выполнения условий (1.4.1.5) при всех допустимых функциях необходимо, чтобы квадратная скобка в выражении (1.4.1.6) равнялась нулю.
=0 (1.4.1.7)
Дифференциальное уравнение (1.4.1.7) называется уравнением Эйлера. Решая его, можно найти экстремали, среди которых и следует искать решение задачи.
Рассмотрим пример: найти кривую y=f(x) класса C(1) которая проходит через точки М0 и M1 в плоскости (x, y) с координатами
x0= 0, y0>0
x1>0, y1 = 0
и минимизирует интеграл
Здесь
;
Тогда уравнение Эйлера запишется так
или
Решение данного уравнения имеет вид
Значения С1 и С2 будут равны:
,
Уравнение Эйлера примет вид:
Следует заметить, что решения уравнения Эйлера не обязательно обеспечивают минимум интеграла I. Интеграл может принимать при этом максимальное значение или же зависимость I(a) имеет при а=0 точку перегиба. И как в математическом анализе необходимы дополнительные рассуждения, которые позволяют установить, что (1.4.1.7) дает действительно минимум [2].
Большой класс вариационных задач содержит дополнительные условия, накладываемые на решения. Эти дополнительные условия даются в виде равенств. В этих случаях решение получаем в виде условного экстремума.
В последнее время находят применение при решении технических задач так называемые прямые методы решения вариационных задач. Рассмотрим кратко один из простейших вариантов -- «метод Ритца».
Пусть требуется найти кривые Y1(Х),…,Yn(X), минимизирующие интеграл
(1.4.1.8)
Допустимая функция представляется в следующем виде
(1.4.1.9)
где -- постоянные коэффициенты, Pi -- некоторые заданные функции. Подставив его в уравнение для (1.4.1.9), получим функцию коэффициентов ai
.
Далее выбираем ai так, чтобы минимизировать I. Решая, например, систему уравнений вида
(i =1, 2, …, n)
при , получаем функцию, которая при которая при некоторых дополнительных ограничениях является решением вариационной задачи.
При применении описанных выше методов к решению задач теории оптимальных систем необходимо иметь в виду следующие особенности задач теории оптимальных систем по сравнению с классическими вариационными задачами.
а) В выражение минимизируемого функционала в условия ограничений входят не только координаты объекта X, но и управляющие воздействия Uj(j=1, 2,.., r).
б) Ограничения имеют обычно форму неравенств. Причем вектор может находиться не только внутри, но и на границах допустимой области F().
в) Решением оптимальной задачи часто являются кусочно-непрерывные функции Uj(t) с конечным числом точек разрыва первого рода, причем заранее не известно, когда происходят скачки Uj.
Обсуждая указанные особенности, заметим, что первая особенность сама по себе не вызывает затруднений. Нужно только включить Uj в качестве функции, рассматриваемой наравне с Хi. В данном случае вместо n-мерного фазового пространства нужно рассматривать (n+r)-мерное пространство с координатами X1,..., Хn, U1,..., Ur. Вторая особенность связана уже с большими затруднениями. Ограничения в виде неравенств можно в некоторых случаях свести к ограничениям в виде равенств, введя некоторую другую функцию. Однако это не всегда возможно и в некоторых случаях это может усложнить задачу. Требование того, чтобы Uj находилось и на границе допустимой области, может явиться в некоторых случаях причиной серьезных затруднений.
Что касается третьей особенности, то она усложняет выкладки и делает практически невозможным решение задач классическим путем, так как оптимальное управление U во многих случаях имеет разрывы первого рода [4].
В связи с указанными особенностями исключительную роль при решении задач оптимального управления играют возникшие в 50-х годах прошлого столетия неклассические методы решения вариационных задач--это принцип максимума и динамическое программирование.
1.4.2 Принцип максимума
Академиком Л.С. Понтрягиным и его учениками в-1956 г. был предложен неклассический метод решения вариационных задач -- принцип максимума.
Этот метод обоснован как необходимый и достаточный признак для линейных систем и необходимый для нелинейных систем. В дальнейшем была доказана справедливость принципа максимума для линейных дискретно-непрерывных систем и систем с распределенными параметрами [2].
Пусть система уравнений С-части (рис. 1. 4.2.1) имеет вид
, (1.4.2.1)
где Xi - координаты системы (i=1, …, n);
Uj - управляющие воздействия (j=1, …, r).
Рис. 1.4.2.1. Структурная схема системы дифференциальных уравнений.
На управляющие воздействия Uj, в R-мерном пространстве наложены ограничения , где v -- дозволенная область управлений.
Введем вспомогательный вектор-функцию , координаты которого , заданы такой системой уравнений
; (i=1,…,n). (1. 4.2.2)
Систему уравнений (1.4.2.2) для называют сопряженной системой.
Образуем функцию Н
(1.4.2.3)
Используя функцию Н, можно уравнения (1.4.2.1) и (1.4.2.2) записать в виде уравнений Гамильтона
(1.4.2.4.)
. (1.4.2.5)
Так как fi-- координаты вектора в фазовом пространстве, а --координаты вектора уравнение (1.4.2.3) можно записать в виде скалярного произведения
. (1.4.2.6)
Сформулируем принцип максимума.
Для получения оптимального процесса, нужно в любой момент времени выбирать такие Uj, чтобы величина Н была максимальна.
Дадим геометрическую интерпретацию принципу максимума.
Установлено, что вектор есть ни что иное, как нормаль к поверхности S изохроны, соответствующей минимальному времени перехода из точки в заданную точку фазового пространства (в полюс изохроны). Связь между и S() такая
или . (1.4.2.7)
Как видно совпадает с направлением наибыстрейшего уменьшения S, то есть уменьшения оптимального времени переходного процесса. Условие Н = макс совпадает с условием максимизации скалярного произведения и . Но так как вектор в данной точке задан и не зависит от , то условие Н= макс соответствует максимуму проекции вектора на направление .
Следовательно, геометрический смысл принципа максимума заключается в следующем: необходимо подбирать такое управление , чтобы проекция вектора скорости на направление нормали к изохроне в данной точке была максимальна.
Рассмотрим частный случай, когда явная зависимость от времени t в уравнении движения отсутствует и требуется обеспечить минимальное время переходного процесса Т. В этом случае принцип максимума принимает форму
(1.4.2.8)
Траектория изображающей точки в n-мерном пространстве (рис.1.4.2.2) должна быть оптимальной. Для этого следует подбирать оптимальное управление так, чтобы в каждый момент времени максимизировать Н, причем максимальное значение в любой точке траектории равно 1.
Рис. 1.4.2.2 Траектория изображающей точки в n-мерном пространстве
В данном случае
где: t -- текущий момент времени.
Таким образом, время достижения конечной точки уменьшается по мере увеличения t, а вектор , совпадающий с наискорейшим уменьшением S, обращен внутрь изохрон t = Т -- t,t охватывающих конечную точку . Принцип максимума здесь означает такой подбор , чтобы проекция скорости изображающем точки в фазовом пространстве на направление нормали к изохроне была максимальна. Это легко доказывается из следующего очевидного положения: движение по изохронам не уменьшает времени достижения точки . Между тем, чем ближе происходит движение к нормали к изохроне, тем скорее изображающая точка достигнем конечной точки [4].
Принцип максимума можно использовать для расчета оптимальной траектории. Допустим, что мы задались произвольным значением , (t = 0). Для малого промежутка времени ?t, задавшись Uj, можно найти значения Хi и , в конце интервала. Варьируя Uj, на интервале ?t, можно добиться того, чтобы значение H на этом интервале было максимальным. Таким образом, мы можем получить малый участок оптимальной траектории ?Xi определить координаты его конца (Xi)t=0 + ?Xi, а также значение вспомогательной функции в конце интервала ?t.
Повторяя указанную операцию для следующего шага ?t, можно найти следующую точку оптимальной траектории и в конечном счете получить всю оптимальную траекторию Ri. Оптимальная траектория будет найдена тем точнее, чем меньше берется величина интервала ?t. Естественно, что чем меньше брать ?t, тем больший объем вычислительной работы необходимо проделать для нахождения оптимальной траектории.
Следует указать, что при определении оптимальной траектории задаемся произвольными начальными значениями.
Подбор требуемого значения . Для траектории R* можно автоматизировать, если для каждой траектории измерять, например, минимальное расстояние до точки О или величину
.
Автоматическая система в этом случае должна будет так подбирать чтобы минимизировать . Таким образом, при непосредственном использовании принципа максимума для нахождения оптимальной траектории необходима двойная оптимизация: максимизация H на каждом интервале ?t и минимизация для траекторий Ri.
Вычисление оптимальной траектории этим методом может производиться на модели ручным способом или автоматически, варьируя управляющими воздействиями Uj и начальным значением функции .
1.4.3 Метод динамического программирования
В основе метода динамического программирования лежит принцип оптимальности, сформулированный Беллманом, содержание которого сводится к следующему: если траектория системы оптимальна на отрезке времени [0, T] то конечный участок этой траектории на отрезке [t', T] в свою очередь является оптимальной траекторией, где t'(0<t'<T) - произвольный момент времени [2]. Поясним это положение. Пусть на траектории функционал
(1.4.3.1)
принимает минимальное значение, и пусть взят некоторый момент времени t'(0<t'<T)). Тогда для траектории на отрезке времени [t', T] функционал
будет также минимален.
Для доказательства предположим противное, то ecть, что существует для отрезка [t', Т] траектория , отличная от и дающая наименьшее значение функции налу. Но это бы означало, что траектория, состоящий из для t на промежутке [0, t'] и на отрезке [t',T], давала бы функционалу I значение, меньшее на отрезке [0, Т], чем , а это противоречит условию, что -- оптимальная траектория. Это противоречие и доказывает справедливость принципа оптимальности.
Несмотря на простоту формулировки и кажущуюся примитивность, принцип оптимальности позволил построить весьма мощный метод решения вариационных задач. Глубокий смысл принципа оптимальности можно уяснить, если сравнить его с таким утверждением, которое кажется весьма очевидным: «если траектория оптимальна, то и каждый участок ее оптимален». Однако это утверждение не всегда верно. Убедимся в этом на примере. Пусть бегун бежит на длинную дистанцию. Его цель, выбирая на каждом участке определенную скорость, минимизировать время прохождении дистанции в целом, то есть функционалом является время (здесь ). Но минимизирует ли при этом бегун I на каждом участке. Иначе говоря, проходит ли он каждый отрезок пути с максимальной скоростью. Нет, конечно. Если он будет так бежать, то быстро выдохнется.
Принцип оптимальности будет выполняться, если, не думая и им, как пройден начальный участок пути, в каждый момент времени бегун будет строить свое поведение так, чтобы оставшийся путь пройти за минимальное время, оценивая, пополню, свое состояние в этот момент.
Указанный пример помогает понять другую формулировку принципа оптимальности:
Оптимальная стратегия определяется лишь состоянием системы в настоящий момент и не зависит от того, как система пришла в данную точку.
Рассмотрим метод динамического программирования на примере [3].
С помощью метода динамического программирования решим задачу об оптимальном быстродействии.
Пусть объект описывается линейным дифференциальным уравнением
(1.4.3.2)
Обозначим
; ; …; ; …(i =1, 2…n-1).
Представим (1.4.2) в виде системы n-уравнений первого порядка
(1.4.3.3)
где: ; .
Пусть на v наложено ограничение вида
. (1.4.3.4)
Необходимо найти оптимальное управление v(t), обеспечивающее минимальное время Т перемещения изображающей точки из начального положения Х1(0), . . ., Хn(0) (радиус-вектор ) в начало координат фазового пространства.
Если положить в (1.4.3) Т = N?t, Xi(К) = Xi(К?t), v(К) = v(К?t), то уравнение (1.4.3.3) запишется в конечных разностях
(1.4.3.5)
Рассмотрим минимальное время попадания в некоторую коночную точку с координатами
(i =1,2. .., N). (1.4.3.6)
Минимальное время Т попадания в эту точку зависит лишь от начальных условий X1(0), X2(0), . . ., Хп (0), то есть Т= Т[(0)]. Переход из начального положения на один шаг занимает время , после чего вектор (0) будет заменен вектором (l), который зависит от v(0). Минимальное время попадания из точки (1) в точку (N) будет функцией только от (1): Т=Т[(1)], а общее время равно, что можно записать так
. (1.4.3.7)
Если в уравнении (1.4.3.7) (1) записать согласно (1.4.3.4), то получим
(1.4.3.8)
Если принять, что Т -- дифференцируемая функция переменных Xi(0), то, раскладывая второе слагаемое в правой части (1.4.3.8) в ряд по степеням Xi(0) и отбрасывая слагаемые выше первого порядка, уравнение (1.4.3.8) можно записать так
(1.4.3.9)
,
где -- остаточный член, порядок малости которого выше . В уравнении (1.4.9) от v(0), по которому идет минимизация, зависит только последнее слагаемое в фигурной скобке, поэтому знак минимизации можно отнести только к этому члену, при этом T[X1(0), . . ., Хп(0)] и обеих частях уравнения взаимно уничтожится. Разделим теперь уравнение (1.4.3.9) на и устремим к нулю, так как имеет более высокий порядок малости, чем . В результате получим
. (1.4.3.10)
Если заменить Xi(0) текущими значениями Xi, которые мы можем рассматривать как начальные условия, то получим уравнение в частных производных для определения T(X1,..., Xп)
. (1.4.3.11)
Из сопоставления (1.4.3.4) и (1.4.3.11) следует, что минимум последнего слагаемого в правой части уравнения (1.4.3.11) получается при соблюдении условия
(1.4.3.12)
Это значит, что оптимальное управление v*(t) следует выбирать всегда на границах допустимой области v=±V. Подставив (1.4.3.12) в (1.4.3.11), получим
. (1.4.3.13)
Для нахождения оптимального управления v* нужно решить уравнение (1.4.3.13) и найти функцию Т(Х).
Метод динамического программирования при решении рассмотренной задачи позволяет свести ее к последовательной минимизации и является значительно более простым, чем метод прямой минимизации, который, например, для суммы означал бы, что необходимо каждое Хк выразить в виде функции от всех предыдущих управляющих воздействий и начальных условий. Это сама по себе очень сложная задача, а потом еще нужно искать минимум функции многих переменных, что также чрезвычайно сложно. Эти сложности делают прямой метод, по существу, неработоспособным.
Надо иметь в виду, что иногда решение задач методом динамического программирования может оказаться довольно громоздким, так как на каждом этапе вычисления нужно запомнить две функции, каждая из которых в случае системы n-го порядка является функцией n-переменных. Запоминание таких функций (даже при современных вычислительных машинах) весьма сложно и может быть осуществлено лишь при помощи каких-либо аппроксимаций.
2. РАСЧЕТ ОПТИМАЛЬНЫХ СИСТЕМ АВТОМАТИЧЕСКОГО УПРАВЛЕНИЯ ОБЪЕКТОВ II ПОРЯДКА ПО БЫСТРОДЕЙСТВИЮ
дифференциальный управление программа управление
2.1 Представление объектов в пространстве состояний
В теории оптимального управления принято представлять динамику объектов исследования в виде системы из п дифференциальных уравнений 1-го порядка, записанных относительно так называемых переменных состояния, а само описание получило название описания в пространстве состояний. Вместо выходной величины у и ее производных y',…y(n+1) вводятся п новых переменных х1, х2, …, хп - переменных состояния.
Пространством состояний называется метрическое пространство, каждый элемент которого полностью определяет состояние рассматриваемой системы (процесса).
Здесь под состоянием понимается мгновенное состояние, состояние в текущий или заданный момент времени. Процесс протекающий во времени отображается как движение элемента (вектора) в пространстве состояний. Конец вектора называется изображающей точкой, а траектория движения изображающей точки в пространстве состояний называется фазовой траекторией.
Каждому состоянию системы теперь можно поставить в соответствие точку в n-мерном евклидовом пространстве, а движение динамической системы во времени отобразить некоторой траекторией в этом пространстве.
Вектор X часто называют фазовой точкой или точкой Фазового пространства, его составляющие xl, x2, …, xn - фазовыми координатами, а процессы xl(t), x2(t), ..., xn(t) - фазовыми траекториями [2].
Исследование системы управления с помощью переменных состояния предпочтительнее благодаря удобству и простоте проведения моделирования и анализа, возможностью использования стандартных программ при расчетах на ЭВМ, а также методологическими преимуществами.
Описание в пространстве состояний оказывается особенно удобным, если система не стационарна (коэффициенты уравнений зависят от времени) или не линейна. Возможности частотных методов в этом случае весьма ограничены, а во временной области такие системы могут быть исследованы хотя бы численным методом.
В общем случае нелинейная нестационарная система с r входными (управляющими) воздействиями
и т выходными величинами
может быть представлена n переменными состояния
и уравнением в векторной форме
dX/df=F(X, U, f), Y=G(X, U, t), (2.1.1 )
где: FT = и GT= - нелинейные вектор-функции, а т - символ транспонирования.
Время t введено для отображения зависимости коэффициентов функций fi и gj от времени в случае нестационарных систем.
Для одномерной системы уравнения (2.1.1) примут вид
, (2.1.2)
а для стационарной системы -
,
В случае линейной многомерной системы каждая из функций и является линейной комбинацией переменных состояния хj и управлений иk:
,
или в векторно-матричном виде:
,
Здесь - матрицы с коэффициентами, зависящими от времени.
Для стационарных систем коэффициенты матриц А, В, С и D постоянны:
(2.1.3)
Для одномерной системы с одним входом и и одним выходом у:
(2.1.4)
Здесь В и С - векторы, а d - скалярная величина.
Выбор переменных состояний не единственен. При одном выборе они могут представлять собой выходную величину системы и (n-1) ее производных. При другом выборе переменные состояния могут быть внутренними физическими величинами объекта, как это получается при построении аналитических моделей точечного приближения для процессов в теплообменниках. Наконец, в ряде случаев выбранные переменные состояния могут не иметь никакого физического смысла и оказываются связанными с выходной величиной и ее производными довольно сложными математическими соотношениями. Другими словами, существует не одна группа переменных состояния, с помощью которых поведение системы может быть описано полностью. Однако любые группы переменных состояния линейных систем однозначно связаны между собой преобразованием подобия.
Выбор той или иной группы определяется вытекающей из него простотой решения задачи, удобством моделирования, физичностью и т.д. и оставляется на усмотрение разработчика [15].
2.2 Синтез системы объекта с
Выполним синтез оптимальной по быстродействию системы с помощью принципа максимума Понтрягина, объект которой представляет собой два последовательно соединенных интегрирующих звена.
(2.2.1)
Целью рассматриваемой системы управления является перемещение линейного объекта из заданной начальной точки Х(0) = Х0 в пространстве состояний в заданную конечную точку Х(Т) = ХТ за минимальное время при наличии ограничения на амплитуду управления
Критерий управления, как отмечалось ранее, в этом случае
Мера ошибки в критерии H =1, а верхний предел T не известен. Начальная Х(0) = Х0 и конечная Х(T) = ХT точки закреплены.
Запишем функцию Гамильтона и условия трансверсальности:
(T) и (0)-произвольны.
Согласно принципу максимума Понтрягина, стратегия управления состоит в минимизации функции Гамильтона относительно u. Минимум Г будет тогда, когда
min по и
или
min по и
Отсюда
(2.2.2)
Таким образом, стратегия управления и характер u*(t) определены: оптимальное управление - это релейное управление, максимальное по величине, причем переключение управления производится тогда, когда функция ТВ пересекает ось времени t [2].
По изложенной методике определим оптимальное управление , которое произвольное начальное состояние (х10, x20) переводит в начало координат за минимальное время Т.
Представим объект (2.2.1) в виде уравнения состояния (нормальная форма)
(2.2.3)
В рассматриваемом примере матрица , вектор. Образуем матрицу.
Матрица G -- невырожденная, поэтому система (2.2.3) будет нормальной. Характеристические числа матрицы A = 0, поэтому система (2.2.3) удовлетворяет условиям теоремы об n-интервалах. Оптимальное управление u*(t) является кусочно-постоянным и имеет не более двух интервалов постоянства.
Таким образом, управляющие последовательности в зависимости от начального состояния будут: {+ 1}, {-1},{+1,-1}, {-1, + 1}.
Обозначим u* = ?=±1 и найдем общее решение системы при и* = ?. Имеем
Пусть при t = 0, х1 = х10, х2= х20. Тогда, исключив время t из полученных выше равенств, найдем уравнение фазовых траекторий системы:
.
Фазовые траектории при ? = + 1 и при ? = - 1 изображены на рис.2.2.1.
Рис. 2.1.1 Фазовые траектории при ? = + 1 и при ? = - 1
Обозначим - множество начальных состояний, которые переводятся в начало координат управляющей последовательностью и*={+1}, - множество начальных состояний, которые переводятся в начало координат управляющей последовательностью и*={--1}. Эти множества описываются уравнениями
Если принять то множество запишется в виде
Рис. 2.2.2 Фазовые траектории оптимальной системы.
Обозначим R+ -- область, расположенную слева от кривой (рис. 2.2.2), и через R- -- область, расположенную справа от . Если начальное состояние (х10, х20) R+, то оптимальное управление u* = {+ 1, -- 1}, причем переключение производится по линии , если (х10, х20) R-, то оптимальное управление и* = {-- 1, +1}, причем переключение управления производится на линии +. Закон управления
(2.2.4)
Линия представляет собой линию переключения.
Введем функцию , характеризующую расстояние от текущего положения фазовой точки (x1,x2) до линии переключения:
(2.2.5)
Когда фазовая точка окажется на линии переключения, то правая часть уравнения (2.2.5) будет равна нулю ( = 0) и управляющее устройство должно произвести переключение знака управления на противоположный.
Пока фазовая точка находится над линией переключения, > 0 и управление должно быть отрицательным и (t) = -U .
Когда фазовая точка находится под линией переключения, < 0 и управление должно быть положительным и (t) = +U .
Таким образом, в зависимости от знака должен выбираться и знак управления:
Все изложенное позволяет записать алгоритм оптимального по быстродействию регулятора для объекта (2.21):
=0, если , х2 (2.2.4)
Структурная схема системы, реализующей закон управления (2.2.4), приведена на рис. 2.2.3, где обозначено
.
Рис. 2.2.3 Структурная схема системы
2.3 Синтез системы объекта с
Рассмотрим этим же методом (принцип максимума Понтрягина) систему, когда, объект регулирования представляет собой последовательное соединение интегрирующего и апериодического звеньев.
Уравнение движения объекта будет иметь вид:
(2.3.1)
Будем искать оптимальное управление , которое произвольное начальное состояние (х10, x20) переводит в начало координат за минимальное время Т.
Система (2.3.1)будет нормальной. Для нее матрица , вектор и матрицаG -- невырожденная, поэтому система (2.2.1) будет нормальной. Характеристические числа матрицы A = 0, =-1 поэтому система удовлетворяет условиям теоремы об n-интервалах. Оптимальное управление u*(t) является кусочно-постоянным и имеет не более двух интервалов постоянства.
Определим линию переключения. Для этого полагаем u* = ?=±1. Тогда уравнение фазовых траекторий будет
. (2.3.2)
Фазовые траектории при ? = + 1 и при ? = - 1 изображены на рис.2.3.1.
Рис. 2.1.1 Фазовые траектории при ? = + 1 и при ? = - 1
Обозначим - множество начальных состояний, которые переводятся в начало координат управляющей последовательностью и*={+1}, - множество начальных состояний, которые переводятся в начало координат управляющей последовательностью и*={--1}. Эти множества описываются уравнениями
(2.3.3)
Если принять то множество запишется в виде
Закон управления
Функция , характеризующая расстояние от текущего положения фазовой точки (x1,x2) до линии переключения:
(2.3.4)
Алгоритм оптимального по быстродействию регулятора для объекта (2.21):
=0, если , х2 (2.2.5)
Мы определили оптимальное управление и* как функцию координат состояния системы. Структурная схема системы, в которой реализуется управление (2. 3.5), изображена на рис. 2.3.1.
Рис. 2.3.1 Структурная схема системы.
2.4 Синтез системы объекта с
Выполним синтез оптимальной по быстродействию системы методом максимума, объект которой представляет собой соединение двух апериодических звеньев.
Уравнение состояния системы примет вид:
(2.4.1)
На управление u(t) наложено ограничение
Будем искать оптимальное управление , которое произвольное начальное состояние (х10, x20) переводит в начало координат за минимальное время Т.
В рассматриваемом примере матрица , вектор. Образуем матрицу.
Матрица G -- невырожденная, поэтому система (2.2.1) будет нормальной. Характеристические числа матрицы A = 0, , эти числа вещественные, поэтому система (2.4.1) удовлетворяет условиям теоремы об n-интервалах. Оптимальное управление u*(t) является кусочно-постоянным и имеет не более двух интервалов постоянства.
Проинтегрировав систему (2.4.1) и обозначим u* = ?=±1 и найдем общее решение системы при и* = ?.
Для нахождения общего интеграла данной сиcтемы воспользуемся математическим пакетом Maple 9.5., где разделив первое уравнение на второе получим:
> dx2:=int(x2,x2);
dx1:=int((-2*x2-x1+u),x1);
solve(dx1=dx2,x1);
Обозначим - множество начальных состояний, которые переводятся в начало координат управляющей последовательностью и*={+1}, - множество начальных состояний, которые переводятся в начало координат управляющей последовательностью и*={--1}. Эти множества описываются уравнениями
Если принять то множество запишется в виде
(2.4.2)
Множество представляет множество начальных состояний, которые переводятся в начало координат без переключения управления. Закон управления
(2.4.3)
Функция , характеризующая расстояние от текущего положения фазовой точки (x1,x2) до линии переключения будет равна:
Алгоритм оптимального по быстродействию регулятора для объекта (2.4.1):
(2.4.4)
=0, если , х2
Структурная схема системы, реализующей закон управления (2.2.4), приведена на рис. 2.2.3.
Рис. 2.2.3 Структурная схема системы.
3. МОДЕЛИРОВАНИЕ ОПТИМАЛЬНЫХ СИСТЕМ АВТОМАТИЧЕСКОГО УПРАВЛЕНИЯ
3.1 Описание пакета 20-Sim
Решение вышерассмотренных задач целесообразно проводить с помощью моделирования динамических систем во временной области, используя средства вычислительной техники. Для моделирования динамических систем во временной области существует достаточное количество программ, отличающихся сервисом, представляемым пользователю.
Процесс моделирования динамических систем на ПЭВМ состоит из следующих этапов:
Формулировка задачи.
Представление моделируемой системы в одном из принятых в программе виде:
структуры типовых блоков из библиотеки пакета;
структуры, задаваемой в виде сигнального графа;
математических выражений, записанных по определенным правилам.
Ввод структуры модели, значений коэффициентов, начальных условий и параметров моделирования в ПЭВМ.
Задание информации о результатах моделирования, необходимой для выдачи на экран монитора или печать.
Собственно моделирование: запуск на решение, изменение параметров, анализ информации на экране, редактирование модели и т.д.
Документирование результатов моделирования и сохранение модели для последующей работы.
Для выполнения постеленной нами задачи используем программный комплекс для моделирования динамических систем "20-sim Pro 2.3", разработанный в TWENTE UNIVERSITY of TECHNOLOGY, Enschede, The Netherlands (www.20-sim.com).
Программный комплекс работает под управлением операционной системы Windows-9х, на компьютерах с процессором i486DX-4 и выше при объеме оперативной памяти не менее 16 Мб. Саморазархивирующийся файл "20sim" имеет объем 7,87 Мб и после запуска сам устанавливает программный комплекс на ПЭВМ. После завершения установки программный комплекс размещается в папке "20-sim" на выбранном пользователем диске. Одновременно в меню рабочего стола (Пуск Программы 20-sim 2.3) помещаются команды доступа к основным файлам программы, предназначенных для:
помощи (20-sim Help)
руководство пользователя (20-sim Manual),
демонстрации работы программы (20-sim Pro 2.3 demo),
работы (20-sim Pro 2.3),
демонстрации примеров моделей (Demo Models),
обучения пользователей (Tutorial).
Файл Tutorial, предназначенный для обучения работе с программным комплексом автоматически запускает видеоплейер и позволяет просмотреть видеоролики, объясняющие приемы задания структурных схем, ввода значений, исправлений, получение результатов для трех приведенных выше видов представлений моделируемой системы (структуры типовых блоков из библиотеки программного комплекса; структуры, задаваемой в виде сигнального графа; математических выражений). Технологию использования "20-sim" для структурного моделирования динамических систем с помощью типовых блоков показывает файл Demoblk.
Подобные документы
Общие сведения о планировании эксперимента. Анализ методики составления планов эксперимента для моделей первого и второго порядков. Положения о планировании второго порядка. Ортогональные и рототабельные центральные композиционные планы второго порядка.
реферат [242,7 K], добавлен 22.06.2011Анализ линейного стационарного объекта управления, заданного передаточной функцией. Получение математической модели в пространстве состояний линейного стационарного объекта управления, заданного передаточной функцией. Метод параллельной декомпозиции.
курсовая работа [2,2 M], добавлен 23.02.2010Особенности создания непрерывных структурированных моделей. Схема выражения передаточной функции. Методы интегрирования систем дифференциальных уравнений. Структурная схема систем управления с учетом запаздывания в ЭВМ. Расчет непрерывной SS-модели.
курсовая работа [242,6 K], добавлен 16.11.2009Описание объекта регулирования температуры жидкости на выходе теплообменника. Составление математической логической аналитической модели системы автоматического управления. Исследование типа и рационального значения параметров настройки регулятора.
курсовая работа [232,3 K], добавлен 22.03.2015Характеристика модифицированной логистической модели, в которой динамика экономической системы описывается дифференциальным уравнением. Расчет параметров, благодаря которым можно оценить оптимальный уровень налогового давления. Оценка результатов расчета.
контрольная работа [755,8 K], добавлен 14.11.2011Двумерные автономные динамические системы. Классификация состояний равновесия динамических систем второго порядка. Определение автономной системы дифференциальных уравнений и матрицы линеаризации системы. Фазовый портрет системы Лотки–Вольтерра.
лабораторная работа [1,1 M], добавлен 22.12.2012Методика формирования математической модели в операторной форме, а также в форме дифференциального уравнения и в пространстве состояний. Построение графа системы. Оценка устойчивости, управляемости, наблюдаемости системы автоматического управления.
контрольная работа [200,4 K], добавлен 03.12.2012Этапы и проблемы эконометрических исследований. Параметры парной линейной регрессии. Оценка тесноты связи с помощью показателей корреляции и детерминации. Расчет коэффициентов автокорреляции второго порядка для временного ряда расходов на потребление.
контрольная работа [60,3 K], добавлен 05.01.2011Описание линейной системы автоматического управления. Анализ объекта регулирования. Расчет коэффициентов передачи, настройки и параметров настройки типовых регуляторов линейной САР. Определение степени затухания и колебательности переходного процесса.
контрольная работа [220,9 K], добавлен 12.05.2015Разработка оптимального режима процесса получения максимального выхода химического вещества. Получение математической модели процесса с применением метода центральных композиционных ортогональных планов второго порядка. Исследование поверхности отклика.
курсовая работа [104,3 K], добавлен 20.07.2012