Разработка отказоустойчивого кластера высокопроизводительных вычислительных систем

История развития вычислительной техники. Понятие высокой готовности и отказоустойчивости системы. Разработка функциональной схемы отказоустойчивого кластера и структурной схемы виртуального стенда. Технико-экономическое обоснование объекта проектирования.

Рубрика Программирование, компьютеры и кибернетика
Вид дипломная работа
Язык русский
Дата добавления 26.02.2013
Размер файла 2,7 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

В настоящее время ведутся активные разработки в направлении создания высокоскоростных сетей ATM. Широкое внедрение этой технологии позволит достаточно быстро передавать большие объемы информации через WAN и обеспечит высокоскоростное переключение в случае отказа между удаленными системами.

Цены на сети высокой готовности в значительной степени зависят от их конфигурации. Ниже даны несколько примеров для одноранговых сетей высокой готовности.

Для небольшой сети, расположенной на одной площадке и имеющей менее 500 узлов, пользователь должен ожидать примерно 50-процентного увеличения стоимости за обеспечение высокой готовности.

Средняя по размеру сеть, предполагающая размещение на нескольких площадках и имеющая до 5000 узлов потребует от 30 до 40 процентов надбавки к стоимости обычной сети.

Для очень большой сети с более 5000 узлов, расположенных на одной площадке надбавка к стоимости за обеспечение высокой готовности уменьшается примерно до 20 - 30%.

В отказоустойчивых системах стоимость сети еще больше увеличивается. Надбавка к стоимости за базовую отказоустойчивую сеть обычно находится в пределах 80-100 и более процентов, и связана скорее не с размером сети, а с платой за высокую готовность.[9]

1.6 Постановка задачи.

Анализ литературы позволяет сделать вывод об актуальности темы данного диплома.

Таким образом, можно сформулировать задачу данного проекта.

Постановка задачи:

· Разработать структурную схему двухузлового отказоустойчивого кластера

· Разработать структурную схему виртуального стенда

· Провести экспериментальные исследования, подтверждающие работоспособность и отказоустойчивоcть разработанных средств и соответствие их требованиям технического задания.

Глава 2. Разработка функциональной схемы отказоустойчивого кластера

2.1 Описание отказоустойчивого кластера

Если к вычислительной системе помимо высокой отказоустойчивости предъявляются жесткие требования и в отношении доступности и производительности, наиболее актуальным решением представляются кластеры. Конечно, кластерные решения обходятся намного дороже, чем резервный сервер или сегмент сети, отведенный под сетевое хранилище данных. Тем не менее, если вышеперечисленные характеристики становятся жизненно важными для деятельности предприятия, то на этот недостаток не обращают внимание. Поэтому кластеры в нашей стране нередко оказываются актуальным решением. Кроме того, только с их помощью возможно увеличение надежности до 99,999%, что соответствует нескольким минутам простоя системы в год.

Перед тем как перейти к разработке функциональной схемы двухузлового кластера, уточним, что же представляет собой кластер. Ведь на практике термин "кластер" имеет множество определений. Некоторые производители относят к кластерам системы NUMA (и аналогичные), массово-параллельные системы, а порой и системы с симметричной многопроцессорной обработкой (Symmetric Multiprocessing - SMP). К тому же одни изготовители ставят во главу угла отказоустойчивость, другие - масштабируемость, третьи - управляемость, четвертые - максимальную производительность.

Однако наиболее простое, доходчивое и понятное определение кластера базируется на аппаратной особенности его реализации, некогда сформулированное компанией Digital Equipment Corporation. Итак, кластер - это разновидность параллельной или распределенной системы, которая состоит из нескольких связанных между собой компьютеров и используется как единый, унифицированный компьютерный ресурс.[2]

Следовательно, на каждом узле кластера находится своя копия операционной системы. Между тем такие системы, как SMMP, имеют одну общую копию ОС, и это исключение из правил. Узлом кластера может быть как однопроцессорный, так и многопроцессорный компьютер, причем в пределах одного DMMPS-кластера компьютеры могут иметь различную конфигурацию. Узлы кластера соединяются между собой (внутрикластерное, или межузловое соединение) с помощью либо обычных сетевых соединений (Ethernet, Fibre Channel), либо посредством нестандартных (фирменных) технологий. Внутрикластерные соединения позволяют узлам взаимодействовать между собой независимо от внешней сетевой среды. По внутрикластерным каналам узлы не только обмениваются информацией, но и осуществляют взаимный контроль работоспособности.

Основное назначение кластера, ориентированного на максимальную надежность, состоит в обеспечении высокого уровня доступности (иначе - уровня готовности); высокой степени масштабируемости; удобства администрирования по сравнению с разрозненным набором компьютеров или серверов.

Кластеры должны быть нечувствительны к одиночным отказам компонентов (как аппаратных, так и программных); в общем случае при отказе какого-либо узла сетевые сервисы или приложения автоматически переносятся на другие узлы. При восстановлении работоспособности отказавшего узла приложения могут быть перенесены на него обратно.

Классификация отказоустойчивых кластеров строятся по трем основным принципам:

с холодным резервом или активный/пассивный. Активный узел выполняет запросы, а пассивный ждет его отказа и включается в работу, когда таковой произойдет. Например связка DRBD и HeartBeat.

с горячим резервом или активный/активный. Все узлы выполняют запросы, в случае отказа одного нагрузка перераспределяется между оставшимися. То есть кластер распределения нагрузки с поддержкой перераспределения запросов при отказе. Примеры -- практически все кластерные технологии, например, Microsoft Cluster Server. OpenSource проект OpenMosix.

с модульной избыточностью. Применяется только в случае, когда простой системы совершенно недопустим. Все узлы одновременно выполняют один и тот же запрос (либо части его, но так, что результат достижим и при отказе любого узла), из результатов берется любой. Необходимо гарантировать, что результаты разных узлов всегда будут одинаковы (либо различия гарантированно не повлияют на дальнейшую работу). Примеры -- RAID и Triple modular redundancy.

Рис. 2.1 Виды отказоустойчивых кластеров

Также кластерные системы могут быть с разделяемыми дисками и без. Понятие "кластер с разделяемыми дисками" (shared disk) подразумевает, что любой узел имеет прозрачный доступ к любой файловой системе общего дискового пространства. Естественно, помимо разделяемой дисковой подсистемы на узлах кластера предусмотрены и локальные диски, но в этом случае они используются, главным образом, для загрузки ОС на узле. Такой кластер должен обладать специальной подсистемой, именуемой "распределенный менеджер блокировок" (Distributed Lock Manager) и служащей для устранения конфликтов при одновременной записи в файлы с разных узлов кластера.[11]

В свою очередь кластеры без разделения ресурсов (shared nothing), как и следует из названия, не имеют общих устройств ввода/вывода. Правда, есть одна тонкость: речь идет об отсутствии общих дисков на логическом, а не физическом уровне. Это означает, что дисковая подсистема может быть подключена сразу ко всем узлам. Если на дисковой подсистеме существует несколько файловых систем (или логических/физических дисков), то в любой момент времени доступ к определенной файловой системе предоставляется только одному узлу. К другой файловой системе доступ разрешен другому узлу. Такая управленческая иерархия системных ресурсов позволяет максимально обезопаситься от выхода из строя каких-либо компонентов из любого составляющего кластера надежности. Сбой одного сервера кластера мгновенно перекидывает управление на другой, а поврежденный отключается.

Кластеры, которые относятся к системам высокой готовности (максимальной надежности), используются везде, где стоимость возможного простоя превышает стоимость затрат, необходимых для построения кластерной системы. Например, биллинговые системы, банковские операции, электронная коммерция, управление предприятием.[13]

2.2 Структурная схема отказоустойчивого двухузлового кластера

Рис 2.2 Структурная схема отказоустойчивого двухузлового кластера

На рис. 2.2 приведена структурная схема отказоустойчивого двухузлового кластера.

2.2.1 Узлы кластера

В качестве узлов использованы сервера HP Proliant DL380p Gen8. Характеристики узлов:

Процессор - Intel® Xeon® E5-2650 (восьмиядерный, 2,00 ГГц, 20 МБ, 95 Вт)

Количество процессоров - 2

Стандартный объем памяти - 32 ГБ

Сетевой контроллер - (1) адаптер FlexFabric 10Gb 554FLR-SFP+, 2 порта

Контроллер хранилища - (1) Smart Array P420i/2 ГБ FBWC

На узлах установлена операционная система Windows Server 2008R2 Enterprise. На сегодняшний день Windows Server 2008 -- это самая надежная ОС Windows Server. Обладая усовершенствованным встроенным веб-сервером и технологией виртуализации, она повышает надежность и гибкость серверной инфраструктуры. Улучшенные средства безопасности защищают данные и сеть и создают прочную, надежную основу для эффективной работы инфраструктуры. Мощный инструментарий обеспечивает более эффективный контроль над серверами и оптимизирует процессы настройки и управления.

Существует несколько видов лицензий этой операционной системы, мы используем Enterprise лицензию, ввиду наличия в ней поддержки отказоустойчивых кластеров. Windows Server 2008 R2 Enterprise поддерживает отказоустойчивые кластеры с холодным резервом или активный/пассивный. Серверы (узлы) в составе отказоустойчивого кластера постоянно взаимодействуют между собой. Если узел становится недоступен (например, по причине сбоя или планового техобслуживания), то его функции берет на себя другой узел. Пользователи продолжают работать в обычном режиме.

Отказоустойчивые кластеры Windows Server 2008 R2 Enterprise поддерживают до 16 узлов и имеют следующие преимущества:

Динамический переход на другой ресурс при плановой и внеплановой остановке сервера.

Масштабирование путем добавления узлов по мере роста потребностей.

Географически рассредоточенные кластеры, которые еще меньше чувствительны к аварийным ситуациям.

Также Лицензия Windows Server 2008 R2 Enterprise включает право на использование до четырех дополнительных виртуальных экземпляров Windows Server на одном сервере с лицензией Windows Server 2008 R2 Enterprise.

Для обеспечения отказоустойчивости системные жесткие диски объединены в зеркальный массив RAID 1. RAID (англ. redundant array of independent disks -- избыточный массив независимых жёстких дисков) -- массив из нескольких дисков, управляемых , взаимосвязанных скоростными каналами и воспринимаемых внешней системой как единое целое. В зависимости от типа используемого массива может обеспечивать различные степени отказоустойчивости и быстродействия.

В массиве RAID 1 (зеркалирование) данные непрерывно копируются с одного диска на другой или с одной группы накопителей на другую. При аварии одного из накопителей оставшийся диск или группа дисков продолжают нормальную работу, а для системы такой массив все еще видится как единый диск. [8]

Рис 2.2 Схема работы массива RAID 1

2.2.2 Система хранения данных

Система хранения данных - это автономная дисковая подсистема. Ее архитектура приведена на рисунке 2.3

Рис 2.3. Архитектура системы хранения данных

Контроллер, который управляет системой, переносится из компьютера в корпус накопителя, обеспечивая независимое от хост-систем функционирование. Такая система может иметь большое количество внешних каналов ввода/вывода, что обеспечивает возможность подключения к системе нескольких, или даже многих компьютеров.

Любая система хранения данных состоит из аппаратной части и программного кода. В автономной системе всегда есть память, в которой хранится программа алгоритмов работы самой системы и процессорные элементы, которые этот код обрабатывают. Такая система функционирует независимо от того, с какими хост-системами она связана. Системы хранения данных зачастую самостоятельно реализуют множество функций по обеспечению сохранности и управлению данными. Одна из самых важных базовых и практически повсеместно используемых функций -- это RAID (Redundant Array of Independent Disks). Другая, принадлежащая уже системам среднего и высокого уровня - это виртуализация. Она обеспечивает такие возможности как мгновенная копия или удаленное резервирование, а также другие, достаточно сложные алгоритмы.[16]

Система хранения данных HP StorageWorks P4000 G2 имеет следующие характеристики:

HP StorageWorks P4500 G2 60 TB MDL SAS

(BK717A)

Количество дисков

48; Стандартно

Емкость хранения

21,6 ТБ; Стандартно

Интерфейс массива

1 Гб iSCSI; Дополнительное обновление до 10 Гб iSCSI (CX4)

Функции обеспечения доступности

Резервные источники питания с возможностью горячего подключения; резервные вентиляторы; резервные жесткие диски с возможностью горячего подключения, встроенный контроллер хранилища с энергонезависимым кэшем DDR2, аппаратный RAID уровня 5, 6 и 10, кластеризованное хранилище с гиперизбыточностью, а также уровни сетевых массивов RAID (для каждого тома) 0,5,6,10,10+1 и 10+2 с возможностью создания до 4 копий данных обеспечивают доступность данных в случае сбоев диска, контроллера, узла хранилища, электропитания, сети или сервера

Функции управления

Централизованная консоль управления, система дистанционного управления HP ProLiant Integrated Lights-Out 2, контроллер для управления центральной платой IPMI 2.0

Поддержка кластеризации

Да; Сверхизбыточная кластеризованная система хранения

Поддержка мгновенных снимков

Интегрированные в приложения мгновенные снимки SAN/iQ

2.2.3 Соединение СХД с узлами кластера

Различают три основных варианта организации доступа к системам хранения:

· SAS (Server Attached Storage), сторедж, присоединенный к серверу;

· NAS (Network Attached Storage), сторедж, подсоединенный к сети;

· SAN (Storage Area Network), сеть хранения данных.

SAS -- это достаточно простой традиционный способ подключения, который подразумевает прямое подсоединение системы хранения к одной или нескольким хост-системам через высокоскоростной канальный интерфейс. Часто в таких системах, для подсоединения накопителя к хосту используется такой же интерфейс, который используется для доступа к внутренним дискам хост-системы, что в общем случае обеспечивает высокое быстродействие и простое подключение.

SAS-систему рекомендуется к использованию в случае, если имеется потребность в высокоскоростной обработке данных больших объемов на одной или нескольких хост-системах. Это, например, может быть файл-сервер, графическая станция или как в данном дипломном проекте отказоустойчивая кластерная система, состоящая из двух узлов.[16]

Соединение с СХД построено на архитектуре SAS на базе технологии Fiber Channel 4GFC.

Fibre Channel (FC) - это технология, обеспечивающая высокоскоростной, двунаправленный асинхронный обмен между двумя точками.

Последовательный обмен позволяет при относительно малых затратах обеспечить значительную протяженность соединения. В отличие от других канальных архитектур, FC поддерживает сетевой обмен в формате IP. Так как нет необходимости в разделении передающей среды между несколькими абонентами, для каждого соединения используется вся производительности канала.[6]

Декларированные скорости обмена для линий связи лежат в диапазоне 1 Гбит/сек - 20 Гбит/сек. Длина каждой такой линии - до 10 км. Двунаправленность канала, в случае сбалансированной загрузки, обеспечивает удвоенную производительность.

Кроме взаимодействия точка-точка FC поддерживает коммуникационные протоколы FDDI и IP. Поддерживается и обмен с устройствами SCSI, что весьма существенно при работе с массовой памятью. Таким образом, подключенному к FC-линку узлу доступны не только абоненты FC, но и взаимодействие с локальными и глобальными сетями.[15]

Таблица 2.1

Версии Fibre Channel

Название

Пропускная способность (Gbps)

Производительность (MBps)

Год

1GFC

1.0625

100

1997

2GFC

2.125

200

2001

4GFC

4.25

400

2005

8GFC

8.5

800

2008

10GFC Последовательный

10.51875

1000

2004

10GFC Параллельный

12.75

16GFC

14.025

3200

2011

20GFC

21.04

2000

2008

2.2.4 Межузловое соединение кластера

При разработке кластера следует понимать, что, использованием одной физической сети как для кластерного обмена, так и для локальной сети, мы увеличиваем процент отказа всей системы. Поэтому в данной схеме для кластерного обмена использована одна подсеть, выделенная в отдельный физический элемент сети, построенная на базе Gigabit Ethernet 1000Base-T с использованием кабеля типа UTP cat 5+.

На рис2.4. показана структура уровней Gigabit Ethernet. Как и в стандарте Fast Ethernet, в Gigabit Ethernet не существует универсальной схемы кодирования сигнала, которая была бы идеальной для всех физических интерфейсов - так, с одной стороны, для стандартов 1000Base-LX/SX/CX используется кодирование 8B/10B, а с другой стороны, для стандарта 1000Base-T используется специальный расширенный линейный код TX/T2. Функцию кодирования выполняет подуровень кодирования PCS, размещенный ниже средне зависимого интерфейса GMII.[9]

GMII интерфейс. Среданезависимый интерфейс GMII (gigabit media independent interface) обеспечивает взаимодействие между уровнем MAC и физическим уровнем. GMII интерфейс является расширением интерфейса MII и может поддерживать скорости 10, 100 и 1000 Мбит/с. Он имеет отдельные 8 битные приемник и передатчик, и может поддерживать как полудуплексный, так и дуплексный режимы. Кроме этого, GMII интерфейс несет один сигнал, обеспечивающий синхронизацию (clock signal), и два сигнала состояния линии - первый (в состоянии ON) указывает

Рис.2.4. Структура уровней Gigabit Ethernet

GMII интерфейс. Средне зависимый интерфейс GMII (gigabit media independent interface) обеспечивает взаимодействие между уровнем MAC и физическим уровнем. GMII интерфейс является расширением интерфейса MII и может поддерживать скорости 10, 100 и 1000 Мбит/с. Он имеет отдельные 8 битные приемник и передатчик, и может поддерживать как полудуплексный, так и дуплексный режимы. Кроме этого, GMII интерфейс несет один сигнал, обеспечивающий синхронизацию (clock signal), и два сигнала состояния линии - первый (в состоянии ON) указывает наличие несущей, а второй (в состоянии ON) говорит об отсутствии коллизий - и еще несколько других сигнальных каналов и питание. Трансиверный модуль, охватывающий физический уровень и обеспечивающий один из физических средазависимых интерфейсов, может подключать например к коммутатору Gigabit Ethernet посредством GMII интерфейса. [9]

Подуровень физического кодирования PCS. При подключении интерфейсов группы 1000Base-X, подуровень PCS использует блочное избыточное кодирование 8B10B, заимствованное из стандарта ANSI X3T11 Fibre Channel. Аналогичного рассмотренному стандарту FDDI, только на основе более сложной кодовой таблицы каждые 8 входных битов, предназначенных для передачи на удаленный узел, преобразовываются в 10 битные символы (code groups). Кроме этого в выходном последовательном потоке присутствуют специальные контрольные 10 битные символы. Примером контрольных символов могут служить символы, используемые для расширения носителя (дополняют кадр Gigabit Ethernet до его минимально размера 512 байт). При подключении интерфейса 1000Base-T, подуровень PCS осуществляет специальное помехоустойчивое кодирование, для обеспечения передачи по витой паре UTP Cat.5 на расстояние до 100 метров -линейный код TX/T2, разработанный компанией Level One Communications.

Два сигнала состояния линии - сигнал наличие несущей и сигнал отсутствие коллизий - генерируются этим подуровнем.

Подуровни PMA и PMD. Физический уровень Gigabit Ethernet использует несколько интерфейсов, включая традиционную витую пару категории 5, а также многомодовое и одномодовое волокно. Подуровень PMA преобразует параллельный поток символов от PCS в последовательный поток, а также выполняет обратное преобразование (распараллеливание) входящего последовательного потока от PMD. Подуровень PMD определяет оптические/электрические характеристики физических сигналов для разных сред. Всего определяются 4 различный типа физических интерфейса среды, которые отражены в спецификация стандарта 802.3z (1000Base-X) и 802.3ab (1000Base-T), (рис.2.5).[15]

Рис. 2.5. Физические интерфейсы стандарта Gigabit Ethernet

Глава 3 Разработка структурной схемы виртуального стенда

3.1 Виртуализация

Информационные технологии принесли в жизнь современного общества множество полезных и интересных вещей. Каждый день изобретательные и талантливые люди придумывают все новые и новые применения компьютерам как эффективным инструментам производства, развлечения и сотрудничества. Множество различных программных и аппаратных средств, технологий и сервисов позволяют нам ежедневно повышать удобство и скорость работы с информацией. Все сложнее и сложнее выделить из обрушивающегося на нас потока технологий действительно полезные и научиться применять их с максимальной пользой. В этой статье пойдет речь о еще одной невероятно перспективной и по-настоящему эффективной технологии, стремительно врывающейся в мир компьютеров - технологии виртуализации.

В широком смысле, понятие виртуализации представляет собой сокрытие настоящей реализации какого-либо процесса или объекта от истинного его представления для того, кто им пользуется. Продуктом виртуализации является нечто удобное для использования, на самом деле, имеющее более сложную или совсем иную структуру, отличную от той, которая воспринимается при работе с объектом. Иными словами, происходит отделение представления от реализации чего-либо. В компьютерных технологиях под термином «виртуализация» обычно понимается абстракция вычислительных ресурсов и предоставление пользователю системы, которая «инкапсулирует» (скрывает в себе) собственную реализацию. Проще говоря, пользователь работает с удобным для себя представлением объекта, и для него не имеет значения, как объект устроен в действительности.

Сам термин «виртуализация» в компьютерных технологиях появился в шестидесятых годах прошлого века вместе с термином «виртуальная машина», означающим продукт виртуализации программно-аппаратной платформы. В то время виртуализация была, скорее, интересной технической находкой, чем перспективной технологией. Разработки в сфере виртуализации в шестидесятых-семидесятых годах проводились только компанией IBM. С появлением в компьютере IBM M44/44X экспериментальной системы пэйджинга, впервые был употреблен термин «виртуальная машина» (virtual machine), который заменил более ранний термин «псевдо машина» (pseudo machine). Затем в мэйнфреймах IBM серии System 360/370, можно было использовать виртуальные машины для сохранения предыдущих версий операционных систем. До конца девяностых годов никто кроме IBM так и не решался использовать эту оригинальную технологию всерьез. Однако в девяностых годах стали очевидны перспективы подхода виртуализации: с ростом аппаратных мощностей, как персональных компьютеров, так и серверных решений, вскоре представится возможность использовать несколько виртуальных машин на одной физической платформе.[8]

В 1997 году компания Connectix выпускает первую версию Virtual PC для платформы Macintosh, а в 1998 году VMware патентует свои техники виртуализации. Компания Connectix впоследствии была куплена корпорацией Microsoft, а VMware корпорацией EMC, и на данный момент обе эти компании являются двумя основными потенциальными конкурентами на рынке технологий виртуализации. Со времени своего появления термины «виртуализация» и «виртуальная машина» приобрели множество различных значений и употреблялись в разных контекстах.

Понятие виртуализации условно можно разделить на две фундаментально различающиеся категории:

· виртуализация платформ.

Продуктом этого вида виртуализации являются виртуальные машины - некие программные абстракции, запускаемые на платформе реальных аппаратно-программных систем.

· виртуализация ресурсов.

Данный вид виртуализации преследует своей целью комбинирование или упрощение представления аппаратных ресурсов для пользователя и получение неких пользовательских абстракций оборудования, пространств имен, сетей и т.п.[11]

Рис. 3.1 Виды виртуализации

3.1.1 Виртуализация ресурсов

При описании виртуализации платформ мы рассматривали понятие виртуализации в узком смысле, преимущественно применяя его к процессу создания виртуальных машин. Однако если рассматривать виртуализацию в широком смысле, можно прийти к понятию виртуализации ресурсов, обобщающим в себе подходы к созданию виртуальных систем. Виртуализация ресурсов позволяет концентрировать, абстрагировать и упрощать управление группами ресурсов, таких как сети, хранилища данных и пространства имен.[11]

3.1.2 Виртуализация платформ

Под виртуализацией платформ понимают создание программных систем на основе существующих аппаратно-программных комплексов, зависящих или независящих от них. Система, предоставляющая аппаратные ресурсы и программное обеспечение, называется хостовой (host), а симулируемые ей системы - гостевыми (guest). Чтобы гостевые системы могли стабильно функционировать на платформе хостовой системы, необходимо, чтобы программное и аппаратное обеспечение хоста было достаточно надежным и предоставляло необходимый набор интерфейсов для доступа к его ресурсам. Есть несколько видов виртуализации платформ, в каждом из которых осуществляется свой подход к понятию «виртуализация». Виды виртуализации платформ зависят от того, насколько полно осуществляется симуляция аппаратного обеспечения. До сих пор нет единого соглашения о терминах в сфере виртуализации.[11]

Виды виртуализации платформ:

Полная виртуализация (Full, Native Virtualization). Используются не модифицированные экземпляры гостевых операционных систем, а для поддержки работы этих ОС служит общий слой эмуляции их исполнения поверх хостовой ОС, в роли которой выступает обычная операционная система. Такая технология применяется, в частности, в VMware Workstation, VMware Server (бывший GSX Server), Parallels Desktop, Parallels Server, MS Virtual PC, MS Virtual Server, Virtual Iron, Hyper-V в составе ОС Windows Server 2008. К достоинствам данного подхода можно причислить относительную простоту реализации, универсальность и надежность решения; все функции управления берет на себя хост-ОС. Недостатки -- высокие дополнительные накладные расходы на используемые аппаратные ресурсы, отсутствие учета особенностей гостевых ОС, меньшая, чем нужно, гибкость в использовании аппаратных средств.

Рис. 3.2. Полная виртуализация

Паравиртуализация (paravirtualization). Модификация ядра гостевой ОС выполняется таким образом, что в нее включается новый набор API, через который она может напрямую работать с аппаратурой, не конфликтуя с другими виртуальными машинами. При этом нет необходимости задействовать полноценную ОС в качестве хостового ПО, функции которого в данном случае исполняет специальная система, получившая название гипервизора (hypervisor). Именно этот вариант является сегодня наиболее актуальным направлением развития серверных технологий виртуализации и применяется в VMware ESX Server, Xen (и решениях других поставщиков на базе этой технологии), Microsoft Hyper-V Server. Достоинства данной технологии заключаются в отсутствии потребности в хостовой ОС - ВМ, устанавливаются фактически на "голое железо", а аппаратные ресурсы используются эффективно. Недостатки -- в сложности реализации подхода и необходимости создания специализированной ОС-гипервизора.[11]

Рис. 3.3. Паравиртуализация

Виртуализация на уровне ядра ОС (operating system-level virtualization). Этот вариант подразумевает использование одного ядра хостовой ОС для создания независимых параллельно работающих операционных сред. Для гостевого ПО создается только собственное сетевое и аппаратное окружение. Такой вариант используется в Virtuozzo (для Linux и Windows), OpenVZ (бесплатный вариант Virtuozzo) и Solaris Containers. Достоинства -- высокая эффективность использования аппаратных ресурсов, низкие накладные технические расходы, отличная управляемость, минимизация расходов на приобретение лицензий. Недостатки -- реализация только однородных вычислительных сред.

Рис. 3.4. Виртуализация на уровне ОС

Виртуализация приложений подразумевает применение модели сильной изоляции прикладных программ с управляемым взаимодействием с ОС, при которой виртуализируется каждый экземпляр приложений, все его основные компоненты: файлы (включая системные), реестр, шрифты, INI-файлы, COM-объекты, службы. Приложение исполняется без процедуры инсталляции в традиционном ее понимании и может запускаться прямо с внешних носителей (например, с флэш-карт или из сетевых папок). С точки зрения ИТ-отдела, такой подход имеет очевидные преимущества: ускорение развертывания настольных систем и возможность управления ими, сведение к минимуму не только конфликтов между приложениями, но и потребности в тестировании приложений на совместимость. Данная технология позволяет использовать на одном компьютере, а точнее в одной и той же операционной системе несколько несовместимых между собой приложений одновременно. Виртуализация приложений позволяет пользователям запускать одно и то же заранее сконфигурированное приложение или группу приложений с сервера. При этом приложения будут работать независимо друг от друга, не внося никаких изменений в операционную систему. Фактически именно такой вариант виртуализации используется в Sun Java Virtual Machine, Microsoft Application Virtualization (ранее называлось Softgrid), Thinstall (в начале 2008 г. вошла в состав VMware), Symantec/Altiris.

Рис. 3.5. Виртуализация приложений

Виртуализация представлений (рабочих мест) Виртуализация представлений подразумевает эмуляцию интерфейса пользователя. Т.е. пользователь видит приложение и работает с ним на своём терминале, хотя на самом деле приложение выполняется на удалённом сервере, а пользователю передаётся лишь картинка удалённого приложения. В зависимости от режима работы пользователь может видеть удалённый рабочий стол и запущенное на нём приложение, либо только само окно приложения.[11]

Рис. 3.6. Виртуализация представлений

Потребности бизнеса меняют наши представления об организации рабочего процесса. Персональный компьютер, ставший за последние десятилетия неотъемлемым атрибутом офиса и средством выполнения большинства офисных задач, перестает успевать за растущими потребностями бизнеса. Реальным инструментом пользователя оказывается программное обеспечение, которое лишь привязано к ПК, делая его промежуточным звеном корпоративной информационной системы. В результате активное развитие получают "облачные" вычисления, когда пользователи имеют доступ к собственным данным, но не управляют и не задумываются об инфраструктуре, операционной системе и собственно программном обеспечении, с которым они работают.[8]

Вместе с тем, с ростом масштабов организаций, использование в ИТ-инфраструктуре пользовательских ПК вызывает ряд сложностей:

· большие операционные издержки на поддержку компьютерного парка;

· сложность, связанная с управлением настольными ПК;

· обеспечение пользователям безопасного и надежного доступа к ПО и приложениям, необходимым для работы;

· техническое сопровождение пользователей;

· установка и обновление лицензий на ПО и техническое обслуживание;

· резервное копирование и т.д.

Уйти от этих сложностей и сократить издержки, связанные с их решением, возможно благодаря применению технологии виртуализации рабочих мест сотрудников на базе инфраструктуры виртуальных ПК - Virtual Desktop Infrastructure (VDI). VDI позволяет отделить пользовательское ПО от аппаратной части - персонального компьютера, - и осуществлять доступ к клиентским приложениям через терминальные устройства.

VDI - комбинация соединений с удаленным рабочим столом и виртуализации. На обслуживающих серверах работает множество виртуальных машин, с такими клиентскими операционными системами, как Windows 7, Windows Vista и Windows XP или Linux операционными системами. Пользователи дистанционно подключаются к виртуальной машине своей настольной среды. На локальных компьютерах пользователей в качестве удаленного настольного клиента могут применяться терминальные клиенты, старое оборудование с Microsoft Windows Fundamentals или дистрибутив Linux.[11]

VDI полностью изолирует виртуальную среду пользователей от других виртуальных сред, так как каждый пользователь подключается к отдельной виртуальной машине. Иногда используется статическая инфраструктура VDI, в которой пользователь всегда подключается к той же виртуальной машине, в других случаях динамическая VDI, в которой пользователи динамически подключаются к различным виртуальным машинам, и виртуальные машины создаются по мере необходимости. При использовании любой модели важно хранить данные пользователей вне виртуальных машин и быстро предоставлять приложения.

Наряду с централизованным управлением и простым предоставлением компьютеров, VDI обеспечивает доступ к настольной среде из любого места, если пользователи могут дистанционно подключиться к серверу.

Представим, что на клиентском компьютере возникла неполадка. Придется выполнить диагностику и, возможно, переустановить операционную систему. Благодаря VDI в случае неполадок можно просто удалить виртуальную машину и за несколько секунд создать новую среду, с помощью созданного заранее шаблона виртуальной машины. VDI обеспечивает дополнительную безопасность, так как данные не хранятся локально на настольном компьютере или ноутбуке.[11]

Как пример виртуализации представлений можно рассматривать и технологию тонких терминалов, которые фактически виртуализируют рабочие места пользователей настольных систем: пользователь не привязан к какому-то конкретному ПК, а может получить доступ к своим файлам и приложениям, которые располагаются на сервере, с любого удаленного терминала после выполнения процедуры авторизации. Все команды пользователя и изображение сеанса на мониторе эмулируются с помощью ПО управления тонкими клиентами. Применение этой технологии позволяет централизовать обслуживание клиентских рабочих мест и резко сократить расходы на их поддержку -- например, для перехода на следующую версию клиентского приложения новое ПО нужно инсталлировать только один раз на сервере.

3.2 Платформа виртуализации Hyper-V

Microsoft Hyper-V. Продукт Microsoft позиционируется как основной конкурент VMware ESX Server в области корпоративных платформ виртуализации. Microsoft Hyper-V представляет собой решение для виртуализации серверов на базе процессоров с архитектурой x64 в корпоративных средах. В отличие от продуктов Microsoft Virtual Server или Virtual PC, Hyper-V обеспечивает виртуализацию на аппаратном уровне, с использованием технологий виртуализации, встроенных в процессоры. Hyper-V обеспечивает высокую производительность, практически равную производительности одной операционной системы, работающей на выделенном сервере. Hyper-V распространяется двумя способами: как часть Windows Server 2008 или в составе независимого бесплатного продукта Microsoft Hyper-V Server.[13]

В Windows Server 2008 технология Hyper-V может быть развернута как в полной установке, так и в режиме Server Core, Hyper-V Server работает только в режиме Core. Это позволяет в полной мере реализовать все преимущества "тонкой", экономичной и управляемой платформы виртуализации.

Hyper-V является встроенным компонентом 64-разрядных версий Windows Server 2008 Standard, Windows Server 2008 Enterprise и Windows Server 2008 Datacenter

Рассмотрим кратко особенности архитектуры Hyper-v. Hyper-v представляет собой гипервизор, т.е. прослойку между оборудованием и виртуальными машинами уровнем ниже операционной системы. Эта архитектура была первоначально разработана IBM в 1960-е годы для мэйнфреймов и недавно стала доступной на платформах x86/x64, как часть ряда решений, включая Windows Server 2008 Hyper-V и Vmware ESX.[16]

Рис. 3.7. Архитектура виртуализации с гипервизором

Виртуализация на базе гипервизора основана на том, что между оборудованием и виртуальными машинами появляется прослойка, перехватывающая обращения операционных систем к процессору, памяти и другим устройствам. При этом доступ к периферийным устройствам в разных реализациях гипервизоров может быть организован по-разному. С точки зрения существующих решений для реализации менеджера виртуальных машин можно выделить два основных вида архитектуры гипервизора: микроядерную и монолитную.

Рис. 3.8. Архитектура монолитного гипервизора

Монолитный подход размещает гипервизор в едином уровне, который также включает большинство требуемых компонентов, таких как ядро, драйверы устройств и стек ввода/вывода. Это подход, используемый такими решениями, как VMware ESX и традиционные системы мэйнфреймов.

Монолитный подход подразумевает, что все драйвера устройств помещены в гипервизор. В монолитной модели - гипервизор для доступа к оборудованию использует собственные драйверы. Гостевые ОС работают на виртуальных машинах поверх гипервизора. Когда гостевой системе нужен доступ к оборудованию, она должна пройти через гипервизор и его модель драйверов. Обычно одна из гостевых ОС играет роль администратора или консоли, в которой запускаются компоненты для предоставления ресурсов, управления и мониторинга всех гостевых ОС, работающих на сервере.

Модель монолитного гипервизора обеспечивает прекрасную производительность, но имеет ряд недостатков, таких как:

Устойчивость - если в обновленную версию драйвера затесалась ошибка, в результате сбои начнутся во всей системе, во всех ее виртуальных машинах.[16]

Проблемы обновления драйверов - при необходимости обновления драйвера какого-либо устройства (например сетевого адаптера) обновить драйвер возможно только вместе с выходом новой версии гипервизора, в которую будет интегрирован новый драйвер для данного устройства.

Трудности с использованием неподдерживаемого оборудования. Например, вы собрались использовать оборудование "Сервер" достаточно мощный и надежный, но при этом в гипервизоре не оказалось нужного драйвера для RAID-контроллера или сетевого адаптера. Это сделает невозможным использование соответствующего оборудования, а, значит, и сервера.

Микроядерный подход использует очень тонкий, специализированный гипервизор, выполняющий лишь основные задачи обеспечения изоляции разделов и управления памятью. Этот уровень не включает стека ввода/вывода или драйверов устройств. Это подход, используемый Hyper-V. В этой архитектуре стек виртуализации и драйверы конкретных устройств расположены в специальном разделе ОС, именуемом родительским разделом.[16]

Рис. 3.9. Архитектура микроядерного гипервизора

В микроядерной реализации можно говорить о "тонком гипервизоре", в этом случае в нем совсем нет драйверов. Вместо этого драйверы работают в каждом индивидуальном разделе, чтобы любая гостевая ОС имела возможность получить через гипервизор доступ к оборудованию. При такой расстановке сил каждая виртуальная машина занимает совершенно обособленный раздел, что положительно сказывается на защищенности и надежности. В микроядерной модели гипервизора (в виртуализации Windows Server 2008 R2 используется именно она) один раздел является родительским (parent), остальные - дочерними (child). Раздел - это наименьшая изолированная единица, поддерживаемая гипервизором. Размер гипервизора Hyper-V менее 1,5 Мб , он может поместиться на одну 3.5-дюймовую дискету.

Каждому разделу назначаются конкретные аппаратные ресурсы - долю процессорного времени, объем памяти, устройства и пр. Родительский раздел создает дочерние разделы и управляет ими, а также содержит стек виртуализации (virtualization stack), используемый для управления дочерними разделами. Родительский раздел создается первым и владеет всеми ресурсами, не принадлежащими гипервизору. Обладание всеми аппаратными ресурсами означает, что именно корневой (то есть, родительский) раздел управляет питанием, подключением самонастраивающихся устройств, ведает вопросами аппаратных сбоев и даже управляет загрузкой гипервизора.

В родительском разделе содержится стек виртуализации - набор программных компонентов, расположенных поверх гипервизора и совместно с ним обеспечивающих работу виртуальных машин. Стек виртуализации обменивается данными с гипервизором и выполняет все функции по виртуализации, не поддерживаемые непосредственно гипервизором. Большая часть этих функций связана с созданием дочерних разделов и управлением ими и необходимыми им ресурсами (ЦП, память, устройства).[11]

Преимущество микроядерного подхода, примененного в Windows Server 2008 R2, по сравнению с монолитным подходом состоит в том, что драйверы, которые должны располагаться между родительским разделом и физическим сервером, не требуют внесения никаких изменений в модель драйверов. Иными словами, в системе можно просто применять существующие драйверы. В Microsoft этот подход избрали, поскольку необходимость разработки новых драйверов сильно затормозила бы развитие системы. Что же касается гостевых ОС, они будут работать с эмуляторами или синтетическими устройствами.

С другой стороны, микроядерная модель может несколько проигрывать монолитной модели в производительности. Однако в наши дни главным приоритетом стала безопасность, поэтому для большинства компаний вполне приемлема будет потеря пары процентов в производительности ради сокращения фронта нападения и повышения устойчивости.

Рис. 3.10. Архитектура Hyper-v

Все версии Hyper-V имеют один родительский раздел. Этот раздел управляет функциями Hyper-V. Из родительского раздела запускается консоль Windows Server Virtualization. Кроме того, родительский раздел используется для запуска виртуальных машин (VM), поддерживающих потоковую эмуляцию старых аппаратных средств. Такие VM, построенные на готовых шаблонах, эмулирующих аппаратные средства, являются аналогами VM, работающих в продуктах с виртуализацией на базе хоста, например Virtual Server.

Гостевые VM запускаются из дочерних разделов Hyper-V. Дочерние разделы поддерживают два типа VM: высокопроизводительные VM на основе архитектуры VMBus и VM, управляемые системой-хостом. В первую группу входят VM с системами Windows Server 2003, Windows Vista, Server 2008 и Linux (поддерживающими Xen). Новую архитектуру VMBus отличает высокопроизводительный конвейер, функционирующий в оперативной памяти, соединяющий клиентов Virtualization Service Clients (VSC) на гостевых VM с провайдером Virtual Service Provider (VSP) хоста. VM, управляемые хостом, запускают платформы, не поддерживающие новую архитектуру VMBus: Windows NT, Windows 2000 и Linux (без поддержки технологии Xen, например SUSE Linux Server Enterprise 10). [16]

3.3 Cтруктурная схема виртуального стенда.

Рис. 3.11 Структурная схема виртуального стенда отказоустойчивого двухузлового кластера

Структурная схема виртуального стенда отказоустойчивого двухузлового кластера приведена на рис.3.11 .

3.3.1 Хост- сервер

Хост - сервер (от, англ. Host ) -- в данном случае автономный компьютер, например сервер или рабочая станция. В качестве хост - сервера может выступать любой компьютер удовлетворяющий следующим требованиям приведенным в таблице 3.1.

Таблица 3.1

Компонент

Требование

Процессор

3,0 ГГц (процессор с архитектурой x64). С поддержкой технологии Intel VT (Intel Virtualization Technology) или AMD-V (часто обозначается аббревиатурой SVM (Secure Virtual Machines))

Память

Минимальный объем: 8 ГБ.

Максимальный объем: 2 ТБ.

Требования к свободному пространству на диске

Минимальный объем: 300 ГБ.

Примечание. На компьютерах, оснащенных более чем 16 ГБ ОЗУ, потребуется больше места на диске для файлов подкачки, спящего режима и дампа памяти.

Монитор

Монитор с разрешением Super VGA (800x600) или более высоким.

Прочее

Дисковод для DVD-дисков, клавиатура и мышь (Майкрософт) или совместимое указывающее устройство

Установленная операционная система Windows Server 2008 R2 Enterprise с установленным компонентом Hyper-V.

2.3.2 Виртуальная машина ВМ1

Виртуальная машина ВМ1 используется в качестве первого узла отказоустойчивого кластера.

При создании виртуальной машины ВМ1 задаем следующие параметры:

· Число процессоров 2.

· Оперативная память - динамическая от 1 до 4ГБ

· Объем жесткого диска - 50ГБ

· Количество сетевых интерфейсов - 2

Установленная операционная система Windows Server 2008 R2 Enterprise с установленным компонентом Failover Clustering.

Первый сетевой интрефейс имеет настройки:

· IP 192.168.100.1

· Маска подсети 255.255.255.0

· Адрес DNS-сервера 192.168.100.10

Второй сетевой интерфейс имеет настройки

· IP 192.168.30.1

· Маска подсети 255.255.255.252

· Адрес DNS-сервера 192.168.100.10

2.3.3 Виртуальная машина ВМ2

Виртуальная машина ВМ2 используется в качестве второго узла отказоустойчивого кластера.

При создании виртуальной машины ВМ2 задаем следующие параметры:

· Число процессоров 2.

· Оперативная память - динамическая от 1 до 4ГБ

· Объем жесткого диска - 50ГБ

· Количество сетевых интерфейсов - 2

Установленная операционная система Windows Server 2008 R2 Enterprise с установленным компонентом Failover Clustering.

Первый сетевой интерфейс имеет настройки:

· IP 192.168.100.2

· Маска подсети 255.255.255.0

· Адрес DNS-сервера 192.168.100.10

Второй сетевой интерфейс имеет настройки

· IP 192.168.30.2

· Маска подсети 255.255.255.252

· Адрес DNS-сервера 192.168.100.10

2.3.4 Виртуальная машина ВМ3

Виртуальная машина ВМ3 используется в качестве системы хранения данных.

При создании виртуальной машины ВМ3 задаем следующие параметры:

· Число процессоров 1.

· Оперативная память - динамическая от 1 до 4 ГБ

· Объем первого жесткого диска - 50 ГБ

· Объем второго жесткого диска - 8 ГБ

· Объем третьего жесткого диска - 50 ГБ

· Количество сетевых интерфейсов - 1

Установленная операционная система Windows Server 2008 R2 Enterprise с установленным ПО StarWind iSCSI Target

Cетевой интерфейс имеет настройки:

· IP 192.168.100.3

· Маска подсети 255.255.255.0

· Адрес DNS-сервера 192.168.100.10

Програмное обеспечение StarWind iSCSI Target позволяет создать на базе виртуальной машины систему хранения данных подключаемую к узлам кластера по протоколу iSCSI.

iSCSI (англ. Internet Small Computer System Interface) -- протокол, который базируется на TCP/IP и разработан для установления взаимодействия и управления системами хранения данных, серверами и клиентами.

iSCSI описывает:

· Транспортный протокол для SCSI, который работает поверх TCP.

· Механизм инкапсуляции SCSI команд в IP сети.

· Протокол для нового поколения систем хранения данных, которые будут использовать TCP/IP.

Протокол iSCSI является стандартизованным по RFC 3720. Существует много коммерческих и некоммерческих реализаций этого протокола.

Системы на основе iSCSI могут быть построены на любой достаточно быстрой физической основе, поддерживающей протокол IP, например Gigabit Ethernet или 10G Ethernet. Использование стандартного протокола позволяет применять стандартные средства контроля и управления потоком, а также существенно уменьшает стоимость оборудования по сравнению с сетями Fibre Channel.[6]

Возможности ПО StarWind iSCSI Target:

· Синхронное зеркалирование данных: зеркалирование данных в режиме реального времени через кластер хранения, состоящий из двух узлов.

· Высокая доступность / Автоматическое преодоление отказа: отказоустойчивая технология исключает единую точку сбоя

· Восстановление с быстрой Синхронизацией: восстановление к оригинальному состоянию системы после автоматического восстановления

· Удаленная / асинхронная репликация: воспроизводит систему хранения данных на удаленный узел через сеть интернет

· Точки восстановления и мгновенные снимки (snapshots): создает точку восстановления с неограниченным количеством откатов

· Сервер кластеризации: обеспечивает общее хранилище для кластеризации серверов c высокой доступностью

· Тонкое резервирование: распределяет пространство динамично для высокоэффективного использования дисковых ресурсов

2.3.5 Виртуальная машина ВМ4

Виртуальная машина ВМ4 используется в качестве тестовой виртуальной машины для проведения экспериментальных исследований.

При создании виртуальной машины ВМ4 задаем следующие параметры:

· Число процессоров 1.

· Оперативная память - динамическая от 1 до 2ГБ

· Объем жесткого диска - 50ГБ

· Количество сетевых интерфейсов - 1

Установленная операционная система Windows 7.

Сетевой интерфейс имеет настройки:

· IP 192.168.100.5

· Маска подсети 255.255.255.0

· Адрес DNS-сервера 192.168.100.10

2.3.6 Виртуальная машина ВМ5

Виртуальная машина ВМ5 используется в качестве контроллера домена Active Directory.

При создании виртуальной машины ВМ5 задаем следующие параметры:

· Число процессоров 2.

· Оперативная память - динамическая от 1 до 4 ГБ

· Объем жесткого диска - 50 ГБ

· Количество сетевых интерфейсов - 1

Сетевой интерфейс имеет настройки:

· IP 192.168.100.10

· Маска подсети 255.255.255.0

· Адрес DNS-сервера 192.168.100.10

Установленная операционная система Windows Server 2008 R2 Enterprise с установленными компонентами Active Directory Domain Services и DNS.

Домен - это административная единица, внутри которой расположены компьютеры, группы безопасности и пользователи одной сети, управляемые контроллером домена, использующие единые определенные возможности. Контроллер домена реплицирует раздел хранилища данных, который содержит данные идентификации пользователей, групп и компьютеров домена. Причем, учетные записи пользователей и компьютеров расположены не локально на клиентских компьютерах, а на контроллере домена, то есть используется сетевой вход в системы на всех рабочих местах. Помимо этого, домен является областью действия административных политик разного характера.

Домены на базе Active Directory позволяют централизованно администрировать все ресурсы, включая пользователей, файлы, периферийные устройства, доступ к службам, сетевым ресурсам, веб-узлам, базам данных и так далее. AD поддерживает иерархическое пространство имён для учётной информации о пользователях, группах и компьютерах, а так же о других каталогах, что в конечном счёте позволяет снизить административные издержки, связанные с поддержкой нескольких пространств имён. Короче говоря, AD позволяет использовать единую точку администрирования для всех публикуемых ресурсов. В основе AD используется стандарт именования X.500, система доменных имён - Domain Name System (DNS) для определения местоположения, и в качестве основного протокола используется Lightweight Directory Access Protocol (LDAP). Членство в домене узлов необходимое условие при создании отказоустойчивого кластера с помощью компонента Failover Clustering.


Подобные документы

  • Проектирование аппаратной составляющей отказоустойчивого кластерного сервера для компании. Расчет полезной и полной пропускной способности сети. Требования к системе управления, дисковой подсистеме, сетевой инфраструктуре, надежности и отказоустойчивости.

    курсовая работа [161,5 K], добавлен 04.12.2013

  • Разработка алгоритма работы. Выбор и обоснование структурной схемы. Разработка функциональной схемы блока ввода и блока вывода. Проектирование принципиальной схемы блока ввода и блока вывода, расчет элементов. Разработка программного обеспечения.

    курсовая работа [1,7 M], добавлен 25.12.2011

  • История развития системы исчисления, первые специальные приборы для реализации простейших вычислительных операций. Первые поколения компьютеров, принцип работы, устройство и функции. Современный этап развития вычислительной техники и ее перспективы.

    презентация [2,1 M], добавлен 28.10.2009

  • История развития кафедры информатики и вычислительной техники Тульского педагогического института, его современное состояние. Руководители кафедры и ее педагогический состав. Разработка системы навигации и структура сайта кафедры, его стилевое решение.

    курсовая работа [30,0 K], добавлен 22.05.2009

  • Обоснование и выбор методологии проектирования, структурной схемы системы и разработки модели системы. Разработка сетевого плана выполнения работ, расчет технических характеристик. Описание выбора языка программирования, web–сервера и базы данных MySQL.

    дипломная работа [719,0 K], добавлен 20.09.2013

  • Контроль и управление технологическим процессом очистки диффузионного сока. Разработка функциональной схемы автоматизации. Выбор средств управления и разработка структурной схемы. Расчет системы управления. Формализованные задачи и алгоритмы управления.

    курсовая работа [206,8 K], добавлен 21.04.2012

  • История развития вычислительной техники, основные характеристики. Основное отличие вычислительной системы от компьютера, виды архитектур. Классификация уровней программного параллелизма. Главные особенности векторной, матричной обработки регистров.

    курсовая работа [36,0 K], добавлен 21.07.2012

  • Технико-экономическое обоснование разработки вычислительной сети. Функции пользователя в сети. Выбор конфигурации. Проектирование структурной схемы. Планирование и анализ угроз информационной безопасности. Моделирование сети. Перспективы развития.

    курсовая работа [556,7 K], добавлен 10.12.2008

  • Разработка информационно-аналитической системы анализа и оптимизации конфигурации вычислительной техники. Структура автоматизированного управления средствами вычислительной техники. Программное обеспечение, обоснование экономической эффективности проекта.

    дипломная работа [831,1 K], добавлен 20.05.2013

  • Описание функциональной схемы контроллера системы отопления, обеспечивающего многопозиционный контроль температуры и управление ветками отопления и котлом. Разработка принципиальной схемы. Обоснование выбора. Алгоритм работы устройства. Листинг программы.

    курсовая работа [1,1 M], добавлен 26.12.2012

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.