Вступ до розподілених обчислень

Питання, моделі та десять технологічних тенденцій розвитку мережних розподілених обчислень. "Візантійські відмови" і проблема вибору лідера. Рівні архітектури протоколів Грід і їх відповідність рівням архітектури протоколів Інтернет. Структура GRAM.

Рубрика Программирование, компьютеры и кибернетика
Вид курс лекций
Язык украинский
Дата добавления 25.08.2014
Размер файла 1,4 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Проект створення національної Grid - інфраструктури для розвитку інформаційного суспільства в Україні, її склад і задачі вперше були озвучені академіком НАНУ Згуровським М.З на самітті WSIS (World Summit on Information Societу) у 2004 році. Мова йшла про необхідність створення освітнього і дослідницького сегменту інформаційного суспільства України з двома головними напрямками: широке використання інформаційних і комунікаційних технологій на всіх стадіях наукових досліджень і освіти, а також інформаційне управління відповідними галуззями.

Запропоновані цілі і задачі знайшли своє відображення вже у 2005 році в Державній цільовій програмі «Інформаційні та комунікаційні технології в освіті й науці на 2006--2010 роки», прийнятій Кабінетом Міністрів України (Постанова КМ України №1153 від 7 грудня 2005 року). Національний технічний університет «Київський політехнічний інститут виграв тендер проектів з реалізації завдання « Створення національної Grid - інфраструктури для підтримки наукових досліджень» цієї Державної цільової програми, оголошений Міністерством освіти і науки України.

Grid сегмент МОНУ на відміність від Grid сегменту НАНУ, який є Grid обчислювального типу (Computing Grid), можна віднести до Grid інформаційного типу (Data Grid), тому що проект Ugrid головним чином пов'язаний з забезпеченням обслуговування Української філії Світового Центру Даних (УФ СЦД), надавши його клієнтам віддалений доступ до світових сховищ наукових даних, можливості ефективного сумісного використання комп'ютерів, унікальних експериментальних установок і приладів.

Згідно з рішенням Академії наук України від 3 квітня 2006 р. Українська філія СЦД є головною структурою на Україні, яка здійснює накопичення, збереження й обробку національних і світових даних, наданих відповідними організаціями (Інститут геофізики ім. С.І. Суботіна НАН України (Відділ сейсмічної небезпеки, Відділ геотермії й сучасної геодинаміки, Відділ геомагнетизму, Відділ глибинних процесів Землі і гравіметрії, Відділ фізичних властивостей речовини Землі і т.д.), Кримська експертна рада з оцінювання сейсмічної небезпеки й прогнозування землетрусів, Міністерство архітектури і будівельної політики АР Крим, Полтавська гравіметрична обсерваторія, Геомагнітні обсерваторії (Київ, Львів, Одеса), Іоносферні станції, Національний антарктичний науковий центр Міністерства освіти і науки України (Геомагнітна обсерваторія - Аргентина, Айленд), Головна Астрономічна обсерваторія НАНУ, Львівський державний університет (Обсерваторія Львів), Одеський державний університет (Обсерваторія Одеса), Кримська Астрофізична обсерваторія НДІ Міністерства освіти і науки України (Обсерваторія КРАО),Харківський інститут радіоелектроніки (ХНУРЕ)та ін.).

Проект Ugrid виконує команда з 10 : різних українських організацій (2-х академічних, 6-ти освітянських і 2-х промислових), яку очолюють Інститут Системного Аналізу (ІПСА) Національного Технічного Університету “Київський політехнічний Інститут”. Науковим керівником проекту є Михайло Захарович Згуровський, ректор НТУУ”КПІ”, академік НАНУ, один з ініціаторів впровадження Grid технологій в Україні.

Серед виконавців проекту, крім НТУУ”КПІ”, є Інститут проблем моделювання в енергетиці імені Г.Є. Пухова НАНУ (ІПМЕ), Харківський національний університет радіоелектроніки (ХНУРЕ), Львівський національний технічний університет „Львівська політехніка” (НУЛП),, Запорізький національний технічний університет (ЗНТУ), Донецький національний політехнічний інститут (ДонНПІ), Дніпропетровський національний гірничий університет (ДНГУ), державне підприємство ”Львівський науково-дослідний радіотехнічний інститут”(ЛНДРІ) і підприємство ЮСТАР.

Поточні обчислювальні ресурси проекту наведені в табл. 7.

Табл. 7. Власні обчислювальні ресурси проекту UGrid

Cluster

Proces-sors

NODs/

CPU

RAM/NOD

(GB)

HD (GB)

STO-RAGE (TB)

1.

KPI Cluster, Национальный технический университет Украины «Киевский политехнический институт»

336

84/4

2

36

2.

ХНУРЕ, Харківський національний університет радіоелектроніки

10

10/1

1

20

0,2

3.

ЗНТУ, Запоріжський національний технічний університет

25

2/10

1

200

4.

НТУ Львівська політехніка

8

2/4

3

200

5.

ДонНТУ, Донецький національний технічний університет

12

1/12

1

2

6.

Після модернізації кластеру НУТУ „КПІ” він буде складатися з 586 процесорів з піковою потужністю вище 6 Тфлопс.

Оскільки більшість вищих навчальних закладів, академічних інститутів і промислових підприємств поки не мають суперкомп'ютерів, то в проекті передбачено розробку заходів віртуалізації ресурсів звичайних персональних комп'ютерів з допомогою Grid технологій.

Передбачається створити Grid інфраструктуру з 6-ю ресурсно-операційними центрами (в Києві, Харкові, Донецьку, Дніпропетровську, Запоріжжі і Львові) і розпочати відділене обслуговування майбутніх користувачів - науковців з університетів та наукових установ України. ділянці.

1. В червні 2007 року підписана Угода з європейською організацією DANTE про підключення Національної науково-освітньої мережі УРАН (www.uran.net.ua) до Європейської мережі GEANT-2.

2. В січні 2008 за рішенням іншої європейської організації EUGridPMA в Україні відкритий Сертифікаційний центр відкритих ключів для надання українським користувачам доступу до європейських ресурсів і сховищ даних. (www.сa.ugrid.org).

3. Розроблений портал SDGrid (www.sdgrid.org.ua) як єдина точка доступу до різнорідних інформаційних ресурсів і додатків.

4. З вересня 2007 року в ІПСА НТУУ”КПІ” та ряді інших вузів розпочинається програма магістерської підготовки з напрямку „Grid технології в науці і освіті”. Перелік магістерських тем, що пропонуються в ІПСА, розміщено на сайтах Центру (www.hpcc.org.ua) і проекту UGrid (www.grid.ntu-kpi.kiev.ua).

Рис. 16. Отримання доступу користувачем через Web-портал SDGrid

5. Встановлено програмного забезпечення NetSolve на кластері НТУУ “КПІ” для надання дослідникам можливості використання ресурсів Grid при проведенні обчислень в звичних для них робочих середовищах MATLAB/Mathematica/OctaveFortran/C/, встановлених на персональних комп'ютерах. Користувач не піклується тепер про те, де знаходиться, як виявляється і викликається потрібний йому Grid ресурс; він тільки вказує ті критерії, за якими необхідно підібрати йому цей ресурс, і взаємодіє далі з цим ресурсом так само, як і з локальними ресурсами (процедурами, класами, програмами) його робочого середовища.

Докладніше дослідження, що проводяться, виглядають так

- НТУУ”КПІ”: Створення порталу знань, дослідження сумісності (inetroperability) проміжного програмного слою, створення Grid-додатка для моделювання сучасних мікро-електронно-механічних систем (МЕМС);

_ НТУ Львівська політехніка: створення потужної системі збереження даних на базі з використанням системи IBM BladeCenter QS21, що складається з 14 обчислювальних блейд-серверів на базі процесорів Cell та одного координуючого вузла;

- ЗНТУ, Запоріжський національний технічний університет: паралельна програмна модель нейронної мережі, дослідження паралельної реалізації методу молекулярної динаміки;

- ХНУРЕ, Харківський національний університет радіоелектроніки: програмне забезпечення для тестування продуктивності бібліотеки PVM.

Аналіз характеристик та напрямків застосування GRID-порталу у Львівському центрі GRID

Дослідження вимог та характеристик Grid-порталу

Grid-портал забезпечує доступ користувачів до ресурсів, що є основними поняттями Grid-систем, та повинен відповідати таким вимогам [5]:

1. Доступність. Доступ до Grid-порталу повинен здійснюватись з будь-якого місця та не залежати від типу обладнання користувача;

2. Доступ до різних служб повинен здійснюватись, використовуючи один той самий інтерфейс користувача;

3. Безпека. Необхідною умовою роботи в Grid є безпека інформації на всіх рівнях взаємодії користувача із системою, зокрема:

- захищена передача даних по Web;

- захищеність параметрів доступу користувача;

- аутентифікація користувача;

- захищеність на рівні віртуальної організації;

4. Інтерфейс користувача має бути достатньо простим та зрозумілим.

По суті будь-який Grid-портал являє собою графічний Web-інтерфейс, основними функціями якого є:

1. Навчання користувачів технології Grid-обчислень;

2. Забезпечення доступу до ресурсів Grid-систем через Інтернет;

3. Ефективний моніторинг біжучого стану Grid-системи.

Тобто Grid-портал дозволяє здійснювати управління завданнями та даними в Grid-системі безпосередньо з браузера.

Доступ користувачів до ресурсів Grid-систем, зокрема до ресурсів Центру Суперкомп'ютерних Обчислень НТУУ «КПІ» здійснюється шляхом авторизації користувача за допомогою цифрових сертифікатів. Для надання сертифікатів в Україні відкрито Сертифікаційний центр відкритих ключів, який обслуговує всю національну Grid-інфраструктуру.

Отримання сертифікату є головним та необхідним кроком для отримання доступу до Grid-системи. Цифровий сертифікат є аналогом паспорту та дозволяє однозначно ідентифікувати користувача. Доступ до Grid-системи може бути здійснений з будь-якої точки (терміналу), в якій наявне відповідне програмне забезпечення (ПЗ).

При доступі до ресурсів Центру Суперкомп'ютерних Обчислень НТУУ «КПІ» користувач має можливість:

· Користуватись віддаленим доступом до кластеру по захищеному каналу для завантаження своїх прикладних програм чи їх вихідних кодів, призначених для запуску на системі кластерного типу;

· Створювати прикладні програми з вихідних кодів за допомогою компіляторів, встановлених в системі;

· Використовувати наявні стандартні прикладні програми та бібліотеки;

· Отримувати перелік прикладних програм, компіляторів та бібліотек, встановлених в системі;

· Виконувати програми на кластері; отримувати та зберігати результати їх роботи в межах виділеного дискового простору.

Сьогодні для користувачів надаються такі програмні засоби, дуже поширені серед наукової спільноти:

- MPI - OpenMPI (бібліотека для паралельного програмування)

- Компілятори GCC (C/C++, Fortran-77, Fortran-95, інш.)

- Паралельні пакети лінійної алгебри:

Інші пакети:

FFTW - C програма дискретного перетворення Фур'є http://www.fftw.org

Розробка та дослідження заходів по створенню системи збереження даних Львівського Grid-центру

У 2008 р. за кошти Львівської політехніки в рамках програми інформатизації університету для його потреб, а також, враховуючи результати науково-технічної роботи з розробки структури Львівського ресурсно-операційного Grid-центру, була придбана система збереження даних для забезпечення інформаційних, файлових, обчислювальних та інших ресурсів Університету, що являє собою апаратно-програмний комплекс у складі системи збереження даних IBM System Storage DS3400 з підтримкою технології Fibre Channel, серверної системи для забезпечення спільного користування централізованими та розподіленими комп'ютерними та інформаційними ресурсами на базі блейд-шасі ІBM eServer BladeCenter H Chassis та системи резервного копіювання даних на основі бібліотеки на магнітних стрічках IBM System Storage TS3100 Tape Library.

Це програмно-апаратне рішення вибране таким чином, щоб воно могло в перспективі інтегруватися з програмно-апаратною платформою Grid-центру, для якого була запланована система IBM BladeCenter QS21, що складається з 14 обчислювальних блейд-серверів на базі процесорів Cell та одного координуючого вузла.

Система збереження даних для забезпечення інформаційних, файлових, обчислювальних та інших ресурсів Університету укомплектована 4 блейд-серверами типу HS21XM:

Таблиця 9. Конфігурація блейд-сервера типу HS21XM

Складові

Конфігурація

Процесор

Xeon Quad Core E5335 2.0GHz/1333MHz/8MB L2

Оперативна пам'ять

3GB(2x512,2x1GB)PC2-5300 CL5 ECC DDR2 Chipkill FBDIMM Memory Kit, 8DIMM роз'ємів

Модуль управління

cKVM Feature Card (StFF) for IBM BladeCenter

Плата Fiber Channel

QLogic 4Gb SFF Fibre Channel Expansion Card for IBM eServer BladeCenter

Система діагностики (PFA)

Жорсткі диски, пам'ять, процесор, вентилятори, блоки живлення, система регулювання напруги

Живлення

Дубльоване через з'єднувальну плату

Шина кард розширення

PCI-X

Таблиця 10. Конфігурація блейд-сервера типу QS21

Складові

Конфігурація

Процесор

2xCell BE / 3.2GHz

Оперативна пам'ять

2Gb 400 MHz XDRAM(1Gb per CPU)

Живлення

Дубльоване через з'єднувальну плату

Шина кард розширення

PCI-X

Ці 5 блейд-серверів, кількість яких в перспективі збільшиться до 14 штук, призначаються як для використання в складі системи збереження даних проектованого Grid-центру в Львівській політехніці, так і для потреб Університету для створення центру збереження даних рівня університету. Центр збереження даних забезпечить консолідовану ІТ-інфраструктуру, що, в свою чергу, дозволить здійснити:

- покращення якості ІТ-сервісів, потрібних для навчання та науки через реорганізацію надання інформаційних, обчислювальних, файлових та інших послуг і сервісів на рівні Університету з використанням методики відсутності єдиної точки відмови на основі використання традиційних відмовостійких схем, що передбачають кластеризацію і резервування пристроїв;

- використання концепції серверних обчислень, яка об'єднує управління ресурсами, зменшує витрати і покращує доступ до прикладних задач;

- віртуалізацію ресурсів та сервісів, що дозволить забезпечити загальний доступ до інформації, агрегацію, розширення та прозору зміну ресурсів з доступом через веб консоль. Забезпечення віртуалізації сервісів дає наступні можливості: консолідацію серверних ресурсів, динамічне забезпечення даними, зокрема реконфігуровані кластери, віртуальний хостинг, надійність, доступність, зручність експлуатації та обслуговування, управління робочими навантаженнями на сервери, тощо;

- обчислювальні потужності Університету на основі використання багатопроцесорних систем - блейд-серверів, багатомашинних систем - кластерів, а також створення GRID-центру для потреб Університету, зовнішніх споживачів.

Запуск даної системи фактично передбачав створення університетської SAN-мережі і визначальним фактором при цьому був вибір платформ, на яких вона буде збудована. Як відомо, система збереження даних DS3400 може підтримувати досить велику кількість серверів, але для цього є необхідне використання SAN-комутатора. На рис. 17 наведений приклад використання системи DS3400 з двома контролерами при підключенні до 4 серверів. Як видно з рис. 17, кожен сервер має 2 Fibre Channels HBA-адаптери для забезпечення функцій надлишковості для забезпечення обміну інформацією.

Було прийняте рішення не закуповувати окремий SAN-комутатор, оскільки існувала можливість використати Nortel Networks SAN-комутатор в складі блейд-шасі ІBM eServer BladeCenter H, який обслуговуватиме доступ до системи збереження даних DS3400. Це дозволило не лише оптимізувати витрати (вартість блейд-шасі в складі з усіма необхідними модулями та комутаторами згідно таблиці 3 є порівнювана з вартістю одного окремого SAN-комутатора), але і добитись рішення, в якому і блейд-сервери, і елементи SAN-мережі є повністю сумісні між собою.

Рис. 17. Приклад використання системи збереження даних ІВМ DS3400 при підключенні до 4 серверів.

Таблиця 11. Конфігурація блейд-шасі ІBM eServer BladeCenter H

Складові

Конфігурація

Шасі

ІBM eServer BladeCenter(tm) H Chassis або еквівалент

Вентилятори

Дубльовані із гарячою заміною

З'єднувальна плата

Пасивне дублювання

Блоки живлення

2 дубльованих блока живлення (загальна к-сть 4) 2900W

Модуль комутатори BladeCenter

2 х 20 портові Nortel Networks Layer 2/3 Copper GbE Switch Module for BladeCenter або еквівалент

Fiber Channel комутатори

2 x QLogic(R) 4Gb 20-port FC Switch Module for IBM eServer BladeCenter або еквівалент

Модуль управління

Дубльований BladeCenter Redundant KVM/Advanced Management Module або еквівалент

Остаточна схема розгортання комплексу в складі системи збереження даних, блейд-серверів, які забезпечують доступ до неї та SAN-мережі.

архітектура протокол грід інтернет

Рис. 18. Схема розгортання комплексу в складі системи збереження даних, блейд-серверів, які забезпечують доступ до неї та SAN-мережі без використання окремого SAN-комутатора

Після запуску цього комплексу разом із системою резервного копіювання даних на основі бібліотеки на магнітних стрічках IBM System Storage TS3100 Tape Library планується перенесення сюди загальноуніверситетських сервісів, в тому числі і обчислювальних, які на даний момент виконуються на серверах типу HP, ІВМ, Intel та SuperMicro.

Рис. 19. Схема зображенням з'єднань між блейд-серверами та системою збереження даних

Литература

1. I. Foster, C. Kesselman. The Grid: Blueprint for a New Computing Infrastructure. - Morgan Kaufmann Publishers, 1998.

2. I. Foster, C. Kesselman, S. Tuecke. The Anatomy of the Grid: Enabling Scalable Virtual Organizations. - International J. Supercomputer Applications, 15(3), 2001, http://www.globus.org/research/papers/anatomy.pdf

3. I. Foster, C. Kesselman, S. Tuecke, J.M. Nick. The Physiology of the Grid: An Open Grid Services Architecture for Distributed Systems Integration. - Morgan Kaufmann Publishers, 2002.

4. I. Foster, H. Kishimoto, A. Savva, D. Berry et al. The Open Grid Services Architecture. - Global Grid Forum, 2005

5. А.К. Кирьянов, Ю.Ф. Рябов Введение в технологию Грид // Петербургский институт ядерной физики им. Б.П. Константинова РАН. - 2006. - 39 с.

6. Петренко А.І. Національна Grid - інфраструктура для забезпечення наукових досліджень і освіти // Системні дослідження і інформаційні технології. - Київ. - №1 - 2008. - C.79-92.

7. M. Z. Zgurovsky. Development of Educational and Research Segment of Information Society in Ukraine. - //Proc. WSIS.-Tunis.- 2004.-P.103-107.

8. M. Z. Zgurovsky. Development of Educational and Research Segment of Information Society in Ukraine. - //Системні дослідження та інформаційні технології. - Київ. - 2006. - №1. - С.7-17.

9. Petrenko A.I. Development of Grid -infrastructure\for Educational and Research segment of Information Society in Ukraine with focus on Ecological monitoring and Telemedicine. - // Data Science Journal.- Volume 6.- Supplement, 14 April 2007. - P.583-590.

Размещено на Allbest.ru


Подобные документы

  • Структура захищених систем і їх характеристики. Моделі елементів захищених систем. Оцінка стійкості криптографічних протоколів на основі імовірнісних моделей. Нормативно-правова база розробки, впровадження захищених систем.

    дипломная работа [332,1 K], добавлен 28.06.2007

  • Підвищення продуктивності мікропроцесорних систем. Основні напрями вдосконалення архітектури сучасних обчислювальних систем. Багатоядерні МП та багатопроцесорні МПС. Конвеєризація та розпаралелювання обчислень. Суперкомп'ютери - надвисоки швидкості.

    лекция [408,1 K], добавлен 13.04.2008

  • Особливості налагодження протоколів канального рівня для з’єднань глобальних мереж на базі обладнання Cisco. Методика та головні етапи налагодження з’єднання мереж через маршрутизатори Cisco з використанням протоколів HDLC, PPP та технології Frame Relay.

    лабораторная работа [1,1 M], добавлен 17.06.2012

  • Дослідження призначення та видів мережевих технологій - погодженого набору стандартних протоколів та програмно-апаратних засобів, достатнього для побудови локальної обчислювальної мережі. Комбінування архітектури комутаційної матриці й загальної шини.

    реферат [523,1 K], добавлен 18.02.2011

  • Комплексна обробка просторово-розподілених ресурсів мережі Інтернет. Системи інформаційного моніторингу в мережі. Обґрунтування технологій, розробка системи інтеграції Інтернет-контенту для конкурентного середовища ринку праці. Оцінювання систем аналізу.

    дипломная работа [763,8 K], добавлен 14.07.2013

  • Принципи побудови розподілених обчислювальних мереж, зокрема GRID-систем. Існуючи способи планування задач в них. Детальний аналіз Moab Workload Manager, недоліки алгоритму. Розроблення програмного забезпечення щодо більш ефективної його роботи.

    дипломная работа [1,7 M], добавлен 13.04.2014

  • Аналіз мережевих протоколів та їх основних параметрів. Описання алгоритму розв’язання задач написання мережевих програм, та реалізація їх на базі Winsock. Створення простого чату для передачі повідомлень користувачів, на основі протоколів IEEE та ISO.

    курсовая работа [86,1 K], добавлен 17.06.2015

  • Загальна характеристика підприємства "Focus". Огляд програмного забезпечення для створення комп’ютерної мережі. Вибір мережевої служби та протоколів, архітектури, кабелю. Розрахунок обсягу даних, мінімальної конфігурації для серверів та робочих станцій.

    курсовая работа [600,9 K], добавлен 20.05.2015

  • Установки протоколів TCP/IP. Налаштування поштової програми MS Outlook Express. Класифікація пошукових систем та принципи їх роботи. Створення електронних документів в WWW для публікації в мережі Інтернет на мові HTML. Основи впровадження JavaScript.

    лабораторная работа [259,9 K], добавлен 06.11.2011

  • Проектування дієздатної демонстраційної моделі системи електронної комерції. Розробка сценарію купівлі з використанням мережі Інтернет. Архітектура механізму розповсюдження сертифікатів відкритих ключів. Підсистема асиметричної і симетричної криптографії.

    дипломная работа [2,0 M], добавлен 10.08.2011

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.