Построение вычислительного облака на двух

advertisement
Построение вычислительного
облака на двух площадках.
Постановка задачи.
Обеспечение высокой доступности приложений при
гарантированной сохранности данных
Балансировки нагрузки внутри и между площадками
Обеспечение эластичного использования ресурсов
Автоматическая реконфигурация ресурсов и
формирование сценариев высокой доступности
приложений при помощи ПО оркестрации.
Варианты целевого частного облака. Вариант 1 (inter-site
bidirectional DR).
Единая система управления
ЦОД 1
Виртуализация
вычислительных
ресурсов
Active
Основной
канал
Виртуализация
вычислительных
ресурсов
Standby
Standby
СХД
ЦОД 2
Репликация
Active
СХД
Резервный
канал
Перенос нагрузки
между площадками
группами виртуальных
машин
Высокая доступность и
распределение нагрузки внутри
площадки
Автоматически, средствами функционала High Availibility
(HA) ПО виртуализации вычислительных ресурсов
Высокая доступность и
распределение нагрузки между
площадками
Автоматизированно (инициация операций вручную),
средствами специализированного ПО (например, Vmware
SRM или ПО оркестрации)
Средства реализации
Специализированное ПО оркестрации (зависит от выбранного ПО
виртуализации вычислительных ресурсов)
Любые системы хранения, поддерживаемые специализированным ПО
(Netapp, HDS, IBM, EMC, HP)
Архитектура варианта 1 (на примере Vmware vSphere и Site
Recovery Manager, SRM)
Для половины информационных систем основным сайтом будет площадка
ЦОД 1, сайтом восстановления - площадка ЦОД 2. Для другой половины –
наоборот. Балансировка нагрузки между площадками осуществляется путем
перемещения информационных систем целиком (рекомендуется) или групп
виртуальных машин между площадками. Перенос инициируется вручную и
требует отключения переносимых виртуальных машин на время
осуществления переноса.
Вариант 1. Требования к инфраструктуре и каналам связи
между площадками для реализации решения:
Максимальное расстояние между площадками не ограничено (при
использовании синхронной репликации – не более 100-150 км, в
зависимости от используемой технологии передачи сигнала);
Для передачи трафика репликации необходимо обеспечить
дублированный канал связи между площадками пропускной
способностью около 10-15% от суммарной пропускной способности
каналов связи между системой хранения данных и
вычислительной инфраструктурой (для синхронной репликации);
Использование в качестве системы хранения данных
оборудования, поддерживаемого специализированным ПО
(например, для ПО Vmware SRM для системы хранения должен
существовать программный модуль SRA):
Дисковые массивы EMC, Netapp, IBM, HP, HDS;
Средства виртуализации систем хранения данных: Netapp V-series,
HDS VSP, IBM SVC.
Вариант 1. Достоинства и недостатки:
Достоинства
Невысокие требования к инфраструктуре площадок и характеристикам
каналов связи между площадками;
Зрелое решение, отработанное годами внедрений;
Поддержка большого спектра оборудования систем хранения;
Возможность с помощью оркестратора построить решения практически для
любой платформы виртуализации вычислительных ресурсов.
Недостатки
Высокая доступность и распределение нагрузки между площадками требуют
инициации операций «вручную», анализ и принятие решений также остаются
на стороне человека;
Перенос нагрузки между площадками требует отключения переносимых
виртуальных машин на время переноса;
Перенос нагрузки между площадками может осуществляться только группами
виртуальных машин или (что рекомендуется) целыми информационными
системами;
Сложности в сочетании требований к гибкой балансировке нагрузки между
площадками и использовании продвинутых функций балансировки нагрузки на
систему хранения (например, Vmware Storage DRS или Storage vMotion).
Варианты целевого частного облака. Вариант 2 (Metro Storage
Cluster, uniform host access).
Единая система управления
ЦОД 1
Основной
канал
ЦОД 2
Виртуализация вычислительных ресурсов
Standby
Active
СХД
Резервный
канал
Третья площадка для размещения сервера-свидетеля
Высокая доступность и
распределение нагрузки внутри
площадки
Автоматически, средствами функционала HA ПО
виртуализации вычислительных ресурсов
Высокая доступность и
распределение нагрузки между
площадками
Автоматически, средствами функционала HA ПО
виртуализации вычислительных ресурсов и
специализированного ПО от производителей оборудования
хранения данных
Средства реализации
Специализированное ПО (зависит от выбранной системы хранения)
Любые средства виртуализации хранения, поддерживающие
конфигурацию Metro Storage Cluster (Netapp, HDS, IBM)
Архитектура варианта 2 (на примере Vmware vSphere и
системы хранения HDS VSP)
В каждый момент времени каждый LUN на системе хранения имеет активную
(active) копию на одной из площадок и неактивную (passive or standby) на
другой площадке. Весь доступ к данным идет через активную копию.
Требования к инфраструктуре и каналам связи между
площадками для реализации решения:
Сеть передачи данных, растянутая между площадками на втором
уровне модели OSI (L2);
Для передачи трафика репликации необходимо обеспечить
дублированный канал связи между площадками, пропускной
способностью до 100% от суммарной пропускной способности
каналов связи между системой хранения данных и
вычислительной инфраструктурой;
Задержка сигнала в канале между площадками (round-trip-time) не
более 5 мс. Максимальное расстояние между площадками не более
100-150 км, в зависимости от используемой технологии и передачи
сигнала;
Использование в качестве средств хранения данных оборудования,
поддерживающего конфигурацию Metro Storage Cluster:
Дисковые массивы: Netapp Metrocluster, HDS HUS VM, HP StoreServ;
Виртуализаторы: HDS VSP, IBM SVC, EMC VPLEX Metro;
Третья площадка для размещения ресурса-свидетеля (witness) или
кворум-ресурса.
Вариант 2. Достоинства и недостатки:
Достоинства
Полностью автоматическое обеспечение высокой доступности и
балансировки нагрузки как внутри, так и между площадками;
Перенос нагрузки между площадками «на лету», без простоя;
Имеется достаточно большая практика внедрений (к сожалению, в
основном за рубежом);
Поддержка относительно большого спектра оборудования и ПО.
Недостатки
Очень высокие требования к каналам связи между площадками
(как по скорости, так и по пропускной способности и стабильности),
большой объем межплощадочного трафика;
Необходимость восстановления «вручную» в случае потери связи
между площадками.
Варианты целевого частного облака. Вариант 3. (Metro Storage
Cluster, non-uniform host access).
Единая система управления
ЦОД 1
Основной
канал
ЦОД 2
Виртуализация вычислительных ресурсов
Active
Виртуализация СХД
Резервный
канал
Третья площадка для размещения сервера-свидетеля
Высокая доступность и
распределение нагрузки внутри
площадки
Автоматически, средствами функционала HA ПО
виртуализации вычислительных ресурсов
Высокая доступность и
распределение нагрузки между
площадками
Автоматически, средствами функционала HA ПО
виртуализации вычислительных ресурсов
Средства реализации
EMC VPLEX Metro
Архитектура варианта 3 (на примере Vmware vSphere и EMC
VPLEX Metro)
С точки зрения хост-серверов каждый LUN на системе хранения
имеет активную (active) копию на обеих площадках.
Требования к инфраструктуре и каналам связи между
площадками для реализации решения:
Сеть передачи данных, растянутая между площадками на втором
уровне модели OSI (L2);
Для передачи трафика репликации необходимо обеспечить
дублированный канал связи между площадками, пропускной
способностью около 30% от суммарной пропускной способности
каналов подключения подсистемы хранения данных (требуемая
пропускная способность может быть уменьшена применением
оптимизатора трафика на межплощадочных соединениях);
Задержка сигнала в канале между площадками (Round-trip-time) не
более 5 мс (не более 10мс при использовании VPLEX Geosynchrony
в архитектуре host uniform access). Максимальное расстояние
между площадками не более 100-150 км, в зависимости от
используемой среды передачи (не более 300км при использовании
VPLEX Metro в архитектуре host uniform access);
Третья площадка для размещения ресурса-свидетеля (witness);
Использование в качестве средства виртуализации хранения EMC
VPLEX Metro.
Вариант 3. Достоинства и недостатки:
Достоинства
Полностью автоматическое обеспечение высокой доступности и балансировки
нагрузки как внутри, так и между площадками;
Перенос нагрузки между площадками «на лету», без простоя;
Универсальность решения по отношению к платформе виртуализации
вычислительных ресурсов*;
Требования к каналам связи между площадками значительно ниже, чем для
варианта 2;
Гибкость в архитектуре использования (VPLEX может использоваться и в варианте
2, с существенно меньшими требованиями к каналам связи между площадками по
сравнению с прочими системами хранения);
Недостатки
В качестве оборудования виртуализации систем хранения данных поддерживается
единственное решение – EMC VPLEX;
Потеря существенной части функционала подсистемы хранения (such as snapshots,
deduplication, replication, or thin provisioning);
VPLEX не увеличивает производительность виртуализуемых дисковых массивов по
операциям записи (из за использования write-through caching)
Отключение одной из площадок при потере связи между площадками.
* - есть описанное и поддерживаемое решение на базе Vmware vSphere, но технически возможно построить
аналогичное решение на базе любой другой платформы виртуализации. Вопрос будет в поддержке этого
решения производителем ПО платформы виртуализации
Сравнение вариантов
Критерий
Вариант 1
(inter-site DR)
Вариант 2
(MSC, uni-access)
Вариант 3
(MSC, non-uni-access)
Расстояние между площадками
не ограничено*
до 100-150 км
Требования к инфраструктуре и каналам связи
между площадками
нет жестких требований
либо средние**
Автоматизация обеспечения высокой
доступности и распределения нагрузки
средняя
Спектр поддерживаемого ПО виртуализации
вычислительной инфраструктуры
VMware vSphere,
MS Hyper-V, RHEV**
VMware vSphere,
MS Hyper-V
неограниченный****
Спектр поддерживаемого оборудования
хранения данных
оборудование почти всех
ведущих производителей
систем хранения
ограниченный
только VPLEX Metro
Зрелость решения и известная практика
реализации
высокая
средняя
ниже средней
Стоимость
средняя
выше средней
высокая
высокие
выше среднего
высокая
Примечания:
*
- при использовании синхронной репликации до 100-150 км
** - нет жестких требований при использовании асинхронной репликации, при использовании синхронной - средние
*** - VMware vSphere средствами ПО VMware SRM, MS Hyper-V средствами оркестратора, RHEV средствами Symantec
Storage Foundation for HA
**** - есть описанное и поддерживаемое решение на базе VMware vSphere, но технически возможно построить
аналогичное решение на базе любой другой платформы виртуализации. Вопрос будет в поддержке этого решения
производителем ПО платформы виртуализации.
Еще раз для понимания: различие между вторым и
третьим вариантами
Вариант 2
Вариант 3
Download