(Ликбеза по технологии Windows server 2012 - Storage Spaces,
как настраивать и обзора всего того, что это может дать, в статье не будет.
Кому интересно, все есть как на сайте разработчика ОС, так и других обзоров по Storage Spaces навалом)
Наверняка многие знают про новый функционал по работе с
дисковой подсистемой появившейся в Windows
Server 2012, а именно Storage
Spaces, позволяющий объединять диски с разными интерфейсами, в единый дисковый
пул и дальнейшим созданием виртуальных дисков на этом пуле, с необходимым
уровнем отказоустойчивости.
Так же не является секретом, то что Storage Spaces возможно
кластеризовать и с точки зрения Microsoft , получить не дорогое решение высоко доступного
хранилища. Доступ к системе хранения может быть как файловый (CIFS, NFS, SMBScale-Out), так и блочный (iSCSI).
Ну что же, подумали мы, не плохо бы было проверить такое
бюджетное решение на пригодность и поглядеть на отработку фэйловера.
В тестировании использовалось ящик от Supermicro - 6036ST-6LR, а в общем схема подключения выглядит приблизительно так:
|
Если в паре слов, то к SAS HBA каждого узла кластера
подключен один из двух SAS-портов жесткого диска, что и обеспечивает
отказоустойчивость в данной концепции.
NIC1 - внешняя
сеть для управления узлами и ресурсами кластера
NIC2 - внутренняя
сеть для виртуальной инфраструктуры (в данной статье не используется)
NIC3 - сеть для
heartbit'ов узлов кластера
Ресурсы кластера:
Iscsi -
кластеризованный iSCSI Target
fs-1 -
кластеризованный SMB
fs-so-1 - высоко
доступный файловый ресурс в режиме Active-Active (актуально только для ОС
Windows 8 / Windows 2012 и выше)
Отработка фэйловера проверялась жестким ресетом
узла-владельца ресурса. Перед сбросом узла, запускался опрос ресурса по сети
(ping) и операция копирования файла с/на ресурс .
SMB Scale-Out
File Server - Результат достаточно любопытен. Т.к. режим
Active-Active достигается алгоритмом 'round
robin', то получились следующее результаты:
• если
сессии открываются часто, то отработка отказа происходит практически
моментально
Важно: прозрачное
переключение SMB3.0 и Scale-Out поддерживаются только клиентами Windows 8 и
Windows 2012.
Отойдя немного от идеи использования Clustered Storage Spaces в качестве бюджетного СХД, хотелось бы
заметить, сами узлы кластера фактически без какого либо тайм аута
взаимодействуют с дисковым пулом. Например переключение высоко доступнойвиртуальной машины происходит с теми же задержками, что и при использовании любой другой СХД в кластере Hyper-V.
. Иными словами, при
использовании нескольких дисковых полок
и производительных серверов, подключенных
через SAS коммутатор, можно получить не плохое решение для определенных
задач (например VDI, где необходимо приобрести только лицензии на клиентские
ВМ, и одну лицензию Win2012Std, для RDCB+RDWA)
Вывод: На мой
субъективный взгляд, решение хорошо подходит для построения реально бюджетной
виртуальной инфраструктуры на основе Windows Hyper-V Server 2012.
Что же касается использования в качестве замены классической
СХД, то тут исключительно надо отталкиваться от задачи и потребностей (и от
толщины кошелька - реально дешево, но задержка при фэйловере 30 сек не всех
устроит).
PS: В статье не
рассмотрены вопросы касающееся непосредственно надежности самого Storage
Spaces, в частности не выдергивались диски и не "ломались" SAS
интерфейсы /порты (симуляция отказа
одного из путей на SBB 6037B-DE2R16L выполнить не получится из-за
конструктивных особенностей подключения узлов к бэкплэйну корзины).
Так же не производились тесты скорости (такие модные плюшки,
появившихся в Windows Server 2012 R2, как тиринг и кэширование записи,
тестировать пока не планирую).
В планах имеется тестирование работы высоко доступных
приложений, непосредственно на узлах кластера (например гипервизор или MS SQL
Server).
Результаты всего вышеперечисленного, будут либо в
комментариях, либо в еще одной статье.
Комментариев нет:
Отправить комментарий
Примечание. Отправлять комментарии могут только участники этого блога.