ИТ-технологии для профессионалов

Показаны сообщения с ярлыком virtualization. Показать все сообщения
Показаны сообщения с ярлыком virtualization. Показать все сообщения

вторник, 26 мая 2015 г.

Состояние рынка гиперконвергентных решений - 2015.

Компания ActualTech Media, при поддержке разработчика гиперконвергентных решений SimpliVity, провела опрос среди ИТ-профессионалов североамериканских и европейских компаний на предмет их понимания и востребованности гиперконвергентных решений. Результаты этого опроса опубликованы в виде отчёта «2015 State of Hyperconverged Infrastructure Market Report» на сайте: http://www.hyperconverged.org/2015-hyperconvergence-market-report/.

Основные выводы исследования:

  • Рынок гиперконвергентной инфраструктуры пока ещё находится в младенческой стадии. Процент инсталляций пока очень мал и ожидается, что организации (Европа, Америка) всерьёз начнут задумываться об использовании таких решений года через 2-3.
  • VDI остаётся ключевым фактором, определяющим использования гиперконвергентных решений.VDI – основной драйвер, который до сих пор двигал внедрение гиперконвергентной инфраструктуры. Тем не менее сегодня важное значение начинают играть и другие варианты рабочих нагрузок.
  • Компании отчаянно ищут способы упрощения ИТ инфраструктуры и снижения её стоимости. Несмотря на некоторое увеличение расходов на ИТ в этом году (Северная Америка и Европа), многие организации по-прежнему стремятся к сокращению расходов на ИТ — как капитальных, инвестируя в технологии, которые обеспечивают более быстрый возврат инвестиций, так и операционных.
  • Многие ИТ-профессионалы не в полной мере понимают концепцию гиперконвергентности. Общий вопрос, которые задавали большинство опрошенных - “Зачем нам возвращаться к DAS (direct-attached storage)?”
  • Для больших организаций плановая замена оборудования не является ключевым фактором для внедрения гиперконвергентной инфраструктуры. Это, скорее всего, происходит из-за того, что циклы замены оборудования организованы на уровне функциональных подсистем и ИТ-персонал в больших организациях фокусируется только на том, что он хорошо знает и понимает (администраторы СХД, сетевые администраторы и администраторы серверной инфраструктуры планируют модернизацию отдельно), а также из-за того, что в таких организациях существуют хорошо отработанные процедуры апгрейда оборудования, которые никто не хочет кардинально менять.
  • Важной задачей является быстрый ввод в эксплуатацию виртуальных машин. Крупные организации часто сталкиваются с проблемой развёртывания и ввода в эксплуатацию большого количества виртуальных машин и, соответственно, ищут способы ускорения этих процессов. Для небольших компаний эта задача не является критической.
  • Неудовлетворённость работой СХД предыдущего поколения - не основная проблема. Тем не менее, хотя неудовлетворенность устаревшими СХД сама по себе может и не быть ключевым фактором их замены на гиперконвергентные решения, вполне вероятно, что эти же организации имеют некоторые проблемы с общей эффективностью ИТ и являются сектором, в котором использование обычных СХД может сократиться в первую очередь.
  • Процессы консолидации ЦОД имеют высокий приоритет для крупных компаний. Опять же, это, скорее всего, происходит от желания сократить расходы и повысить эффективность ИТ.

Далее приводится краткий обзор технологии и основные выводы, сделанные в отчёте по результатам опроса.
Читать дальше ...

вторник, 9 июля 2013 г.

Stratus Avance. Четыре девятки

  
Каждое второе ТЗ в IT изобилует формулировками “высокая доступность сервисов”, High Avalibility, HA,  и огромным количеством “девяток”. Доступность принято измерять в процентах времени непрерывной работы системы (uptime) в год. Понятно стремление каждого CIO обеспечить не менее чем 99,99% доступности критически важных сервисов. А это, между, прочем не более чем 52.56 минуты незапланированного простоя в год. А ведь этих “девяток” бывывает ещё больше! Кто задумывался сколько стоит каждая девятка после запятой? Какой административный ресурс требуется для поддержания этого параметра? Какое программное и аппаратное обеспечение необходимо? Какую, в конце концов, зарплату должен получать администратор, который не просто покажет всем красивую презентацию с девятками, но и на деле обеспечит непрерывность бизнеса?

Одним из пионеров в разработке систем обеспечения высокой доступности является компания Stratus. О «неубиваемых» серверах этой компании многие слышали, но, как правило, ассоциация у всех одна – ДОРОГО. Это не совсем так, а скорее совсем не так. Сегодня мы поговорим об их продукте, нацеленном на сегмент малого и среднего бизнеса, который позволяет минимальными средствами (во всех смыслах!) обеспечить гарантированную доступность 99,99%.

Что из себя представляет ПО Stratus Avance? В двух словах это система виртуализации, обеспечивающая проактивный мониторинг физических хостов кластера, непрерывную репликацию данных между хостами, и автоматизированное управление размещением, работоспособностью и перезапуском ВМ. Управляющее ПО включает в себя:
     Мониторинг более чем 150 параметров работы физического сервера от температур компонентов, скорости вращения вентиляторов, до ошибок на ЖД и потери сетевых пакетов
     Автоматизацию живой миграции виртуальных машин между узлами кластера в случае выявления тех или иных сбоев
     Различные механизмы уведомления (банальные email, SNMP, не банальные: звонки на телефон и SMS)
     Защиту от сбоев питания. Система имеет встроенные механизмы управления корректным выключением сервисов в случае получения соответсвующего сигнала от ИБП.
Многие скажут: “Стоп, всё это мы видели! Вон VMware vSphere + Storage Appliance умеет всё тоже самое.” или “Зачем нам софтверная репликация? Мы создадим кластер виртуализации на основе СХД, применим механизмы Live Migration, Fault Tolerance и кластеризации сервисов внутри ВМ”. Я не случайно начал с вопросов о стоимости оборудования, ПО и административного ресурса. Описанные схемы требуют не только серьёзных капиталовложений в оборудование и ПО, но и соответствующие “скиллы” персонала, время на внедрение и тестирование.

Установка Avance проходит в графическом интерфейсе, в котором вам показывают какие интерфейсы задействовать под выделенные кластерные сети, как правильно настроить оповещения и пр. Тонкий гипервизор основан на коде Citrix, это к вопросу об изобретениях велосипедов. Система позволяет строить территориально распределённые кластеры (до 5 километров между узлами), а это уже не просто HA, это катастрофоустойчивость, которую не так-то просто обеспечивать, при этом репликация идёт по протоколу IP.
Что следует знать и учитывать. У ПО есть лист совместимости - в него входят платформы “больших брендов” IBM, HP, Dell и конструкторы на базе платформ Intel, Гостевые ОС Windows 2000-2008 R2 (появление в листе Windows Server 2012 - вопрос ближайшего времени, мажорное обновление ожидается в ближайший сентябрь) и Red Hat Enterprise Linux / CentOS v5, v6. Пока только два узла в кластере, но производитель обещает развивать систему в сторону многоузловых конфигураций. До 256Гб ОЗУ на ноду и до 24 ВМ на кластер. Есть обязательный к приобретению (по меньшей мере на год) сервис по моделям 9/5 и 24/7, что в комплекте с пакетами расширения гарантии от большой тройки брендов с гарантированным временем реакции на инцидент даёт вам ещё большую уверенность в жизнеспособности всей схемы.

В свете вышесказанного мы получаем самую дешёвую и простую модель системы, обеспечивающую те самые четыре девятки. Сферы применения разнятся от небольших предприятий, которым хватит 24 экземпляров серверных ОС в инфраструктуре до филиалов, требующих наличия надёжной IT-инфраструктуры.

В ближайшем будущем мы планируем провести мероприятие в Москве, посвящённое обзору продукта. Для расчётов и конкурентных сравнений обращайтесь к нашим инженерам.

Техническую документацию можно найти тут.
Читать дальше ...

вторник, 22 мая 2012 г.

EMX VMAX 40K

imageКак обычно, громко и шумно EMC анонсировали новую high-end дисковую систему. На смену VMAX и VMAXe пришли аж целых три системы - VMAX 10K, 20K и 40K. Правда, здесь есть и небольшой подвох - 10K и 20K вроде как никуда и не пришли. А не пришли они из-за того, что никуда и не уходили - это уже хорошо знакомые нам VMAXe и VMAX, только с новыми названиями. Действительно, в прошлый раз маркетологи в EMC явно перемудрили и назвали все модели новыми именами (VMAX, VPLEX, VNX...), но никто не побеспокоился о том, что же делать, если потребуется все-таки их немного усовершенствовать - процессоров там добавить, либо еще что-нибудь прикрутить. Вот и пришлось теперь менять название. Что касается новой “звезды” в лице VMAX 40K, то из “железных” изменений все довольно ожидаемо - более современные шестиядерные процессоры (2.8ГГц Westmere), больше кэш памяти плюс шина PCI express 2.0:

 image

За счет этого добились (по заявлениям) двукратного роста производительности в бэкенде и на линейных нагрузках “снаружи”. Что касается OLTP нагрузки, то здесь декларируется примерно 25% роста. Без изменений осталось максимальное поддерживаемое количество дисков 3.5” (2400), но зато можно использовать до 3200 дисков форм-фактора 2.5” (причем их можно установить до 400шт в стойку). Как и прежде, используется FC бэкенд и FС диски. Кроме EMC и HP (3PAR) в системах high-end c FC дисками никого не осталось - IBM и Hitachi уже давно перешли на SAS. Существенное ограничение - нельзя смешивать в одной системе диски 2.5” и 3.5” (не только в одном шкафу, но и вообще во всей системе). Нельзя и проапгрейдить 10K до 20K, а 20K до 40K, так что, несмотря на схожесть названий, эти системы разделены жестким барьером и пользователь не имеет возможности вспрыгнуть на подножку стремительно уходящего поезда прогресса, зацепившись за “младшую” систему. Хотите перспективы - берите сразу 40K.

Видимо в EMC получили ряд нареканий о том, что затруднительно бывает разместить монстра VMAX в ЦОД из-за нехватки площадей, поэтому сейчас можно “разбросать” части VMAX 40K (опять же, только 40K!) по ЦОД (в пределах 25м).

Если с точки зрения железа все, как я и написал, ожидаемо и логично, то в софте добавилось возможностей несколько больше. Самое заметное - Federated Tiered Storage (FTS). Говоря простыми и понятными словами, это виртуализация внешних (сторонних) СХД. “Сторонних” звучит, правда, несколько натянуто - на первом этапе поддерживаются только Symmetrix DMX-4, DMX-3, DMX, CLARiiON CX4 / CX3, VNX и (вот же она, “сторонняя система”!) Hitachi USP-V. Список конечно весьма и весьма скромен, да и виртуализация динозавра в лице DMX3 (а и USP-V тоже) выглядит довольно - нужно дважды заплатить за лицензии на емкость - сначала за емкость самого DMX3, а потом за нее же, но уже в ценах для VMAX. Однако хочется надеяться, что список протестированных и поддерживаемых устройств будет расти. Виртуализованная емкость может использоваться со всеми замечательными функциями (FAST VP, TimeFinder, SRDF, VLUN). В этом плане VMAX выглядит, на мой взгляд, даже немного интереснее, чем VPLEX. С другой стороны, получается соревнование по функционалу между двумя “топовыми” продуктами одного производителя. Уж лучше бы сделали “VMAXPLEX”, который бы обладал преимуществами обеих систем! Из приятного - Federated Tiered Storage доступен не только на VMAX 40K, но и на 20K (напомню, что это нынешний VMAX).

Для FAST VP появилась возможность интеграции с SRDF и теперь на удаленной площадке система в курсе о том какие блоки должны лежать на быстрых дисках, а какие - нет. Теперь при переходе на резервную площадку можно надеяться на сопоставимую производительность (если конечно системы на площадках идентичны).

Перевод всех бородатых администраторов на простой и понятный GUI продолжается, поэтому теперь можно управлять VMAX из красивого Unisphere (правда, с приставкой “for VMAX”).

Программные улучшения коснулись в том числе и интеграции VMAX с RecoverPoint (поддержка сплиттера на уровне СХД).

Получилась ли принципиально новая система? Не уверен – подавляющее число новшеств это либо результат планового развития архитектуры x86, либо усовершенствования очередного релиза Enginuity. Остается открытым и вопрос узких мест – апгрейд узлов и увеличение дисков в бэкенде на 33% привели лишь к 25% росту производительности (OLTP). А как на производительность будет влиять FTS? Подрастет ли производительность за счет кэша VMAX или, напротив, подрастет только латентность? Если FTS позволяет использовать возможности VMAX на системах класса ниже, то смогут ли разработчики перенести эти возможности в VPLEX (ах, как этого недостает!)?

Как обычно, много вопросов на которые мы сможем найти ответы лишь по прошествии некоторого времени и (ведь такое хотя и маловероятно, но тоже может случиться!) каких-то публичных тестов. Но это я уже совсем размечтался наверное!

Читать дальше ...

среда, 28 сентября 2011 г.

ScaleMP объявляет о поддержке процессоров AMD

Анонсирована долгожданная поддержка процессоров AMD Opteron в системе виртуализации ScaleMP vSMP, про которую я уже писал. До настоящего момента необходимо было использовать только процессоры Intel Xeon серий 5xxx/6xxx или 7xxx.

Поддерживаться будут как процессоры серии Opteron 6100, так и будущие “Interlagos”. Можно будет объединить до 512ти процессоров в единую виртуальную машину с объемом памяти до 64ТБ. Уже с октября этого года релиз vSMP Foundation будет доступен для ограниченного круга заказчиков, а с 21 ноября строить vSMP кластер с использованием процессоров AMD Opteron смогут уже все желающие.

Читать дальше ...

пятница, 11 февраля 2011 г.

VMware vSphere 4.1 Update 1

Вчера вышел первый апдейт к версии 4.1 ESX/ESXi и vCenter Server. Ключевых изменений практически нет – в основном исправления ошибок и поддержка новых операционных систем Windows7 SP1 и Windows Server 2008R2 SP1, а также RHEL 5.5 и 6.0. Для vCenter теперь есть поддержка MS SQL 2008R2 и IBM DB2 9.7.2 (как бесплатной Express C, так и Enterprise). ESX/ESXi теперь умеют поддерживать до 160 логических процессоров.

Более подробная информация о релизе на сайте VMware:

Читать дальше ...

понедельник, 11 октября 2010 г.

IBM: новые возможности и новые системы хранения

Уж не знаю чем так в IBM надоели вторничные анонсы, но похоже что теперь нам придется привыкать к новостям в четверг. В прошлый, например, было объявлено столько всего что теряюсь за что взяться вначале. Даже выстроить порядок по значимости довольно проблематично, поэтому пойду в случайном порядке :)
SAN Volume Controller (SVC) обновился до версии 6.1. Речь конечно идет не про железную часть SVC, а про программный код. Прежде всего, в новой версии будет доступна технология Easy Tier, которая уже некоторое время присутствует во флагмане – high end системе DS8700. Easy Tier автоматически размещает блоки данных, к которым доступ осуществляется наиболее частно, на более быстрых носителях (например, SSD дисках). Т.е. сам LUN может быть размещен частично на SSD, частично на SAS и частично на SATA дисках. Благодаря Easy Tier можно существенно повысить производительность дисковой системы без переноса всего LUN на более дорогие носители:
image Также добавилась поддержка VMware vSphere 4.1 и очередной порции дисковый систем как самой же IBM, так и от других компаний. Еще одно заметное изменение - радикально переделан пользовательский интерфейс. Хотя и старый был вполне логичен, но разобраться с ним было далеко не просто (особенно если до этого опыта работы с различными СХД было мало), но теперь внешний вид переняли у XIV. А надо заметить, что найти GUI проще и понятнее чем в XIV практически невозможно (на мой взгляд).
image Заодно с интерфейсом поменялись и некоторые термины. Вместо сложного “vDisk to host mapping” остался просто “Host mapping”, вместо “Space-efficient” – уже привычный всем “Thin provisioning”, вместо “Virtual  Disk (VDisk)” – гораздо более привычный пользователям СХД “Volume”, ну а вместо “Managed Disk (MDisk) group” – “Storage pool”. Небольшой ложкой дегтя для пользователей SVC с внутренними дисками SSD (а такая возможность для узлов CF8 появилась почти год как тому назад) будет необходимость немного подождать – внутренние SSD не поддерживаются в релизе 6.1. Их поддержка вновь появится, но немного позднее. Впрочем, это не должно сказаться на основной массе установленных систем.
Storwize V7000. Вот и сказано новое слово в системах IBM класса midrange. Вопреки многим подозрениям не имеет никакого отношения к приобретенной ранее компании Storwize и ее продуктам по компрессии данных в реальном времени. Более того, чтобы избежать путаницы бывшие Storwize получат новые названия, так как Storwize больше, по мнению IBM, подходит для системы хранения. (Очень интересный подход к приобретению компании – с одной стороны, приобрели ради конкретных технологий и продуктов, а с другой – нашли удачное применение старому названию. Можно сказать двойная отдача :) ). Что же это за зверь такой – V7000? Система эта уже гораздо более IBM чем широко известные DS3000/DS5000/Nxxx (первые две это OEM LSI, а N-серия тоже “чужая” и является OEM-ом NetApp). До недавнего момента IBM мог похвастаться полностью своими системами только в верхнем сегменте – DS8000, XIV (которая правда разработана вне IBM и уже потом куплена ). Ну и еще есть конечно очень сильный продукт – SAN Volume Controller. Но SVC является в чистом виде “виртуализатором”, т.е. не содержит жестких дисков (есть маленькое исключение в виде SSD, но про него пока забудем) и занимается исключительно обработкой потоков данных между серверами и СХД. А что если совместить SVC и небольшую дисковую систему? Такое решение зрело уже давно и именно оно нашло воплощение в продукте под названием Storwize V7000, который является комбинацией возможностей SVC (по большей части) и DS8000 (довольно скромный вклад). Очень хорошая иллюстрация нашлась здесь:
imageЗеленый цвет соответствует коду, привнесенному от SVC 5й версии; голубой – новые возможности, появившиеся и в SVC 6.1, и в V7000 (разумеется, всё что касается дисков и блоков питания относится только к V7000).
Для новой системы сразу появляется два типичных сценария внедрения:
  • новая система V7000 с относительно небольшим числом дисков и дальнейший рост за счет подключения внешних систем
  • плановое вытеснение уже установленной СХД на второй план за счет виртуализации
В случае с обычной версией SVC, оба таких сценария потребуют покупки сразу двух продуктов – непосредственно SVC и дисковой системы. Такой подход далеко не всегда находит понимание в “высших” сферах. А теперь достаточно приобрести V7000 и можно будет как использовать ее внутренние диски, так и подключать внешние системы хранения.
image
Так что же представляет собой V7000? Как и в случае с DS3500, доступны два базовых варианта – 2U система с 12ю дисками 3.5’’ и 2U с 24мя дисками 2.5’’. Поддерживаются диски SSD, SAS, Near Line SAS. На текущий момент можно подключать до 120 дисков, но уже ко второму кварталу 2011г. обещают увеличить число поддерживаемых дисков вдвое – до 240. Полки расширения также двух типов – 2U 12x3.5’’ и 24x2.5’’, подключаются через SAS 6Gbit. Контроллерный модуль содержит два контроллера, по 8ГБ кэша в каждом (правда, правильнее будет наверное сказать не кэша, а памяти). Каждый контроллер имеет по 4 порта FC 8Gbit и по 2 порта iSCSI 1Gbit. Внешние дисковые системы (для последующей виртуализации) подключаются через FC порты, т.е. порты на контроллере в принципе идентичны имеющимся в узлах SVC CF8. “Железо”, как я подозреваю, выпускается тем же самым производителем, который делает модули для систем XIV. Подключение полок расширения делается несколько иначе чем в остальных системах IBM. Вместо ставшего привычным подключения “сверху-вниз, снизу-вверх”, в V7000 полки подключаются последовательно. С одной стороны, это гораздо проще, с другой – чуть опаснее, так как полный отказ полки “в середине” приведет к отказу всех следующих за ней дисков. Справедливости ради стоит отметить, что такой печальный вариант развития событий крайне маловероятен в силу отсутствия незадублированных активных компонентов внутри полки. Кроме того, большинство других производителей не стесняются использовать такой способ подключения в системах с гораздо большим числом дисков. Для “внутренних” дисков поддерживается RAID 0, 1, 5, 6 и 10. Остальные возможности пришли из SVC – это выделение дискового пространства по требованию (thin provisioning), зеркалирование виртуальных дисков (VDisk mirroring), поддержка FlashCopy и RemoteCopy. Как и в новой версии SVC 6.1, поддерживается технология Easy Tier. Добавив всего несколько SSD в конфигурацию V7000 можно радикально увеличить производительность системы. А благодаря возможностям виртуализации, благодаря Easy Tier можно увеличить производительность томов, которые сейчас размещены на уже имеющихся дисковых системах. Удивительная по удобству использования графическая оболочка в V7000 пришла из систем IBM XIV.
Про остальные анонсы наверное чуть позднее – и без того получился слишком длинный пост.
Читать дальше ...

пятница, 16 июля 2010 г.

Чем померить виртуализацию?

Попытки сделать стандартный тест (бенчмарк) для систем виртуализации делались уже давно, но единого общего знаменателя я не встречал. VMware использует свои попугаи, остальные стараются как-то выкручиваться. Плюс были попытки создать независимые бенчмарки, но как-то пока никто не прижился.

Но вот 14 июля сего года небезызвестный SPEC запустил свой бенчмарк для виртуализации - SPECvirt_sc2010. Основан он на целом ряде других тестах SPEC – SPECweb2005, SPECjAppserver2004, SPECmail2008. В виртуальной среде создается “инфраструктура” из нескольких VM, в которых и выполняется набор тестов:

Таких “инфраструктур” (Tile) на одном сервере может быть запущено несколько и как раз это показывает насколько хороша масштабируемость:

Результаты бенчмарка отображаются в виде <Overall_Score> @ <6*Number_of_Tiles> (т.е. после символа @ идет суммарное число VM, запущенных на хосте).

Подробнее про схему бенчмарка можно прочитать здесь.

Хочется верить, что выход в свет SPECvirt_sc2010 позволит немного более предметно проводить сравнения и гипервизоров, и железа.

На текущий момент в тестах наметился уверенный лидер – IBM с сервером x3650M3 и KVM в качестве гипервизора (результат 1169 @ 72). Во многом правда это лидерство обеспечено тем, что на сегодня это и единственный опубликованный результат :)

Читать дальше ...

четверг, 27 мая 2010 г.

ScaleMP покоряет новые горизонты

Задача объединения нескольких серверов в один гораздо более мощный замечательно решается при помощи vSMP Foundation от компании ScaleMP – про это я некоторое время назад уже писал. Если вкратце, то используя стандартные x86 серверы, infiniband и гипервизор от ScaleMP можно получить сервер поддерживающий до 32х сокетов и до 4ТБ памяти. Интересно, что конфигурации машин, входящих в кластер могут отличаться – если процессорных ресурсов нужно не слишком много, то часть машин может быть с “быстрыми” процессорами, а остальные с минимальными возможными и предоставлять в качестве общего ресурса только оперативную память. Однако у vSMP Foundation есть и некоторые особенности, про которые необходимо помнить. Во-первых, установить на такой сервер можно далеко не всякую операционную систему – на текущий момент это может быть только Linux, причем для оптимальной производительности нужно либо пересобрать ядро, либо использовать вариант от ScaleMP (они есть в частности для RedHat). Во-вторых, vSMP предназначен именно для объединения ресурсов. То есть вместо двух (трех, четырех…) серверов мы получаем один, но более мощный, соответственно, выход из строя одной из машин вызовет остановку/перезагрузку всего комплекса. Кроме того, так как речь идет про объединение, то на один комплекс vSMP нельзя поставить несколько операционных систем (т.е. выделить полторы машины для одной задачи, а еще две с половиной для другой). Но последний пункт был верен только до недавнего момента! Буквально на днях была анонсирована технология VM-on-VM. Что это такое? Очень просто - фактически заявлено о начале поддержки виртуализации серверов на базе KVM и Xen в кластере vSMP Foundation. Это дает возможность существенно снизить цену “железной составляющей” на базе 4-8ми сокетных систем. А это, в свою очередь, позволит консолидировать (виртуализовать) более требовательные к ресурсам сервисы без использования дорогостоящего оборудования. Декларируется также упрощение управления, впрочем, здесь я не испытываю особенного энтузиазма – самим vSPM тоже нужно управлять, поэтому снижение затрат на управление будет не самым важным аргументом. По крайней мере не таким важным, как цена решения.

imageНо приятные новости этим не ограничиваются – параллельно была анонсирована и версия 3.0 vSMP Foundation. Основные нововведения касаются поддержки процессоров Nehalem-EX и Westmere-EP. Теперь можно использовать несколько infiniband HCA карт параллельно, причем нагрузка будет равномерно распределяться между ними. Для объединения 4х машин можно обойтись без коммутатора Infiniband – это позволяет существенно снизить начальные вложения. Существенно расширен список поддерживаемых адаптеров – это HBA от LSI и Emulex, кроме того, добавлена поддержка 10Гбит сетевых адаптеров Broadcom. В новой версии увеличены и “максимумы” кластера – теперь можно объединять до 128 серверов, каждый из которых может иметь до 128 процессоров (ядер или потоков); объем поддерживаемой оперативной памяти увеличен до 64ТБ. Версия 3.0 будет доступна заказчикам начиная с 14 июня.

Ссылки по теме:
Объединяй и властвуй!
ScaleMP

Читать дальше ...

среда, 10 февраля 2010 г.

IBM HS22V – лезвие для виртуализации

9го февраля IBM анонсировал новое лезвие HS22V. Название недвусмысленно намекает на то, что прицелом является виртуализация. Действительно, основное отличие от HS22 (которые уже заняли основную нишу в блейдах IBM), состоит в наличии 18 (а не 12ти) слотов под память. А память является, как известно, наиболее востребованным компонентом при внедрении виртуализации серверов – процессорной мощности зачастую бывает много, а памяти почти всегда не хватает.

image

Вместо двух hot-swap дисков предлагается использовать пару фиксированных 1.8” 50GB SSD дисков (поддерживается RAID-0 и RAID-1). Желающие могут добавить аппаратный RAID с батарейкой (впрочем, не думаю, что для данного лезвия это будет хоть как-то востребовано). Также уже традиционно присутствует разъем для USB накопителя с предустановленной Vmware ESXi (3.5 или 4). Что касается плат расширения, то здесь все осталось без изменений по сравнению с HS22. Базовые модели лезвий используют процессоры X5570 и E5540, можно также заказывать вариант с процессорами E5506 (но массово он поставляться не будет).

image

Для виртуализации весьма удобно использовать Virtual Fabric Adapter, про который я уже писал. Для тех, кому актуально использование FibreChannel, но уже есть прицел на FCoE и/или 10Гбит также есть хорошее решение - Virtual Fabric Extension Module.

Начало отгрузок HS22V планируются на 16е марта. Кроме того, в интернет просочилось название нового лезвия на процессорах Nehalem EX  - HX5. Предполагается поддержка 4х процессоров на собственном чипсете eX5. Напомню, что текущую серию процессоров Xeon MP в лезвиях IBM не встретить – аргументом было повышенное энергопотребление и тепловыделение. А на Youtube давно уже можно найти совместный рассказ IBM и Intel о готовящемся чипсете и апдейте линейки 3850M2/3950M2.

Читать дальше ...

среда, 13 января 2010 г.

Общий доступ к дискам (Sanbolic Melio FS и другие)

С завидным постоянством вижу вот такого плана вопрос:

“Мы установили дисковую систему, создали один LUN, все настроили, подключили два сервера. На одном сервере файлы записываем, а на другом никаких изменений не видно. Да еще и ошибки какие-то странные. Что надо еще настраивать?”.

Причем, как это ни странно, технический уровень спрашивающих может быть очень разным, а вопрос один и тот же. А ведь, казалось бы, все очевидно: файловые системы (большинство), которые мы привыкли использовать (NTFS, EXT3, …) просто не умеют работать в таком “распределенном” режиме. Представьте, что на сервер А мы записали на диск файл, но каким образом об этом станет известно серверу B? Без специальной кластерной файловой системы, которая сообщит ему об этом – никак. И наиболее вероятным результатом (даже сравнительно короткого) такого “испытания” на обычной файловой системе будет полный ее крах. Поэтому даже и эксперименты проводить не стоит – работать не будет! А что тогда делать и нужно ли это вообще? В большинстве случаев (особенно если очень пристально посмотреть на задачу или заказчика :) ) такой функционал действительно оказывается ненужным и для совместного доступа к файлам достаточно использовать CIFS (в Windows) или NFS (в Linux). Но, тем не менее, существует и довольно много задач, где общий доступ к дисковому устройству если и не необходим, то очень важен. Как для более простой реализации, так и для лучшей производительности системы. Для того чтобы такой доступ обеспечить нам и  нужна будет кластерная файловая система. Существует их довольно много, подавляющее большинство ориентировано на Linux/Unix (RedHat GFS, IBM GPFS, Lustre, HP Plyserve и т.п.), но и Windows не остался в стороне (Sanbolic MelioFS, HP Polyserve, IBM GPFS). Исторически решения под Linux использовались для HPC кластеров (и ряда других приложений), а под Windows в основном для обработки медиа-контента. Сейчас дисбаланс уже не так заметен – Windows работает на всех фронтах. Кроме того, все активнее внедряются системы виртуализации на базе Hyper-V в Windows Server 2008 и 2008 R2. И, если у основного конкурента (VMware) кластерная файловая система уже есть (VMFS), то в случае с Hyper-V нужно либо обходиться без нее, либо использовать сторонние продукты. Но даже и в случае с VMware разделяемая файловая система может очень пригодиться – например при использовании совместно с бесплатным VMware Server можно размещать образы виртуальных машин на общем дисковом ресурсе, что значительно упрощает миграцию и в разы снижает время простоя при сбоях.

Сегодня более подробно я остановлюсь на решениях компании Sanbolic. Помимо кластерной файловой системы MelioFS, в портфель продуктов постепенно добавлялись и другие решения – это и система управления томами LaScala, и SILM, и AppCluster (о них немного ниже), а выбрать что же именно нужно купить, чтобы получить искомый результат, становилось все сложнее. И, если представители интегратора в большинстве случаев хорошо понимают что и для чего нужно, то объяснить клиенту, что ему нужна не одна лицензия за 2000$, но к ней еще нужно докупить две лицензии по 1500$, было в некоторых случаях сложно. В настоящее время ситуация существенно упростилась и предлагается всего 4 лицензии: Melio Virtualization, Melio Professional, Melio Enterprise и Melio Data Center. Благодаря этому выбор оптимального решения стал гораздо проще.

image

Все четыре продукта включают в себя (помимо кластерной файловой системы) систему управления томами (volume manager) LaScala. Поддержка страйпинга и конкатенации позволяет получить высокопроизводительный том необходимого объема. Также во все бандлы входит система SILM (Simple Information Lifecycle Manager), которая, на основе заданных пользователем политик, может перемещать файлы между различными системами хранения. Например, файлы, к которым не было обращения более 10 дней, будут перенесены на более медленную дисковую систему. Важно отметить, что поддерживается “смешанный” режим работы – данные могут располагаться не только на томах MelioFS, но и на любых других дисках (в том числе и локальных).

Melio Virtualization ориентирован на заказчиков, которые внедряют у себя Hyper-V или VMware Server, и позволяет получить всем серверам доступ к общей дисковой подсистеме (iSCSI или FC) для размещения на ней образов виртуальных машин. Благодаря поддержке технологий Quick и Live Migration, а также отсутствию ограничения на число серверов в кластере, актуальность данного решения фактически прямо пропорциональна числу физических серверов Hyper-V.

Второй, ориентированный на виртуализацию продукт - Melio Professional. Он предназначен для развертывания отказоустойчивого высокопроизводительного кластера системы динамической загрузки образов операционных систем на базе Citrix Provisioning Services. На общей файловой системе хранится как база данных, так и сами vDisk вместе с файлами кэшей записи. Нужно помнить, что данный бандл имеет ограничение на включение максимум двух узлов в кластер (а использовать меньше и смысла не имеет).

Два оставшиеся варианта лицензий уже не являются такими узкоспециализированными и предназначены для широкого круга заказчиков, чьи задачи не ограничиваются только виртуализацией. Melio Enterprise поддерживает совместную работу до 4х узлов в одном кластере и имеет ряд ограничений по сравнению с “топовой” версией Melio Data Center. В частности, нет поддержки зеркалирования (RAID1) и Quality of Service. Обе версии позволяют создавать высокопроизводительные кластеры файловых серверов, в том числе и с поддержкой балансировки нагрузки (NLB). Разумеется поддерживается DFS и ACL. Возможность динамического расширения файловой системы и томов позволяет избежать лишних остановок сервиса для обслуживания системы. По мере роста требований к файловым серверам можно добавлять как серверы, так и системы хранения в существующий кластер, увеличивая тем самым как суммарную емкость, так и производительность системы в целом:

image

Также в состав обоих пакетов входит AppCluster Manager – средство управления active-active кластерами MS SQL, когда соответствующие базы данных размещены на разделяемой файловой системе. Конечно, это решение не позволяет (в силу архитектуры MS SQL) построить аналог Oracle RAC, но дает возможность обеспечить минимальное время переключения между серверами в кластере в случае сбоя, а также балансировать нагрузку между физическими машинами:imageВ варианте Data Center AppCluster работает совместно с QoS, чтобы позволяя критичным базам иметь приоритет при работе с дисковыми ресурсами.

Для тех же кто использует Hyper-V есть еще зачастую весьма веская причина использования Enterprise или Datacenter версий – технология Pass-through I/O увеличивает производительность дисковой подсистемы так как не требуется оповещение остальных машин в Windows Failover кластере об операциях записи в виртуальных машинах.

Триальную двухнедельную версию можно получить, зарегистрировавшись на сайте Sanbolic. А купить и/или получить более подробную информацию, как обычно, можно у нас. :)

Читать дальше ...

понедельник, 14 декабря 2009 г.

IBM SVC Entry Edition

Уже довольно давно IBM предлагает (и надо заметить небезуспешно) свою систему виртуализации СХД – SAN Volume Controller (SVC). Писать про SVC можно много, но сейчас не об этом. Так как внедрение системы виртуализации СХД это своего рода радикальное изменение в инфраструктуре (хотя оно и может быть реализовано практически полностью прозрачно), то решиться на этот шаг не всегда просто. Именно поэтому уже больше года, если не ошибаюсь, была выпущена версия “для неуверенных”, т.е. решение, которое имело ограниченный функционал, но зато гораздо более бюджетное. В отличие от старшего собрата Entry Edition лицензируется по числу жестких дисков которые входят в виртуализуемый объем. Ограничение на момент выпуска составляло не более 60 дисков для кластера SVC. С одной стороны, этого вполне достаточно, чтобы развернуться “в полный рост” с системой начального уровня и организовать репликацию на удаленную площадку, но любое сравнительно серьезное расширение требует перехода на полную версию SVC. Да, этот переход не требует покупки нового железа, но все равно “бьет” по карману.

С выпуском версии SVC 5.1 и нового поколения железной части (на базе серверов x3550M2) возможности Entry Edition существенным образом расширились – поддерживается уже до 250 дисков (а это вполне себе серьезная система получается). Но на этом приятные новости не закончились – теперь совершенно бесплатно доступна лицензия на FlashCopy! А это уже серьезное подспорье, например в развертывании системы резервного копирования, – в частности Exchange 2010 можно будет бэкапить только через VSS (а VSS, в свою очередь, замечательно интегрируется с FlashCopy посредством Tivoli Storage FlashCopy Manager). Единственное о чем следует помнить – не нужно перебарщивать с лицензиями на FlashCopy – они конечно в базе (с годом поддержки) бесплатны, но дополнительная поддержка стоит денег и, если известно, что снимки нужно делать не со всего объема, то на дальнейшей поддержке можно немного сэкономить.

image

Все эти изменения в SVC Entry Edition делают его приобретение весьма заманчивым. Особенно если в хозяйстве уже есть какая-то “старая” система хранения и хочется не только добавить еще одну систему, но и унифицировать управление.

Читать дальше ...

понедельник, 16 ноября 2009 г.

Бесплатный сыр (софт) без мышеловки.

Не так давно VMware объявила о доступности VMware vCenter CapacityIQ – плагина для vCenter, который дает возможность анализировать нагрузку на серверы, а также делать прогноз в стиле “что если”. Плагин является платным, но (как и для других продуктов VMware) можно скачать 60ти дневный триал. Схожие продукты были и у других компаний, например, VKernel поставляла (также платный) Modeler. Но вот на днях было объявлено, что теперь (по крайней мере до 31 декабря 2009г) данный продукт доступен совершенно бесплатно на неограниченное число хостов. Возможностей у Capacity Modeler достаточно, чтобы удовлетворить самые разные требования. Так что если нужно планировать увеличение нагрузки за счет добавления новых виртуальных машин, а бюджета на CapacityIQ уже нет, то решение от VKernel будет очень кстати. Конечно же, данная акция рассчитана прежде всего на привлечение клиентов к более “вкусным” (но уже не бесплатным) продуктам VKernel, но никто не мешает Вам ограничится только бесплатной (и от этого ничуть не менее полезной) частью.

Читать дальше ...

пятница, 2 октября 2009 г.

Infortrend ESVA – виртуализация в дисковой системе.

Это очередное сообщение из разряда “старых новостей”, но по ряду причин добрался я до этих систем только сейчас. Пост получился длинным, поэтому прошу прощения за “много букв”.

Многие знают компанию Infortrend как производителя бюджетных дисковых систем (из разряда “один контроллер, набить любыми дисками и вперед”), а некоторые даже помнят SCSI RAID-контроллеры, которые ставились в пяти-дюймовый отсек.

imageОснованная в 1993 году компания изначально занималась только RAID-контроллерами, а потом пришла и к выпуску дисковым системам. Звезд с неба не хватают, но железки делают довольно стабильные и производительные (что немаловажно). Причем контроллеры их ставились не только в “свои” системы, но и поставлялись другим производителям, например, они использовались в системах DotHill SANnet, которые, в свою очередь, продавал под своим именем SUN.

Но похоже что сейчас соревноваться с множеством “нонейма” становится все сложнее и Infortrend решил выйти на новый уровень: в июне этого года общественности были представлены системы ESVA (Enterprise Storage Virtualized Architecture), призванные, как даже из названия понятно, занять место в новом (для Infortrend) сегменте рынка. Конечно и раньше двухконтроллерные системы некоторыми заказчиками ставились для важных приложений, но открытыми оставались много вопросов. Один из них - "время жизни” продукта: как долго после анонса о снятии с продаж будут доступны запчасти. Не менее важным является и вопрос замены вышедших из строя компонентов.

image

Какие же особенности у новых систем? Во-первых, все массивы архитектуры ESVA поставляются только с дисками, поэтому заказчику уже не нужно выбирать диски самому, потенциально рискуя “нарваться” на несовместимость. Хостовые интерфейсы либо FC (8Gbit), либо iSCSI (в настоящее время с портами 1Gbit, но совсем в недалеком будущем будут и модели с 10Gbit), “вертикальное” расширение (полками) достигается при помощи SAS интерфейса. Все компоненты дублированы (контроллеры, блоки питания, вентиляторы). Кэш контроллеров защищен батарейкой (BBU), но для систем с 3.5” дисками батарея не поддерживает кэш все время а служит для того, чтобы в случае проблем с питанием, произошел “сброс” содержимого кэша в энергонезависимую память (флэш-накопитель). На всю серию ESVA обещана пятилетняя доступность запчастей (уже после снятия конкретной модели с продаж). Вы скажете, что это конечно всё важные (очень важные) мелочи, но системы, нацеленные в “энтерпрайз” класс должны иметь и соответствующий функционал! А с функционалом у привычных Eonstor-ов всегда было негусто – вот только совсем недавно появились снапшоты (а у кого их сейчас-то нет?), да вот собственно и все возможности. И можно было бы ожидать каких-то косметических улучшений, но нет -  архитектура ESVA действительно значительно превосходит все то, чем мог нас порадовать Infortrend раньше. Помимо буквально необходимой для систем такого класса синхронной и асинхронной репликации и клонов (а про снапшоты наверное и упоминать не нужно), появилась такая технология как “thin provisioning”. Я уже очень давно думаю, но не представляю как можно коротко и внятно перевести на русский язык этот термин. Смысл технологии в том, что хосту предоставляется LUN размером, скажем 20ТБ, но фактически на дисковой системе этот LUN занимает столько места, сколько на нем сейчас есть данных (фактически у нас даже может вовсе и не быть всех этих 20ТБ на системе хранения).

imageНо и это не главное – основная особенность новой линейки – “горизонтальное” масштабирование (как объема, так и производительности). Если в какой-то момент нам становится недостаточно имеющегося объема, мы конечно как обычно можем добавить еще одну полку с дисками, но когда нам недостаточно производительности, то, в случае использования традиционных систем, приходится переходить уже на новую СХД, приспосабливая имеющуюся под другие нужды. При этом, миграция данных с одной системы на другую – процесс болезненный и зачастую дорогостоящий. Более того, приходится не только останавливать приложения на время миграции, но и есть ненулевой шанс потерять данные и потом восстанавливать их из резервной копии, что только увеличивает общие затраты. В случае с ESVA такой головной боли нет – достаточно добавить еще одну систему и она включится в общий “пул” – данные автоматически будут перераспределены между системами и, в зависимости от числа узлов в таком кластере, общая производительность возрастает практически линейно. В один пул можно объединить до 12ти массивов ESVA, что дает суммарно 1344 диска.

imageИзлишне наверное говорить, что и объемы дисковых систем также объединяются (общий размер Virtual Pool может достигать 2PB) и уже нет той проблемы, когда есть две системы хранения, на одной системе осталось свободных 3ТБ, на другой - 2ТБ, а нам нужно для одного из хостов создать диск размером 4ТБ. В случае с ESVA после добавления второй системы, общий свободный доступный объем составит 5ТБ и можно создать том на 4ТБ (даже не используя thin provisioning).

imageЕсли вдруг нам потребуется удалить систему из пула, то такое действие также возможно – можно дать соответствующую команду и данные будут перераспределены так, чтобы можно было произвести отключение одной из систем (если конечно на оставшихся достаточно свободного места).

По сути своей предлагаемое Infortrend’ом решение является системой виртуализации СХД, которая находится в самой СХД, а не вне ее, как это реализовано например в IBM SVC, Falconstor NSS или HP SVSP.  Конечно нельзя сказать, что это что-то совсем-совсем новое – довольно давно на рынке присутствуют системы EqualLogic (поставляются сейчас от имени Dell), которые тоже умеют масштабироваться горизонтально, однако они не могут быть расширены добавлением JBODов и в качестве хостового интерфейса имеют только iSCSI. Схожую реализацию можно наблюдать и в системах 3PAR, правда там уже нельзя объединить вместе несколько отдельных систем с целью повышения производительности или увеличения объема пула данных.

Несложно догадаться, что цена на массивы серии ESVA конечно же не та, что на Eonstor’ы, но тот функционал, который предоставляется, того стоит. Продажей этих систем занимаемся в том числе и мы, так что – милости просим!

Читать дальше ...