ИТ-технологии для профессионалов

вторник, 30 октября 2012 г.

IBM: очередная эпоха СХД подходит к концу

Век систем хранения, использующих Fibre Channel диски в качестве бэкенда, неумолимо подходит к концу. Один из немногих оставшихся оплотов практически пал - IBM с 29го января 2013 года снимает с продаж долго служившие верой и правдой системы хранения серии DS5100 и DS5300. Линейка DS5000 долгое время являлась “топовым” решением для MidRange СХД – расширенный функционал, высокая производительность и хорошая масштабируемость давали на это полное право. Однако, все меняется и сейчас, используя кластеризованную систему Storwize V7000 можно получить не только 960 дисков, но и заметно более интересные программные возможности. Владельцам DS5000 расстраиваться не стоит – системы действительно очень приличные, а дисковые полки для апгрейда с продаж не снимаются и остаются доступными к заказу.

Но кому нужно беспокоится, так это владельцам систем DS4000 (а такие еще есть и СХД эти встречаются у заказчиков часто) – дисковые полки для них (EXP810) снимаются с продаж уже в декабре этого года. Так что, если стоит задача продлить жизнь системе – пора принимать решение и быстрее делать заказ.

Если нужно увеличить емкость или продлить сервисную поддержку на СХД серии DS4700/DS4800 или IBM DS5100/DS5300 – обращайтесь к нам сейчас, не дожидаясь окончания гарантии!

понедельник, 3 сентября 2012 г.

Технологии NetApp для хранения Ваших данных


среда, 22 августа 2012 г.

NetApp: кэшируем в сервере

Всего пара месяцев прошла с момента официального объявления о сотрудничестве Fusion-io и NetApp с целью использования технологий Fusion-io в стеке NetApp Virtual Storage Tier.
На сегодняшний день в VST используются “родные” технологии NetApp – FlashCache и FlashPool, позволяющие эффективно повышать производительность системы посредством интеллектуального кэширования “горячих” данных на Flash-картах и SSD дисках.
И вот уже вчера NetApp анонсировал продукт Flash Accel, обеспечивающий кэширование данных на стороне сервера. Как несложно догадаться, Flash Accel это по факту PCI-e карта и соответствующий софт от Fusion-io. Кэширование на стороне сервера возможно только на чтение (что вполне логично). Доступность Flash Accel заявлена на декабрь 2012. Flash Accel является программной разработкой NetApp, позволяющей использовать в качестве кэша локальные устройства сервера (SSD или Flash PCI-e карты). В первой версии будут поддерживаться Windows Server 2003 и 2008, а также vSphere 5. Примечательно, что даже в первой версии обещают работу HA, vMotion и DRS. Формально есть привязка к системе хранения (пока только FAS, V- и N-серия), но не к кэширующему устройству (будет список официально поддерживаемых). На текущий момент NetApp будет перепродавать карты от Fusion-io. 
Но этим же пресс-релизом NetApp тонко намекает Fusion-io, что расслабляться не стоит – желающие производители аналогичных решений могут подать заявку на получение значка “NetApp Validated”. И в этом списке уже, помимо Fusion-io, отметились LSI, Micron, SanDisk, STEC и Virident.
Но пока только с Fusion-io заключен контракт, согласно которому будут перепродаваться Fusion-io ioMemory, ioTurbine и Direct Cache. 
К слову сказать, у нас уже доступен к заказу LSI Nytro XD. Это комплект из PCI-e карты с 400GB флэш-памятью (e-MLC) и специального софта, который и позволяет осуществлять кэширование данных (независимо от расположения – будь то СХД или DAS). Среди серьезных преимуществ – крайне низкие требования драйвера устройства к оперативной памяти (рассматривая в качестве альтернативы решение Fusion-io об этой особенности важно помнить). Пока еще, правда, не поддерживается работа в среде VMware, но и это тоже не за горами – работа активно ведется.
Кэширование данных на серверах перестает быть красивой идеей и уже может быть использован в реальных проектах с получением вполне очевидных преимуществ по производительности.

P.S. Спасибо Роману за уточнение!

пятница, 8 июня 2012 г.

IBM DS3500/DCS3700: радикальные изменения

Как многие вероятно уже слышали, у IBM в этот понедельник прозвучало множество анонсов в области систем хранения. В той или иной степени были затронуты практически все линейки. В этой заметке я коснусь только лишь младших систем – DS3500 и DCS3700.

image

Большинство новинок носит принципиальный характер. Итак, новинки:

  • дисковые пулы (Dynamic Disk Pooling, DDP);
  • выделение дискового пространство по мере необходимости (Thin provisioning);
  • новая технология мгновенных снимков;
  • поддержка VAAI;
  • поддержка ALUA;
  • временные лицензии.

В чем плюсы, как это работает и что с этим всем делать? Попробуем пройтись по всем новинкам.

Динамические дисковые пулы.
Вместо привычных RAID массивов (Array) и томов на них (Volumes, LUNs), мы объединяем диски в большой пул и уже на этом пуле “нарезаем” тома нужного нам размера. Мы больше не привязаны к размерам конкретного массива, поэтому нам не нужно планировать массив так, чтобы наиболее эффективно его заполнить – все равно черпаем из “общего” котла. Нет ни выделенных дисков четности, ни выделенных hot-spare дисков.

image

Ну хорошо, схожие технологии мы видели и у других производителей, а в чем же отличие? Давайте посмотрим, как работает DDP. Каждый диск разбивается на 512МБ “дольки” (D-Piece) – см. рисунок ниже. Когда нам требуется выделить место из дискового пула для конкретного тома, система выбирает 10 таких “долек” с разных дисков (выбирает она так, чтобы выровнять занятый объем). Выбранные дольки объединяются в RAID-6 (8D+P+Q) и уже этот страйп (D-Stripe) размером 4ГБ и становится частью нашего тома с данными. D-Stripe для одного тома располагаются по разным дискам, обеспечивая, таким образом, распределение данных по всему пулу:

image

DDP не становятся заменой какой-либо технологии – можно использовать только один пул, можно использовать несколько пулов в одной системе, можно использовать и классические RAID-группы, и пулы вместе. Так как пулы по производительности все-таки ближе к RAID-6 и максимальную эффективность показывают на дисках NL SAS, то данные для приложений, критичных к скорости можно вынести, например, на отдельные RAID10.

В случае сбоя одного из дисков в пуле, происходит восстановление данных на оставшиеся диски. За счет того, что в восстановлении участвует большое число шпинделей, оно происходит с большей скоростью и оказывает меньшее влияние на производительность массива. Вместо выделенных hot-spare дисков резервируется соответствующее свободное место в пуле (примерно так, как это реализовано в HP EVA). Можно зарезервировать до 10 дисков (или до 20% объема пула). Вот как изменяется время восстановления в зависимости от числа дисков в пуле по сравнению с перестроением классического RAID6:

image

На 192х дисках различие превышает 5 раз! А при временах порядка 10 часов это весьма заметно. Не стоит забывать, что при восстановлении классического массива деградация производительности также весьма велика:

image

Хорошо видно, что во время ребилда диска в большом пуле, производительность приложений будет страдать заметно меньше (особенно если не ставить целью провести перестроение максимально быстро).

Конечно, раз уж речь зашла о производительности, то хочется сразу уточнить, а насколько такая новая технология “портит нам жизнь” в плане этой самой производительности? Результаты показывают, что максимально “страдают” операции случайной записи и последовательного чтения(~15%); случайное чтение же ухудшается всего на 6%, а последовательная запись даже улучшается. Такие эффекты заметны в “синтетических” тестах на 192х дисках в пуле. Если же количество дисков меньше, то и различие в производительности приближается к нулю.

Еще один замечательный плюс от DDP – возможность добавления дисков в пулы. Вы скажете что в RAID тоже можно добавить дисков? А сколько “за один раз”? А чем это чревато с точки зрения производительности? Вот именно – лучше этого на обычном массиве не делать. При добавлении же в пул новых дисков, происходит миграция незначительного числа “D-Piece” на новые диски, что не оказывает, в свою очередь, существенного влияния на производительность системы.

Таким образом, динамические пулы дают нам отличную замену для RAID6, позволяя объединить большое количество дисков, обеспечивая высокую производительность, простоту управления и высокую защищенность.

Thin provisioning.
Данная технология уже хорошо всем известна, но теперь она появилась и в младших СХД IBM. Причем появится и у тех, кто год назад стал владельцем системы DS3500. Единственное “но” – thin provisioning работает только на динамических томах! Поэтому “поиграть” на системе, не создав заранее дисковый пул, увы, не получится. Плюсы у thin provisioning очевидны – не нужно задумываться о точности выделения дискового пространства. Можно выделить немного больше, а по факту на дисках будет занято ровно столько, сколько данных было записано. На самом деле, с шагом 4ГБ конечно – выделение дискового пространства осуществляется в терминах D-stripe. Экономия от использования технологии thin provisioning может быть колоссальна – проверьте на своих системах, сколько незанятого места теряется впустую?

Новые мгновенные снимки.
Еще одна давно ожидаемая возможность. Долгие годы владельцы систем IBM DS3000/4000/5000 вынуждены были мучиться с восстановлением данных из снапшота (невозможно сделать операцию rollback, вернее возможно, но очень “некрасиво”). И вот, новых снапшотов можно сделать не просто заметно больше, но и можно быстро “откатиться” из снапшота на исходном томе. Также появляется возможность использовать группы консистентности, а это очень полезно, когда данные одного приложения находятся на различных дисках:

image

Rollback в рамках группы консистентности также работает! Несомненным плюсом стала оптимизация операций копирования исходных блоков в рамках технологии Copy-on-Write. Если раньше для каждого снимка происходило копирование исходного блока данных, то сейчас копия делается только единожды. Это существенно снижает эффект от деградации производительности при использовании мгновенных снимков. Падение производительности для “классических” CoW снимков может составлять десятки процентов. Сейчас эта проблема должна быть решена, что позволит использовать снимки и в более нагруженных средах.

Поддержка технологии VAAI.
Многие рассматривают VAAI исключительно как средство повышения производительности в среде VMware, но я бы скорее делал бы упор не на скорость выполнения отдельных операций (хотя это, без сомнения, приятно), а на разгрузку хоста от “лишней” работы и разгрузку сети хранения. Клонирование виртуальной машины с использованием VAAI может быть закончится и не на много быстрее, но зато канал ввода-вывода между сервером и СХД будет загружен в разы меньше и наше клонирование не окажет пагубного влияния на остальную инфраструктуру (особенно если мы используем 1Gbit iSCSI). В рамках VAAI поддерживается – блокировка экстентов в VMFS, write zeroes (write same) и extended copy (клонирование VM, Storage vMotion). Время выполнения операций с VAAI и без оного (кликабельно):

image

Поддержка ALUA.
Наверное многим доставляли проблемы active/passive пути? А потом еще приходилось вручную возвращать диски на “свои” контроллеры после каждого сбоя. Благодаря ALUA (Asymmetric Logical Unit Access) об этих неприятностях можно спокойно забыть. Чтобы было более понятно, пара картинок. Вот как работает multipath в DS3500 сегодня:

image

А вот как он будет работать в новой прошивке:

image

 

 

 

 

 

 

 

 

Наибольшие преимущества от ALUA заметны в кластерной среде, когда время failover при проблемах на контроллере играет критичную роль. Поддержка ALUA есть во всех ключевых операционных системах.

Временные лицензии.
До настоящего момента было очень сложно оценить “полезность” дополнительного функционала систем DS3500. Если мгновенные снимки можно было попробовать, то репликацию проверить было фактически невозможно. Решение о покупке (с бюджетом, сопоставим со стоимостью контроллерного модуля)  нужно было принимать на основе обещаний, книжек или еще чего-то там. Теперь можно будет установить временную лицензию на 90 дней и проверить работу в своей среде, со своими приложениями. Указанных 90 дней, в принципе, должно хватить не только чтобы проверить функционал, но и для того чтобы заказать постоянные ключи и дождаться их прихода.

Вот такие замечательные новинки были представлены IBM для систем начального уровня. Я, честно говоря, ожидал немного большего, но и это уже очень и очень хорошо. Развитие систем не останавливается – будут и другие новшества, но позднее. Все, о чем я написал, будет доступно в прошивке, которая анонсирована на 15 июня. По факту, скорее всего, скачать ее можно будет на несколько дней позднее, но шанс попробовать все возможности уже в этом месяце безусловно есть!

понедельник, 28 мая 2012 г.

EMC VNX–что день грядущий нам готовит

Я уже писал про новости в high-end системах EMC, но гораздо более интересным для меня является анонс новых возможностей систем среднего уровня – VNX. И дело не в том, что такие системы гораздо больше распространены и в разы больше продаются. Речь о тех технологических возможностях, которые в них появятся. Да, несмотря на анонс, их пока нет и ждать их стоит во втором полугодии 2012. Так что же было объявлено?

Если кто-то вникал, как именно работают пулы (pools) в VNX, то наверняка обратил внимание на “магические” числа. Это, в частности, число “5” для RAID5 и “8” для RAID-6. Дело в том, что при создании пулов, именно такой размер RAID-группы всегда старается выбрать система. Конечно, если дисков недостаточно, то пул все равно будет создан, но  в одной из RAID-групп дисков будет недостаточно (или слишком много), а это скажется на равномерность нагрузки. Подробности можно прочитать вот в этой замечательной заметке, либо в ее переводе здесь. Таким образом, для RAID5 эффективность использования дискового пространства составляет 80%, а для RAID6 – 75%. В новой версии было принято увеличить размер дисковых групп – для RAID5 он может составлять 8+1 (эффективность 88.9%), а для RAID6 даже 14+2 (эффективность 87.5%). С одной стороны, это позволит несколько повысить эффективность использования дисков. С другой стороны, планирование системы становится еще более творческим занятием. Предположим, что нам нужен пул из NL SAS дисков. Логично использовать RAID6 и, как следствие, мы вынуждены использовать 17 дисков (одна группа 14+2 и пригодится хотя бы 1 hot-spare диск). Если же нужно увеличить объем системы, то дисков нужно уже 33 (а лучше бы 34). И здесь мы сталкиваемся с тем, что уместить 34 диска в дисковые полки по 15 дисков довольно проблематично, а значит потребуется 3я полка, которую мы также не сможем заполнить. В любом случае, выбор “большой” RAID группы накладывает определенные ограничения на апгрейд системы (в плане стоимости такого апгрейда). Конечно, есть полки высокой емкости, но и там диски “ровно” не укладываются.

Такими изменениями производитель нам как бы сам намекает, что оставшееся место самое время заполнить дисками SSD, чтобы использовать все прелести FAST Cache или FAST VP. И здесь мы сталкиваемся с новым изменением – в пул можно будет включать RAID-группы разного типа, т.е. в пул с  RAID6 из NL SAS дисков можно спокойно подключить RAID5 из SSD дисков (сейчас пользователь вынужден использовать только один тип RAID внутри пула, независимо от типа дисков).

image

Изменения коснулись и технологии FAST VP – в новом релизе данные будут сначала попадать на SSD, а уже потом перемещаться на более медленные диски. Такой подход имеет свои плюсы и минусы, но зато позволяет получить немедленный видимый эффект от использования SSD. И становится заметно проще демонстрировать преимущества от FAST VP заказчику – достаточно немного нагрузить систему. Фактически, технология FAST VP становится более похожей на FAST Cache (хотя отличия, несомненно, остаются).

В упомянутой выше статье было много сказано про недостатки пулов в VNX, связанные с расширением дискового пространства. Похоже, что и эту проблему в EMC не обошли своим вниманнием – помимо уже описанных новшеств, нас ждет еще и автоматическая ребалансировка внутри пула. При добавлении дисковых групп в общий пул, произойдет перераспределение данных по пулу. С одной стороны, это очень хорошо – добавили диски и увеличили производительность, а не только объем. С другой стороны, перераспределение занимает время и нагружает контроллеры. А как обычно происходит? Диски добавляем, когда уже и места нет, и производительность ниже необходимой. Планируйте своевременно апгрейды! (Это правило, кстати, относится не только к EMC, но и ко всем другим системам).

Ну и самое радикальное новшество – на пулах появятся новые снапшоты! Это действительно принципиальное изменение (и я понятия не имею, почему еще все производители, которые так рекламируют thin provisioning, не начали так делать). Появляются снапшоты, работающие по технологии redirect on write. Т.е. больше нам не нужно резервировать отдельное место под мгновенные снимки и системе не нужно копировать “старые” данные в этот резервный пул. В случае redirect on write новый блок данных (после создания снимка) просто записывается в новое место, а LUN “собирается” на основе указателей. Т.е. примерно так, как это реализовано в NetApp или в IBM XIV. А это дает существенные преимущества – до 256 снимков на том, нет потери производительности из-за использования снимков, возможность делать снапшоты снапшотов, доступность снапшотов на запись. Да, да -  извечные противники в плане технологий стали еще ближе друг к другу! Если NetApp выступает своего рода первопроходцем, то EMC идет по намеченному курсу, делая нужные изменения (не факт что в нужный момент, но зато не приходится растрачиваться на рекламу новых фишек – публика уже “подогрета” рассказами NetApp).

Но гонка с NetApp на снапшотах не закончена и у VNX появляется еще один дополнительный программный продукт – AppSync. Он предназначен для защиты приложений (на старте - Exchange и VMware, потом планируются и другие). Пользователь задает уровень доступности  (SLA) для конкретного приложения и может самостоятельно восстанавливать данные в случае сбоя.

Большинство из объявленных новшеств доступны только в системах VNX, а владельцам VNXe придется подождать – из-за особенностей реализации блочных протоколов в VNXe.

Посмотрим, что готовят конкуренты в ответ!

вторник, 22 мая 2012 г.

EMX VMAX 40K

imageКак обычно, громко и шумно EMC анонсировали новую high-end дисковую систему. На смену VMAX и VMAXe пришли аж целых три системы - VMAX 10K, 20K и 40K. Правда, здесь есть и небольшой подвох - 10K и 20K вроде как никуда и не пришли. А не пришли они из-за того, что никуда и не уходили - это уже хорошо знакомые нам VMAXe и VMAX, только с новыми названиями. Действительно, в прошлый раз маркетологи в EMC явно перемудрили и назвали все модели новыми именами (VMAX, VPLEX, VNX...), но никто не побеспокоился о том, что же делать, если потребуется все-таки их немного усовершенствовать - процессоров там добавить, либо еще что-нибудь прикрутить. Вот и пришлось теперь менять название. Что касается новой “звезды” в лице VMAX 40K, то из “железных” изменений все довольно ожидаемо - более современные шестиядерные процессоры (2.8ГГц Westmere), больше кэш памяти плюс шина PCI express 2.0:

 image

За счет этого добились (по заявлениям) двукратного роста производительности в бэкенде и на линейных нагрузках “снаружи”. Что касается OLTP нагрузки, то здесь декларируется примерно 25% роста. Без изменений осталось максимальное поддерживаемое количество дисков 3.5” (2400), но зато можно использовать до 3200 дисков форм-фактора 2.5” (причем их можно установить до 400шт в стойку). Как и прежде, используется FC бэкенд и FС диски. Кроме EMC и HP (3PAR) в системах high-end c FC дисками никого не осталось - IBM и Hitachi уже давно перешли на SAS. Существенное ограничение - нельзя смешивать в одной системе диски 2.5” и 3.5” (не только в одном шкафу, но и вообще во всей системе). Нельзя и проапгрейдить 10K до 20K, а 20K до 40K, так что, несмотря на схожесть названий, эти системы разделены жестким барьером и пользователь не имеет возможности вспрыгнуть на подножку стремительно уходящего поезда прогресса, зацепившись за “младшую” систему. Хотите перспективы - берите сразу 40K.

Видимо в EMC получили ряд нареканий о том, что затруднительно бывает разместить монстра VMAX в ЦОД из-за нехватки площадей, поэтому сейчас можно “разбросать” части VMAX 40K (опять же, только 40K!) по ЦОД (в пределах 25м).

Если с точки зрения железа все, как я и написал, ожидаемо и логично, то в софте добавилось возможностей несколько больше. Самое заметное - Federated Tiered Storage (FTS). Говоря простыми и понятными словами, это виртуализация внешних (сторонних) СХД. “Сторонних” звучит, правда, несколько натянуто - на первом этапе поддерживаются только Symmetrix DMX-4, DMX-3, DMX, CLARiiON CX4 / CX3, VNX и (вот же она, “сторонняя система”!) Hitachi USP-V. Список конечно весьма и весьма скромен, да и виртуализация динозавра в лице DMX3 (а и USP-V тоже) выглядит довольно - нужно дважды заплатить за лицензии на емкость - сначала за емкость самого DMX3, а потом за нее же, но уже в ценах для VMAX. Однако хочется надеяться, что список протестированных и поддерживаемых устройств будет расти. Виртуализованная емкость может использоваться со всеми замечательными функциями (FAST VP, TimeFinder, SRDF, VLUN). В этом плане VMAX выглядит, на мой взгляд, даже немного интереснее, чем VPLEX. С другой стороны, получается соревнование по функционалу между двумя “топовыми” продуктами одного производителя. Уж лучше бы сделали “VMAXPLEX”, который бы обладал преимуществами обеих систем! Из приятного - Federated Tiered Storage доступен не только на VMAX 40K, но и на 20K (напомню, что это нынешний VMAX).

Для FAST VP появилась возможность интеграции с SRDF и теперь на удаленной площадке система в курсе о том какие блоки должны лежать на быстрых дисках, а какие - нет. Теперь при переходе на резервную площадку можно надеяться на сопоставимую производительность (если конечно системы на площадках идентичны).

Перевод всех бородатых администраторов на простой и понятный GUI продолжается, поэтому теперь можно управлять VMAX из красивого Unisphere (правда, с приставкой “for VMAX”).

Программные улучшения коснулись в том числе и интеграции VMAX с RecoverPoint (поддержка сплиттера на уровне СХД).

Получилась ли принципиально новая система? Не уверен – подавляющее число новшеств это либо результат планового развития архитектуры x86, либо усовершенствования очередного релиза Enginuity. Остается открытым и вопрос узких мест – апгрейд узлов и увеличение дисков в бэкенде на 33% привели лишь к 25% росту производительности (OLTP). А как на производительность будет влиять FTS? Подрастет ли производительность за счет кэша VMAX или, напротив, подрастет только латентность? Если FTS позволяет использовать возможности VMAX на системах класса ниже, то смогут ли разработчики перенести эти возможности в VPLEX (ах, как этого недостает!)?

Как обычно, много вопросов на которые мы сможем найти ответы лишь по прошествии некоторого времени и (ведь такое хотя и маловероятно, но тоже может случиться!) каких-то публичных тестов. Но это я уже совсем размечтался наверное!

понедельник, 13 февраля 2012 г.

Кэшировать всегда, кэшировать везде!

Уже во время анонса системы IBM XIV Gen3 было объявлено о скорой поддержке SSD внутри модулей. “Скоро” уже настало и вот теперь можно не только заказать новый XIV Gen3 с установленными SSD дисками, но и установить SSD в уже инсталлированную систему XIV Gen3 (процедура не требует остановки – только обновления микрокода). В каждый узел XIV можно установить по одному диску SSD 400GB (суммарно это даст от 2.4ТБ до 6ТБ на систему, размер немного занизили – изначально обещали диски по 500GB). Почему так мало? Потому что это пространство может быть использовано только как кэш чтения, а не для хранения самих данных, а 6ТБ кэш памяти это не так уж и мало. Кэшируются только операции чтения – для кэширования операций записи используется оперативная память узлов XIV (суммарный объем которой достигает 360GB). Чтобы обеспечить для SSD модулей долгое и безоблачное существование под высокой нагрузкой используется специальный механизм оптимизации: изначально в оперативной памяти узла формируются блоки размером по 512КБ и уже именно эти блоки последовательно и циклично записываются на SSD. Таким образом, операции записи на SSD всегда идут последовательно, а ячейки используются равномерно. Обещают неплохой прирост в производительности:

image

Решение, предложенное в XIV безусловно не является технологическим прорывом – всем уже вспомнился и EMC FastCache, и NetApp FlashCache. Каждое из этих решений имеет и свои плюсы, и свои минусы. От EMC FastCache заказчик получает не только кэширование при чтении, но и кэширование операций записи. Платой за это является существенное сокращение кэша в оперативной памяти SP и сравнительно небольшой объем – для “топового” VNX7500 он составляет 2.1ТБ (при использовании 100GB дисков). В случае с NetApp FlashCache кэшируется только чтение, но зато кэш является дедублицированным и может достигать 16ТБ. Кроме того, FlashCache является PCI-e платой, поэтому “дорога” от кэша до процессора (а значит и до хоста) гораздо короче, чем при использовании SSD дисков. А это, в свою очередь, потенциально позволяет получить довольно низкую латентность. С другой стороны, если мы захотим получить 16ТБ кэша, то на придется задействовать 16 слотов расширения из 24х возможных, что существенно ограничит возможности расширения (как по дискам, так и по используемым протоколам подключения хостов).

EMC тоже отметились и с шумом выкатили свое решение для кэширования VFCache (Very Fast Cache). Что это и как “привязано” к дисковой системе? По факту VFCache это обычная PCI-e плата (как и аналоги у FusionIO, LSI и пр.) 300GB (производства Micron), которая используется не как супер-быстрый диск в операционной системе, но как кэш для операций чтения.

image

В принципе (насколько я понял из прочитанного/найденного), никто не мешает использовать VFCache с любой дисковой системой (и без нее в т.ч.). Можно даже часть VFCache “отрезать” и использовать как жесткий диск. Среди явных минусов – пока поддерживается только одна карта в сервере, так что использование части VFCache как DAS, не может обеспечить отказоустойчивость. Кроме того, поддержка в VMware серьезно ограничивает такой функционал как vMotion (а точнее он просто не поддерживается). В данном случае решение EMC тоже уникальным не назовешь. Один из пионеров в выпуске PCI-e SSD карт – FusionIO уже некоторое время предлагает аналогичный продукт ioCache (который, кстати, vMotion как раз поддерживает). Есть надежда, что в последующих релизах VFCache будет существенным образом доработан и появится не только более тесная интеграция с VMware, но и с собственными продуктами (FAST Cache/ FAST VP).

среда, 14 декабря 2011 г.

Одной строкой

Обновилась камасутра библия для владельцев систем NetApp и IBM N-series – документ с говорящим за себя названием “NetApp Storage Best Practices for VMware vSphere” (TR-3749). Основные изменения коснулись возможностей vSphere 5. Скачать можно совершенно свободно, даже регистрация не требуется. Всем, кто использует VMware, документ обязательно нужно прочитать хотя бы один раз!

Для серверов IBM x3650M3 и x3550M3 анонсирован новый RAID контроллер – ServeRAID M5016. Ключевая особенность – наличие 1GB кэш памяти с защитой, но не батарейкой, а флэш-памятью с конденсаторным модулем (ну наконец-то уже!). Для активации RAID6/60 более не требуется дополнительный ключ – все работает “из коробки”.

image

Предвосхищая – модуль с конденсаторами на фото не показан, он “болтается” отдельно,  пристегнутый длинным кабелем к контроллеру (примерно как с использованием Remote Mount Cable на M5015).

четверг, 20 октября 2011 г.

IBM: из анонсированного (V7000 Unified и другие)


К сожалению времени катастрофически мало, поэтому руки не всегда доходят вовремя написать про свершившееся.
В очередных октябрьских анонсах IBM было объявлено о целом ряде интересных новинок. Прежде всего, это разумеется “приставка” для уже весьма популярной системы Storwize V7000, превращающая ее из обычной блочной системы хранения в Unified систему. Термин ставший в последнее время крайне модным, поэтому ну уж никак нельзя было без этого обойтись. По сути это два обычных x86 сервера (x3650M3), добавленные к системе V7000.
image
На серверах установлена версия SONAS 1.3 (также анонсирована). Благодаря тому что именно в этой версии SONAS можно отказаться от выделенных станций управления, никакого дополнительного оборудования не потребуется. Напомню, что SONAS это “большой-большой” NAS, в изначальном варианте позиционирующийся нишей выше одиночных систем IBM N-seriesфайлеров NetApp (там где нужны очень высокие скорости и очень большие объемы). V7000U это “младший” брат большого SONAS, который состоит только из двух узлов, но в программной части отличий нет. В основе решения лежит кластерная файловая система IBM GPFS. В качестве интерконнекта между файловыми модулями используется два гигабитных интерфейса (в “большом” SONAS – Infiniband). Доступ к файловым ресурсам может быть как через 1GbE интерфейсы, так и через 10GbE. Поддерживаются протоколы CIFS, NFS, HTTP(s), FTP, SCP. Все управление (как блочными ресурсами, так и файловыми) остается централизованным и осуществляется из уже ставшего привычным интерфейса:
image
Поддерживаются все стандартные возможности SONAS – репликация, мгновенные снимки, внешний антивирус и т.п.
С анонсом V7000 Unified, линейка систем хранения IBM становится еще более внятной и все более “made by IBM”. Очевидно что основными конкурентами будут EMC с системами VNX и “средние” файлеры NetApp. В некотором смысле это ответ NetApp, которые в свое время исключили поддержку SVC в своих виртуализаторах (V-seriesV-Filer), а поддержки V7000 в качестве блочного устройства там и не было. Конечно, и у тех, и у других систем есть свои преимущества и свои недостатки, но V7000U займет среди них достойное место.
Анонсы на этом не закончились. Для V7000 и SVC обновилась версия ПО до 6.3. Теперь для Global Mirror (асинхронной репликации) можно дополнительно задавать RPO. В этом случае репликация будет работать через периодические снапшоты и потенциально позволит сократить требования к каналу связи. Также объявлено о возможности репликации между SVC и V7000. Для SVC сняли ограничение на отсутствие хопов между узлами SVC в stretch cluster конфигурации. Теперь узлы можно разнести на расстояние до 300км (стоит конечно помнить про снижение латентности при удалении узлов друг от друга). В V7000 появилась поддержка дисков 3TB NL SAS, SSD 200GB и 400GB.

среда, 12 октября 2011 г.

Сохранение путем уничтожения!

Ни для кого не секрет, что у многих компаний есть информация, которая ни в коем случае не должна попасть в чужие руки. Причем речь идет даже не о «теневом бизнесе» - иногда нужно «предохраниться» от рейдеров или просто переслать с курьером жизненно важную информацию.

В таких случаях самый лучший способ сохранения коммерческой тайны – это уничтожение информации без возможности ее восстановления. И продукты для этого есть!
Дружественная нам компания Рантех производит целый ряд изделий, предназначенных для мгновенного и безвозвратного уничтожения данных. Ну а мы их поставляем :)

Описания продуктов есть на их сайте, а я постараюсь в двух словах о них рассказать.

Если Вам нужно защитить данные на обычном сервере, то есть замечательный JBOD.


Собственно говоря, это блок расширения для сервера, RAID контроллер которого имеет внешний порт SAS. Подключается и работает, как и любой другой JBOD. Но только до тех пор, пока не наступит час ИКС! Внутри корпуса, помимо собственно жестких дисков (а их может быть 4 или 8шт в разных модификациях), находится блок электроники и набор катушек, выдающих мощный электромагнитный импульс, полностью стирающий поверхность HDD

Система имеет интерфейс для подключения внешних датчиков (вторжение в серверную, тревожная кнопка и т.п.), а также управляется с мобильного телефона (список номеров которых задается админом) – достаточно позвонить по только Вам известному номеру (и только с Вашего телефона) и через несколько секунд злоумышленники получат мертвую гору железа, вместо интересующей их информации. 

Встроенный мониторинг дает возможность отследить, с какого источника пришел сигнал на уничтожение. Ну а на случай внезапной атаки, когда оборудование выносится из помещения, пока Вы рассматриваете узоры на линолеуме, система имеет датчик вскрытия корпуса и автономное питание на двое суток – времени на звонок хватит.

После срабатывания системы диски превращаются в куски железа – даже сервометок не остается. Так что, сами понимаете, даже нанотехнологическая лаборатория данные прочитать уже не сможет :)

Для защиты внешних СХД, которые работают только со своими блоками расширения, есть вариант системы в другом исполнении.

Да, выглядит не слишком эротично (иначе катушки не запихнуть – только спереди, вместо части дисков), но работает аналогичным образом.

Есть варианты и для защиты отдельностоящего ПК.



Ну и для совсем бедных, но гордых, есть устройство, которое активируется только тревожной кнопкой.

Все вышеперечисленные устройства работают по одному и тому же принципу, защищают информацию только на HDD и имеют сходный функционал. Но есть и еще одно решение, предназначенное для перевозки конфиденциальных данных курьером.


Это устройство, данные на котором хранятся в шифрованном виде и для получения доступа к ним нужно набрать пароль. Причем набрать не на клавиатуре ПК, где он может быть перехвачен кейлоггером, а на самом устройстве. 

В случае же попытки подбора пароля или набора «пароля под принуждением», данные будут стерты. Напрочь. Причем стерты они будут, даже если устройство не подключено к компьютеру, поскольку оно имеет встроенную батарею.

Самое приятное, что стОят эти вещи вовсе не космических денег – от 10 тыс до 300 тыс рублей (без дисков, разумеется).

Конечно же, все эти технические ухищрения не могут защитить Вашу информацию на 100% (ведь есть и другие методы выяснения секретов), однако на порядок затрудняют действия злоумышленников. А остальное – работа адвокатов и безопасников :)

Заказывайте!

среда, 28 сентября 2011 г.

ScaleMP объявляет о поддержке процессоров AMD

Анонсирована долгожданная поддержка процессоров AMD Opteron в системе виртуализации ScaleMP vSMP, про которую я уже писал. До настоящего момента необходимо было использовать только процессоры Intel Xeon серий 5xxx/6xxx или 7xxx.

Поддерживаться будут как процессоры серии Opteron 6100, так и будущие “Interlagos”. Можно будет объединить до 512ти процессоров в единую виртуальную машину с объемом памяти до 64ТБ. Уже с октября этого года релиз vSMP Foundation будет доступен для ограниченного круга заказчиков, а с 21 ноября строить vSMP кластер с использованием процессоров AMD Opteron смогут уже все желающие.

среда, 14 сентября 2011 г.

Новые серверы IBM начального уровня

Хотя сама платформа Sandy Bridge уже довольно давно доступна, IBM только анонсировали два новых сервера начального уровня: x3100 M4 и x3250 M4. Как следует из названия модели, x3100 это вариант в форм-факторе tower, а x3250 – рэковый (1U):

imageimage

Серверы будут поставляться с различными процессорами – это и Pentium Gxx0, и Core i3 21x0, а также Xeon E3 (включая варианты с пониженным тепловыделением – E3-1260L и E3-1220L). Оба сервера поддерживают до 32ГБ памяти (DDR3 ECC UDIMM). В “башенный” вариант можно установить 4 диска 3.5” Simple-Swap SATA или SAS, а к середине 2012г. ожидается обновление с возможностью использовать до 8 дисков 2.5” Hot-Swap SAS/SATA. А вот рэковый вариант уже сразу можно будет заказать либо с двумя 3.5” дисками Simple-Swap, либо с четырьмя дисками 2.5” Hot-Swap. Кроме того, для модели x3250 M4 также будет доступен вариант с двумя блоками питания (по 460W). Для x3100 M4 такая опция планируется также на первую половину 2012 года. Это вполне логично – очень часто по производительности достаточно и однопроцессорной конфигурации, но требуется два блока питания.

В качестве дисковых контроллеров, как и прежде, можно использовать ServeRAID M5014/M5015 или M1015. Если же ничего кроме двух SATA дисков устанавливаться не будет, а производительность не стоит на первом месте, предлагается воспользоваться ServeRAID C100 – это интегрированный контроллер на базе Intel® Rapid Storage Technology enterprise. Приятной особенностью реализации является использование привычного ПО управления от “старших” братьев линейки ServeRAID. Ожидается (опять же в 2012) и поддержка RAID5, но потребуется дополнительный ключ активации.

Эволюционные изменения претерпел и модуль управления (IMM), получивший прибавку в названии – теперь это IMM2. Поддержка ActiveX для доступа к консоли порадует ненавистников Oracle вообще и Java в частности. Как и в текущих моделях серверов начального уровня, сетевой интерфейс IMM2 совмещен с одним из двух сетевых портов (разумеется гигабитных). Обещают также заменить и Web-интерфейс на прогрессивный и крайне дружелюбный.

Очень занятной выглядит опция для серверов x3100M4 для установки их в 19” стойку:

image

По сути это просто полка, на которую кладется (прикручивается) сервер. Но именно такого, довольно “тупого” устройства часто недостает. В стойке, при таком монтаже, сервер займет 4U.

Начало отгрузок заказчикам запланировано на 28 октября.