вторник, 10 мая 2011 г.

IBM DS3500: новые возможности

По случаю Дня Победы (и наверное не только по этому случаю), в IBM анонсировали целый ряд существенных улучшений в и без того популярных системах серии DS3500 – DS3512 и DS3524. На самом деле, 9го мая были и другие (зачастую не менее значимые) анонсы в области систем хранения IBM, но про них в другой раз. Так что же теперь еще есть в DS3500?

  • Самое заметное нововведение – в два раза увеличено количество поддерживаемых дисков. Теперь в одной DS3500 может быть до 192 жестких дисков SAS и/или NL SAS. Для этого потребуется докупить соответствующий ключ активации. Тем самым, можно получить до 384ТБ raw ёмкости на систему при использовании 3.5" NL SAS дисков 2ТБ и до 192ТБ raw ёмкости на систему при использовании 2.5" NL SAS дисков 1ТБ (которые, кстати, также были анонсированы 9го мая).
  • Поддерживается до 128 Storage Partitions, а также до 256 томов на каждую “partition”. Суммарное же количество поддерживаемых томов увеличено до 512 на систему.
  • Дополнительная опция позволит создавать до 16 пар томов (вместо 8ми, которые были доступны ранее) при использовании Remote Mirroring (синхронная и асинхронная репликация).
  • Для тех, у кого активированы FlashCopy и/или VolumeCopy получат поддержку до 256 копий на систему (количество копий на том остается без изменений). Более того, теперь нет никакой необходимости приобретать ключи активации для FlashCopy upgrade и VolumeCopy upgrade – достаточно Base версии чтобы получить максимум возможностей.
  • Поддерживается подключение к хостам через SAS коммутатор (ранее более 4х хостов можно было подключить только по FC или iSCSI). Сами коммутаторы через IBM не поставляются пока, но зато они есть у LSI. Совместимость, как обычно, проверяется через SSIC.
  • Для тех, кто заинтересован в использовании iSCSI, но 1Гбит интерфейсы не устраивают по производительности, есть приятная новость – анонсированы интерфейсные платы с портами 10Гбит. В результате, можно получить по два 10Гбит порта на контроллер (4x10Гбит на двухконтроллерную систему). Примечательно, что используются не привычные SFP+ порты, а RJ45. Так как порты на новых картах могут работать и на 10Гбит, и на 1Гбит, можно смело использовать эти интерфейсные платы даже без инфраструктуры 10Гбит, а рассчитывая на ближайшую перспективу.
    image

Помимо “железных” возможностей, появились улучшения и в плане управления системой:

  • Для периодического создания мгновенных снимков вместо скриптов (в определенных случаях) можно использовать расписание, настраиваемое через GUI в DS Storage Manager (также его можно настроить и в CLI).
  • Теперь вовсе необязательно при создании VolumeCopy вручную делать FlashCopy, чтобы обеспечить непрерывный доступ к исходному тому – опция “Online VolumeCopy” позволит автоматизировать процесс и соответствующий снимок будет создан в системе без участия администратора.
  • Но наиболее интересная для меня новость – улучшения в Performance Monitor, который теперь научился показывать не только realtime результаты, но и накопленные за период значения (до 7ми дней):
    imageЭто позволит нам существенно упростить жизнь при поиске потенциальных проблем и при анализе производительности системы.

Сейчас, благодаря этим новшествам, системы DS3500 стали еще привлекательнее для пользователей и способны занять не только нишу начального уровня, но и составляют серьезную конкуренцию системам класса MidRange. Осталось только дождаться поддержки SSD!

Читать дальше ...

среда, 4 мая 2011 г.

16Gbps Fibre Channel уже здесь

Еще во времена, когда только появлялись 4Гбит FC коммутаторы, одни производителя делали громкие заявления о грядущем тотальном переходе на 10Гбит, другие уже тогда вели разговоры про смерть FC. Время шло, 10Гбит так и не прижился в широких кругах, Fibre Channel ничуть не умер, а продолжает активно двигаться вперед (как по функционалу, так и в плане скоростей). Да, несомненно, бэкенд в дисковых системах целенаправленно уходит в сторону SAS. Здесь для FC места уже сегодня практически нет, а скоро и не будет совсем. Однако для построения сети хранения данных (SAN) альтернатив не так уж и много. FCoE начинает распространяться, но инсталлированная база FCoE слишком мала, есть и целый ряд “детских” проблем, так что  в больших сетях продолжает царствовать Fibre Channel.

Одним из главных “паровозов”, двигающих развитие FC, без сомнения является компания Brocade. Очередным шагом к светлому будущему стал анонс линейки продуктов, поддерживающих 16Гбит Fibre Channel. На рынок выпущены как адаптеры для серверов, так и коммутаторы.

Адаптеры представлены одно- и двухпортовыми картами Brocade 1860 Fabric Adapter для шины PCI-express 2.0 (x8).

image

Декларируется производительность до 500.000 IOPs на порт. Отличительной особенностью является поддержка не только протокола Fibre Channel (16/8/4/2Gbit), но и 10Gbit Ethernet. Один и тот же адаптер, таким образом, может использоваться как работы с FC, DCB, FCoE и iSCSI. Технология virtual Fabric Link (vFLink) позволяет превратить один адаптер в 16 виртуальных, которые будут видных внутри операционной системы как отдельные карты, работающие либо как vHBA (Fibre Channel), либо как vNIC (Ethernet). Полоса пропускания для каждого виртуального адаптера может быть установлена произвольно с шагом 100Мбит.

image

Также поддерживается и технология SR-IOV, обеспечивая до 255 Virtual Functions на адаптер.

16Гбит коммутатор (на текущий момент он один) – Brocade 6510 Switch построен на базе ASIC Condor3.

image

Занимая в стойке всего 1U, коммутатор позволяет использовать от 24 до 48 портов (активированные порты наращиваются по 12шт). Все порты поддерживают скорости 2, 4, 8, 10 и 16Gbps и работают без переподписки (oversubscription). Коммутатор оснащен двумя блоками питания с горячей заменой.  В ISL транках можно объединять до 8 линков, обеспечивая пропускную способность до 128Gbps. Также поверх ISL поддерживается компрессия и шифрование “на лету”.

Для “мега” инсталляций выпущено два новых шасси – DCX 8510 Backbone в вариантах с 4мя и 8ю слотами. Заказчики могут получить до 384 портов 16Gbps в одном шасси и пропускную способность до 8.2Tbps. Про DCX писать особенно ничего не буду – все кому они реально нужны и так в курсе возможностей и прочего.

Читать дальше ...