ИТ-технологии для профессионалов

вторник, 15 марта 2016 г.

EMC DSSD D5 - технологический прорыв для систем хранения

После долгих обещаний, многочисленных показов прототипов на выставках и рассказов на конференциях объявлено о доступности систем EMC DSSD D5.  Казалось бы, еще один анонс очередной All Flash СХД - мы чуть ли не каждый день про них читаем. Но эта СХД настолько уникальна по нынешним меркам, что стоит рассказать про нее подробнее.

Если говорить о производительности, то пропускная способность DSSD D5 может достигать 100ГБ/сек, а количество операций ввода-вывода (случайное чтение блоками 4КБ) - 10 миллионов в секунду. И эти результаты обеспечивает система размером всего в 5U! При этом латентность не превышает 100мкс. Все это достигается за счет принципиально новой архитектуры СХД.
DSSD_1.png
Прежде всего, подключение хостов осуществляется не через Fibre Channel или Ethernet и даже не через высокоскоростной Infiniband, а через интерфейс PCIe NVMe. Для этого используются специальные двухпортовые PCIe x8 платы. Основное преимущество нового интерфейса даже не в скорости (хотя каждый порт может передавать данные на скоростях до 3.5ГБ/сек), а в низкой латентности - фактически вы как будто подключаете к серверу обычную PCIe SSD плату.
DSSD_card.png
На текущий момент для подключения доступны только медные кабели длиной до 4 метров, но в будущем планируется использовать оптические кабели, что позволит располагать серверы не только в непосредственной близости от системы хранения. Для подключения не используются никакие коммутаторы (если говорить точнее, то коммутатор просто встроен в DSSD и называется IO-модуль). К одной системе хранения можно подключить до 48 серверов (суммарно на системе 96 портов - по 48 на каждом из модулей ввода-вывода).
DSSD_IOM.png

EMC DSSD D5, в отличие от многих конкурентов, не является простым “блочным” устройством, а предоставляет доступ к данным через  API (libflood). С использованием этого API можно создавать клиентские библиотеки, реализующие доступ к данным через различные протоколы. В частности, уже сейчас доступна библиотека libHDFS, которая позволяет обращаться к DSSD как к очень быстрой HDFS системе. Блочный доступ, впрочем, также возможен через драйвер, но “внутри” DSSD все равно остается объектной системой хранения - любые данные хранятся в ней как объекты и уже эти объекты транслируются через API и программный код в сущности, с которыми “привыкло” общаться прикладное ПО. При использовании DSSD Block Driver доступ к СХД осуществляется как к обычному SCSI-устройству и на системе можно хранить данные используя традиционные файловые системы (xfs, ext4, gpfs) .

Шасси может содержать 18 или 36 flash-модулей, каждый объемом 2 или 4ТБ (это именно доступный объем, который не включает резерв на контрольные суммы, метаданные и overprovisioning). С учетом RAID пользователю доступно от 25ТБ до 100ТБ дискового пространства. В перспективе уже обещают 8ТБ и 16ТБ модули, а это почти половина петабайта в 5U! Каждый flash-модуль подключается к системе хранения через два независимых линка PCIe Gen3 x4.

Контроллерные модули (их два) занимаются работой по управлению данными (control plane) и не стоят на пути данных и это также позволяет обеспечить высокую производительность. Защита от сбоев на различных уровнях (NAND чип в модуле, сам модуль и т.п.) реализована посредством так называемого “Cubic RAID” - за его работу также отвечают контроллерные модули. Если не вдаваться в детали, то Cubic RAID имеет определенное сходство с реализацией 2D RAID в системах IBM FlashSystem.

Отметим, что DSSD D5 спроектирован для обеспечения целостности и сохранности данных, поэтому защита от возможных сбоев реализована на самом высоком уровне. Все компоненты (кроме пассивной центральной соединительной платы - midplane) могут быть заменены без прекращения обслуживания. Любая операция записи сразу переадресуется на два Flash-модуля и Control-модуль (для этого используются возможности шины PCIe Gen3 - PCIe multicast write). Каждый Flash модуль сохраняет содержимое своей DRAM памяти при сбоях электропитания и, при восстановлении, данные переносятся в контроллерный модуль для дальнейшей обработки. Постоянный анализ наличия дефектных блоков позволяет проактивно исключать “опасные” блоки из рабочей области. Уже упомянутый Cubic RAID защищает от возможных сбоев в ячейках flash-модулей и от сбоев самих модулей. Все основные компоненты дублируются (блоки питания, контроллерные модули, модули ввода-вывода, система охлаждения).

При всех этих достоинствах нельзя не сказать, что пока DSSD D5 не обладает никакими расширенными возможностями по защите данных, поэтому очень сложно говорить о ее применимости в качестве основной корпоративной системы хранения. С другой стороны, система спроектирована в расчете на обеспечение максимальной производительности, поэтому если вам действительно нужно получить несколько миллионов(!) IOPs, то пора задуматься о приобретении DSSD D5 :)

Не исключено, что расширенный программный функционал появится в следующих версиях - это явно расширит круг потенциальных клиентов. И будем надеяться, что обновление не будет таким болезненным, как у пользователей XtremIO.

Поддержки VMware (как и других гипервизоров) пока нет, но работа над этим активно ведется, так что в перспективе можно будет рассматривать возможность построения виртуальных ферм с фантастически быстрой дисковой подсистемой. Также пока не поддерживается подключение одного сервера к нескольким DSSD D5, поэтому максимальный доступный объем лимитирован емкостью только одной системы хранения.

Если для аналитики требуется высокопроизводительная HDFS система хранения (обычно латентность в таких системах весьма высока), то и здесь DSSD D5 будет очень перспективным решением. В компании Cloudera уже высоко оценили эффективность новой системы при использовании в кластерах Hadoop для решения задач заказчиков: “For customers that require the combination of secure processing and analytics on fast, persistent memory, EMC’s DSSD D5 appliance running with Cloudera Enterprise will realize an order of magnitude better performance across multiple workloads for example, random-access Apache HBase workloads.

Можно сказать что прорыв состоялся - остается подождать пока остальные производители смогут предложить альтернативные решения.

Комментариев нет:

Отправить комментарий