Для всех тех, кому лень читать все, что ниже, посмотритете этот ролик, за 99 секунд Вам расскажут об этой замечательной технологии кэширования.
И так, что же это такое?
1. Консолидация технологий
Строить FCoE уже давно можно – все для этого есть: и адаптеры в серверы, и коммутаторы. Наибольший интерес к FCoE можно ожидать при использовании Blade-решений, так как возможности по установке плат расширения зачастую ограничены. Но цена вопроса все еще довольно высока, особенно учитывая то, что для подключения дисковых систем в большинстве случаев требуется использовать не только 10Gbit коммутационные модули в шасси, но и FCoE коммутаторы с FC портами, либо строить отдельную FC инфраструктуру. Для того чтобы упростить ситуацию, IBM анонсировал для шасси BladeCenter H модули Virtual Fabric Extension. Этот модуль подключается через мид-плэйн к коммутатору BNT Virtual Fabric 10 Gb Switch и позволяет использовать FC порты без необходимости установки дополнительных FC HBA плат в сами лезвия:
В лезвия достаточно установить по одному двухпортовому CNA адаптеру Qlogic, а в шасси – различные по количествам вариации из 10Gb коммутаторов BNT и модулей Virtual Fabric Extension. В максимальной конфигурации поддерживается 2+2 модуля (как на рисунке выше); в минимальной - 1+1 (без отказоустойчивости и задействован только один порт на CNA); кроме того, возможен вариант, когда к двум 10Gb коммутаторам подключен только один модуль Virtual Fabric – это обеспечивает максимальное число внешних портов 10Гбит (16шт).
Virtual Fabric Extension Module может работать как в режиме Full Fabric, так и в режиме NPIV, что обеспечивает дополнительную гибкость конфигураций. Дополнительно хочется отметить, что все “высокоскоростные” прелести доступны только в шасси BladeCenter H (или HT для телекома), поэтому именно это шасси и имеет смысл рассматривать если есть хоть малейшие перспективы для использования 10Gb.
Читать дальше ...Qlogic объявили о начале отгрузок второго поколения CNA адаптеров – серию 8100. Ключевые отличия – поддержка PCI-express x8 версии 2.0 и теперь вся реализация “упрятана” в единственный чип. Как следствие, карты получились очень экономичными по питанию – тепловыделение всего 7W . Заявлена производительность в 250.000 IOPs на порт (платы как одно-, так и двухпортовые). iSCSI поддерживается через программный инициатор, что несколько ограничивает применение на высоких скоростях (впрочем, для этого данные платы и не предназначены).
Подключение – через SFP+, а варианты поставки есть как без SFP+ модулей (для twin-ax кабелей), так и с модулями под SR и LR оптику. На текущий момент можно уже строить решение целиком под FCoE – коммутаторы Cisco Nexus 5000 (или Brocade 8000), дисковые системы от NetApp (или их аналоги - IBM N Series) уже сейчас можно заказать с FCoE интерфейсами (кроме того, имеющиеся FC системы можно подключить к коммутаторам в специально отведенные порты). Таким образом (если задаться целью), уже сейчас можно получить инфраструктуру завтрашнего дня. Однако, по различным оценкам (как аналитиков, так и самих заказчиков) реальных внедрений стоит ожидать в 2011-2012 годах.
Читать дальше ...