четверг, 24 сентября 2009 г.

Обновление прошивки на RAID Adaptec 2й и 5й серии: проблема

На сайте Adaptec появилась информация о том, что обновление прошивки RAID контроллеров 2й и 5й серии (а это модели ASR-2405, ASR-2045, ASR-5405, ASR-5445, ASR-5805, ASR-5085, ASR-51245, ASR-51645, ASR-52445) с версии 16501 на более старшую может повлечь за собой недоступность данных (хотя все созданные ранее массивы будут иметь статус Optimal). Если у Вас на контроллерах установлена упомянутая прошивка, либо имеются массивы, которые были изначально созданы на прошивке версии 16501, настоятельно рекомендуется обратиться в техническую поддержку перед обновлением прошивки. Ну и если Вы уже обновили прошивку и доступ к данным пропал, то обращаться нужно туда же. В качестве быстрого решения возникшей проблемы можно прошить версию 16501 обратно – данные после этого станут доступны.

От себя могу сказать, что мы с такой проблемой до настоящего момента не сталкивались, что может свидетельствовать о том, что проблема встречается не так часто. Да и поскольку следующая после 16501 прошивка вышла еще в начале лета, а информация появилась только сейчас, вероятность не такая уж и большая. Но иметь в виду нужно и помнить про это важно.

Читать дальше ...

вторник, 22 сентября 2009 г.

Intel RAID RS2BL080 6GB и 8 SAS 15k с разными FW контроллера

Компания Intel любезно предоставила нам этот контроллер на короткое время, за которое мы тестировали его в первую очередь на SSD Intel X-25 E, но также и сделали несколько тестов на обычных SAS дисках. К сожалению контроллер был у нас не очень долго и мне не удалось посмотреть все, что хотелось, но было сделано несколько полных прогонов с дисками SAS. При этом эти два прогона проходили на разных версиях прошивки контроллера сначала это была 649 версия, затем был сделан апгрейд в 673 версию и повторены часть из этих тестов.

Сначала эти результаты остались без обработки, но сейчас выдалась минута и я их перерисовал в графики. Результаты достаточно интересные, причем они получаются интересны еще и в отношении друг-друга. Здесь я и решил их опубликовать, в сравнительном режиме одну версию прошивки и другую.

Условия теста.

Из восьми SAS Hitachi 15k 146GB делался RAID 10, поскольку контроллер двух портовый половинки зеркала располагались на разных портах. Настройки Array на контроллере – следующие:

image

Собственно все настройки по умолчанию для 10 RAID.

Тест проводился Iometer’ом, профиль в обоих случаях был одинаковый. Вся нагрузка создавалась 4-мя Worker, глубина очереди каждого составляла 32. В результате как несложно посчитать: 128.

Результаты тестов

Потоковое чтение

Версия fw 649
image

Версия fw 673
image

Потоковое чтение – самый понятный показатель работы внутренних алгоритмов кэширования контроллера. Видно, что в более новой версии прошивки на большом блоке скорость существенно просела, причем пик достигается на 8кб а дальше идет резкий спад. Судя по дальнейшим результатам – 8кб размер блока КЭШ контроллера и поэтому тут и достигается максимальный результат. Также хочется отметить, что считалка у контроллера очень мощная, судя по тому что на маленьком блоке результат вплотную подбирается к 90 000 IOPS.

Случайное чтение

Версия fw 649
image

Версия fw 673
image

Здесь уже КЭШ не играет большой роли и результаты близки. Нужно отметить что IOPS на маленьком блоке упал почти в 2 раза.

Потоковая запись

Версия fw 649
image

Версия fw 673
image

На записи наоборот ситуация заметно улучшилась, потоковые операции упираются в потолок около 1,4 ГБ секунду, опять же очевидно влияние КЭШ. В целом новая версия прошивки больше радует глаз, чем предыдущая.

Случайная запись

Версия fw 649
image

Версия fw 673
image

В обоих случаях результаты схожи. Новая прошивка дает определенный прирост, но он минимален.

Смешанная нагрузка – 70 запись, 30 чтение.

Версия fw 649
image

Версия fw 673
image

Как и в случайной записи, результаты приблизительно похожи.

Вывод

Судя по абсолютным цифрам, контроллер показывает очень хорошую производительность и потенциал железяки высокий. С другой стороны абсолютно очевидно, что софт для продукта сырой и скорее всего потребуется несколько ревизий прошивки чтобы производительность стабилизировалась на достойном уровне.

Результаты в силу того, что продукт вышел совсем недавно не представляют особенной ценности, разве что в целях сравнения с последующими версиями которые будут выходить в дальнейшем.

Читать дальше ...

пятница, 18 сентября 2009 г.

Новости – понятные и не очень.

В последние несколько дней я обратил внимание на три события, одно заметное, но не совсем понятное, второе гораздо более тихое, но такое же непонятное, а третье – не слишком громкое, но зато вполне по ясности мысли переплевывает все остальные. Итак, по порядку:

Oracle не успев насладиться тесной дружбой с HP (первая версия Exadata)выпустил вторую версию Exadata, назвав ее “First Database Machine for OLTP”. Объявление громкое, про него и писали, и пытались заинтриговать. А в итоге получилась пачка обычных x86 серверов на (уже успевших набить оскомину) процессорах Intel Xeon серии 5500, объединенных в Oracle RAC. По сути, единственным новшеством стало использование в “Storage” узлах флэш-памяти для ускорения ввода-вывода. Заявляется производительность в 1млн IOPs (для full rack конфигурации с 14 Storage Servers), но результаты TPC-C обещают озвучить только к середине октября.  image Апологеты спарков конечно расстроены тем, что не попали на праздник, но удивительного в этом, на мой взгляд,  нет – предложить на текущий момент нечего. Эллисон в своем выступлении в основном бился против серверов IBM, которые давно уже занимают первую строчку в тестах TPC-C. Правда, при сравнении цен почему-то забыл упомянуть о том, что на один шкаф с экзадатой нужно еще заплатить больше 600тыс$ за Oracle RAC, тогда как в случае с IBM p595 этого не требуется. RAC это конечно очень быстро, масштабируемо, удобно и все такое, но если у уже заказчика есть работающая система на одном сервере, то будет довольно сложно убедить его променять эту одну машину на 22 маленьких, за которыми нужно следить (и, не приведи господи, у них там что-то в кластере “заклинит”). На мой взгляд, сказать что Oracle выпустил что-то радикально новое нельзя – тот же IBM вместе с FusionIO уже год назад демонстрировали фантастическую производительность (правда в лабораторных условиях). Интересно другое – как отразится объявление на HP? Или это еще один шаг Элиссона к тому, чтобы больше заинтересовать HP в покупке “железной” части SUN, про возможность которой продолжают возникать и циркулировать слухи? Время покажет.

Второе, совсем тихое событие – RAIDCore (от которого, немного попользовавшись, все почему-то старались избавиться, а последний владелец Ciprico так вообще обанкротился) может быть наконец обрел покой во владениях DotHill. Объявлен продукт под названием Virtual RAID Adapter (VRA) – программное решение для создания и управления RAID без использования аппаратных контроллеров. Продукт нацелен скорее на производителей плат – чтобы у них не было головной боли с тестированием драйверов под интегрированные контроллеры (ICH и т.д.). Насколько это будет востребовано для меня совершенно не ясно: с одной стороны, функционал RAIDCore несколько выше, чем у интегрированных контроллеров, с другой стороны, зачем метаться, если для бюджетного решения и то, что есть сейчас, тоже сгодиться, а на серьезных системах используются нормальные аппаратные контроллеры. Вот если бы поддерживались обычные HBA адаптеры, то интерес может быть и был бы – например для систем видеонаблюдения, где сейчас используются обычные HBA с десятками дисков, но без всякой защиты, а наличие такого программного RAID заметно повысит отказоустойчивость без серьезного удара по цене.

Ну и третье событие, хотя и не прозвучало очень громко, но зато вполне логично и понятно – NetApp расширил линейку систем хранения начального уровня, выпустив FAS2040.

imageКак и остальные системы 2000й серии, FAS2040 рассчитана на использование SAS и SATA дисков (до 12ти внутри контроллерного модуля), но расширяться может не только при помощи “классических” полок с FC или SATA дисками, но и уже чуть ранее объявленными SAS полками, так как на каждом контроллере есть по одному SAS порту. С одной стороны, система “помещена” между FAS2020 и FAS2050, но практически по всем характеристикам она превосходит и ту, и другую – расширяется до 136 дисков, имеет 8ГБ памяти, 8 портов ethernet и 4 порта FC (на два контроллера). Нет только возможности устанавливать в контроллер платы расширения, которая есть у FAS2050. Помимо объявления новой системы, сделано очень интересное предложение для покупателей FAS2020 – теперь они получат NFS и CIFS совершенно бесплатно (как и iSCSI). Видимо все больше ощущается конкуренция на рынках SMB со стороны Windows Storage Server, поэтому и было принято решение отдать CIFS в младшей системе даром, но наличие NFS и iSCSI (а также возможность получить двухконтроллерную систему) делает очень привлекательным использование FAS2020 не только для хранения файлов, но и в качестве хранилища для виртуальных машин VMware.

Читать дальше ...

среда, 16 сентября 2009 г.

Полезная утилита Microsoft Diskpart

Полезность её в том, что она позволяет расширять NTFS диски в W2003, делается это нехитрым путем:

>cmd
>diskpart
>list volume
>select volume #
>extend

в этом случае все свободное место на диске, где находится том будет ему отдано. Требования: диск должен быть базовым, ФС – NTFS, место должно идти сразу за этим самым томом. Наиболее частое использование – расширение томов отданных с внешней дисковой системы. Поскольку в СХД проще недодать сейчас, чем отнять потом – команда пригодится.

также утилиту можно пользовать для просмотра ID дисков в системе:

>cmd
>diskpart
>list disk
>select disk #
>detail disk

Актуально для Microsoft Cluster Service.

Вообще утилита полезна не только этим, но это – то, чем приходится пользоваться часто.

UPD Спасибо, Александру в комментариях напомнил про выравнивание блока отступа в RAID массивах!

Проблема с выравниванием отступа (offset) старая и актуальная для 2003 сервера и младше. Заключается в том что выравнивание отступа начала файловой системы не совпадает с размером блока на массиве и поэтому все операции задействуют больше сегментов дисковой емкости чем могли бы в результате снижая быстродействие.

Описывать проблему долго и я не планирую здесь это делать, посмотреть как этот самый отступ менять можно в KB по ссылке ниже, применяя поиск по статье с ключевым словом “offset”. Для верности это значение проще всего ставить в 1024КБ. В 2008 сервере оно по умолчанию именно такое.

Ссылка на Microsoft KB по теме - №300415.

Читать дальше ...

вторник, 8 сентября 2009 г.

6Gbps SAS в серверах IBM

6Gbps SAS диски уже некоторое время доступны к заказу вместе с серверами IBM, но вот сегодня были анонсированы и 6Gbps RAID контроллеры: ServeRAID M5014 и M5015. Оба контроллера имеют по 8 внутренних портов (2 miniSAS разъема) и поддерживают до 32х устройств, подключенных напрямую или через экспандеры. M5015 (на картинке) оснащен 512МБ кэш-памяти и поставляется вместе с батареей (BBU) для защиты кэша; M5014 имеет на борту 256МБ кэша и батарею к нему нужно будет докупать отдельно. Оба они построены на базе 800МГц процессора PowerPC  c контроллером LSI SAS2108 RAID-on-Chip – IBM продолжает использовать контроллеры LSI, в данном случае это, как я понимаю, практически полные аналоги MegaRAID SAS 9260-8i.

IBM ServeRAID M5015 SAS/SATA Controller

На данный момент контроллеры поддерживаются в серверах IBM x3400M2, x3500M2, x3550M2 и x3650M2 (т.е. все новые двухпроцессорные модели на “нехалемах”). Ранее мои коллеги уже приводили результаты тестирования аналогичного контроллера от Intel вместе с SSD и результаты очень впечатляют. Так что если Вам нужна высокая производительность дисковой подсистемы сервера – можно довольно успешно комбинировать новые контроллеры вместе с уже поставляемыми для этих серверов 50GB High IOPS SSD.

Читать дальше ...

четверг, 3 сентября 2009 г.

Veeam Backup & Replication 4.0

Что-то немного позавчерашние новости получаются, но все руки не доходят..

Буквально несколько дней назад была анонсирована новая версия Veeam Backup. Изменения во многом ориентированы на использование в vSphere:

  • Поддерживается технология vStorage API, который пришел на смену VCB (VCB, впрочем также поддерживается). Поддержка vStorage необходима, например, для бэкапа FT виртуальных машин.
  • Полностью поддерживаются thin-provisioned диски, что существенно может сократить время резервного копирования и восстановления.
  • Поддерживается отслеживание измененных блоков, что также сокращает время инкрементального резервного копирования.
  • Можно делать “горячую” репликацию дисков работающих VM на удаленную площадку.
  • Полная поддержка PowerShell дает возможность всю работу “загнать” в скрипты.
  • Логи теперь автоматически исключаются из бэкапов и репликации для сокращения времени и экономии трафика.
  • Вместо того, чтобы на удаленную площадку посылать через плохой канал начальную реплику, теперь можно сделать ее локально и физически перевезти на удаленный сайт.
  • Улучшенный функционал в плане управления заданиями (в т.ч. возможность временной отмены заданий).

Полный список изменений можно прочитать тут.

Благодаря возможности делать репликацию каждые несколько минут, мы получаем близкую к CDP защиту данных. Я и раньше всегда рекомендовал Veeam Backup совместно с VMware ESX/ESXi, но теперь это становится уже практически “must have”.

Читать дальше ...

VMware ThinApp против…

Tolly Group на днях опубликовали новое сравнение: “Application Virtualization: VMware ThinApp 4.0 versus Microsoft App-V 4.5 CU1 and Citrix XenApp 5.0”. Указанное сравнение не включает тестирование производительности, а оценивает, что называется, общие впечатления: требования при установке продукта, развертывание клиентов, процесс “упаковки” приложений, предоставление on-line и off-line доступа к приложениям. С одной стороны, статья подготовлена по заказу VMware, поэтому довольно просто угадать лидера сравнений :) Кроме того, XenApp наверное не совсем корректно сравнивать с ThinApp – все-таки это продукты немного разных категорий, хотя возможность стриминга приложений есть и там, и там. С другой стороны, если интересует именно “упаковка” приложений для доступа как по сети, так и, например, с USB флэшек, то по простоте и универсальности обойти ThinApp пока никому из конкурентов не удается: максимально упрощен как сам процесс упаковки приложений (а главное, контроль доступа к приложениям), так и сам доступ со стороны клиента – не требуется ни установки, ни настройки никаких дополнительных приложений. Стоимость VMware ThinApp на текущий момент составляет 5000$ за комплект для 50ти пользователей и по 39$ дополнительно за каждого следующего пользователя (без учета стоимости поддержки).

Читать дальше ...

среда, 2 сентября 2009 г.

IBM BladeCenter Virtual Fabric

У HP есть замечательные коммутаторы для 7000го и 3000го шасси - HP Virtual Connect Flex-10.  “Замечательность” данного продукта состоит в том, что он позволяет создавать до 4х виртуальных FlexNIC на каждый 10Гбит порт, при этом, пропускная способность каждого FlexNIC может быть выбрана нужная пользователю (с шагом 100Мбит). Такое решение замечательно подходит для виртуальных сред (vSphere, Hyper-V), где крайне желательно иметь больше обычных двух сетевых линка на сервер-лезвие.

До недавного времени IBMу было фактически нечего предложить “в отместку”, но ситуация меняется и для BladeCenter-H/HT анонсировано решение IBM BladeCenter Virtual Fabric, базирующееся на коммутаторах BNT 10-port 10Gb Ethernet Switch Module, картах Emulex Virtual Fabric Adapter (которые могут быть установлены например в лезвия HS22) и BladeCenter Open Fabric Manager (через который осуществляется управление). Коммутатор имеет 10 внешних 10Гбит портов, за счет чего меньший oversubscription нежели у HP – 14:10 у IBM против 16:9 у HP. Каждый 10Гбит канал от сервера к коммутатору также может быть разделен на 4 виртуальных и тоже с шагом 100Мбит. Так как и коммутатор, и адаптер готовы к поддержке FCoE, то немного позднее можно будет наряду с vNIC использовать и FCoE для подключения к СХД.

Указанное решение позволяет получить отличную платформу для развертывания виртуальных сред, а также позволяет подготовится к явно грядущему наступлению FCoE.

Читать дальше ...