ИТ-технологии для профессионалов

Показаны сообщения с ярлыком adaptec. Показать все сообщения
Показаны сообщения с ярлыком adaptec. Показать все сообщения

среда, 5 августа 2015 г.

Модельный ряд RAID контроллеров Adaptec

Информация любезно предоставлена компанией Adaptec by PMC (Россия).

Классификация контроллеров Adaptec.


Поколение
Опция “E” - серверы начального уровня
Базовые опции - серверы «mainstream»
Опция “Q”. Серверы верхнего уровня
6-ое поколение
6450E/6805E
6405, 6805, 6805T, 6445
-*
7-ое поколение
71605E
78165, 72405, 71685, 71605, 7805
7905Q, 71605Q
8-ое поколение
-
8405, 8805, 8885
8885Q, 81605ZQ
Читать дальше ...

понедельник, 13 декабря 2010 г.

Новые контроллеры Adaptec серии 6

Компания PMC-Sierra, впервые после приобретения Adaptec, анонсировала долгожданное продолжение линейки RAID-контроллеров! Объявлено о выпуске 6й серии: Adaptec RAID 6405, 6445 и 6805.
Контроллеры построены на базе чипа серии SRC 8x6G (dual core 600MHz PM8013) RoC (RAID-on-Chip). Все три новых контроллера имеют одинаковый функционал, а отличие только в портах: 6405 имеет 4 внутренних SAS порта, 6445 – 4 внутренних и 4 внешних, а 6805, как легко догадаться, – 8 внутренних портов. Для всех контроллеров вместо батарейки предлагается использовать флэш-память, защищаемую конденсаторами (Adaptec Flash Module 600 - AFM 600). Остальные характеристики:
  • 512МБ кэш памяти (DDR2-667)
  • поддержка SAS 2.0 (6Gbps)
  • шина PCIe Gen2 x8
  • поддержка до 256 дисков SAS/SATA (при использовании экспандеров)
  • поддержка уровней RAID 0, 1, 1E, 5, 5EE, 6, 10, 50, 60 и JBOD
  • возможность использования Hybrid RAID (SSD + HDD)
Как и для прошлых серий, управление осуществляется через Adaptec Storage Manager – это может быть очень важно для тех, кто уже активно использует контроллеры Adaptec в своих серверах, но посматривали “на сторону” в поисках продуктов с поддержкой 6Gbps.
Про поддержку технологии maxCache в новых контроллерах у меня однозначного ответа пока нет – нужно будет отдельно уточнить.
Более подробная информация должна быть через несколько дней.
Читать дальше ...

среда, 12 мая 2010 г.

LSI подсуетился :)

Adaptec буквально вот только что перешел в руки PMC-Sierra (фактически поглощение закончится ближе к концу второго квартала). А тем временем извечный конкурент - LSI анонсировал выпуск целого ряда опциональных дополнений к своим контроллерам.

В первую очередь необходимо отметить CacheCade – аналог нашумевшего Adaptec MaxIQ. Являясь ключиком активации, CacheCade позволяет использовать SSD диски (до 32шт и суммарным объемом до 512ГБ) для хранения наиболее часто используемых данных. У продукта нет привязки к SSD (есть список протестированных дисков) и можно выбрать тот носитель, который доступен или более привлекателен по цене (конечно эффект CacheCade будет зависеть от производительности SSD). На текущий момент CacheCade поддерживается на контроллерах MegaRAID 9260-4i, 9260-8i, 9280-4i4e. Все остальные новые опции (на момент выпуска) также доступны только для этих контроллеров.

image

Второй продукт, также направленный на увеличение производительности – FastPath. Он обеспечивает повышенную производительность контроллера при подключении SSD дисков. Обещано повышение производительности до 2.5 раз при операциях случайной записи на SSD и до 2х раз на операциях случайного чтения. Благодаря Fastpath контроллеры могут обеспечить до 150.000 операций ввода-вывода в секунду (IOPs).  Как следствие, FastPath особенно рекомендуется тем, кто использует SSD для OLTP задач. На рисунке данные для RAID-0 из 8ми дисков Intel X25E на контроллере 9260-8i (при включенном кэше дисков):

image

Два других продукта помогут обеспечить лучшую защиту данных:

Recovery Software служит для создания мгновенных снимков. Здесь нет ничего нового – используется классический Copy-on-Write механизм. Поэтому увлекаться снапшотами на высоконагруженной системе не стоит – производительность будет деградировать. Интеграция с VVS упрощает поддержание консистентности данных приложений в снимках. Работа со сделанными снимками осуществляется через MSM, поддерживаются версии Windows 2003 и 2008. Можно создать до 8ми снимков на том и до 504х на контроллер. В случае необходимости можно вернуть состояние тома на момент любого сделанного ранее снимка (сделать это можно и через WebBIOS, что позволяет защитить загрузочный том).

SafeStore позволит использовать SED (Self-Encrypting Drives) диски, чтобы ограничить несанкционированный доступ к данным (очень сомневаюсь, что в ближайшее время это будет востребовано в России – в силу ограничений на ввоз). Данная технология уже некоторое время доступна в контроллерах 9260DE и 9280DE, а теперь ее можно приобрести и в виде опции для обычных версий этих контроллеров.

Читать дальше ...

четверг, 29 апреля 2010 г.

Adaptec + Copy back enable

Как известно, в RAID-контроллерах Adaptec есть замечательная функция “Copy back”. Работает эта штука примерно так: в случае поломки одного из дисков (и при наличии диска Hot-Spare), произойдет обычное перестроение массива на  запасной диск (Spare); как только вместо “трупа” будет установлен новый диск, данные со Spare диска незамедлительно вернутся на свое исконное место (на уже новый диск) и Spare диск будет снова ожидать сбоя. Когда это полезно? Во-первых, если дисков много и массивов создано много, а Copy back отключен – достаточно несколько перестроений и уже без поллитры (или хотя бы без ASM) не разберешься где чьи диски стоят. А вот если Copy back работает, то все массивы останутся на своих местах. Другое применение – если стоят разнородные диски, то можно сделать один Spare диск максимального объема и он сможет защитить все массивы, независимо от того какого размера диски используются. Т.е. если есть RAID5 из 4х дисков по 146ГБ, RAID10 из 6 дисков по 300ГБ и RAID5 из 8 дисков по 450ГБ, то достаточно поставить 1 HotSpare диск на 450ГБ и он защитит все массивы. Конечно он защитит все массивы и без Copy back, но тогда при “вылете” 146ГБ диска и задействовании Spare диска, на нем “потеряется” практически 300ГБ. А вот чтобы вернуть Spare диск обратно, нужно будет “сломать” массив – перевести 450ГБ диск (бывший Spare) в состояние Fail и перестроить массив на новый 146ГБ. А что если диски были 2ТБ? Перестроение займет очень много времени и массив будет находится в критическом состоянии весьма и весьма долго. Случись в это время еще один сбой (для RAID5) и данные можно смело начинать восстанавливать из резервной копии. Если он конечно был.

Для меня всегда было очевидно (или по крайней мере довольно логично), что Copy back должен работать без ущерба отказоустойчивости. Но после того как коллегами были выдвинуты и альтернативные точки зрения, пришлось проверить “вживую”, чтобы не делать голословных утверждений. Опережая события, скажу что все прошло по плану и никаких отклонений не замечено. Теперь подробнее. Делаем RAID5 из 3х дисков, добавляем один Spare диск. После этого включаем опцию Copy back – делается это через ASM, так как по умолчанию она отключена и через BIOS не включается (Step 1 на рисунке). Затем удаляем один из дисков, начинается Rebuild (перестроение массива) на Spare (Step 2). После окончания процедуры (массив перешел в состояние Optimal), устанавливаем новый диск на место почившего. Начинает работать Copy back – идет копирование данных со спаре диска на новый (Step 3), массив в это время находится в состоянии Optimal. Если все проходит нормально, то мы возвращаемся к Step 1, где система также без ошибок. Если в момент работы Copy back случается авария на каком-то другом диске и массив переходит в критическое состояние, то операция Copy back заканчивается с ошибкой (Step 4, который фактически эквивалентен Step 2 с добавившимся сбоем еще одного диска). Массив имеет критический статус, но продолжает быть доступен для работы. В этот момент у нас есть два выхода – либо объявить имеющийся новый диск как Spare (начнется rebuild), либо сразу заменить сломавшийся последним диск – тогда тоже начнется перестроение массива.

image

Так что можно смело включать Copy back (если много дисков и массивов). В других случаях он конечно тоже не сильно помешает, но и толку особенного не будет.

Читать дальше ...

четверг, 1 апреля 2010 г.

Почему не нужно делать QuickInit

Заметка в блоге Adaptec про “full-stripe writes” - что это и почему это плохо? Если в двух словах (и вольном переводе), то контроллер может работать с массивами RAID5 (да и с RAID6 почти также) двумя способами:

  • Записываемые данные могут попадать в “страйп” на одном диске и записывается только этот измененный страйп, да еще и новый блок с контрольной суммой. Т.е. операция записи блока данных в одном страйпе раскладывается на такую последовательность действий: чтение старого страйпа, чтение контрольной суммы, изменение блока данных, изменение контрольной суммы, запись нового блока и новой контрольной суммы. Этим и объясняется почему RAID5 заметно медленнее чем, например, RAID10 на операциях записи.
  • Данные записываются потоком, т.е. сразу пишутся все страйпы на весь набор дисков. В этом случае контроллер “собирает” так называемый full stripe, считает контрольную сумму и все это записывает на диски. Такой способ, очевидно, работает гораздо быстрее, но только в том случае, когда запись идет последовательно.

Но так работает контроллер в том случае, когда есть уверенность, что контрольные суммы верны (т.е. массив полностью проинициализирован и контрольные суммы не содержат заведомо неверных значений). Но, если при создании массива указать опцию “Quick Init”,  никакой полной инициализации не произойдет – будут изменены только метаданные с конфигурацией. Чтобы данные пользователя не пострадали при сбое одного из дисков, в этом случае контроллер обрабатывает операции записи несколько иначе: любая операция записи влечет за собой чтение всех страйпов, изменение нужного страйпа, расчет контрольной суммы, запись “full stripe” обратно на диски. Т.е. всегда пишем “full-stripe”, но недостающие данные сначала считываем с дисков. Таким образом, любая операция записи будет задействовать все диски в массиве. Скорость, при этом, конечно будет заметно ниже, но пока не будет проведена полная верификация такого массива, никакого улучшения ждать не следует.

Отдельно хочу отметить, что использованная здесь (да и во всех документах Adaptec) терминология немного не соответствует принятой в SNIA – Adaptec (да и многие другие,  надо сказать) под словом “страйп” (stripe) подразумевают то, что в SNIA называют “стрип” (strip), т.е. тот блок, которым оперирует контроллер при работе с RAID-массивом:

imageА  вот использованный выше термин “full stripe” как раз соответствует страйпу в терминологии SNIA. Размер страйпа по умолчанию (в текущих версиях контроллеров Adaptec) равен 256КБ, т.е. после Quick Init любая (абсолютно любая) операция записи на массиве RAID5 из 5ти дисков (как на картинке) потребует чтения 256KB*4=1MB с 4х дисков и записи 1.25МБ уже на все 5 дисков. Согласитесь, не очень это должно способствовать производительности. Мораль такова: не нужно использовать Quick Init. Лучше день подождать (выбрать опцию Clear), а потом за пять минут долететь!

Читать дальше ...

понедельник, 22 марта 2010 г.

Оптимальный stripe-size для RAID-массива

Очень часто задают вопрос о том, как правильно выбрать stripe-size для того или иного массива.

Как посчитать, а что будет если на массиве и SQL, и файловый сервер?

А если SQL работает с дисками блоками по 8КБ, а RAID-контроллер не позволяет задать такой страйп, то наверное все теперь будет работать неоптимально и вообще наверное нужно искать такой контроллер, где stripe в 8КБ можно задать?

На самом деле, все это не совсем так.

То что какое-то конкретное приложение общается с дисками блоками по ххКБ вовсе не означает, что именно такой stipe-size будет оптимальным. Поэтому практически всегда на вопрос “как настроить, чтобы было лучше”, следует простой ответ: “оставьте то значение, которое предлагается по умолчанию”.

Разработчики прошивки тратят много времени на оптимизацию кода прошивки, тратят много сил на обеспечение высокой производительности. Но все эти оптимизации наилучшим образом работают как раз на выбранных в качестве “default” значениях.

До недавнего момента я все это говорил, ссылаясь исключительно на свое понимание вопроса, но на днях представитель Adaptec в своем блоге разместил точно такой же совет
While there is credibility in doing the maths and trying to match the stripe size to the OS/application requirements, the reality is that the defaults will “normally” walk all over specifying a particular size. Why? Because our engineers spend a lot of time in making the defaults work best. We aim to make an out-of-the-box experience for the majority of users, and put a lot of effort into making the product work without a user having to be a rocket scientist to use it. 

Зачем же производитель контроллеров дает выбор? Конечно, в ряде случаев можно получить дополнительные проценты (хотя обычно все-таки доли процентов) производительности, тщательно проанализировав характер нагрузки и выбрав значение, которое характерно именно для нее.

Особенно это будет заметно, если размер блоков, которыми приложение общается с дисками, будет больше, чем stripe по умолчанию, а нагрузка создается преимущественно случайным обращением.

Но такая ситуация возникает довольно редко, поэтому если никакие экстраординарные приложения использовать не предполагается, отдайтесь на волю разработчиков и пусть они, зная свой продукт изнутри, выберут для Вас правильные настройки.

P.S. Здесь речь идет о внутренних RAID-контроллерах. В “больших” системах есть свои особенности, связанные с работой кэша, и там оптимизация настроек может дать более заметный эффект.






Читать дальше ...

пятница, 22 января 2010 г.

Новости от Adaptec

В свежей рассылке технической информации от Adaptec появилось несколько важных новостей на которые нужно обратить внимание.

Во-первых была пофиксена ошибка при работе RAID контроллеров 2 и 5 серии под операционной системой FreeBSD. Ошибка выглядела следующим образом:kernel: aacu0: COMMAND 0xfffffffe80245378 TIMEOUT AFTER XX SECONDS. Для устранения данной проблемы используйте прошивку b17547, сейчас она доступна в разделе http://www.adaptec.com/support/files/ , для её скачивания понадобиться авторизоваться
Password: CANDLE
Filename: 2045_fw_b17547.zip, 2405_fw_b17547.zip, 5085_fw_b17547.zip, 5405_fw_b17547.zip, 5405z_fw_b17547.zip, 5445_fw_b17547.zip, 5445z_fw_b17547.zip,5805_fw_b17547.zip, 5805z_fw_b17547.zip, 51245_fw_b17547.zip, 51645_fw_b17547.zip, 52445_fw_b17547.zip
Как можно понять имя файла выбираете то которое соответствует вашему контроллеру.

Во-вторых продолжена поддержка новых операционных систем Windows устройствами SCSI 160, драйвера под Windows 2008R2 и Windows 7 для таких устройств можно скачать с офф сайта. Эта новость особенно актуальная для пользователей ленточных накопителей.

В-третьих появилось специализированное программное обеспечение, позволяющее на стадии планирования определить эффективность функции Adaptec MaxIQ. В настоящее время данная утилита предоставляется по запросу, поскольку находится в стадии бета тестирования, предполагается что она появится в полностью открытом доступе в ближайшее время.
Напомню, что эта технология фактически представляет собой SSD диск подключаемый к контроллеру и служащий расширенным КЭШом для контроллера. В ближайшем будущем мы постараемся опубликовать более подробный обзор данной технологии с практическим тестами.

Читать дальше ...

вторник, 24 ноября 2009 г.

Сколько должно быть разъемов на контроллере?

Наболело! Чуть ли не каждый день вижу вопросы такого плана: “В сервер можно поставить 16 (24) жестких диска, а SAS RAID контроллер у меня только 8-ми (или того хуже 4х) портовый! Что мне делать? Это наверное ошибка в конфигурации?!”. Ну что на это можно сказать? Может быть это конечно и ошибка, но скорее всего нет. Как же так? А все очень просто: SAS это протокол последовательной передачи данных и поддерживающий коммутацию. Если Вам нужно к серверу подключить 7 рабочих станций, Вы же не ставите в сервер 7 сетевых карт, а используете коммутатор на 8 портов, который позволяет всем машинам получить доступ к серверу. Точно также и в данной ситуации: либо в самом корпусе (прямо на бэкплейне), либо в виде отдельной карты присутствует аналог этого самого коммутатора. Только в данном случае он называется SAS-экспандером и позволяет подключить к RAID контроллеру гораздо больше дисков, чем есть SAS линий на самом контроллере. Наиболее распространены экспандеры на базе чипов LSI: LSISASx28, LSISASx36 или LSISAS2x36 (для 6Gbps SAS). В частности, на бэкплейнах в корпусах Supermicro используются экспандеры именно LSI. Отдельные карты с экспандерами также существуют, например в России проще всего найти их среди продукции компании Chenbro.

imageНа рисунке – возможная схема подключения с двумя RAID контроллерами для отказоустойчивости к дискам через экспандер. Правда, надо сказать что это довольно специфичная конфигурация, которую мы обычно наблюдаем во внешних дисковых системах, в серверах же используется более простая схема, в которой нет ни второго контроллера, ни второго экспандера.

Вот вроде бы и разобрались – для подключения 24х дисков вовсе не нужно 24 порта на контроллере, достаточно и 4х (так как обычно именно 4 SAS линии используется для соединения контроллера с экспандером). А используя контроллер с 4мя внутренними портами и 4мя внешними можно не только задействовать (при использовании экспандера все диски в сервере, но и обеспечить возможность дальнейшего увеличения дисковой подсистемы за счет добавления внешней дисковой полки (JBOD).

Но сразу возникает несколько новых вопросов: “А нужно ли использовать экспандер? Может быть он так замедляет работу, что от него надо отказаться? У меня целых 24 (а то и еще больше) диска подключено только по 4м линиям SAS – наверное это будет очень медленно?”.

Попробуем найти ответы. Начнем с конца: 4 SAS линии по 3Gbps дают в сумме 12Gbps, а это целых 1.5 Гига-байта в секунду. Можно ли реально достичь такой пропускной способности? В принципе можно, но (а) нужно помнить, что наверное с этим потоком нужно еще что-то делать, а не просто читать или писать и (б) дисков для этого потребуется (даже при благоприятном стечении обстоятельств) заметно больше десятка. А если учесть, что при типичной работе сервера запросы к дисковой подсистеме идут в значительной степени случайные, то полосы пропускания в 12Gbps оказывается вполне достаточно – можете проверить сами на любом своем сервере, запустив perfmon (под Windows) и посмотрев на трансфер с дисков во время работы. А что до возникновения дополнительных задержек при использовании экспандеров, то они конечно есть, но “поймать” (измерить) их Вам не удастся – настолько они малы по сравнению с задержками при обращении к жесткому диску. Есть и еще один аргумент, чтобы не бояться экспандеров – в RAID-контроллерах, где количество портов больше 8, зачастую это объясняется именно наличием интегрированного на плате экспандера – например Adaptec 51245, 51645, 52445. Так что по сути, делая выбор в пользу многопортового контроллера, Вы просто приобретаете SAS экспандер на одной плате с контроллером.

Итак, использование SAS экспандеров не только не противопоказано, а вполне оправдано в подавляющем большинстве случаев!

Читать дальше ...

четверг, 24 сентября 2009 г.

Обновление прошивки на RAID Adaptec 2й и 5й серии: проблема

На сайте Adaptec появилась информация о том, что обновление прошивки RAID контроллеров 2й и 5й серии (а это модели ASR-2405, ASR-2045, ASR-5405, ASR-5445, ASR-5805, ASR-5085, ASR-51245, ASR-51645, ASR-52445) с версии 16501 на более старшую может повлечь за собой недоступность данных (хотя все созданные ранее массивы будут иметь статус Optimal). Если у Вас на контроллерах установлена упомянутая прошивка, либо имеются массивы, которые были изначально созданы на прошивке версии 16501, настоятельно рекомендуется обратиться в техническую поддержку перед обновлением прошивки. Ну и если Вы уже обновили прошивку и доступ к данным пропал, то обращаться нужно туда же. В качестве быстрого решения возникшей проблемы можно прошить версию 16501 обратно – данные после этого станут доступны.

От себя могу сказать, что мы с такой проблемой до настоящего момента не сталкивались, что может свидетельствовать о том, что проблема встречается не так часто. Да и поскольку следующая после 16501 прошивка вышла еще в начале лета, а информация появилась только сейчас, вероятность не такая уж и большая. Но иметь в виду нужно и помнить про это важно.

Читать дальше ...

понедельник, 13 июля 2009 г.

Результат тестирования контроллера Adaptec 5805, IBM DS3400, IBM DS4700

Вот такая вот странная компания, сравнивать результаты которой позволяет только одинаковое количество дисков в системах (12 штук).

Итак что мы имеем:

1. Adaptec 5805. 8 внутренних портов (подключено 12 дисков с помощью корзины), ЦП - двухъядерный RAID on Chip (ROC), 1.2ГГц, PCI-Express X8, cache: 512МБ DDR2. К нему подключено 12 дисков SAS Hitachi 146GB 15k, в кузове Supermicro SC826. Stripe – 64 kb, все кэши включены. Прошивка версии – 16 501. http://www.adaptec.com/ru-RU/products/Controllers/Hardware/sas/performance/SAS-5805/ – описание на сайте производителя.

2. IBM DS3400 Dual controller. Одна полка, без экспаншенов. В ней 12 дисков SAS146GB 15k. На каждый контроллер приходится 512 MB кэш памяти. Stripe – 128 kb, все кэши системы включены. Прошивка версии – 07.35.41. http://www-03.ibm.com/systems/ru/storage/disk/ds/ds3400/index.html – описание на сайте производителя. В тесте использовался только один контроллер.

3. IBM DS4700-70. Одна полка, без экспаншенов. В ней используются для теста 12 дисков FC 146GB 15k. На каждый контроллер приходится 1024 MB кэш памяти. Stripe – 128 kb, все кэши системы включены. Прошивка версии – 07.15.01.10. http://www-03.ibm.com/systems/ru/storage/disk/ds4000/ds4700/ – описание на сайте производителя. В тесте использовался только один контроллер.

 

100% потоковое 100% чтение

Adaptec 5805

image image

 

IBM DS3400

image image

 

IBM DS4700-70

image image

Вывод

По большому счету этот тест полностью уходит в кэш контроллера. Его результаты не говорят по большому счету ни о чем. Результаты у всех систем высокие, динамика здесь не принципиальна. Скачки производительности на маленьком блоке у IBM может объяснить разве что IBM, в реальной жизни с ними столкнуться невозможно. Нужно отметить, что в 3400 системе размер блока кэша – 4кб, в этом месте система резко повышает производительность. У 4700 -

 

100% потоковая 100% запись

Adaptec 5805

 image image

 

IBM DS3400

 image image

 

IBM DS4700-70

image image

Вывод

Также как и чтение – полностью уходит в кэш. Также как в чтении видно что у всех систем – все хорошо.

100% случайное 100% чтение

Adaptec 5805

 image image

 

IBM DS3400

 image image

 

IBM DS4700-70

 image image

Вывод

По этим результатам видно адекватную картину производительности чтения по причине того, что IBM DS включены через FC к серверу с нагрузкой у них потолок производительности – 4 GB. Почему они упираются в 3,5GB я объяснить не могу, но могу предположить что контроллеры просто не умеют забивать полные 4 GB в одиночку. Предположу что если загрузить 2 контроллера либо 2 порта на одном контроллере скорость подключения будет использована полностью.

Adaptec выжимает из дисков за счет шины PCI express все, что может и производительность получается высокая.

100% случайная 100% запись

Adaptec 5805

 image image

 

IBM DS3400

 image image

 

IBM DS4700-70

image image

Вывод

По этим результатам видно адекватную картину производительности записи. По результатам видно, что Adaptec – быстрее, тогда как обе внешние дисковые системы работают примерно в одном уровне.

100% случайная 67% запись

Adaptec 5805

image image

 

IBM DS3400

image image

 

IBM DS4700

image image

Выводы

Очень важно помнить, что все дисковые системы принципиально отличаются от одиночного контроллера тем, что им требуется зеркалировать свои кэши между двумя контроллерами для обеспечения полной отказоустойчивости системы. Именно поэтому и получается, что заведомо более дорогие дисковые системы проигрывают, в производительности на синтетике, контроллеру при соизмеримом количестве дисков.

Также не стоит забывать, что это сравнение сугубо производительности, тогда как дисковые системы предлагают ряд дополнительных функций которые контроллер не может предоставить по определению. Дополнительно к этому масштаб расширения дисковых систем на порядок выше чем у контроллера. И на большем количестве дисков результат конечно будет несоизмеримо выше. Я постараюсь посмотреть аналогичный тест на конфигурации с 24 дисками, будет любопытно посмотреть как себя поведет Adaptec в такой системе, хватит ли ему считалки чтобы работать с таким количеством дисков.

Теперь по результатам. В смешанных тестах видно что на маленьком блоке результаты и у DS и у контроллера – близки, хотя выигрывает отдельный контроллер. На большом блоке Adaptec серьезно выходит вперед, что связанно с тем что он работает по внутренней шине а не через внешнюю HBA со скоростным ограничением.

Можно резюмировать, что в ситуации когда система планируется из 12 дисков и её отказоустойчивость с функциональностью не играют роли – однозначно следует выбирать решение на PCIe контроллере, именно оно даст максимальную производительность при этом при минимальной цене.

На самом деле графики интересные и я постараюсь дописать позже данный материал, сейчас к сожалению недостаточно времени на детальное описание …

Читать дальше ...