среда, 29 июля 2009 г.

Supermicro 6026TT-IBXF

clip_image002

Новая платформа Supermicro 6026TT-IBXF.

clip_image004

В платформе используются четыре независимых вычислительных модуля, с общим электропитанием. Здесь конфигурация с одним из двух возможных БП.

image

Все модули вставлены вид сзади. У каждого модуля свои отдельные сеть, VGA, USB.

clip_image002[7]

Кнопки включения питания расположены для каждого сервера в отдельности.

image

Целиком вынутый модуль.

image

Все модули-сервера вынуты. В системе остались только вентиляторы и корзина с дисками.

clip_image005

Каждый модуль можно оснастить двумя высокопроизводительными процессорами Nehalem-EP. Ограничение для процессоров – термопакет, он не должен превышать 100W, но почти все процессоры удовлетворяют этому требованию.

clip_image010

На каждый модуль приходиться по 3 SATA диска. Этого достаточно для организации отказоустойчивого массива под систему. Жесткие диски связаны с конкретными модулями-серверами по слотам.

clip_image007

С памятью никаких необычных решений. Все штатно согласно функционалу чипсета, Intel 5500 (Tylersburg), 3 канала на процессор. На каждое лезвие максимально можно установить либо 48 Гб DDR3 ECC Registered DIMM, либо 24Гб Unbuffered. Частота 1333/1066/800 MHz.

clip_image008

В каждый модуль интегрирован IPMI, что упрощает управление сервером, позволяя полностью контролировать его через LAN. Так же на плате уже распаян Mellanox ConnectX DDR Infiniband 20Gbps Controller, наружу выведен разъем QSFP. Infiniband дает возможность организации быстрого интерконекта с низкой латентностью между серверами.

Все остальные решения совершенно стандартные для серверов на платформе Nehalem. За исключением использования в платформах с процессорами Nehalem-EP, моста ICH10R, в данном случае он используется для возможности собрать RAID массив.

clip_image012

Для тех кому не хватает дискового пространства или нужно что-то более производительное и надежное, каждый сервер оснащен PCI-E x16. Это позволяет  при необходимости установить дополнительные карточки для подключения массива по iSCSI или более дорогую FC, либо любую другую совместимую. Или все, что ваша душа пожелает, но карта должна иметь LP форм фактор.

clip_image014

Система вентиляции. Сразу за вентиляторами располагаются 2 сервера, друг над другом.

clip_image016

Сильно порадовало что все куллера больше не прикручены насмерть саморезами к железу. Все аккуратно сделано на резиновых фиксаторах, и с резиновыми прокладками. Это существенно уменьшает уровень шума и вибрацию.

clip_image018

Что касается питания в базовой комплектации модуль только 1 мощностью 1200W. Для избыточности нужно купить дополнительный.

clip_image020

Модуль для подключения двух БП. расположен в центре корпуса, между серверами-модулями.

clip_image022

Платформа в сборе с открытой крышкой. Под видимыми модулями-серверами располагается второй слой.

http://supermicro.com/products/system/2U/6026/SYS-6026TT-IBXF.cfm

Характеристики:

Four systems (nodes) in a 2U form factor. Each node supports the following:

1. Dual Intel® 5500 series Xeon® Quad/
    Dual-Core, with QPI up to 6.4 GT/s

2. Up to 48GB DDR3 1333/ 1066/ 800MHz
    ECC Registered DIMM

3. 1 (x16) PCI-E ( Low Profile)

4. Integrated IPMI 2.0 with KVM and
    Dedicated LAN

5. Mellanox ConnectX DDR Infiniband
    20Gbps Controller w/ QSFP connector

6. Intel® 82576 Dual-Port Gigabit
    Ethernet Controller

7. 3x Hot-swap SATA Drive Bays

8. 1200W Gold-level High-efficiency
   Power Supply

CPU
- Dual 1366-pin LGA Sockets
- Supports up to two Intel® 64-bit Xeon® processor(s) of the same type below:
      Quad-Core Intel®
      Xeon®Processor 5500 sequence (Nehalem-EP processor)

QPI
- up to 6.4 GT/s

System Memory (per Node)

Memory Capacity
- Twelve 240-pin DIMM sockets
- Supports up to 48 GB 1333 / 1066 / 800MHz DDR3 ECC Registered memory
- Memory Mirroring supported

Memory Type
- 1333 / 1066 / 800MHz Registered ECC DDR3 SDRAM 72-bit, 240-pin gold-plated DIMMs

DIMM Sizes
- 1GB, 2GB, 4GB

Memory Voltage
- 1.5 V

Height
3.5" (89mm)
Width
17.2" (437mm)
Depth
28.5" (724mm)
Gross Weight
85 lbs (38.6kg)

On-Board Devices (per Node)

Infiniband
- Mellanox ConnectX DDR Infiniband 20Gbps Controller

Chipset
- Intel® 5520 (Tylersburg) chipset
- ICH10R + IOH-36D

SATA
- Intel ICH10R SATA 3.0Gbps Controller
- RAID 0, 1, 5, 10 support

IPMI
- Support for Intelligent Platform Management Interface v.2.0
- IPMI 2.0 with virtual media over LAN and KVM-over-LAN support
- Winbond® WPCM450 BMC

Network Controllers
- Intel® 82576 Dual-Port Gigabit Ethernet Controller
- Supports 10BASE-T, 100BASE-TX, and 1000BASE-T, RJ45 output
- Intel® I/OAT 3 support for fast, scaleable, and reliable networking
- VMDq support for better performance of virtualization
- 1x Realtek RTL8201N PHY (dedicated IPMI)

Graphics
- Matrox G200eW 8 MB DDR2

Super I/O
- Winbond W83527HG chip

Clock Generator
- 932S421 chip

Input / Output
Serial ATA
- Six Serial ATA ports
- 3 SATA hard drives supported

LAN
- 2x RJ45 LAN ports
- 1x RJ45 Dedicated IPMI LAN port

USB
- 2 rear + 1 header (2 Ports)
- 4 total USB ports, 2.0 Compliant / 1.1 Compliant

VGA
- 1x VGA Port

Serial Port
- 1 Fast UART 16550 serial port

Infiniband
- 1 External QSFP Infiniband Connector

Отдельное спасибо Куликову Диме за помощь в подготовке.

3 комментария:

  1. Микро блэйд такой.
    По расчетам, IP-TV Encoder/transcoder IP-IP на нем получился существенно дешевле чем 4 равнозначных сервера...

    ОтветитьУдалить
  2. Можно и так применять. По моему ощущению - идеальная платформа для вычислительного кластера. Плотность высокая, инфинибэнд на борту, сетевых карточек еще наставить можно.

    ОтветитьУдалить
  3. Этот комментарий был удален администратором блога.

    ОтветитьУдалить