Компания ASUS официально анонсировала выход нового ИИ-сервера XA NB3I-E12, разработанного на аппаратной платформе NVIDIA HGX B300. Это решение ориентировано на предприятия и организации, которым необходима высокая вычислительная мощность для работы с большими языковыми моделями (LLM), генеративным ИИ и задачами высокопроизводительных вычислений (HPC). Среди потенциальных заказчиков — научно-исследовательские центры, финансовые институты, автопроизводители и другие отрасли, активно внедряющие ИИ-технологии.
Технические характеристики ASUS XA NB3I-E12: баланс между производительностью и масштабируемостью
Сервер выполнен в форм-факторе 9U и сочетает в себе передовые компоненты, обеспечивающие беспрецедентную производительность при обработке ИИ-нагрузок. Основой вычислительной системы стали два процессора Intel Xeon 6700P из поколения Granite Rapids, каждый из которых поддерживает тепловыделение до 350 Вт. Это позволяет эффективно справляться с многопоточными задачами и обеспечивает высокую пропускную способность между CPU и GPU.
Для оперативной памяти предусмотрено 32 слота DDR5-6400 RDIMM / 3DS RDIMM, что даёт возможность собрать конфигурацию с объёмом RAM до нескольких терабайт. Такой объём особенно важен при работе с большими языковыми моделями, требующими загрузки значительных массивов данных в оперативную память для ускорения инференса и обучения.
Хранилище данных реализовано через 10 фронтальных слотов для SFF-накопителей формата NVMe, что гарантирует высокую скорость чтения/записи и минимальную задержку при доступе к данным. Это критически важно для ИИ-тренировок, где скорость подачи данных напрямую влияет на общее время обучения модели.
Расширяемость обеспечивается за счёт четырёх слотов PCIe 5.0 x16 и одного слота PCIe 5.0 x8, что открывает возможности для подключения дополнительных сетевых адаптеров, ускорителей или контроллеров хранения.
Графическая подсистема и сетевые возможности
Центральным элементом сервера является архитектура 8-GPU NVIDIA HGX B300 с объёмом памяти 288 ГБ на каждый GPU. Это одна из самых мощных конфигураций на рынке, ориентированная на масштабные ИИ-модели и сложные HPC-расчёты. Архитектура HGX B300 обеспечивает высокоскоростное межсоединение между GPU через NVLink и NVSwitch, что минимизирует узкие места при параллельной обработке данных.
Сетевая инфраструктура включает:
- NVIDIA ConnectX-8 — адаптер нового поколения с поддержкой скоростей до 400 Гбит/с;
- NVIDIA BlueField-3 DPU — программируемый процессор данных, разгружающий CPU от сетевых и I/O-операций и обеспечивающий аппаратное ускорение безопасности, виртуализации и оркестрации;
- Два порта 10GbE (RJ45) на базе контроллера Intel X710-AT2 для стандартного сетевого взаимодействия;
- Выделенный порт управления (BMC) для удалённого администрирования.
Такая комбинация делает сервер XA NB3I-E12 не только вычислительным, но и сетевым «ядером» современного ИИ-кластера, способным эффективно взаимодействовать с другими узлами в распределённой среде.
Охлаждение, питание и модульная конструкция
Несмотря на высокую плотность компонентов и тепловыделение, ASUS применила воздушную систему охлаждения, рассчитанную на работу в диапазоне температур от +10 до +35 °C. Это делает сервер совместимым с большинством дата-центров без необходимости в специализированном охлаждении (например, жидкостном).
Питание обеспечивается десятью блоками мощностью 3200 Вт с сертификатом 80 PLUS Titanium — самым высоким уровнем энергоэффективности. Такая избыточность не только повышает отказоустойчивость, но и позволяет гибко распределять нагрузку в зависимости от конфигурации и режима работы.
Особое внимание уделено удобству обслуживания: сервер имеет модульную конструкцию, что минимизирует количество кабелей внутри корпуса, упрощает замену компонентов и снижает время простоя при техническом обслуживании. Габариты устройства — 945 × 447 × 394,5 мм, масса — около 120 кг (без накопителей).
Для кого подойдёт ASUS XA NB3I-E12?
Этот сервер — не универсальное решение для малого бизнеса, а специализированная платформа для организаций, которым необходима максимальная производительность в области ИИ и HPC. Вот ключевые сценарии использования:
- Научные лаборатории и исследовательские институты — для моделирования сложных физических процессов, биоинформатики, климатического моделирования.
- Финансовый сектор — для высокочастотного трейдинга, анализа рисков, фрод-детекции с использованием нейросетей в реальном времени.
- Автомобильная промышленность — для разработки и тестирования автопилотов, обработки данных с сенсоров, симуляций ДТП и поведения транспортных средств.
- Технологические компании — для обучения и инференса больших языковых моделей (LLM), генеративного ИИ (изображения, видео, текст), а также для разработки собственных ИИ-платформ как услуги (AIaaS).
Как собрать аналогичную ИИ-платформу сегодня?
Хотя готовые решения вроде ASUS XA NB3I-E12 доступны только крупным заказчикам, многие компании могут собрать собственные ИИ-серверы на базе проверенных компонентов. Для этого важно правильно подобрать ключевые элементы:
| Компонент | Рекомендации | Ссылка на каталог |
|---|---|---|
| Серверная платформа | Выбирайте платформы с поддержкой двух процессоров и высокой плотностью памяти | Серверные платформы |
| Процессоры | Intel Xeon Scalable или AMD EPYC с высоким TDP и поддержкой DDR5 | Серверные процессоры |
| Оперативная память | DDR5 RDIMM с частотой 4800–6400 МГц, ECC-поддержкой | Серверная ОЗУ |
| Накопители | NVMe SSD с интерфейсом U.2 или E1.S для максимальной скорости | Внутренние накопители |
| Готовые сборки | Если нет времени на сборку — закажите предварительно настроенную систему | Готовые сборки |
Пошаговая инструкция: как выбрать компоненты для ИИ-сервера
Как собрать ИИ-сервер под свои задачи
- Определите тип нагрузки: обучение LLM требует максимального объёма GPU-памяти, а инференс — высокой пропускной способности CPU и RAM.
- Выберите процессоры: для ИИ-инференса подойдут Intel Xeon Gold/Silver, для HPC — Xeon Platinum или AMD EPYC 9004.
- Подберите объём оперативной памяти: минимум 512 ГБ для средних моделей, 1–2 ТБ и выше — для LLM класса Llama 3 или Mistral.
- Определитесь с GPU: NVIDIA A100/H100/B300 — для обучения, L40S или RTX 6000 Ada — для инференса и мультимодальных задач.
- Выберите платформу с достаточным количеством слотов PCIe и поддержкой NVLink (если планируете мульти-GPU).
- Убедитесь, что система охлаждения и блок питания рассчитаны на пиковую нагрузку (TDP всех компонентов + 20–30% запаса).
- Обратитесь к специалистам для консультации и тестирования конфигурации перед покупкой — это сэкономит время и деньги.
Часто задаваемые вопросы
Можно ли использовать ASUS XA NB3I-E12 для запуска LLM в облаке?
Да, сервер идеально подходит для развёртывания частного облака с ИИ-сервисами. Благодаря BlueField-3 DPU и поддержке виртуализации на уровне оборудования, XA NB3I-E12 может выступать в роли основного узла для платформы AIaaS (AI as a Service).
Поддерживает ли сервер жидкостное охлаждение?
В текущей версии ASUS XA NB3I-E12 использует воздушное охлаждение. Однако ASUS может предложить кастомные решения с жидкостным охлаждением по запросу для клиентов, работающих в условиях высокой плотности размещения.
Какой объём оперативной памяти можно установить?
Сервер поддерживает до 32 модулей DDR5-6400 RDIMM или 3DS RDIMM. При использовании модулей по 128 ГБ общий объём RAM может достигать 4 ТБ, что достаточно даже для самых требовательных LLM.
Можно ли купить такой сервер в России?
Прямые поставки ASUS в Россию ограничены, но аналогичные ИИ-серверы на базе совместимых компонентов (Intel Xeon, NVIDIA HGX) можно собрать локально. Компании вроде Server360.ru предлагают готовые сборки и консультации по подбору оборудования под ИИ-задачи.
