Компания Pegatron, один из ведущих мировых OEM-производителей серверного оборудования, официально анонсировала выход новой ИИ-системы RA4802-72N2, разработанной специально для масштабного обучения больших языковых моделей (LLM) и высокопроизводительного инференса. Эта платформа основана на революционной архитектуре серверных процессоров NVIDIA Grace и новейших GPU Blackwell Ultra, объединённых в единую систему GB300 NVL72. Устройство уже поступило в продажу и представляет собой один из самых мощных ИИ-ускорителей на рынке на октябрь 2025 года.
Архитектура NVIDIA GB300 NVL72: симбиоз CPU и GPU нового поколения
Сердце системы RA4802-72N2 — это модуль NVIDIA GB300, представляющий собой тесно интегрированный вычислительный узел. В его основе лежит процессор NVIDIA Grace с 72 ядрами на базе архитектуры Arm Neoverse V2 (кодовое имя Demeter). Этот CPU разработан специально для ИИ- и HPC-нагрузок и отличается высокой энергоэффективностью, низкими задержками и широкой памятью.
Каждый модуль GB300 также включает два GPU Blackwell Ultra — преемника архитектуры Hopper. Blackwell Ultra обеспечивает беспрецедентную вычислительную мощность за счёт увеличенного количества ядер Tensor Core, поддержки новых форматов данных (включая FP8 и FP6) и улучшенной пропускной способности памяти HBM3e.
Всё это объединено через высокоскоростной интерконнект NVLink, который обеспечивает прямую связь между CPU и GPU с минимальными задержками и максимальной пропускной способностью. Такая архитектура позволяет избежать «узких мест» традиционных x86-систем, где CPU и GPU общаются через PCIe, и создаёт по-настоящему сбалансированную ИИ-платформу.
Масштабируемость и производительность RA4802-72N2
Система RA4802-72N2 состоит из 18 вычислительных лотков. Каждый лоток содержит два модуля GB300, то есть:
- 2 × NVIDIA Grace (72 ядра каждый) = 144 ядра CPU на лоток
- 4 × Blackwell Ultra = 4 GPU на лоток
В сумме по всей системе:
- 36 процессоров Grace (2592 ядра Arm Neoverse V2)
- 72 GPU Blackwell Ultra
Такой масштаб обеспечивает вычислительную мощность до 720 петафлопс на операциях FP8/FP6 — форматах, наиболее часто используемых при обучении и инференсе современных LLM. Для сравнения: это эквивалентно десяткам тысяч потребительских видеокарт, но в компактной, управляемой и энергоэффективной системе.
Память: LPDDR5X и HBM3e в рекордных объёмах
Каждый вычислительный узел GB300 оснащён:
- 960 ГБ LPDDR5X — энергоэффективная память для CPU, обеспечивающая высокую пропускную способность и низкое энергопотребление
- 1152 ГБ HBM3e — сверхбыстрая память для GPU, критически важная для обработки гигантских тензоров в LLM
В масштабе всей системы RA4802-72N2 это даёт:
- ~17 ТБ LPDDR5X
- ~20 ТБ HBM3e
Такие объёмы памяти позволяют загружать в оперативную память даже самые крупные модели целиком, избегая дорогостоящих и медленных операций подкачки на диск. Это особенно важно при инференсе в реальном времени и при fine-tuning моделей с триллионами параметров.
Интерконнект и сеть: NVLink, ConnectX-8 и BlueField-3
Для обеспечения бесперебойной передачи данных между узлами система оснащена:
- 9 коммутационными лотками, управляющими трафиком между вычислительными блоками
- Общей пропускной способностью NVLink — 130 ТБ/с
- На каждый вычислительный узел — 2 адаптера NVIDIA ConnectX-8 (400 Гбит/с) и 1 DPU BlueField-3
DPU BlueField-3 берёт на себя задачи по обработке сети, безопасности и управления ресурсами, освобождая CPU и GPU для чисто ИИ-вычислений. Это повышает общую эффективность системы и снижает задержки при распределённом обучении.
Форм-фактор, охлаждение и питание
RA4802-72N2 выполнена в промышленном форм-факторе 48U MGX с габаритами 600 × 2296 × 1200 мм. Это стандартный размер для крупных дата-центров, что упрощает интеграцию в существующую инфраструктуру.
Учитывая тепловыделение от 72 GPU Blackwell Ultra, Pegatron применила полностью жидкостное охлаждение — как прямое (direct-to-chip), так и, вероятно, охлаждение через заднюю дверь (rear-door heat exchanger). Это позволяет поддерживать стабильную температуру даже при 100% нагрузке и снижает общее энергопотребление ЦОД.
Питание обеспечивается шестью 1U-модулями общей мощностью 198 кВт (6 × 33 кВт). Такая избыточность гарантирует отказоустойчивость и стабильную работу в условиях пиковых нагрузок.
Дополнительные компоненты и управление
Каждый вычислительный узел также включает:
- Контроллер Aspeed AST2600 — стандартный BMC-чип для удалённого управления (IPMI, Redfish)
- Модуль TPM 2.0 — для обеспечения аппаратной безопасности и доверенной загрузки
- 8 отсеков для накопителей E1.S NVMe — формат нового поколения для высокоскоростных SSD в ЦОД
- Коннектор M.2 2280/22110 NVMe — для локального хранения ОС и служебных данных
Это делает систему не только вычислительной, но и полностью автономной в плане хранения и управления.
Для кого предназначена RA4802-72N2?
Эта система ориентирована на:
- Крупные ИИ-лаборатории (например, DeepMind, Meta AI, Яндекс, Сбер AI)
- Облачных провайдеров, предлагающих ИИ-ас-а-сервис (AIaaS)
- Государственные и научные центры, работающие с национальными LLM
- Корпорации, развивающие собственные ИИ-платформы для внутреннего использования
RA4802-72N2 — это не просто сервер, а полноценный ИИ-кластер в одном шкафу, способный заменить десятки традиционных стойок.
Как выбрать подходящую ИИ-инфраструктуру для вашего бизнеса?
Хотя RA4802-72N2 — это флагман, большинству компаний не требуется такая мощность. Для среднего и малого бизнеса, стартапов и исследовательских групп более рациональны решения на базе готовых сборок или отдельных компонентов.
Ниже — краткое руководство по выбору ИИ-оборудования в зависимости от задач:
Как подобрать серверное оборудование для ИИ-проектов
- Определите тип нагрузки: обучение (training) или инференс (inference). Обучение требует GPU с большой памятью (HBM), инференс — высокой пропускной способности и низких задержек.
- Оцените масштаб модели: до 7B параметров — можно использовать одиночные GPU (A100, H100); от 70B — требуется мульти-GPU система с NVLink.
- Выберите архитектуру CPU: для ИИ-нагрузок всё чаще выбирают серверные процессоры Arm (Grace) или энергоэффективные x86 (Intel Xeon Scalable, AMD EPYC).
- Подберите объём оперативной памяти: минимум 1 ГБ RAM на 1 млн параметров модели при инференсе.
- Определитесь с хранилищем: для быстрой загрузки данных используйте NVMe SSD, например, из раздела внутренние жёсткие диски.
- Рассмотрите готовые решения: если нет опыта сборки кластеров, закажите готовую сборку под ваш сценарий использования.
- Обратитесь к специалистам: для сложных проектов свяжитесь с инженерами через контакты — они помогут спроектировать оптимальную систему.
Сравнение RA4802-72N2 с другими ИИ-платформами
| Параметр | Pegatron RA4802-72N2 | NVIDIA DGX GB200 | HPE Cray XD | Dell PowerEdge XE9680 |
|---|---|---|---|---|
| Архитектура | Grace + Blackwell Ultra | Grace + Blackwell | AMD EPYC + H100 | Intel Xeon + H100 |
| GPU на систему | 72 | 72 | до 64 | до 16 |
| Пиковая производительность (FP8) | 720 Пфлопс | ~700 Пфлопс | ~500 Пфлопс | ~120 Пфлопс |
| Память HBM3(e) | 20 ТБ | ~18 ТБ | до 12 ТБ | до 3 ТБ |
| Охлаждение | Жидкостное | Жидкостное | Воздушное / жидкостное | Воздушное |
| Форм-фактор | 48U | 48U | Модульный | 8U |
Как видно, RA4802-72N2 конкурирует напрямую с NVIDIA DGX GB200, но предлагает OEM-альтернативу с потенциально более гибкими условиями поставки и поддержки.
Часто задаваемые вопросы
Можно ли использовать RA4802-72N2 для обучения моделей с открытым исходным кодом?
Да, система полностью совместима с популярными фреймворками: PyTorch, TensorFlow, JAX, а также с оптимизированными библиотеками NVIDIA — NeMo, TensorRT-LLM и cuML. Это делает её идеальной как для проприетарных, так и для open-source LLM.
Нужно ли специальное ПО для управления такой системой?
Да. NVIDIA предоставляет стек управления через DGX OS и Base Command Manager. Pegatron, вероятно, интегрирует своё решение с этими инструментами или предлагает собственную платформу на базе Kubernetes и Slurm.
Какова стоимость системы RA4802-72N2?
Точная цена не раскрывается, но по аналогии с DGX GB200 можно ожидать стоимость от $3–5 млн за полную стойку. Однако для многих организаций экономия на энергопотреблении и TCO (Total Cost of Ownership) окупает первоначальные инвестиции за 2–3 года.
Подходит ли эта система для малого бизнеса?
Нет, RA4802-72N2 — это enterprise-решение для крупных игроков. Малому бизнесу лучше рассмотреть готовые сборки на базе 1–4 GPU или воспользоваться облачными ИИ-сервисами.
Будущее ИИ-инфраструктуры: куда движется рынок?
Анонс RA4802-72N2 подтверждает тренд на:
- Интеграцию CPU и GPU в единый кристалл или модуль (chiplet-архитектура)
- Переход на Arm в HPC и ИИ из-за энергоэффективности
- Масштабирование через NVLink, а не через сеть
- Обязательное жидкостное охлаждение для систем мощностью свыше 50 кВт
- Использование DPU для разгрузки хост-процессоров
В ближайшие годы мы увидим ещё более плотные и эффективные системы, возможно, с оптическими интерконнектами и квантовыми ускорителями. Но уже сегодня такие решения, как RA4802-72N2, задают вектор развития всей индустрии.
Где купить серверное оборудование для ИИ в России?
Если вы планируете развивать ИИ-направление в своём бизнесе, важно выбрать надёжного партнёра с технической экспертизой. Компания Server360 предлагает:
- Широкий выбор серверных платформ под любые задачи — от edge-инференса до full-scale обучения LLM
- Профессиональную сборку серверов «под ключ» с тестированием и гарантией
- Сертифицированные серверные процессоры Intel, AMD и NVIDIA Grace
- Оперативную память с ECC и поддержкой RDIMM/LRDIMM — серверную ОЗУ от ведущих брендов
- Высокоскоростные NVMe-накопители и SAS/SATA диски — внутренние жёсткие диски для любых нагрузок
- Консультации инженеров и помощь в проектировании ИИ-инфраструктуры — свяжитесь через контакты
Мы работаем с клиентами по всей России и СНГ, обеспечивая поставку, настройку и техническую поддержку на всех этапах эксплуатации.
