Рынок высокопроизводительных вычислений переживает беспрецедентный рост, главным драйвером которого стал искусственный интеллект. С каждым кварталом растут требования к пропускной способности памяти, объёмам данных и скорости обработки. В этом контексте анонс о сотрудничестве Kioxia и NVIDIA по созданию SSD нового поколения приобретает стратегическое значение. По данным Nikkei, компании работают над твердотельными накопителями, которые могут стать реальной альтернативой HBM (High Bandwidth Memory) — ключевой технологии, ограничивающей масштабируемость современных ИИ-ускорителей.
Почему HBM достиг предела: вызовы масштабирования ИИ-систем
HBM сегодня — это «золотой стандарт» памяти для GPU, таких как NVIDIA H100 и B200. Благодаря вертикальной упаковке чипов и интерфейсу с широкой шиной данных, HBM обеспечивает пропускную способность до 3,35 ТБ/с. Однако эта технология имеет фундаментальные ограничения:
- Высокая стоимость: производство HBM требует сложных процессов TSV (Through-Silicon Vias) и CoWoS (Chip-on-Wafer-on-Substrate), что делает её одной из самых дорогих компонент в серверах ИИ.
- Ограниченный объём: даже самые мощные GPU имеют не более 188 ГБ HBM (B200), что недостаточно для обработки гигантских моделей следующего поколения.
- Тепловыделение и энергопотребление: плотная компоновка увеличивает температурную нагрузку, требуя сложных систем охлаждения.
- Сложность масштабирования: добавление новых HBM-чипов требует перепроектирования всей платформы, что замедляет циклы обновления оборудования.
Эти факторы заставляют вендоры искать альтернативы. Именно здесь на передний план выходят SSD нового поколения от Kioxia и NVIDIA.
Новый подход: SSD с прямым доступом к GPU вместо CPU-зависимых решений
Главное отличие новой архитектуры — возможность прямого взаимодействия между SSD и GPU, минуя центральный процессор. В традиционных системах данные с накопителей проходят через CPU, затем копируются в RAM, и только потом передаются на GPU. Этот путь создаёт задержки (latency) и «узкие места» в канале передачи данных.
Kioxia и NVIDIA внедряют технологию, аналогичную NVMe over Fabrics или GPUDirect Storage, но доведённую до нового уровня. Предполагается, что SSD будут подключаться напрямую к PCIe-шине GPU, используя расширенные протоколы управления DMA (Direct Memory Access). Это позволит загружать тензоры и веса моделей прямо в видеопамять, минуя несколько уровней буферизации.
Ключевые характеристики новых SSD от Kioxia
| Параметр | Текущее поколение (PCIe 5.0) | Новое поколение (PCIe 7.0) | Прогнозируемый рост |
|---|---|---|---|
| IOPS (произвольный доступ) | до 1,5 млн | до 200 млн | в 130 раз |
| Пропускная способность | до 14 ГБ/с | до 512 ГБ/с | в 36 раз |
| Задержка (latency) | ~100 мкс | ~5–10 мкс | в 10–20 раз |
| Интерфейс | PCIe 5.0 x4 | PCIe 7.0 x16 | в 4 раза шире |
PCIe 7.0 — основа будущего хранения для ИИ
Новые SSD будут использовать интерфейс PCIe 7.0, который должен быть стандартизирован в 2025 году. Он удваивает пропускную способность по сравнению с PCIe 6.0, достигая 512 ГБ/с на x16-конфигурации. Это открывает возможности для:
- Подключения массива из нескольких SSD напрямую к одному или нескольким GPU.
- Создания распределённых пулов памяти, доступных для всех ускорителей в сервере.
- Упрощения архитектуры сервера за счёт исключения промежуточных контроллеров.
По словам Коити Фукуды, главного инженера Kioxia, компания уже завершает тестирование прототипов NAND-памяти, оптимизированных для экстремальных режимов произвольного доступа. Ожидается, что новые накопители будут использовать флеш-память типа BiCS FLASH 7 с 3D-структурой и улучшенной коррекцией ошибок (ECC).
Как работает прямое соединение SSD-GPU?
Архитектура прямого доступа SSD к GPU
- Данные хранятся на SSD нового поколения с интерфейсом PCIe 7.0 и поддержкой GPUDirect Storage.
- GPU отправляет запрос на чтение данных напрямую через PCIe-шину, минуя CPU и системную RAM.
- Контроллер SSD обрабатывает запрос и передаёт данные по DMA напрямую в память GPU.
- Данные сразу становятся доступны для выполнения операций инференса или обучения без дополнительных копирований.
- При записи результатов обратно на диск используется тот же прямой путь, что снижает общую задержку.
Преимущества SSD как расширения памяти ИИ
Переход на SSD в роли «вторичной памяти» с характеристиками, близкими к оперативной, даёт ряд преимуществ:
- Масштабируемость: можно добавлять десятки терабайт быстрой памяти, не меняя GPU. Например, один сервер может содержать 8x GPU и 32 SSD по 8 ТБ каждый — суммарно 256 ТБ сверхбыстрого хранилища.
- Снижение стоимости владения (TCO): SSD на базе NAND значительно дешевле HBM. По оценкам, стоимость хранения 1 ТБ в HBM превышает $100 000, тогда как SSD обойдутся менее чем в $1 000.
- Гибкость конфигураций: администраторы смогут настраивать баланс между объёмом HBM и SSD в зависимости от задач — обучение, инференс, RAG (Retrieval-Augmented Generation).
- Энергоэффективность: SSD потребляют меньше энергии, чем HBM, особенно при простое. Это критично для дата-центров с высокой плотностью развёртывания.
Прогнозы рынка: NAND-память станет «топливом» для ИИ
Kioxia прогнозирует, что к 2029 году почти 50% спроса на NAND-память будет связано с системами искусственного интеллекта. Этот тренд уже стимулирует возобновление инвестиций в разработку флеш-памяти после двухлетнего затишья, вызванного переизбытком предложения в 2022–2023 годах.
Производители активно исследуют новые технологии:
- HBF (High Bandwidth Flash) — разработка SanDisk (подразделение Kioxia), ориентированная на максимальную скорость произвольного доступа.
- QLC NAND с улучшенным endurance — позволяет использовать более дешёвые типы памяти в ИИ-нагрузках.
- Контроллеры с аппаратной ускоренной компрессией — снижают объём передаваемых данных и увеличивают эффективную пропускную способность.
Эти разработки станут основой для массового перехода к «гибридной памяти» в ИИ-серверах.
Сравнение: SSD нового поколения vs HBM — где применять что?
Новые SSD не заменят HBM полностью, но станут его логическим продолжением. Вот как может выглядеть разделение ролей:
| Параметр | HBM | SSD нового поколения | Рекомендация по использованию |
|---|---|---|---|
| Пропускная способность | до 3,35 ТБ/с | до 512 ГБ/с | HBM для ядерных операций GPU |
| Задержка | ~10 нс | ~5–10 мкс | HBM для синхронных вычислений |
| Объём | до 188 ГБ | до 100+ ТБ | SSD для хранения моделей и данных |
| Стоимость за 1 ТБ | ~$100 000 | ~$800–$1 200 | SSD для экономичных решений |
| Энергопотребление | Высокое | Среднее | SSD для масштабируемых систем |
Вывод: HBM остаётся незаменимой для выполнения вычислений, а SSD нового поколения берут на себя роль «расширенной рабочей памяти», где важны объём и скорость доступа, но допустимы небольшие задержки.
Когда ждать коммерческие решения?
По плану Kioxia и NVIDIA:
- II половина 2026 года — пробные поставки первых образцов SSD партнёрам и OEM-производителям.
- 2027 год — начало коммерческих продаж и интеграция в серверные платформы.
- 2028–2029 годы — массовое внедрение в дата-центрах крупных провайдеров ИИ-услуг.
Ожидается, что первые серверы с такой архитектурой появятся у компаний вроде Microsoft Azure, AWS и Google Cloud, которые уже сталкиваются с нехваткой HBM для развёртывания LLM (Large Language Models).
Как это повлияет на выбор серверного оборудования?
IT-специалистам и системным интеграторам уже сейчас стоит обращать внимание на следующие аспекты при построении ИИ-инфраструктуры:
- Поддержка PCIe 7.0 — будущие материнские платы и серверные платформы должны иметь соответствующие слоты. Узнать больше о современных серверных платформах.
- Выбор процессоров с достаточным количеством линий PCIe — Intel Xeon 6 и AMD EPYC 9004 уже поддерживают PCIe 5.0, но для PCIe 7.0 потребуются новые поколения. Подробнее о серверных процессорах.
- Оперативная память — хотя SSD будут работать напрямую с GPU, системная RAM всё ещё нужна для управления. Рекомендуется использовать DDR5 с ECC. Смотрите подборку серверной оперативной памяти.
- Накопители — переход на высокоскоростные SSD станет обязательным. Обратите внимание на решения с интерфейсом U.2 и EDSFF. Каталог внутренних накопителей.
- Готовые решения — для быстрого старта можно выбрать готовую сборку сервера, оптимизированную под ИИ-нагрузки.
Что делать разработчикам и администраторам уже сегодня?
Хотя новые SSD появятся не раньше 2027 года, подготовку можно начать уже сейчас:
- Оптимизировать модели для частичной загрузки (model sharding).
- Внедрить кэширование часто используемых слоёв в RAM.
- Использовать NVMe SSD текущего поколения с поддержкой GPUDirect Storage.
- Тестировать архитектуры с распределённой памятью (RDMA, NVMe-oF).
- Планировать бюджет на обновление серверного парка с учётом новых требований к IOPS и latency.
Ответы на частые вопросы (FAQ)
Могут ли SSD заменить HBM полностью?
Нет, полностью заменить HBM SSD не смогут. HBM необходима для выполнения вычислений на GPU из-за крайне низкой задержки. Новые SSD станут «расширенной памятью» для хранения моделей и данных, снижая нагрузку на HBM.
Будут ли новые SSD совместимы с существующими GPU?
Нет, для работы с новыми SSD потребуются GPU с поддержкой PCIe 7.0 и специализированным ПО (например, обновлённым CUDA). Первые такие ускорители ожидаются в 2027 году.
Как это повлияет на стоимость серверов ИИ?
В долгосрочной перспективе стоимость снизится. Замена части HBM на SSD позволит снизить цену серверов на 20–30%, что сделает ИИ-вычисления доступнее для среднего бизнеса.
Что такое HBF и чем она отличается от обычной NAND?
HBF (High Bandwidth Flash) — это технология, разрабатываемая SanDisk/Kioxia, которая оптимизирует флеш-память для максимальной скорости произвольного доступа. В отличие от обычной NAND, HBF использует улучшенные алгоритмы управления, повышенную параллельность и низкоуровневую оптимизацию протоколов.
Где можно купить готовые решения с поддержкой новых SSD?
На этапе коммерциализации такие серверы будут доступны у ведущих производителей (Dell, HPE, Lenovo) и системных интеграторов. Также вы можете заказать индивидуальную сборку под будущие требования. Свяжитесь с нами через форму обратной связи для консультации.
