Южнокорейская компания SK hynix, один из мировых лидеров в производстве полупроводниковой памяти, представляет новую архитектуру памяти AI DRAM (AI-D), разработанную специально для преодоления системных ограничений современных ИИ-платформ. По данным ресурса Blocks & Files, инновационная память призвана устранить так называемую «стену памяти» — критическое узкое место, возникающее из-за несоответствия между растущей вычислительной мощностью GPU и пропускной способностью памяти.
Проблема «стены памяти» в ИИ-инфраструктуре
Современные графические процессоры (GPU), применяемые в ИИ-ускорителях, демонстрируют экспоненциальный рост вычислительной мощности. Однако память, особенно типа HBM (High Bandwidth Memory), не успевает за этим ростом. В результате GPU вынуждены простаивать в ожидании данных, что снижает общую эффективность системы и увеличивает стоимость владения (TCO).
«Стена памяти» — это техническое ограничение, при котором производительность системы перестаёт масштабироваться с ростом количества вычислительных ядер из-за недостаточной пропускной способности каналов между процессором и памятью. Особенно остро эта проблема стоит при работе с большими языковыми моделями (LLM) и другими высоконагруженными ИИ-задачами, где требуется обработка гигантских объёмов данных в реальном времени.
SK hynix, являясь ключевым поставщиком HBM-памяти для NVIDIA, AMD и других производителей ИИ-ускорителей, стремится решить эту проблему на архитектурном уровне. Вместо простого увеличения объёма или пропускной способности, компания делает ставку на специализацию и гибкость.
Три стратегии: AI-D O, AI-D B и AI-D E
Новая линейка AI-D представлена тремя направлениями, каждое из которых решает отдельный аспект проблемы:
- AI-D O (Optimization) — оптимизация энергопотребления и стоимости;
- AI-D B (Breakthrough) — радикальное увеличение ёмкости и вычислительной близости к данным;
- AI-D E (Expansion) — расширение применения ИИ-памяти за пределы дата-центров.
Такой подход позволяет SK hynix предлагать не универсальное, а целевое решение под конкретные сценарии эксплуатации — от облачных тренировочных кластеров до автономной робототехники.
AI-D O: энергоэффективность как путь к снижению TCO
Вариант AI-D O ориентирован на снижение эксплуатационных расходов. Здесь ключевую роль играют технологии:
- MRDIMM (Multiplexer R-DIMM) — увеличивает плотность памяти и пропускную способность модулей стандарта DDR;
- SOCAMM2 (Stacked On-Chip Advanced Memory Module 2) — компактное 3D-решение для высокой плотности размещения;
- LPDDR5R — энергоэффективная версия LPDDR5 с улучшенной стабильностью при высоких нагрузках.
Эти технологии позволяют снизить энергопотребление на бит данных без потери производительности. Для владельцев дата-центров это напрямую транслируется в снижение затрат на охлаждение и электроэнергию, что особенно актуально при масштабировании ИИ-инфраструктуры до сотен или тысяч ускорителей.
Для сравнения: современные ИИ-кластеры могут потреблять десятки мегаватт, и даже 10–15% экономии энергии на уровне памяти способны сэкономить миллионы долларов в год.
AI-D B: 2 Тбайт на модуль и объединённое адресное пространство до 16 Пбайт
Наиболее амбициозным направлением является AI-D B. Оно направлено на решение фундаментальной проблемы — ограниченного объёма памяти на GPU. Вместо того чтобы постоянно апгрейдить ускорители, SK hynix предлагает архитектуру, в которой память становится масштабируемым и гибким ресурсом.
Ключевые инновации:
- CMM (Compute Express Link Memory Module) — модули памяти, подключённые через интерфейс CXL, обеспечивающий низкую задержку и когерентность кэша;
- PIM (Processing-In-Memory) — размещение вычислительных элементов непосредственно в чипе памяти, что минимизирует перемещение данных;
- Объединённое пул-пространство памяти — до 16 Пбайт, доступное для любого GPU в кластере.
Каждый модуль AI-D B будет содержать до 2 Тбайт памяти, реализованных через стек из 16 чипов SOCAMM2 по 128 Гбайт. Благодаря CXL, несколько таких модулей можно объединять в общее адресное пространство, видимое для всех ускорителей. Это означает, что даже при локальном исчерпании памяти GPU сможет динамически заимствовать ресурсы из общего пула — без участия CPU и без копирования данных через шину PCIe.
Преимущества PIM для ИИ-нагрузок
Технология Processing-In-Memory особенно важна для операций с разрежёнными матрицами, характерными для нейросетей. Вместо того чтобы передавать гигабайты нулевых значений в GPU, PIM-модуль может выполнить предварительную обработку данных прямо в памяти — отфильтровать, сжать или агрегировать информацию. Это сокращает как объём передаваемых данных, так и время реакции системы.
По оценкам SK hynix, внедрение PIM в AI-D B может повысить производительность ИИ-систем на 30–50% при тех же вычислительных ресурсах.
AI-D E: ИИ-память вне дата-центра
Третье направление — AI-D E — выходит за рамки традиционных ИИ-инфраструктур. Компания видит потенциал в использовании усовершенствованной DRAM в:
- промышленной автоматизации;
- мобильных роботах и дронов;
- автономных транспортных средствах;
- умных IoT-устройствах с локальным ИИ.
В таких сценариях критически важны компактность, энергоэффективность и устойчивость к внешним воздействиям. AI-D E будет оптимизирована под эти требования, сохраняя при этом достаточную производительность для локального вывода (inference) моделей.
Интересно, что SK hynix не исключает интеграцию HBM даже в такие устройства — например, в автономных роботов, где требуется высокая пропускная способность для обработки данных с лидаров, камер и сенсоров в реальном времени.
Как это повлияет на отечественный рынок серверного оборудования
Российские компании, развивающие ИИ-проекты и дата-центры, остро нуждаются в современных решениях, способных обходить технологические ограничения. Хотя поставки HBM и новой AI-D могут быть ограничены из-за глобальных санкций, опыт SK hynix указывает на важные тренды, которые уже сейчас можно учитывать при проектировании ИИ-инфраструктуры:
- максимальная модульность и масштабируемость памяти;
- интеграция вычислений ближе к данным;
- снижение энергопотребления как ключевой KPI.
В России уже разрабатываются собственные ИИ-платформы — от вычислительных модулей до ПО-стека. Для их эффективной работы требуется тщательный подбор компонентов: процессоров, памяти и накопителей. В этом контексте крайне важно понимать, какие факторы действительно влияют на производительность ИИ-систем.
Как оптимизировать серверную платформу под ИИ-нагрузки уже сегодня
- Оцените баланс между вычислительной мощностью GPU и объёмом памяти. Если GPU простаивает — проблема в памяти или её пропускной способности.
- Выбирайте серверные процессоры с поддержкой большого количества каналов памяти и высокой пропускной способностью PCIe 4.0/5.0 — например, серверные процессоры AMD EPYC или Intel Xeon Scalable.
- Используйте максимально возможный объём RDIMM или LRDIMM с коррекцией ошибок ECC — это критично для стабильности при длительных тренировках моделей.
- Для хранения промежуточных данных и датасетов выбирайте NVMe-накопители с высоким IOPS и endurance — SSD-решения Enterprise-класса предпочтительнее HDD даже при больших объёмах.
- Рассмотрите готовые сборки, оптимизированные под ИИ и машинное обучение — готовые серверные платформы позволяют сократить время развёртывания и минимизировать ошибки совместимости.
- Планируйте масштабируемость: выбирайте серверные платформы с возможностью горизонтального расширения памяти и добавления GPU в будущем.
Сравнительная таблица: как AI-D меняет параметры ИИ-систем
| Параметр | Традиционная HBM | AI-D O | AI-D B | AI-D E |
|---|---|---|---|---|
| Макс. ёмкость на модуль | 24–96 Гбайт (HBM3E) | до 128 Гбайт | до 2 Тбайт | 8–64 Гбайт |
| Пропускная способность | до 1,2 Тбайт/с | ~1 Тбайт/с (с экономией энергии) | ~800 Гбайт/с + PIM-ускорение | 200–600 Гбайт/с |
| Поддержка объединённого пула памяти | Нет | Ограниченно | Да, до 16 Пбайт | Нет |
| Processing-In-Memory | Нет | Нет | Да | Частично |
| Типичное применение | GPU-ускорители в дата-центрах | Энергоэффективные ИИ-кластеры | Тренировка LLM, HPC | Робототехника, промышленность, edge-ИИ |
Что это значит для разработчиков и инженеров
Новые архитектуры памяти потребуют адаптации как на уровне железа, так и на уровне ПО. Разработчикам ИИ-фреймворков (TensorFlow, PyTorch и др.) придётся учитывать возможность распределённого пула памяти и локальных вычислений в модулях PIM.
Системные интеграторы, в свою очередь, должны пересмотреть подход к проектированию серверов: вместо «GPU + максимум HBM» — «GPU + гибкий пул энергоэффективной памяти с возможностью расширения».
Для российских компаний это также открывает возможности для создания собственных решений на базе открытых архитектур, совместимых с CXL и поддерживающих гибкое управление памятью.
FAQ: самые частые вопросы о памяти AI-D от SK hynix
Когда появятся первые образцы AI-D?
SK hynix объявила о начале разработки, но конкретных дат массового выпуска пока нет. Прототипы AI-D B могут появиться уже в 2026 году в составе новых ИИ-платформ от NVIDIA и других партнёров.
Будет ли AI-D совместима с существующими серверами?
AI-D B требует поддержки интерфейса CXL 2.0/3.0 и новых чипсетов, поэтому потребует обновления платформы. AI-D O, напротив, может быть внедрена в существующие DDR5-системы с минимальными изменениями.
Можно ли использовать AI-D в России?
Прямые поставки могут быть ограничены, но концепции AI-D (пул памяти, PIM, CXL) уже сегодня можно реализовать с использованием доступных компонентов. Наши инженеры рекомендуют фокусироваться на архитектурных принципах, а не только на бренде чипа.
Как выбрать серверную память для ИИ-проекта сегодня?
Приоритет — максимальный объём RDIMM/LRDIMM с ECC, высокая частота и поддержка всех каналов памяти процессора. Для GPU-нагрузок критична не только системная память, но и HBM на самих ускорителях. Подробнее о выборе серверной ОЗУ — в отдельном руководстве.
