В начале сентября 2024 года мировая полупроводниковая индустрия получила мощный импульс к развитию: компании Ayar Labs (США), Alchip Technologies (Тайвань) и TSMC (Тайвань) объявили о совместной разработке референс-дизайна для создания ИИ-ускорителей нового поколения. Этот проект объединяет передовые технологии кремниевой фотоники, чиплетной архитектуры и 3D-упаковки, позволяя достичь пропускной способности до 250 Тбит/с на одну сборку (SiP). Такой прорыв решает ключевую проблему современных ИИ-инфраструктур — узкие места в передаче данных между вычислительными блоками и памятью.
Почему традиционные медные соединения больше не справляются
С ростом масштабов ИИ-моделей и увеличением размеров кластеров производительность вычислительных систем всё чаще ограничивается не самими процессорами, а способностью передавать данные между ними. Современные GPU и ASIC-ускорители, такие как NVIDIA H100 или AMD MI300X, уже исчерпывают возможности медных межсоединений по трём ключевым параметрам:
- Энергоэффективность: передача данных на скоростях выше 112 Гбит/с на линию требует всё больше энергии, что приводит к перегреву и ограничению плотности размещения.
- Дальность передачи: медные трассы теряют сигнал уже на расстоянии 1–2 метров, что делает невозможным эффективное масштабирование на уровне нескольких стоек.
- Задержки: даже при использовании передовых протоколов вроде PCIe 6.0 или UCIe, электрические соединения вносят микросекундные задержки, критичные для распределённых ИИ-вычислений.
Как отметил Эрез Шайзаф (Erez Shaizaf), технический директор Alchip Technologies: «Масштабируемые сети ИИ-кластеров ограничены расстоянием медных соединений. В то же время энергоэффективность сети ограничена плотностью мощности и возможностями систем охлаждения». Именно эти ограничения и призвано снять новое решение на базе кремниевой фотоники.
Что такое CPO и почему это революция для ИИ-инфраструктуры
CPO (Co-Packaged Optics) — это технология, при которой оптические трансиверы размещаются непосредственно на одной подложке с вычислительными чипами, в отличие от традиционных подходов, где оптика находится в отдельных модулях (например, QSFP-DD или OSFP), подключаемых через кабели.
Преимущества CPO:
- Снижение энергопотребления на 30–50% за счёт устранения длинных электрических трасс между ASIC и оптическим интерфейсом.
- Увеличение пропускной способности до сотен терабит в секунду на один чип.
- Минимизация задержек — данные передаются напрямую от ядра вычислений в оптический канал без промежуточных буферов.
- Компактность — отсутствие внешних кабелей и разъёмов позволяет размещать больше ускорителей в одной стойке.
В совместном решении Ayar Labs и Alchip используется именно CPO-подход, реализованный на платформе TSMC COUPE (Compact Universal Photonic Engine) — одной из самых передовых технологий интеграции фотоники и электроники.
Архитектура референс-дизайна: 250 Тбит/с в одном корпусе
Референсная платформа включает следующие компоненты:
- Два вычислительных кристалла (ASIC или GPU-подобных ускорителей).
- Несколько чиплетов HBM (High Bandwidth Memory) для обеспечения высокой пропускной способности памяти.
- Восемь оптических IO-модулей на базе чиплета TeraPHY от Ayar Labs.
Вся конструкция объединяется в единую систему в корпусе (SiP — System-in-Package) с использованием технологии TSMC SoIC (System on Integrated Chips), которая позволяет вертикально соединять кристаллы через микроскопические TSV-переходы (Through-Silicon Vias).
Каждый оптический модуль TeraPHY обеспечивает пропускную способность свыше 100 Тбит/с на один ускоритель. При восьми таких модулях общая двусторонняя пропускная способность достигает 200–250 Тбит/с — это в 5–10 раз превосходит возможности современных флагманских GPU.
Владимир Стоянович (Vladimir Stojanovic), технический директор Ayar Labs, подчеркнул: «Это позволит не только масштабировать систему, но и значительно расширить объём памяти, имеющей пропускную способность, сопоставимую с HBM».
Гибкость интеграции: поддержка UCIe и независимость от протоколов
Одним из ключевых преимуществ решения является его гибкость. Чиплет TeraPHY не привязан к конкретному протоколу передачи данных — он может работать с PCIe, CXL, Ethernet или собственными интерфейсами заказчика. Это особенно важно для разработчиков кастомных ASIC, которые стремятся оптимизировать архитектуру под конкретные задачи ИИ-тренировки или инференса.
Кроме того, платформа полностью совместима с открытым стандартом UCIe (Universal Chiplet Interconnect Express), что позволяет легко интегрировать оптические модули с существующими вычислительными чиплетами, стеками памяти и ускорителями от сторонних производителей.
Благодаря этому разработчики могут:
- Собирать гибридные системы из чиплетов разных вендоров.
- Оптимизировать размещение компонентов для минимизации задержек и потерь сигнала.
- Соблюдать строгие требования к температурному режиму и целостности сигнала на уровне всей сборки.
Практическая польза для заказчиков: от прототипа до массового внедрения
Компании Ayar Labs и Alchip не просто представили концепт — они подготовили полноценный пакет поддержки для инженерных команд:
- Референсные архитектуры и варианты сборки.
- Тестовые программы для верификации работы оптических модулей.
- Прошивки управления модулем и инструменты диагностики.
- Методики оценки надёжности и проведения стресс-тестов.
«Заказчику нужна поддержка, чтобы он понимал процессы оценки надёжности и испытаний, поэтому мы тесно сотрудничаем с Alchip, чтобы предоставить заказчику доступ ко всему этому пакету», — пояснил Стоянович.
Это особенно важно для российских и европейских разработчиков ИИ-систем, которые стремятся создавать собственные ускорители в условиях ограничений на поставки западных компонентов. Наличие готового референс-дизайна с открытыми интерфейсами и поддержкой UCIe значительно сокращает время вывода продукта на рынок.
Как это повлияет на рынок серверных решений в России
Хотя Ayar Labs и Alchip базируются за пределами России, их технология уже сегодня влияет на развитие отечественной ИИ-инфраструктуры. Российские компании, такие как «Яндекс», Сбер, VK и «Ростех», активно инвестируют в создание собственных ИИ-платформ и нуждаются в высокопроизводительных межсоединениях.
В условиях санкционных ограничений особенно актуальны решения, которые:
- Позволяют использовать чиплеты от разных производителей.
- Снижают зависимость от импортных сетевых карт и оптических трансиверов.
- Повышают энергоэффективность дата-центров — критически важный фактор при росте стоимости электроэнергии.
Кроме того, российские интеграторы уже сегодня предлагают готовые серверные платформы, которые могут стать основой для будущих CPO-систем. Например, на сайте Server360.ru представлены серверные платформы с поддержкой многопроцессорных конфигураций, большого объёма памяти и гибкой расширяемости — идеальная база для экспериментов с оптическими интерконнектами.
Что нужно для сборки ИИ-сервера нового поколения уже сегодня
Хотя массовое внедрение CPO-решений ожидается не ранее 2026–2027 годов, уже сейчас можно подготовить инфраструктуру к переходу на оптические межсоединения. Вот ключевые компоненты, которые стоит учитывать при проектировании ИИ-кластеров:
Серверные платформы с поддержкой высокой плотности вычислений
Выбирайте платформы с поддержкой двух и более процессоров, большим количеством слотов PCIe 5.0 и возможностью установки нескольких ускорителей. Подробнее о таких решениях можно узнать на странице серверные платформы.
Серверные процессоры с высокой пропускной способностью памяти
Процессоры AMD EPYC и Intel Xeon Scalable последних поколений обеспечивают до 12 каналов DDR5 и поддержку PCIe 5.0, что критично для работы с ИИ-ускорителями. Актуальные модели представлены в разделе серверные процессоры.
Оперативная память с высокой пропускной способностью и ECC
Для ИИ-задач требуется не только большой объём RAM, но и высокая надёжность. Используйте модули DDR5 ECC RDIMM с частотой от 4800 МГц. Подборку актуальных решений можно найти на странице серверная оперативная память.
Накопители с низкой задержкой и высокой IOPS
Даже при наличии HBM, внешние накопители остаются важной частью ИИ-инфраструктуры — для хранения датасетов, моделей и логов. SSD NVMe с интерфейсом U.2 или E3.S обеспечивают до 1 млн IOPS. Ассортимент представлен в разделе внутренние жёсткие диски и SSD.
Готовые сборки под ключ
Если у вас нет времени на самостоятельную комплектацию, можно заказать готовую ИИ-платформу. Компания Server360 предлагает предварительно собранные и протестированные решения, адаптированные под задачи машинного обучения и инференса. Ознакомиться с предложениями можно на странице готовая сборка.
FAQ: Ответы на ключевые вопросы о CPO и ИИ-инфраструктуре
Чем CPO отличается от традиционной оптики (QSFP, OSFP)?
В традиционных системах оптические трансиверы находятся в отдельных модулях, подключаемых к плате через электрические трассы длиной до 10–20 см. В CPO оптические компоненты размещаются прямо на подложке с вычислительным чипом, что сокращает длину электрических соединений до микрометров, снижая задержки и энергопотребление.
Можно ли использовать CPO с существующими GPU?
Напрямую — нет. CPO требует специальной архитектуры чипа с интегрированными оптическими интерфейсами. Однако разработчики могут создавать кастомные ASIC с поддержкой CPO, используя референс-дизайны от Ayar Labs и Alchip.
Когда CPO появится в коммерческих продуктах?
Первые коммерческие решения на базе CPO ожидаются в 2026–2027 годах. Однако уже сегодня инженерные образцы и референс-дизайны доступны для крупных заказчиков и разработчиков ИИ-ускорителей.
Поддерживает ли решение Ayar Labs стандарт UCIe?
Да, платформа полностью совместима с UCIe, что позволяет интегрировать оптические чиплеты с вычислительными блоками от разных производителей в рамках единой чиплетной архитектуры.
Сравнение пропускной способности: медные vs оптические соединения
| Тип соединения | Макс. скорость на линию | Энергопотребление (пДж/бит) | Макс. расстояние | Плотность портов |
|---|---|---|---|---|
| Медь (PCIe 5.0) | 32 Гбит/с | 5–7 | <0.5 м | Низкая |
| Медь (112G PAM4) | 112 Гбит/с | 8–12 | 1–2 м | Средняя |
| Оптика (QSFP-DD) | 800 Гбит/с (модуль) | 4–6 | до 10 км | Высокая |
| CPO (TeraPHY + SoIC) | 100+ Тбит/с (чип) | 1–2 | до 2 км | Очень высокая |
Пошаговая инструкция: как подготовить ИИ-инфраструктуру к переходу на CPO
Подготовка ИИ-инфраструктуры к CPO
- Оцените текущую архитектуру кластера: определите узкие места в передаче данных между ускорителями и памятью.
- Выберите серверные платформы с поддержкой PCIe 5.0 и высокой плотности размещения ускорителей (например, 8 GPU в 4U).
- Обеспечьте достаточную пропускную способность памяти: используйте процессоры с 8+ каналами DDR5 и модули ECC RAM.
- Заложите запас по охлаждению: CPO снижает нагрев, но вычислительные чипы остаются горячими — используйте жидкостное или гибридное охлаждение.
- Свяжитесь с интеграторами, такими как Server360, для консультации по совместимости и будущей миграции на CPO.
