Американская компания d-Matrix, специализирующаяся на разработке аппаратных решений для ускорения ИИ-инференса, объявила о новом этапе своего масштабного роста. В рамках раунда финансирования серии C стартап привлёк $275 млн при постденежной оценке в $2 млрд. Общее количество инвестиций, полученных с момента основания, достигло $450 млн. Это событие знаменует важную веху в эволюции инфраструктуры искусственного интеллекта и подтверждает растущий спрос на эффективные решения для массового развёртывания ИИ в реальных условиях.
Кто инвестировал в d-Matrix: глобальный консорциум поддерживает стратегию инференса
Раунд серии C возглавил международный консорциум, в который вошли:
- Bullhound Capital — инвестиционная фирма, специализирующаяся на технологиях и цифровых платформах;
- Triatomic Capital — фонд, активно вкладывающий в полупроводниковую и ИИ-индустрию;
- Temasek — суверенный фонд Сингапура с многомиллиардным портфелем в глобальных технологиях.
Также в финансировании приняли участие Qatar Investment Authority (QIA), EDBI, Microsoft через её венчурное подразделение M12, а также Nautilus Venture Partners, Industry Ventures и Mirae Asset. Подобная поддержка со стороны столь авторитетных инвесторов подчёркивает уверенность рынка в перспективах технологической платформы d-Matrix и её уникальной архитектуре, ориентированной исключительно на инференс — финальную, но критически важную фазу работы ИИ-моделей.
Инференс как ключ к коммерческому успеху ИИ
Генеральный директор и соучредитель d-Matrix Сид Шет (Sid Sheth) подчеркнул фокус компании: «С самого начала мы были сосредоточены исключительно на инференсе. Мы предсказывали, что когда обученным моделям потребуется непрерывная масштабная работа, инфраструктура не будет готова. Последние шесть лет мы потратили на разработку решения: принципиально новой архитектуры, которая позволяет ИИ работать везде и всегда».
Эта позиция особенно актуальна в 2025 году. Если обучение моделей — это капитальные затраты (CAPEX), то инференс — это операционные расходы (OPEX), которые клиенты несут ежедневно. По мере роста популярности генеративных ИИ-сервисов и агентных систем, стоимость инференса становится доминирующим фактором в TCO (Total Cost of Ownership). Именно здесь d-Matrix видит свою конкурентную нишу.
Архитектура DIMC: вычисления внутри памяти как ответ на проблему энергоэффективности
Центральной технологией d-Matrix является архитектура Digital In-Memory Computing (DIMC). В отличие от традиционных GPU и ускорителей, где данные постоянно перемещаются между процессором и памятью (что создаёт «узкое горлышко» по пропускной способности и потреблению энергии), DIMC интегрирует вычислительные элементы непосредственно в чип памяти.
Такой подход позволяет:
- Сократить задержки на передачу данных до минимума;
- Повысить энергоэффективность на порядок;
- Увеличить пропускную способность памяти без необходимости в дорогих решениях вроде HBM.
Первым коммерческим продуктом на базе DIMC стала платформа Corsair — специализированный ускоритель инференса, разработанный для развёртывания больших языковых моделей (LLM) и трансформеров в масштабах ЦОД.
Corsair и JetStream: аппаратная основа для ИИ-кластеров
Платформа d-Matrix включает не только ускоритель Corsair, но и сетевую карту JetStream, оптимизированную для высокоскоростного взаимодействия ускорителей в кластере. Это позволяет строить гомогенные ИИ-системы с минимальными накладными расходами на коммуникацию.
Для упрощения развёртывания компания предлагает референсную архитектуру SquadRack. Её особенности:
- Поддержка до 8 серверов в одном 42U-стойке;
- Каждый сервер содержит 8 ускорителей Corsair;
- Вся модель (до 100 млрд параметров) может храниться целиком в SRAM ускорителей;
- Отсутствие необходимости в обмене данными с внешней памятью во время инференса.
По утверждению d-Matrix, такая конфигурация обеспечивает производительность, превышающую решения на основе HBM в 10 раз при сопоставимом энергопотреблении.
Программный стек Aviator: автоматизация от развёртывания до мониторинга
Аппаратная инновация сопровождается развитием программного обеспечения. Компания предлагает стек Aviator — комплекс инструментов для:
- Автоматизированного развёртывания моделей на Corsair;
- Квантования и компрессии моделей под архитектуру DIMC;
- Отладки и профилирования производительности;
- Мониторинга загрузки и энергопотребления в реальном времени.
Это критически важно для внедрения: без гибкого и интуитивного ПО даже самое передовое железо остаётся нишевым решением. Aviator снижает порог входа и позволяет инженерам быстро адаптировать существующие модели под инфраструктуру d-Matrix.
Raptor: первый в мире ИИ-ускоритель на базе 3D DRAM
В 2026 году d-Matrix планирует запустить следующее поколение ускорителей — Raptor. Это будет первый в отрасли ИИ-ускоритель, использующий 3D-стекированную DRAM, а не SRAM или HBM. Технология 3DIMC, реализованная совместно с тайваньской компанией Alchip (известным разработчиком ASIC), позволяет создавать многослойные чипы с высокой плотностью и пропускной способностью.
Прототип технологии уже продемонстрирован в тестовом кристалле Pavehawk, где подтверждена возможность масштабирования DIMC на 3D-геометрии. Ожидается, что Raptor обеспечит:
- До 10× ускорение инференса по сравнению с решениями на HBM4;
- Значительное снижение стоимости владения (TCO) для LLM и агентных ИИ;
- Поддержку моделей с триллионами параметров без внешнего обмена памятью.
AndesCore AX46MPV: RISC-V-процессор как «мозг» ускорителя
Важным элементом архитектуры Raptor станет центральный процессор AndesCore AX46MPV от компании Andes Technology. Это 64-битный многоядерный процессор на архитектуре RISC-V с поддержкой Linux, специально оптимизированный для ИИ-нагрузок.
Ключевые возможности AX46MPV:
- 2048-битный блок векторной обработки (согласно стандарту RVV 1.0);
- Высокоскоростная векторная память (HVM);
- Аппаратная поддержка функций активации и управления памятью;
- Прирост производительности до 2,3× по сравнению с предыдущим поколением AX45MPV.
Процессор будет отвечать за оркестрацию рабочих нагрузок, распределение задач между вычислительными блоками DIMC, а также за выполнение вспомогательных ИИ-операций. Сотрудничество d-Matrix и Andes демонстрирует конвергенцию двух ключевых трендов: вычислений, ориентированных на память, и открытых процессорных архитектур.
Почему это важно для российского рынка и ЦОД
Хотя d-Matrix — американская компания, её технологии имеют прямое значение для российских дата-центров и ИТ-инфраструктур. На фоне глобальных ограничений и роста спроса на локальные ИИ-решения, энергоэффективные ускорители, не зависящие от GPU NVIDIA, становятся стратегически важными.
Для ЦОД, особенно в регионах с лимитами на мощность, решения вроде Corsair и будущего Raptor предлагают путь к масштабированию ИИ без пропорционального роста энергопотребления. Это особенно актуально для:
- Финансовых учреждений, внедряющих ИИ для анализа рисков и обслуживания клиентов;
- Телеком-операторов, развёртывающих edge-ИИ;
- Госсектора, реализующего проекты по цифровой трансформации с использованием отечественных или независимых ИИ-платформ.
Как собрать ИИ-сервер под инференс: рекомендации Server360.ru
Для тех, кто рассматривает развёртывание собственной ИИ-инфраструктуры, мы рекомендуем учитывать следующие компоненты:
| Компонент | Рекомендация | Ссылка |
|---|---|---|
| Серверная платформа | Модульные решения с поддержкой ускорителей и высокой плотностью памяти | servernye-platformy |
| Процессоры | Многоядерные CPU с поддержкой PCIe 5.0 и большим количеством линий | proczessory-servernye |
| Оперативная память | DDR5 ECC RDIMM с высокой пропускной способностью и низкими задержками | operativnaya-pamyat-servernaya |
| Хранилище | NVMe SSD для загрузки моделей и кэширования данных | vnutrennie-zhestkie-diski |
| Сборка под ключ | Готовые ИИ-серверы с предустановленным ПО и тестированием | gotovaya-sborka |
Как оценить TCO ИИ-инфраструктуры перед покупкой
- Определите типы ИИ-моделей (LLM, CV, рекомендательные системы) и их размер.
- Рассчитайте объём инференс-запросов в час/день.
- Оцените требования к задержке (latency) и пропускной способности (throughput).
- Сравните энергопотребление решений (Вт/запрос или Вт/токен).
- Учтите стоимость ПО, лицензий и эксплуатации (охлаждение, обслуживание).
- Протестируйте прототип на реальных рабочих нагрузках.
FAQ: Вопросы и ответы о d-Matrix и её технологиях
Что такое ИИ-инференс и почему он важнее обучения?
Инференс — это этап, когда обученная модель применяется к новым данным для получения результата (например, генерация текста или распознавание изображения). В отличие от обучения, которое происходит разово, инференс происходит постоянно — миллионы раз в день. Поэтому именно его эффективность определяет коммерческую жизнеспособность ИИ-сервиса.
Почему DIMC эффективнее традиционных GPU?
В GPU данные постоянно перемещаются между ядрами и памятью, что требует энергии и времени. DIMC устраняет это перемещение, выполняя вычисления прямо в ячейках памяти. Это снижает энергопотребление и повышает производительность для задач, доминируемых операциями с памятью — как большинство ИИ-инференсов.
Можно ли использовать ускорители d-Matrix в России?
На 2025 год d-Matrix не поставляет оборудование напрямую в РФ, но её архитектура может быть интегрирована в локальные решения через партнёров или в рамках open-source инициатив. Кроме того, принципы DIMC вдохновляют разработку отечественных ИИ-ускорителей.
Чем Raptor отличается от Corsair?
Corsair использует SRAM для хранения моделей, Raptor — 3D-стекированную DRAM. Это позволяет Raptor поддерживать модели значительно большего размера при сохранении высокой скорости доступа. Кроме того, Raptor использует более мощный RISC-V процессор AX46MPV для управления рабочими нагрузками.
Контакты для консультации по ИИ-инфраструктуре
Если вы планируете развёртывание ИИ-кластера или модернизацию серверной инфраструктуры, команда Server360.ru готова помочь с подбором оборудования, расчётом TCO и тестированием прототипов. Свяжитесь с нами через форму обратной связи или напрямую по указанным контактам.
Технологии d-Matrix — это не просто новый чип, а смена парадигмы. Переход от «вычисляй и передавай» к «вычисляй там, где данные» открывает путь к устойчивому и масштабируемому ИИ будущего. И Россия может стать частью этого будущего — с правильной инфраструктурой и стратегическим подходом.
