ЦОД — это центр обработки данных (data center, datacenter). Специализированное здание или помещение, где размещают серверы, системы хранения данных, сетевое оборудование. Главная задача ЦОД — обеспечить бесперебойную работу IT-инфраструктуры компании.
Центр обработки данных — это не просто комната с серверами. Это сложная система из десятков инженерных подсистем: охлаждения, электропитания, пожаротушения, контроля доступа. Каждая подсистема должна работать круглосуточно без сбоев.
Что означает аббревиатура ЦОД и как её расшифровать
ЦОД расшифровывается как «центр обработки данных». В английском варианте — data center или datacenter. В строительной документации иногда встречается расшифровка «центр обработки данных» применительно к инженерным требованиям помещения.
Термин используют для обозначения трёх понятий:
- Физическое помещение с серверами и инфраструктурой
- Набор оборудования для обработки и хранения данных
- Услуга размещения IT-инфраструктуры (colocation)
Простыми словами, ЦОД — это защищённое помещение, где работают серверы компании или клиентов. Всё оборудование подключено к бесперебойному питанию, охлаждается специальными системами, защищено от пожара и несанкционированного доступа.
Назначение и функции центра обработки данных
Основное назначение ЦОД — обеспечить непрерывную работу IT-систем компании. Дата-центр выполняет несколько критических функций.
Обработка данных
Серверы в ЦОД обрабатывают запросы пользователей, выполняют вычисления, запускают бизнес-приложения. В центре обработки данных работают базы данных, ERP-системы, CRM, системы документооборота. Серверы обрабатывают тысячи запросов в секунду.
Хранение информации
В ЦОД размещают системы хранения данных (СХД). Массивы дисков хранят терабайты корпоративной информации: документы, базы клиентов, архивы электронной почты, резервные копии. Данные дублируются на нескольких носителях для защиты от потери.
Обеспечение доступа
Сетевое оборудование в дата-центре организует доступ пользователей к приложениям и данным. Коммутаторы, маршрутизаторы, сетевые карты и адаптеры обеспечивают передачу данных между серверами, к интернету, в филиалы компании.
Защита от сбоев
ЦОД создают, чтобы исключить простои IT-систем. В центре обработки данных резервируют все критические компоненты: блоки питания, сетевые подключения, системы охлаждения. При отказе одного компонента его функции автоматически берёт на себя резервный.
Типовое оборудование ЦОД
Инфраструктура дата-центра включает IT-оборудование и инженерные системы. Расскажем про основные компоненты.
IT-оборудование
Основа любого ЦОД — серверы. Их размещают в стандартных 19-дюймовых стойках (rack). Одна стойка вмещает от 10 до 40 серверов в зависимости от высоты устройств.
| Тип оборудования | Назначение в ЦОД | Типовая конфигурация |
|---|---|---|
| Rack-серверы | Обработка данных, хостинг приложений | 2-4 процессора, 64-512 ГБ RAM, дисковые массивы |
| Blade-серверы | Виртуализация, высокая плотность размещения | Шасси на 8-16 блейдов, общие блоки питания |
| Системы хранения | Централизованное хранение данных | От 10 ТБ до нескольких петабайт, RAID-массивы |
| Сетевое оборудование | Передача данных внутри ЦОД и во внешние сети | Коммутаторы 10/25/100 Гбит/с, маршрутизаторы |
| Системы резервного копирования | Защита данных от потери | Ленточные библиотеки, дисковые массивы для бэкапов |
Сервер в ЦОД работает в режиме 24/7. Поэтому к надёжности компонентов предъявляют повышенные требования. Серверные платформы комплектуют компонентами корпоративного класса с резервированием критических узлов.
Системы электропитания
Электропитание — критическая система ЦОД. Оборудование дата-центра потребляет от десятков до тысяч киловатт. Перебои в электроснабжении недопустимы.
Типовая схема питания ЦОД:
- Два независимых ввода электроэнергии от разных подстанций
- Источники бесперебойного питания (ИБП) на батареях — обеспечивают работу при пропадании основного питания
- Дизель-генераторы — запускаются автоматически, если перебой длится более 10-15 минут
- Системы распределения питания по стойкам — PDU с удалённым управлением
Блоки питания для серверов обычно устанавливают парами. При выходе из строя одного блока второй продолжает работу без прерывания.
Системы охлаждения
Серверы выделяют огромное количество тепла. Один стандартный rack может генерировать до 10-15 кВт тепловой мощности. Без охлаждения оборудование перегреется за несколько минут.
В ЦОД используют несколько типов охлаждения:
- Прецизионные кондиционеры — поддерживают температуру 18-27°C и влажность 40-60%
- Системы холодоснабжения — чиллеры, градирни для отвода тепла
- Фрикулинг — использование наружного воздуха для охлаждения в холодное время года
- Жидкостное охлаждение — для высоконагруженных серверов
Воздушные потоки в машинном зале организуют по схеме «горячий коридор / холодный коридор». Стойки расставляют так, чтобы холодный воздух подавался спереди серверов, а горячий отводился сзади. Системы охлаждения работают круглосуточно с резервированием.
Инженерная инфраструктура
Помимо IT-оборудования в ЦОД обязательны:
- Система пожаротушения — газовое или водяное тушение с автоматическим запуском
- Система контроля доступа — турникеты, биометрия, видеонаблюдение
- Система мониторинга — датчики температуры, влажности, задымления, протечек воды
- Система вентиляции — приточно-вытяжная вентиляция машинного зала
- Аварийное освещение — работает от ИБП при пропадании основного света
Устройство ЦОД: как организовано пространство
Типовой центр обработки данных состоит из нескольких функциональных зон.
Машинный зал
Основное помещение, где размещают серверные стойки. Фальшпол высотой 30-80 см для прокладки кабелей и подачи холодного воздуха снизу. Высота потолков — 3-4 метра для размещения кабельных лотков и систем пожаротушения.
Стойки расставляют рядами с образованием горячих и холодных коридоров. Ширина коридора — 1,2-1,5 метра для удобства обслуживания. В стойках монтируют серверы, СХД, сетевое оборудование, патч-панели.
Помещения инженерных систем
Отдельные комнаты для размещения:
- ИБП и аккумуляторных батарей
- Распределительных щитов электропитания
- Прецизионных кондиционеров и чиллеров
- Систем мониторинга и управления
Дизель-генераторы обычно размещают снаружи здания на отдельной площадке.
Зона приёмки и ремонта
Помещение для распаковки нового оборудования, предварительной настройки серверов, ремонта вышедших из строя компонентов. Здесь хранят запасные части, инструменты, тестовые стенды.
Операторская и серверная администрирования
Комната для персонала ЦОД. Рабочие места операторов с мониторами систем мониторинга. Отсюда ведут наблюдение за состоянием оборудования, реагируют на инциденты, выполняют плановые работы.
Требования к помещению центра обработки данных
Строительство ЦОД регламентировано стандартами TIA-942, ГОСТ Р 56542. Основные требования:
| Параметр | Требование | Для чего нужно |
|---|---|---|
| Нагрузка на пол | От 800 кг/м² до 1500 кг/м² | Выдержать вес серверных стоек и оборудования |
| Энергоснабжение | Минимум два независимых ввода | Резервирование при аварии на одной подстанции |
| Температура | 18-27°C круглый год | Предотвратить перегрев серверов |
| Влажность | 40-60% | Исключить статическое электричество и коррозию |
| Огнестойкость стен | REI 45-90 минут | Локализовать пожар, защитить данные |
| Высота помещения | Не менее 3 метров от пола до потолка | Разместить кабельные системы, вентиляцию, пожаротушение |
Помещение должно быть защищено от затопления, вибрации, электромагнитных помех. Стены, пол и потолок изолируют от проникновения пыли и влаги.
Для чего компании строят собственные ЦОД
Дата-центр нужен, когда объём IT-систем компании превышает возможности обычного серверного помещения. Решение о строительстве ЦОД принимают в нескольких случаях.
Критичность данных
Банки, телекомы, госструктуры не могут размещать данные у сторонних провайдеров по требованиям безопасности и регуляторов. Собственный ЦОД даёт полный контроль над инфраструктурой.
Большой объём оборудования
Когда серверов больше 50-100 единиц, аренда площадей в коммерческом ЦОД становится дороже строительства собственного. Окупаемость собственного центра обработки данных — 3-5 лет.
Специфические требования
Некоторым компаниям нужны нестандартные условия: повышенная мощность охлаждения для GPU-серверов, особые требования к задержкам сети для HFT-торговли, физическая изоляция контуров для разных уровней секретности.
Географическая распределённость
Крупные компании строят несколько ЦОД в разных регионах. Это снижает задержки доступа для пользователей, обеспечивает катастрофоустойчивость при региональных авариях.
Уровни надёжности центров обработки данных
Стандарт TIA-942 определяет четыре уровня надёжности ЦОД (Tier I-IV). Уровень показывает, насколько инфраструктура защищена от сбоев.
Tier I — базовый уровень
Одиночные системы электропитания и охлаждения без резервирования. Допустимое время простоя — до 28,8 часов в год. Плановые работы требуют полной остановки ЦОД. Подходит для небольших компаний с некритичными приложениями.
Tier II — с резервными компонентами
Частичное резервирование: два ввода электроэнергии, резервные ИБП и генераторы, дополнительные кондиционеры. Допустимый простой — до 22 часов в год. Плановые работы всё ещё требуют остановки.
Tier III — с возможностью обслуживания без остановки
Множественные независимые пути электропитания и охлаждения. Можно обслуживать любой компонент без выключения серверов. Допустимый простой — до 1,6 часов в год. Большинство коммерческих ЦОД в России — именно этого уровня.
Tier IV — отказоустойчивый
Полное резервирование всех систем по схеме 2N (два независимых комплекта оборудования). При выходе из строя любого компонента его функции автоматически берёт резервный. Допустимый простой — до 0,4 часов в год (менее 26 минут). Используют банки, телекомы, критичные госсистемы.
Выбор уровня зависит от критичности приложений и бюджета. Строительство ЦОД уровня Tier IV стоит в 2-3 раза дороже Tier II при той же вычислительной мощности.
Системы мониторинга и управления ЦОД
Центр обработки данных невозможно эксплуатировать без автоматизированных систем контроля. DCIM-системы (Data Center Infrastructure Management) собирают данные со всех подсистем:
- Температура и влажность в каждой стойке
- Нагрузка на цепи электропитания
- Состояние ИБП и генераторов
- Работоспособность серверов и сетевого оборудования
- События систем пожаротушения и контроля доступа
- Потребление электроэнергии и эффективность охлаждения (PUE)
При отклонении параметров от нормы система отправляет уведомления операторам, автоматически запускает резервное оборудование, включает аварийное охлаждение.
Современные DCIM строят 3D-модель ЦОД с расположением каждого сервера. Можно кликнуть на стойку и увидеть список оборудования, температуру, нагрузку по питанию, историю инцидентов.
Энергоэффективность дата-центров
ЦОД потребляют огромное количество электроэнергии. Серверы нагружают сеть круглосуточно, системы охлаждения работают постоянно. Затраты на электричество — одна из главных статей расходов при эксплуатации центра обработки данных.
Энергоэффективность ЦОД измеряют показателем PUE (Power Usage Effectiveness). Формула: PUE = общее энергопотребление ЦОД / энергопотребление IT-оборудования. Идеальное значение — 1,0 (вся энергия идёт на серверы). Реальные значения:
- PUE 2,0-2,5 — устаревшие ЦОД без оптимизации
- PUE 1,5-1,8 — типовые современные дата-центры
- PUE 1,2-1,4 — энергоэффективные ЦОД с передовыми технологиями
Методы снижения PUE:
- Использование фрикулинга — бесплатного охлаждения наружным воздухом
- Применение энергоэффективных серверов и СХД
- Повышение температуры в машинном зале с 18°C до 24-27°C
- Виртуализация — уменьшение количества физических серверов
- Модульная архитектура ЦОД — включение мощностей по мере роста нагрузки
Снижение PUE на 0,1 экономит сотни тысяч рублей в год на электроэнергии для среднего ЦОД.
Тенденции развития центров обработки данных
Индустрия ЦОД активно меняется. Появляются новые технологии и подходы к построению инфраструктуры.
Модульные и контейнерные ЦОД
Вместо строительства капитального здания используют готовые модули в транспортных контейнерах. Внутри — стойки с серверами, системы охлаждения и питания. Преимущества: быстрое развёртывание (недели вместо месяцев), мобильность, масштабируемость.
Edge-дата-центры
Небольшие ЦОД размещают близко к пользователям — в районах города, торговых центрах, на производствах. Это снижает задержки доступа, критично для IoT, онлайн-игр, видеостриминга. Edge-ЦОД часто работают без постоянного персонала, управление ведётся удалённо.
Жидкостное охлаждение
Вместо воздушного охлаждения серверы погружают в диэлектрическую жидкость или пропускают жидкость через специальные радиаторы. Эффективность теплоотвода в десятки раз выше. Технология позволяет разместить в стойке в 3-5 раз больше серверов, снизить энергопотребление на охлаждение.
Искусственный интеллект в управлении
ИИ анализирует миллионы параметров работы ЦОД и оптимизирует режимы охлаждения, распределение нагрузки, планирование обслуживания. Google снизил затраты на охлаждение своих дата-центров на 40% с помощью алгоритмов машинного обучения.
Использование возобновляемой энергии
Крупные операторы ЦОД переходят на солнечные и ветровые электростанции. Это снижает углеродный след, уменьшает зависимость от тарифов на электроэнергию. Некоторые гипермасштабные дата-центры уже работают на 100% возобновляемой энергии.
Как выбрать оборудование для центра обработки данных
Построить ЦОД под ключ — сложный проект, требующий экспертизы в IT и инженерии. При выборе оборудования учитывают несколько факторов.
Планируемая нагрузка
Сколько виртуальных машин будет работать, какой объём данных хранить, какая пропускная способность сети нужна. От этого зависит количество серверов, объём систем хранения, производительность сетевого оборудования.
Требования к отказоустойчивости
Допустимое время простоя определяет уровень резервирования. Для критичных систем выбирают серверы с горячей заменой всех компонентов, дублирование сетевых подключений, резервные площадки.
Масштабируемость
ЦОД проектируют с запасом на 3-5 лет роста. Серверные платформы выбирают с возможностью апгрейда процессоров и памяти. Стойки заполняют на 60-70%, оставляя место под новое оборудование.
Совместимость и стандартизация
Использование оборудования одного-двух вендоров упрощает обслуживание, снижает затраты на обучение персонала, облегчает закупку запчастей. Стандартные форм-факторы (rack 1U/2U/4U) обеспечивают взаимозаменяемость.
Подобрать серверы и комплектующие под задачи ЦОД поможет конфигуратор серверов. Можно выбрать процессоры, память, дисковые массивы, сетевые адаптеры под конкретные сценарии использования.
Частые вопросы о центрах обработки данных
Чем ЦОД отличается от обычной серверной?
Серверная — это комната с несколькими серверами и базовой инфраструктурой. ЦОД — это комплекс с сотнями серверов, многоуровневым резервированием электропитания и охлаждения, системами мониторинга и безопасности. В серверной допустимы кратковременные простои для обслуживания, в ЦОД работы проводят без остановки оборудования.
Сколько стоит построить собственный ЦОД?
Стоимость зависит от уровня надёжности и масштаба. Небольшой ЦОД уровня Tier II на 50 стоек — от 100-150 млн рублей. Коммерческий центр обработки данных Tier III на 500+ стоек — от 1-2 млрд рублей. В расчёт включают строительство помещения, инженерные системы, IT-оборудование, системы безопасности и мониторинга.
Можно ли разместить серверы в арендованном ЦОД вместо строительства собственного?
Да, это называется colocation (колокация). Вы арендуете стойки в коммерческом дата-центре, устанавливаете своё оборудование, а провайдер ЦОД обеспечивает электропитание, охлаждение, интернет-каналы, физическую безопасность. Для большинства компаний colocation выгоднее строительства собственного центра обработки данных.
Какой срок службы оборудования в ЦОД?
Серверы обычно меняют через 3-5 лет эксплуатации. За это время они морально устаревают, растёт риск отказов, новые модели дают в 2-3 раза больше производительности на ватт. Инженерные системы (ИБП, кондиционеры, генераторы) служат 10-15 лет. Стойки, кабельные системы, системы пожаротушения — 15-20 лет.
Нужны ли в ЦОД люди или всё автоматизировано?
В крупных центрах обработки данных работают десятки специалистов: системные администраторы, инженеры электропитания и охлаждения, специалисты по безопасности, сетевые инженеры. Они контролируют работу систем, проводят обслуживание, реагируют на инциденты. В небольших edge-ЦОД и модульных дата-центрах персонал может быть удалённым — управление ведётся через системы DCIM.
