Сколько потребляет серверная
Перейти к содержимому

Сколько потребляет серверная

5-10-15… Сколько киловатт на стойку нужно в ЦОДе?

Спор о том, какую энергомощность подавать в стойку, начался с появлением первого ЦОДа, и до сих пор однозначного решения нет.

Андрей ПАВЛОВ, генеральный директор компании «ДатаДом»Попробуем разобраться в сути проблемы. Во-первых, определимся, у кого ответ на вопрос «сколько вешать в граммах» может вызвать затруднения. По опыту можно сказать, что заказчики корпоративных ЦОДов с той или иной долей уверенности могут определить свою потребность в мощности на основании собственной же статистики и прогнозов развития вычислительной инфраструктуры предприятия. В данном случае вопрос скорее в выбранной ИТ-стратегии, в параметрах помещения под ЦОД и тенденциях производства вычислительной техники.

Сложнее ситуация с операторами коммерческих дата-центров. Как угадать, что потребует рынок через год, два, четыре? На наш взгляд, есть простой алгоритм выбора решения. В условиях конкуренции и рыночных отношений покупатель голосует рублем. При размещении оборудования в аутсорсинговом ЦОДе для заказчика в большинстве случаев нет разницы, будет ли размещено 20 кВт его вычислительной техники в одной стойке или в четырех, стоящих рядом. На практике с точки зрения топологии размещения вычислительной техники в ЦОДе «не все равно» бывает только в случае таких систем, как суперкомпьютеры и кластеры, связность которых имеет первостепенное значение, и телекоммуникационные решения, трассы которых имеют определенную, зачастую ограниченную длину. Исходя из этого предположения, необходимо просто посчитать все капитальные и операционные затраты на одну стойку (исключая энергетику) и определить, по какой цене оператор коммерческого ЦОДа сможет предложить свои услуги клиенту в том или ином случае.

Возможны варианты

Разберем три потенциальных варианта дата-центра:

1) с классической технологией «холодных» и «горячих» коридоров с допустимой нагрузкой 5 кВт на стойку и раздачей воздуха из-под фальш-пола (рис. 1);

2) с аналогичной технологией «горячих» и «холодных» коридоров, но с закрытым «холодным» коридором, с межрядными кондиционерами и допустимой нагрузкой 10 кВт на стойку (рис. 2);

3) с закрытыми водоохлаждаемыми стойками и допустимой нагрузкой 20 кВт на стойку (рис. 3).

Для приведения этих вариантов к единому знаменателю условимся, что мы рассматриваем ЦОД на 1000 кВт общего бесперебойного энергопотребления. Исходя из полученных данных, мы сможем для каждого варианта посчитать удельную стоимость строительства одной стойки и удельную стоимость владения.

На приведенных планировках показаны активные и коммутационные стойки, а также внутренние блоки системы кондиционирования (в случае стоек 20 кВт внутренние блоки кондиционирования размещены в самой стойке). Мы не берем в расчет площади, занимаемые ИБП, дизель-генераторной установкой, ГРЩ и чиллерами, так как для всех трех случаев они будут примерно одинаковыми. Точно так же в расчете капитальных затрат на строительство при сравнении вариантов можно не учитывать стоимости данных инженерных систем, но мы все же приведем ориентировочную стоимость, исходя из средней удельной цены в 20 тыс. евро за одну стойку в ЦОДе.

Существенно будут различаться затраты на строительство для самих монтажных стоек, внутренних блоков системы кондиционирования, системы газового пожаротушения и фальшпола.

При расчете операционных затрат основное различие будет в стоимости аренды помещений. Фонд оплаты труда, цена электроэнергии и расходы на техническое обслуживание инженерных систем будут отличаться незначительно и не внесут весомый вклад в разницу в стоимости этих трех вариантов. Тем не менее в расчете мы сделаем некоторую поправку на б’ольшую эффективность систем с межрядным кондиционированием и водоохлаждаемыми стойками.

Для стоек 5 кВт при размере стойки 600×1000 мм (таково среднее значение для коммерческого ЦОДа) площадь помещения под размещение двухсот стоек составляет примерно 29,4×15,6 = 460 кв. м, а в пересчете на одно стойкоместо выходит около 2,3 кв. м. Это хорошо коррелирует с эмпирическими цифрами 2–2,5 кв. м на стойку (в зависимости от размера ЦОДа) при расчете по традиционной схеме холодоснабжения.

Для стоек 10 кВт путем аналогичных расчетов получаем площадь 2,8 кв. м под один монтажный шкаф. Для стоек 20 кВт под один монтажный шкаф требуется примерно 4,5 кв. м.

Беспристрастные цифры

Теперь приступим к расчетам. В примере 1 в зале расположено 15 кондиционеров, и если принять, что систему холодоснабжения мы строим по схеме N+1, то активных кондиционеров будет 14 штук, с мощностью 80 кВт явной холодопроизводительности. Таким образом, мы учитываем небольшой запас по холодоснабжению – около 10%. Также учтем в расчете 200 стоек габаритами 600×1000 мм и высотой 42U. Соответственно потребуется 460 кв. м фальшпола высотой примерно в 50 см.

В примере 2 в зале мы расположим 100 стоек габаритами 600×1000 мм и высотой 42U. Необходимо будет также смонтировать конструкции «холодных» коридоров и установить 30 межрядных кондиционеров полной холодопроизводительностью порядка 40 кВт, что соответствует приблизительно 36 кВт явной холодопроизводительности. И в данном случае у нас получается запас системы кондиционирования около 10%.

В третьем случае мы устанавливаем 50 водяных стоек, каждая из которых может снять с оборудования до 20 кВт тепла, а также четыре резервных шкафных кондиционера, отводящих тепловую энергию, которая выделяется водоохлаждаемыми стойками, и резервирующих ситуацию выхода из строя одной стойки при автоматическом раскрытии ее дверей.

Ориентировочные цены на перечисленное выше оборудование и монтаж приведены в табл. 1.

Данный расчет не претендует на статус абсолютной истины, но он четко отражает основную тенденцию – полная стоимость владения одной высоконагруженной стойкой больше стоимости владения традиционной стойкой 5 кВт пропорционально разнице в электрической нагрузке на них. Заказчику при выборе того или иного варианта необходимо провести детальный расчет всех возможностей в рамках конкретного проекта и на основании этого расчета принимать решение о стратегии развития.

А что на практике?

Опрос, проведенный среди московских игроков рынка ЦОДов, выявил, что в большинстве случаев клиенту достаточно 5–6 кВт на стойку, и даже если он хочет установить оборудование с большим энергопотреблением, фактически данное оборудование расходует не более 70% от заявленной мощности.

Реальные данные о количестве стоек с разным энергопотреблением, полученные у операторов ЦОДов, сопоставлены в табл. 2. Данные приведены с учетом достаточно плотной установки серверного оборудования в стойках – до 35 одноюнитовых серверов и установки блейд-серверов до четырех корзин в одну стойку.

Очевидно, что с развитием облачных вычислений и распространением виртуализации плотность энергопотребления стоек будет расти, но в данный момент стойки с энергопотреблением до 7 кВт являются самыми востребованными. К тому же 7 кВт – это граничное значение, максимум, который при нормальном функционировании оборудования можно снять с использованием традиционной схемы холодоснабжения.

Если же в коммерческом ЦОДе появляется клиент, желающий разместить высоконагруженную стойку, можно установить такую стойку в ряд менее нагруженных, что не слишком существенно повлияет на общий теплообмен ЦОДа, либо разделить данное оборудование на несколько частей, что, как видно из нашего расчета, с экономической точки зрения будет равноэффективно его установке в ЦОДе с возможностью большего среднего теплосъема с одной стойки.

Парадоксальный итог

Исходя из проделанных расчетов, можно однозначно сказать, что на сегодня вполне достаточно строить коммерческие ЦОДы с потреблением до 7 кВт на стойку, что позволит в 90% случаев разместить клиентское оборудование в одной стойке и при этом иметь возможность предоставлять клиентам с высоконагруженным оборудованием ценовую политику не хуже, чем в ЦОДах с теплосъемом на одну стойку в 20 кВт, при иных вариантах размещения данного оборудования.

Несомненно, на выбор того или иного решения в значительной степени влияют доступные для строительства ЦОДа площади. И если заказчик ограничен в площадях, вероятнее всего, имеет смысл повышать средний теплосъем со стойки, но тенденция развития вычислительной техники такова, что средние значения в 20 кВт на стойку могут быть достигнуты к тому времени, когда инженерное оборудование конкретного ЦОДа необходимо будет полностью менять.

Единственный негативный аспект ЦОДа с низким потреблением на одну стойку – в том, что при недостаточной наполняемости ЦОДа на этапе начальных продаж экономические параметры будут несколько хуже из-за простоя большего количества площадей, взятых в аренду.

Основные выводы таковы: выбирая между площадками под коммерческий ЦОД при определенном бюджете строительства, необходимо учитывать, что разница в экономической эффективности дата-центра с высоконагруженными и малонагруженными стойками может оказаться не столь большой, а вот спрос на стойки в 10–15–20 кВт еще недостаточно велик, чтобы делать на него ставку.

Сколько сожрет электричества сервер за месяц

Держу сервера в арендуемой квартире, соседняя на этаже. Электричество в квартирах в 2 раза дешевле чем в офисе. Сумма не маленькая даже в квартире получается.

(0) резервный БП не жрет энергию как основной. Сидит тихо и ждет команды на запуск.

(5)Есть разные схемы. Есть когда ждет, есть когда совместно работают.

Сервер на пределе, да и обычный комп не работает. HP обычно 30% усредненная нагрузка.

(0) «два блока питания по 880вт»

при чем тут мощность БП ?

Надо смотреть на потребляемую мощность системного блока. Если, к примеру, Системный потребляет 200вт, то к БП можно подсоединить 800/200 = 4 таких системных блока. Но БП при этом будет работать на пределе.

Не знаю, что на серверах, а мой ПК дома потребляет 100вт, и это при том, что мощность БП550вт..

Установи ПО от бесперебойника APC оно тебе посчитает.
Вот будет ли оно работать без своего песперебойника хз.

Статистика и ЦОД: откуда берутся 5 кВт на стойку и почему это немало

В новостях про запуск дата-центров вы обязательно встретите упоминание мощности в «киловаттах на стойку». За последний год наша объединенная команда DataLine и «Ростелеком-ЦОД» запустила 4 дата-центра, и мы каждый раз сталкивались с комментариями в соцсетях и вопросами в чатах:

Суть всех вопросов: «Почему средняя мощность 5 кВт на стойку? Как так, 21-й век, 21-й год, а цифра не меняется? Это слишком мало».

Суть всех вопросов: «Почему средняя мощность 5 кВт на стойку? Как так, 21-й век, 21-й год, а цифра не меняется? Это слишком мало».

Сегодня по порядку ответим: как мы считаем мощность на стойку, почему эта цифра не ограничивает заказчика, а наоборот, экономит его ресурсы. Объясню с точки зрения статистики и возьму пару наглядных аналогий из популярной книги «Статистика и котики» (очень классного пособия для обновления забытых знаний).

Представим, что у нас 10 котиков (а мы знаем примеры, когда и 100 котиков бывает). Самый маленький котик ест 1 кг корма, средний – 3, а самый крупный – вообще 10. Мы не покупаем каждому по 10, а подсчитываем общий расход корма на всех и планируем покупки из среднего значения. Так же, ну или почти так же – со стойками.

Как мы считаем киловатты на стойку и причем тут котики

Показатель средней мощности на стойку помогает провайдеру еще на этапе проектирования спланировать основные ресурсы: электричество, холод и место. В случае с котиками такие ресурсы тоже есть: корм, вода и туалет.

Этот вид планирования называют capacity management (можете так и передать своим пушистым). Мы уже рассказывали о нем раньше в другой статье. Напомню, что основной принцип такого планирования – электричество, холод и место в дата-центре должны заканчиваться одновременно. Мы не можем допустить использование какого-то ресурса вхолостую и потому следим, чтобы все расходовалось равномерно. С закупками для котов бывает похожая ситуация: оптимальнее покупать корм и наполнитель сразу, еще и скидку от зоомагазина получить.

Когда мы проектируем новый ЦОД, то сначала планируем самый неэластичный ресурс, который нельзя добавить потом. Чаще всего это место: у нас есть площадка определенного размера, на которой мы не можем разместить бесконечное число стоек. Выясняем площадь, расставляем на ней оборудование, потом планируем мощность для него. Иногда бывает и наоборот, но в этом контексте не так важно. В самом конце расставляем холод, с ним проще всего.

Так выглядит план на этом этапе: пока все стойки одинаковые.

Так выглядит план на этом этапе: пока все стойки одинаковые.

Чтобы подвести достаточно электричества к каждой запланированной стойке, нужно знать ее потребление. Возникает вопрос, как предсказать мощность стоек. Тут есть 2 варианта дата-центров:

Если это корпоративный ЦОД, то требования компании могут включать любое количество высоконагруженных стоек. Например, недавно мы спроектировали для заказчика зал со стойками более 15 кВт.

Если это коммерческий ЦОД с множеством независимых заказчиков, нужно оценить реальные потребности рынка.

Во втором случае нам помогает наша статистика. Вот уже 13 лет мы ежеминутно собираем данные по потреблению наших 5000 стоек.

График среднего потребления всех стоек DataLine за год.

График среднего потребления всех стоек DataLine за год.

В статистику входят компании из разных отраслей. У кого-то уходит 7 кВт на стойку, у кого-то – 3 кВт. Мы считаем среднее арифметическое по потреблению и смотрим динамику за последние годы. Сейчас в среднем получаем 4 кВт на стойку. Рост потребления с 2010 года составляет не больше 100 ватт на стойку в год. Так что для нового дата-центра мы закладываем небольшой запас и получаем те самые 5 кВт на стойку.

Знатоки статистики скажут, что среднее арифметическое – не единственный способ узнать центральную тенденцию. И будут правы. Среднее арифметическое не сработает, если у нас есть высоконагруженные стойки, которые существенно сдвинут среднее в свою сторону. Обратимся к таким случаям.

Как статистика учитывает исключения из правила

Основной контраргумент в споре про 5 киловатт примерно такой: «Если я поставлю в стойку 3 блейд-корзины, они будут потреблять существенно больше 5 кВт, и что тогда?» Давайте разбираться с точки зрения статистики и реальной практики.

Начну с теоретической статистики. «Прожорливые» стойки намного больше среднестатистической называют выбросом. Для статистики это выглядит так:

Чтобы среднестатистическая стойка отражала реальную ситуацию в машзале, из совокупности рекомендуют убирать 5–10 % экстремально больших и экстремально маленьких значений и считать усеченное среднее. Так в статистике очищают выборку от исключительных случаев.

Значит, при проектировании мы всегда должны учитывать долю нестандартных стоек у заказчиков. Сейчас кажется, что мы все чаще видим в наших дата-центрах оборудование для high-performance computing с потреблением в районе 25 кВт. Но, по сухой статистике, это все еще пара десятков серверов на зал: как раз вписываются в те самые 10 % выброса.

Допустим, у нас в машинном зале стоит 198 стоек со средним потреблением 5 кВт. Добавим пару стоек в 25 кВт и посчитаем среднее:

(1985+225)/200 = 5,2

5,2 кВт, совсем небольшая разница. Но если таких мощных стоек будет уже 10 (около 5 %), то среднее значение отклонится на целый киловатт:

(1985+1025)/208 =5,96

При этом типичная стойка в этом зале по-прежнему будет потреблять 5 кВт.

На практике эти подсчеты не означают, что мы не учитываем потребности заказчиков с нестандартными стойками. В прошлый раз мы уже показывали, что спокойно размещаем стойки на 8, 11, 15 кВт с соблюдением нескольких правил. Стараемся ставить их в такие места, где с охлаждением точно не будет проблем. Если же у заказчика много высоконагруженных стоек, выделяем для них особые ряды и залы с дополнительным охлаждением. В некоторых новых дата-центрах мы сразу проектируем отдельные залы со стойками повышенной мощности под особые запросы.

Что будет, если планировать стойки с большим запасом

Теперь посмотрим внимательнее на проектирование 3 ресурсов в дата-центре. Что будет на каждом этапе планирования, если мы решим сделать запас больше одного кВт на стойку?

Итак, мы начали проектировать ЦОД от здания: берем общую площадь, вычитаем место под офисную часть и вспомогательные помещения. Понимаем размер машинных залов и прикидываем количество стоек: с учетом всей инфраструктуры исходим из 6 кв. м на стойку. Получившиеся стойки умножаем на планируемую среднюю мощность. Допустим, берем на стойку 6 кВт.

Если мы строим ЦОД в столице, его емкость составит не меньше 1 000–2 000 стоек. Итого, 9 000 кВт вместо 7 500 для усредненных 1,5 тысяч стоек. Добавим к этому 30 % на тепло. Уже 11 700 кВт, а не 9 750. Смотрим, есть ли у нас столько подведенной мощности, или нужно «докинуть» электричества.

Дальше распределяем электричество по нескольким точкам отсечки на схеме электроснабжения:

Стандартная схема энергоснабжения дата-центров DataLine.

Стандартная схема энергоснабжения дата-центров DataLine.

Посмотрим на мощность самой стойки, которая определена PDU (справа). Дальше по схеме справа налево идет мощность зального щита ЩР. Затем следует мощность щита распределения от ИБП (ЩИБП). Дальше ИБП, и так доходим до ГРЩ. Каждое из этих устройств имеет свою мощность, необходимо распределять нашу нагрузку в этих пределах. Для стоек помощнее нам понадобятся дополнительные ИБП и вообще оборудование помощнее – это снова дополнительные расходы.

Затем разбираемся с холодом, самым управляемым ресурсом. Раз наши стойки потребляют и выделяют больше энергии, нужно поставить больше кондиционеров или сделать их более мощными.

Итого, каждый лишний киловатт приведет к дополнительным затратам на электричество, оборудование для электроснабжения и холодоснабжения. Вся «лишняя» стоимость по нескольким статьям размажется по всем стойкам нового дата-центра. Но цена за киловатт для заказчика растет не линейно. На каких-то масштабах каждый новый киловатт в 2 раза дороже предыдущего из-за дополнительных затрат на инфраструктуру. Стоимость инфраструктуры растет пропорционально росту мощности, эффекта масштаба здесь уже нет. Зачастую дешевле взять две стойки по 5 кВт, чем одну на 10 кВт.

Именно поэтому мы не рекомендуем брать стойки с запасом на будущее – экономически невыгодно не только проектировать «на вырост», но и брать стойки «на вырост».

Всегда ли заказчику нужно больше 5 кВт в стойке

Когда к нам приходит новый заказчик со стойками больше 5 кВт, наш дизайн-центр должен подготовить проект. Задача ответственного инженера – согласовать проект с точки зрения соответствия запросам заказчика. В идеальном сценарии заказчик берет свои требования из реальной статистики: «У меня на другой площадке работает точно такое же оборудование и оно потребляет те самые 7-8 заявленных киловатт». Но такое бывает нечасто. Чаще есть примерный список оборудования, которое будет установлено в дата-центре.

Нередко бывает, что в спецификации на серверное оборудование мощность считают по мощности блоков питания и затем закладывают запас 30 %. Получается, что нагрузку рассчитали «на бумаге». Но в реальности инженеры никогда не грузят свою систему на 100 %. Реальный коэффициент спроса с сервера будет максимум 80 %, так что искусственный запас будет лишним. Такие расчеты мы корректируем, обсуждаем и согласовываем с заказчиком.

Для понимания общей картины наши инженеры копают еще глубже и анализируют нагрузку с точки зрения задач системы. В сервере несколько потребителей электричества: процессор, память, диски, кулеры. Больше всего ресурсов требует CPU. Например, у сервера со средним потреблением 1–1,2 кВт на процессор уходит 800–900 Вт. При этом далеко не все нагрузки требуют максимальной утилизации процессора. Если мы говорим о среднестатистических задачах вроде файловых шар, почты, системы хранения данных, терминальных серверов или веб-серверов, то загрузка CPU составит 20–30 %. Серьезную нагрузку на процессор стоит планировать в случае баз данных: там мы легко можем дойти до 80–90 %.

Про 5 кВт с точки зрения ИТ мы говорили с моим коллегой Андреем Будреевым в нашем последнем выпуске подкаста «Разговоры из-под фальшпола». Заодно обсудили будущее процессоров с точки зрения экологии – заглядывайте на огонек и делитесь своими прогнозами.

Так что не бойтесь дополнительных вопросов от специалистов дата-центра. Мы помогаем заказчикам грамотно планировать нагрузку и за счет этого не только экономим деньги заказчиков, но и правильно распределяем свои ресурсы.

Энергоэффективность серверных помещений

Серверное оборудование — дорогостоящий элемент компьютерной системы, чаще всего работающий в режиме 365 дней в году, 24 часа в сутки. При этом серверы потребляют много электроэнергии. К тому же, надо обеспечить каждодневную бесперебойную работу серверов, и на это тоже нужна электроэнергия.

Проблема зашла так далеко, что в крупных городах России — Москве, Санкт-Петербурге — расширение деятельности крупных предприятий иногда ограничивается той электрической мощностью, которую энергоснабжающая организация может «выдать» на серверное хозяйство. Как сделать так, чтобы серверы в серверном помещении потребляли меньше электроэнергии — вот об этом и поговорим подробнее.

Термины и определения

Серверное помещение — это помещение, где размещается сложный инженерно-технический комплекс, состоящий из множества различных систем и устройств, работающих вместе и обеспечивающих хранение, обработку и передачу информации. Этот комплекс также включает инженерные системы и технические средства, необходимые для обеспечения правильной работы всего серверного и телекоммуникационного оборудования.

Компоненты серверного помещения:

  • Сервера и системы хранения данных. Сюда относятся различные компьютеры, которые применяются для обработки и хранения информации и данных. Системы хранения данных представляют собой программно-аппаратные средства, используемые для хранения больших объемов информации.
  • Телекоммуникационное оборудование. Обеспечивает подключение и передачу информации между устройствами — не только компьютерами, но и телефонными аппаратами, копировальной техникой и т.д., а также подключение к сети интернет через оператора связи.
  • Инженерные системы:
    • структурированная кабельная система, обеспечивающая связь телекоммуникационных и сетевых устройств ЦОД;
      система кондиционирования, которая поддерживает определенный уровень температуры и влажности в компьютерном помещении;
    • система пожаротушения, которая отвечает за пожарную безопасность;
    • система электроснабжения, обеспечивающая компьютерное оборудование требуемой электрической мощностью с заданным качеством электропитания;
    • система физической безопасности, в том числе система охраны, телевизионного видеонаблюдения, оповещения;
      и другие системы.
    • Система информационной безопасности. Сюда входит антивирусная защита, которая обеспечивает эффективную защиту от различных вирусов, спам–фильтр, который служит для фильтрации нежелательной информации, а также система защиты от вторжений, которая обеспечивает защиту от хакерских атак.

    Проектирование и планирование ЦОД регламентируется американским стандартом ANSI TIA/EIA-942 (TIA-942) «Telecommunications Infrastructure Standard for Data Center».

    Энергопотребление серверной комнаты

    По данным аналитического департамента компании АРС, структура потребления электроэнергии современного дата-центра выглядит следующим образом: системы охлаждения (чиллеры, прецизионные кондиционеры, системы вентиляции) потребляют 50 %, собственно компьютерное оборудование — 36 %, источники бесперебойного питания (ИБП) — 11 %, освещение, пожарная сигнализация — 3 %.

    Структура потребления электроэнергии датацентром

    Для оценки эффективности энергопотребления серверной комнаты применяется такой параметр как PUE (Power Usage Effectiveness) — показатель использования электроэнергии. PUE определяется как отношение суммарной потребляемой серверным помещением за год мощности к той ее части, которая расходуется на работу информационной инфраструктуры и служит наиболее полной интегральной характеристикой эффективности технологических и административных решений, принятых в серверном помещении. Хорошее значение показателя, к которому стремятся передовые разработчики — 1,3. То есть, PUE=1,3 означает, что 30% электроэнергии в год расходуется исключительно на поддержание работоспособности серверного помещения. Лучшие мировые дата-центры имеют приблизительно PUE=1,1. В России для большинства серверных помещений характерен, как правило, показатель PUE=2 или даже хуже. Это значит, что в «воздух» утекает ровно половина всей электроэнергии, расходуемой на работу серверного помещения.

    Лучшие крупнейшие дата-центры в России имеют PUE=1,5 и ставят своей задачей снизить этот показатель до значений 1,3.
    Достаточно часто энергопотребление серверной комнаты оценивают усреднено в расчете на стандартный телекоммуникационный шкаф типоразмера 19” (на «стойку»). Энергопотребление одной компьютерной стойки может варьироваться в зависимости от установленного оборудования от 2кВт до 40кВт.

    Даже если принять, что в небольшом серверном помещении установлено 2 маломощные «стойки» по 5кВт, — чистое энергопотребление стоек будет 10кВт. И при коэффициенте PUE=2 общее энергопотребление серверного помещения составит 20кВт.

    Где происходят потери электроэнергии в серверном помещении? Первый источник — потери на пути от поставщика энергии до вычислительной нагрузки. Как правило, они определяются потерями на трансформаторах, на источниках бесперебойного питания (ИБП) и в сети распределения электропитания. Обычно их доля невелика, однако для мощных мегаваттных дата-центров и единицы процентов в абсолютном денежном исчислении хорошо ощутимы. Например, многие относительно дешевые ИБП имеют КПД 85-87%. Это и значит, что 15-13% уже на этом этапе теряется безвозвратно. Современные «продвинутые» ИБП имеют КПД до 96%, что снижает потери энергопотребления до 4%.

    Вдумайтесь, 15% потерь на ИБП означает, что это тепло, которое ИБП отводит в воздух. И это избыточное тепло тоже куда-то надо отвести. Чем? Кондиционированием воздуха, в свою очередь. Но кондиционирование воздуха тоже энергоемкая задача.

    Однако серверное оборудование требует достаточно жестких климатических условий по эксплуатации для продолжительной бесперебойной работы. Согласно стандарту ASHRAE “Thermal Guidelines for Data Processing Enviroments” 2004 года, рекомендуемая температура 20-25°С при рекомендуемой относительной влажности 40-55%. Кроме того, стандартами нормируется скорость изменения температуры и влажности воздуха в серверном помещении. Скорость изменения температуры в серверном помещении не должна превышать 5° за 1 час. Изменение влажности не должно превышать 20% за 1 час.

    Современное серверное оборудование может работать и при более высоких температурах. Слабое место серверов и систем хранения данных — жесткие диски (хранители информации). При повышении температуры воздуха выше 30°С частота отказов жестких дисков лавинообразно нарастает. А вместе с отказом жесткого диска теряется и самое ценное, ради чего строится серверное помещение — информация.

    Разница температур воздуха на входе и выходе современного серверного оборудования может составлять 30°С, а в нагруженных режимах до 40°С. Это значит, что при температуре воздуха на входе в сервер 20°С на выходе будет 50°С. И этот уже горячий воздух снова поступает на вход серверного оборудования.

    Обеспечить в таких условиях необходимые климатические режимы в серверном помещении 24 часа в сутки, 365 дней в году непросто! Бытовые сплит-системы для этого не подходят. Система кондиционирования воздуха должна обеспечивать требуемые стандартами параметры вне зависимости от температуры окружающего воздуха. А ведь в Кировской области летом на улице может быть и +35°, а зимой и -35°.

    В таких условиях на систему кондиционирования воздуха приходится в среднем около 40% всей электроэнергии, потребляемой инженерным оборудованием серверного помещения. Способов снизить расходы на охлаждение воздуха серверной на сегодняшний день придумано много, есть среди них весьма экзотические — охлаждение морской/речной водой, адиабатная технология (испарение), технологии естественного охлаждения, использование отводимого тепла для отопления соседних зданий и т.д.

    Еще один способ снизить энергопотребление серверного помещения — эффективная загрузка серверного оборудования. Технология повышения загрузки серверного оборудования называется виртуализация. По статистике, установленное серверное оборудование, особенно старое, чаще всего загружено на 5-30%. При этом каждый сервер потребляет 500-1000Вт. Редкие серверы бывают загружены на 50-60%. А ведь каждый сервер при этом потребляет электроэнергию. Новые современные энергоэффективные серверы позволяют на одной аппаратной платформе запустить множество программных серверов и довести тем самым загрузку сервера до 70-80%. А старые серверы при этом утилизируются.

    Таким образом, в среднем по статистике, один новый энергоэффективный сервер, оснащенный технологией виртуализации, потребляющий 500 Вт, способен заменить 5 старых серверов, каждый из которых потребляет 1000Вт. Помимо экономии электроэнергии за счет снижения количества аппаратных серверов есть и другие преимущества — серверы занимают меньше места в стойках, меньшему количеству серверов требуется меньше мощности на охлаждение. Выгоды виртуализации столь очевидны, что это стало причиной победного шествия технологии виртуализации для всех серверных комнат.

    Совокупность мер по увеличению энергоэффективности существующих серверных помещений может т привести к суммарному снижению потребления серверного помещения в районе 5-10%. Если рассмотреть серверную с суммарным потреблением 400кВт, то экономия электричества в 20-40кВт/ч при нынешней стоимости электричества в течение года может составить составит 600 000-1 200 000 рублей.

    Сегодня проектировать энергоэффективные серверные помещения, используя современные энергосберегающие системы проще и выгоднее, чем это было, скажем, 5 лет назад. Исследования, проведенные экспертами компании Uptime Institute, показывают, что энергопотребление центров обработки данных может быть снижено на 50%, если в процессе проектирования использованы верные решения. По данным аналитического департамента компании АРС, резервы экономии электроэнергии кроются в следующих направлениях: до 40% — при использовании методов виртуализации серверных мощностей, до 15% — при выборе эффективной архитектуры кондиционирования помещения, до 12% — при правильной планировке фальшпола, до 10% — при выборе эффективного оборудования электропитания.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *