Руслан Заединов: оптимизация капитальных и эксплуатационных затрат в дата-центрах сопряжена с выявлением источников необоснованных потерь электроэнергии

11:15 14.06.2011   |   2705 |  Алексей Есауленко |  Computerworld Россия

Рубрика Индустрия



Понятия «ЦОД» и «высокие затраты» фактически стали синонимами, поэтому одной из наиболее актуальных тенденций в ИТ является оптимизация инфраструктуры центров обработки данных. С таким тезисом выступил на открытии форума «Мир ЦОД 2011» Руслан Заединов, заместитель генерального директора компании "Крок".

Руслан Заединов: "Эволюция ЦОД не обязательно означает, что они становятся лучше»
Руслан Заединов: "Эволюция ЦОД не обязательно означает, что они становятся лучше»

Понятия «ЦОД» и «высокие затраты» фактически стали синонимами, поэтому одной из наиболее актуальных тенденций в ИТ является оптимизация инфраструктуры центров обработки данных. С таким тезисом выступил на открытии форума «Мир ЦОД 2011» Руслан Заединов, заместитель генерального директора, руководитель направления ЦОД компании «Крок». Он привел примеры успешного использования новых энергоэффективных решений в области динамического электропитания и свободного охлаждения помещений дата-центров внешним воздухом. Об этих и других новаторских подходах к построению вычислительных комплексов докладчик рассказал еженедельнику Computerworld Россия.

Ваш призыв к оптимизации капитальных и эксплуатационных затрат, без сомнения, был поддержан всеми участниками конференции. Но как наверняка определить источники необоснованных потерь в ЦОД?

Главным индикатором является PUE (Power Usage Effectiveness) – эффективность использования электроэнергии, то есть соотношение всей энергии, потребляемой в ЦОД, и той полезной части электроэнергии, которая доходит до ИТ-оборудования – серверов, систем хранения и телекоммуникационных устройств. В большинстве ЦОД этот коэффициент почти равен двум. То есть только половина электроэнергии, приходящей в ЦОД, доходит до целевых потребителей. Подсчитать показатель PUE не так-то просто, поскольку он меняется со временем и зависит от уровня загруженности центра. Чем полнее используются вычислительные ресурсы, тем PUE будет ниже. Также этот показатель зависит от времени года: зимой он будет скорее ближе к единице – за счет снижения нагрузки на системы кондиционирования. Величина PUE определяется и наличием отработанных практик эксплуатации – аккуратного распределения «горячих» и «холодных» зон и т. п. Поэтому корректное значение PUE можно получить лишь по результатам регулярных измерений в течение длительного периода, например года. Тогда вы получите более достоверное число. Как только вы его рассчитали, у вас есть ориентир – метрика, за которую затем стоит бороться.

А как бороться?

Соотношение между типовыми потерями электроэнергии в принципе известно. Половина потребляемой в ЦОД энергии уходит на "обогрев пространства": примерно 30% приходится на систему охлаждения (если она построена традиционным образом); порядка 10% теряется в системе бесперебойного питания; еще какие-то единицы процентов теряются в кабельной инфраструктуре и сопутствующих системах, которые сложно оптимизировать – оборудовании контроля доступа, видеонаблюдении и пр. Нетрудно понять, с чем нужно бороться в первую очередь – с неэффективной системой охлаждения. Именно поэтому в своем выступлениии я привел два примера оптимизации энергозатрат, в которых применены схемы свободного охлаждения наружным воздухом. Напомню, компания Facebook обнародовала недавно спецификации своего ЦОД, построенного в штате Орегон. Оказалось, что в нем полностью отсутствует система активного охлаждения и кондиционирование происходит в свободном режиме за счет специальных воздуховодов (увлажнение и пылевые фильтры там все же используются). Применение подобной схемы позволило компании сократить удельное энергопотребление на 38% по сравнению с дата-центрами, которые Facebook арендовала прежде. Примерно тем же путем пошла и компания Yahoo, построив свой дата-центр буквально по образу и подобию курятника.

Но приведенные примеры относятся к новым ЦОД. А как быть владельцам центров, построенных пять или десять лет назад?

Тема, которая действительно волнует всех. На этот счет есть несколько практических рекомендаций. И самое интересное, что не все они относятся к инженерным системам. К примеру, нужно помнить, что на энергоэффективность ЦОД сильно влияет разность температур на входе и на выходе вычислительного оборудования. Эта температурная дельта используется при проектировании инфраструктуры ЦОД. В старые добрые времена все производители ИТ-оборудования говорили: «Нам нужно на входе похолоднее – желательно 18 гр.». И все центры обработки данных настроили свои системы охлаждения на то, чтобы в стойку подавался воздух именно с такой температурой. Но сейчас все без исключения производители уже перешли на диапазон температур от 25 до 30 гр. на входе. На выходе из серверов также допускается температура более 30 гр.. Это означает, что поставщики ИТ-систем мотивируют владельцев ЦОД сокращать температурную дельту на входе и выходе из сервера, что естественно ведет к сокращению затрат на кондиционирование. Поэтому избавление от старого ИТ-оборудования, требующего избыточных энергозатрат на охлаждение, а также простая перенастройка существующих климатических систем могут привести к значительной оптимизации эксплуатационных затрат в ЦОДе. Приобретение новых серверов и систем хранения может сделать дата-центр на десяток процентов эффективнее. Другой способ – физическая изоляция горячих и холодных коридоров, чтобы исключить воздухообмен между ними. Свободный воздухообмен в помещении ЦОД – второе зло, с которым нужно бороться. Между тем изолировать разные части помещения очень просто – достаточно установить пластиковые конструкции. Они будут стоить очень недорого, но принесут ощутимый эффект.

А как быть с системами электропитания? Как сократить потери в ИБП?

Здесь все сложнее. Известны разные способы сокращения потерь, но нельзя сказать, что они универсальны. Все зависит от конкретной ситуации. Что, например, делают телекоммуникационные операторы? Они стараются переходить на постоянный ток, сокращая таким образом число преобразований электричества в ИБП. Так можно добиться сокращения энергопотерь хотя бы на единицы процентов. Однако за год экономия исчисляется внушительными суммами. А кто-то по-настоящему задумывается о модернизации системы электропитания и переходе на более эффективные системы ИБП. Мы, например, вместо статических ИБП установили в одном из своих ЦОД четыре динамических дизельных ИБП. Правда, процесс модернизации очень сложен, ведь перестройка затрагивает физическую основу вычислительного комплекса и сопряжена с длительными приостановками его работы. Вывод: лучше заранее предусмотреть использование наиболее эффективных энергетических систем. Реконструировать их гораздо сложнее, чем системы кондиционирования.

"Крок", с одной стороны, является интегратором в крупных проектах строительства ЦОД, а с другой — владеет собственными дата-центрами. Идентичны ли подходы, которые компания использует, строя ЦОД для себя и для заказчиков?

Вполне идентичны. Правда, динамические дизельные ИБП мы пока решили испробовать на себе и еще не поставляли подобных систем заказчикам. А наиболее ярким свидетельством идентичности подходов является построенный нами дата-центр компании «МегаФон» в Самаре. Проекты этого центра и нашего ЦОД на площадке завода «Компрессор» мы сертифицировали на соответствие Tier III в Uptime Institute. Это проделала одна и та же наша команда. В технических деталях разница есть, но подходы в целом одинаковые.

Как развиваются технологии строительства ЦОДов – постепенно эволюционируют или здесь можно выделить какие-то важнейшие этапы?

Условно можно выделить четыре поколения. ЦОД первой волны просуществовали с конца 60-х по 80-е годы и строились под большие ЭВМ.Они проектировались фактически без всякого резервирования, и, если что-то ломалось, останавливалась вся система; возможно, только у военных было иначе. В каком-то смысле такие дата-центры соответствуют современному понятию Tier I. За последние годы в мире были построены ЦОД второго поколения, которые сейчас и приходится модернизировать, делая их более эффективными. По своей архитектуре они приближаются к уровню Tier II. Такие центры могут быть хорошо или плохо зарезервированы, но главное в том, что они обеспечивают работу ИТ-систем в режиме онлайн и резервирование в них обеспечивается за счет неэффективного использования электроэнергии. Третье поколение дата-центров строится сейчас. Не знаю, станут ли они более отказоустойчивыми, но с точки зрения энергоэффективности они превзойдут своих предшественников. Просто потому, что все поставлены в одинаковые рамки – приходится умещаться в те мегаватты, которые нам отпущены.

Какой будет четвертая волна?

Эволюция ЦОД не обязательно означает, что они становятся лучше. Дата-центры четвертой волны в определенном смысле будут хуже: произойдет скатывание с Tier III к Tier II. Поясню: вначале мы шли от нерезервированных ЦОД к резервированным, затем — к резервированным энергоэффективным. Почему? Потому что корпорации стремятся консолидировать свои ИТ-активы — запаковать их в ЦОД. И соответствие Tier III ассоциируется у бизнеса с обеспечением непрерывности работы ИТ-систем. Однако они еще не стали отказоустойчивыми. Прогресс же заключается в том, что ИТ-системы будут переработаны так, что сами себя зарезервируют несколько тысяч раз, и даже выключение ЦОД не приостановит их работы. Дата-центры четвертой волны будут дешевыми и почти не отказоустойчивыми; полностью от резервирования не откажутся. Только отказоустойчивость в них будет обеспечивается средствами ИТ и коммуникаций – ЦОД станут сетевыми, за счет этого и понизятся требования к их надежности.

Одна из современных тенденций в области строительства ЦОД состоит в унификации их компонентов, применении модульной архитектуры. Есть ли у этой концепции отрицательные стороны?

Унификация строительных конструкций и инженерных систем ЦОД не может происходить без унификации ИТ-систем. Возьмите любой из представленных на рынке контейнерных дата-центров любой марки и попытайтесь в него поставить какой-нибудь высокопроизводительный сервер старшего класса. Ничего не получится. Он просто по механическим характеристикам несовместим с контейнерными конструкциями. А корпоративный сектор от использования высокопроизводительных систем отказаться не может – ему необходимо обеспечить работу «тяжелых» приложений. Вот Google и Microsoft, строя свои контейнерные кластеры ЦОД, опираются на серверы стандартной архитектуры и решают задачи соответствующего масштаба. В случае выхода из строя одного из контейнеров эти компании попросту заменяют его другим. При таком подходе модульные системы эффективны и оправданны. Если же речь идет о единичном применении, то скорее нет. Мы прорабатывали эту тему, но за последние три года ни одного контейнера в России не поставили. Как раз потому, что масштаб задач у наших заказчиков таков, что он решаем посредством одного контейнера, а его покупка в большинстве случаев не оправдывает себя. В частности, в России невозможно поставить контейнер просто так, под открытым небом. Придется построить для него фундамент, легкую конструкцию для защиты от пыли и климатических воздействий, обеспечить дополнительное помещение для администраторов. Ради одного контейнерного ЦОД затевать такое строительство никто не будет. Имеет смысл заниматься этим, только если у вас десяток контейнеров.


Теги: Читайте больше Мир ЦОД