Случайны выбор дневника Раскрыть/свернуть полный список возможностей


Найдено 682 сообщений
Cообщения с меткой

цод - Самое интересное в блогах

Следующие 30  »
rss_rss_hh_new

ЦОД Шредингера

Четверг, 23 Марта 2017 г. 12:00 (ссылка)

image alt text



Впервые с модульными ЦОД я столкнулся в профессиональной юности: правда, тогда вместо красивого контейнера со всем жизнеобеспечением внутри была старая бытовка с парой стоек. Кто бы мог подумать, что неполный десяток лет спустя идея станет настолько популярной, что лидеры серверного рынка кинутся в срочном порядке оборудовать собственные технологичные трейлеры.



Предлагаю как следует разобраться в идее модульных и контейнерных ЦОД, и порассуждать на тему их применимости и реальной пользы.



Зачем датацентру контейнер



Обычно красивая реклама контейнерных решений начинается с чего-то вроде "если у вас извечная проблема с открытием типовых филиалов…." или “представьте, что вам срочно нужно перевезти дата-центр в другой город…”. В подобных случаях предлагают или каждый раз покупать аналогичную конфигурацию в контейнере, или вложиться в мобильный ЦОД в 20 или 40-футовом ISO-контейнере. Дальше можно перемещать его по мере необходимости.



Спрос на подобные решения возникает по ряду причин:




  • мобильность - для военных испытаний, полевых работ, проведения соревнований и прочих подобных активностей ЦОД должен быть на колесах и готовым к использованию практически сразу после установки;




  • масштабируемость - большинство ЦОД проектируется с возможностью роста как с шагом в несколько серверных стоек, так и установкой еще одного модуля-контейнера;




  • необходимость в легком переносе. При переезде на другую площадку контейнерный ЦОД относительно легко демонтируется и переносится;




  • скорость ввода в эксплуатацию - сроки перевода такого дата-центра в режим готовности составляют от пары месяцев до полугода, в отличие от капитального строительства внутри здания.



Но предложений на рынке много, поэтому разберемся в ключевых отличиях.



Модуль или контейнер



Часто понятия модульный, контейнерный и мобильный ЦОД представляются синонимами, но все же есть нюансы.



Модульный ЦОД похож на конструктор, где из готовых блоков и модулей собирается этакий Вольтрон Защитник Вселенной. Собирается он на базе ISO-контейнеров или легкосборных сэндвич-панелей. Встречаются и варианты из негабаритных контейнеров собственного производства.



Часто подобные ЦОД поставляются как набор отдельных модулей:




  • модуль ИТ или машинный зал – с серверными стойками. Например, у HPE POD в 40-футовый контейнер ставятся 22 стойки 50U, что позволяет разместить до 1100 одноюнитовых серверов. Также в этом модуле есть системы пожаротушения, распределители электроэнергии и воздуха;




  • модуль охлаждения - в бюджетных вариантах используются кондиционеры, а в более дорогих уже применяются чиллеры. В качестве энергоэффективного решения в странах с холодным климатом популярен фрикулинг;




  • модуль электропитания, в который устанавливаются ИБП, распределительные щиты, автоматические системы переключения, трансформаторы и т.д. Дизельные генераторы могут быть установлены в этот же модуль или вынесены отдельно;




  • иногда используется дополнительный модуль для других нужд: например, с рабочим местом дежурного и\или узлом управления.



Удобство решений на основе отдельных блоков в том, что можно заказать только необходимое. Например, при возникновении ситуации, когда в традиционном ЦОД не хватает запаса по электропитанию, на улице рядом с ним можно установить отдельный энергетический модуль.



image alt text



Модуль питания от Schneider Electric



В свою очередь, каждый из модулей укомплектовывается определенными компонентами, которые тоже состоят из модулей (почти как сон во сне во всем известном фильме). Например, модуль ИТ может содержать в себе стойки с блейд-серверами, а модуль электропитания – APC Symmetra.



Подобные решения предлагают не только вендоры, но и интеграторы, некоторые из которых могут даже самостоятельно разработать архитектуру и компоновку. Из вариантов "от вендора" интересны решения Huawei, в которых все оборудование - от сервера до кондиционера - от одного и того же производителя.



Надо отметить, что модульный ЦОД не обязательно находится в контейнере на улице – он может быть смонтирован и в помещении, как на картинке ниже:



image alt text



Модульный ЦОД от Huawei для помещений



Мобильный дата-центр напоминает рюкзак туриста или дом на колесах – все необходимое собрано в один, максимум в два контейнера. Это дает возможность перевозить его в собранном виде и вводить в эксплуатацию за считанные дни, а то и часы.



Чаще всего для удобства перевозки используются те же ISO-контейнеры. Изначально идея использовалась военными – именно такие ЦОД начали популяризировать контейнерные решения. Наиболее известным представителем является Sun Modular Datacenter (Project Blackbox):



image alt text



Мобильный ЦОД Sun Modular Datacenter



Но компания Sun давно превратилась в Oracle, а эксклюзивный черный ящик потеснили еще более захватывающие решения. Например, vmWare Express:



image alt text



Датацентр vmWare Express – стильный, модный и мобильный.



В России подобные решения редко встречаются – не иначе, как из-за плохих дорог. К сожалению, готового ЦОД на базе ГАЗ-66 мне найти не удалось, да и с появлением IaaS тягачи веселых расцветок потихоньку уходят в прошлое.



Если же говорить о контейнерном ЦОД, то это просто решение из ISO-контейнеров, под которым могут подразумеваться как модульные, так и мобильные варианты. Проще говоря, это тот же мобильный ЦОД, но без колес и тягачей.



К минусам можно отнести габариты 2,4 х 2,5 м. А необходимость утепления стен из-за климата делает невозможным монтаж стоек выше 42U. Также придется забыть о проводах под полом или над фальш-потолком. Есть и другие ограничения: например, по мощности – в среднем 500 кВт для энергетического и охлаждающего модуля, и около 250 кВт для машинного. Да и с теплоотводом могут возникнуть сложности.



В общем и целом, любой подобный ЦОД отличается от традиционного скоростью установки и, как правило, высокой плотностью размещения оборудования. Поскольку сборки уже протестированы, стоимость и скорость проектирования значительно ниже классических вариантов.



Помимо названий можно классифицировать дата-центры по категориям (Tier), но получить ЦОД можно любой категории у любого производителя – были бы деньги. Как правило, используются Tier II и III. Об отличиях Tier-ов можно написать отдельный трактат, поэтому сейчас не будем на этом останавливаться.

С 20- и 40-футовыми контейнерами все понятно, но из-за их минусов часто используется монтаж помещений из сэндвич-панелей. Например, так поставляются дата-центры НОТА от компании Utilex, где в контейнере содержится только все необходимое для сборки.



image alt text



Дата-центры HOTA – в комплекте все необходимое для сборки, как в конструкторе



Еще пример – решение от GreenMDC для размещения внутри ангара:



image alt text



Вариант дата-центра для ангаров



К сожалению, точной стоимости всех этих решений в открытом доступе нет – все считается по запросу. В 2015 году "Журнал сетевых решений/LAN" для обзора предложений на рынке сделал заказ на масштабируемый модульный ЦОД у нескольких подрядчиков. В итоге стоимость составила от 1,8 миллионов рублей за стойку.



Итого



Модульный дата-центр для монтажа снаружи или внутри здания выглядит довольно удобным решением. Другое дело, что для обычной коммерческой организации хватит серверной комнаты с парой бытовых кондиционеров, а то и вовсе инфраструктуры в облаке. А вот уже облачный провайдер может задействовать модульные или контейнерные ЦОД.



Если вам доводилось работать с модульными ЦОД – поделитесь опытом эксплуатации в комментариях.


Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/324628/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Когда ломается «облако»: что можно сделать в этой ситуации?

Пятница, 10 Марта 2017 г. 20:54 (ссылка)





Совсем недавно из-за проблем с сервисом Amazon S3 случился настоящий «облакалипсис». Сбой в работе стал причиной падения большого количества сайтов и сервисов тех компаний, кто является клиентом Amazon. Проблемы начались вечером 28 февраля, о чем можно было узнать из социальных сетей. Затем стали массово появляться сообщения о неработающих Quora, IFTTT, рассылок Sailthru, Business Insider, Giphy, Medium, Slack, Courser и т.п.



Сбоили не только сервисы и сайты, многие IoT устройства оказалось невозможно контролировать через интернет (в частности, из-за неработающего IFTTT). Самое интересное то, что до последнего момента статус Amazon S3 показывался, как нормальный. Но многие сотни, а то и тысячи компаний, чьи ресурсы были затронуты проблемой, осознали, что рано или поздно даже очень надежное «облако» может рухнуть, накрыв всех своими обломками. Можно ли что-то сделать в такой ситуации?



Специалисты по информационной безопасности говорят, что да. Каким образом? Это уже более сложный вопрос, на который можно дать сразу несколько ответов.



Способы, позволяющие избежать проблем со своими серверами в том случае, если облако, в котором они работают, падает, сильно отличаются от методов, используемых дата-центрами для повышения аптайма и «стрессоустойчивости» (например, дублирование различных систем). Для защиты своих сервисов и удаленных данных можно использовать копии, размещенные на виртуальных машинах в дата-центрах из различных регионов, а также использовать базу данных, которая охватывает несколько ЦОД.



Этот способ можно использовать и в рамках работы с одним провайдером, но более надежно использовать и услуги других облачных компаний, включая Microsoft Azure или Google Cloud Platform в дополнение к тому же AWS. Понятно, что это дороже, но здесь, как и в обычном случае, стоит подумать над тем, стоит ли овчинка выделки. Если да, например, сервис или сайт должен работать постоянно, то можно предпринять такие методы предосторожности. «Мультоблачная» архитектура, вот как это можно назвать.



Во многих случаях можно обезопасить себя, воспользовавшись услугами CDN провайдера вроде Cloudflare (кстати, вскоре мы открываем собственный CDN), сохраняющего копии важных данных, которые хранятся у других компаний.



После падения Amazon S3 те клиенты AWS, кто работал с Cloudflare, почти не испытывали проблем.







Напомним, что все начиналось с S3 в 2006 году. Первый публичный сервис, который Amazon запустил — именно облачное файловое хранилище. Виртуалки (EC2) появились заметно позже.



Вот еще один скриншот клиента Амазона — Российской ИТ компании. У них не работало 45 сервисов:







Данные можно хранить в грузовиках (тоже от Amazon), но и это не всегда является выходом



Мультиоблачная инфраструктура сейчас начинает использоваться все большим числом компаний, сервисы и сайты которых должны работать постоянно. Конечно, дублирование стоит денег, но в некоторых случаях убытки из-за простоя сервисов могут значительно превысить затраты на дублирование. Сейчас дублирование облачной информации и безопасность этих данных, защита их от взломщиков — вот две главных проблемы.



Аналитики заявляют о том, что ряд компаний сейчас уже не хотят оставаться в рамках одного облака одной компании, поэтому стараются продублировать свои системы в разных облаках. И этот тренд становится все более явным.



Кстати, мультиоблачность тоже не всегда панацея. К примеру, сейчас многие компании заявляют о том, что используют такую модель работы. Но, в то же время, разные облака могут использоваться для разных целей. Например, AWS для разработки и тестирования, а облако от Google — для развертывания сервиса и обеспечения его постоянной работы.



Еще один тренд, связанный с предыдущими — это появление все большего числа инструментов контейнерной оркестровки, вроде Docker, Kubernetes, и DC/OS от Mesosphere. Их тоже стоит опробовать в работе, с ними принцип мультиоблачной инфраструктуры организовать гораздо проще, чем в обычном случае.



Человеческий фактор



Это, как всегда, основная проблема. Именно человек стал причиной падения серверов Amazon, о чем компания призналась на своем сайте. Команда инженеров работала над отладкой системы биллинга, для чего ряд серверов нужно было перевести в автономный режим. Из-за опечатки в такой режим перевели гораздо больше серверов, чем требовалось изначально.







Это сложно назвать катастрофой, но вышла из строя целая система управления метаданных большого региона. Сейчас компания Amazon защитила свои серверы, добавив ряд настроек, исключающих ложное срабатывание команды отключения в случае опечатки.



Но кто знает, что нас ждет в будущем, на что еще может повлиять одна небольшая опечатка? И здесь мультиоблачность может показать себя с лучшей стороны, оставив сервисы и сайты компаний, которые заранее позаботились о своей безопасности, в рабочем состоянии.




Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/323660/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Факторы, на которые стоит обратить внимание при выборе энергооборудования для ЦОД

Среда, 08 Марта 2017 г. 19:41 (ссылка)





Такой фактор, как аптайм, играет критическую роль в сфере информационных технологий. Один из важнейших факторов, поддерживающих высокий аптайм — надежное оборудование, включая разного рода силовые системы. В идеале, в ЦОД должно стоять наиболее безопасное и эффективное оборудование из всего, что представлено на рынке.



Но проблема в том, что требования к дата-центрам часто меняются, так что не получится установить раз и на всегда определенный тип силовых и распределительных систем, и забыть об этом. Стоит предусмотреть возможность обновления оборудования такого типа. Это, в общем-то, ясно. Но как узнать, когда пришло время апгрейда и модернизации? Давайте попробуем разобраться.



Соответствуют ли возможности потребностям?



Первый вопрос, который стоит задать себе, задумываясь о модернизации силовых систем в ЦОД — это вопрос «Насколько текущее оборудование соответствует потребностям?».



Замена морально и физических устаревших систем — это, прежде всего, временные и финансовые затраты, поэтому важно тщательно оценить возможности установленного в настоящее время оборудования и предстоящие затраты. Грубо говоря, нужно подумать, стоит ли овчинка выделки. Часто руководство компании считает, что новое — это всегда лучше, и бесконечно модернизирует все и вся. В итоге такой апгрейд может вылиться в сплошные убытки, а выгоды будут просто мизерными. Если же решение все же положительное, то начать процесс нужно незамедлительно. Конечно, в случае, если есть соответствующие средства.



Тщательно подходить к анализу ситуации нужно потому, что в процессе оценки часто открываются новые преимущества (или, наоборот, недостатки) предстоящего обновления. Например, распределение энергии можно сделать более эффективным, места станет больше, плюс повысится производительность работы компании и ее доходы. Важный момент — нужно учитывать тенденции. Например, сейчас в энергетической инфраструктуре превалируют кабеля и кабелепроводы, но начинает набирать популярность шинопровод. Достоинства у последниех такие:




  • Относительная простота и скорость установки. Пробрасывание кабелей и установка кабелепроводов — трудоемкий процесс, который занимает продолжительнон время. Шинопровод же гораздо более простая и практичная технология, работу по установке могут выполнять сппециалисты начального уровня без экспертной оценки.

  • Снижение стоимости внедрения. Благодаря тому, что в этом процессе практически не нужны услуги дорогостоящих профессионалов (за некоторыми исключениями), затраты на установку шинопроводов ниже, чем в случае проброски кабелей и установки кабелепроводов.

  • Экономия пространства. Во многих дата-центрах свободное пространство -вечная проблема. Шинопроводы позволяют сэкономить свободное пространство, освободив место.

  • Возможность модернизациии. В этом случае проводить обновление энергетической инфраструктуры гораздо проще, чем с кабелями. Можно сменять лишь некоторые компоненты, оставляя остальную инфраструктуру нетронутой. Такая гибкость позволяет проводить минимальное вмешательство в работающую систему, чего обычно нельзя достичь при работе с проводной инфраструктурой.



Насколько быстро растет дата-центр?



Еще один важный вопрос, который стоит задать себе при замене энергетического оборудования. Сейчас, пытаясь соответствовать современным реалиям, дата-центры многих компаний постоянно наращивают мощности и увеличивают свою производительность. Для этого требуется новое оборудование, а значит, и обновленная энергетическая инфраструктура.



Если предполагается бурный рост, следует предусмотреть возможности для этого в самом начале, когда дата-центр только лишь проектируется. Крупные компании, кстати, так и делают.



ЦОД расширяется? Тогда стоит подумать о замене распределительных щитов на коммутаторы или даже низковольтное распределительное оборудование. В случае, если ЦОД достаточно крупный, можно использовать большой распределительный щит, фрейм или несколько щитов для установки устройств защиты от сверхтоков, шин и прочего оборудования. Такие решения обычно самые практичные.



Но в некоторых случаях требуется установить более сложные элементы, например, многофункциональные низковольтные щиты, что позволяет защищать, контролировать и вести мониторинг работы критичных систем. Низковольтное оборудование обеспечивает защиту соответствующего оборудования, включая трансформаторы, генераторы, моторы и т.п. Такое решение позволяет получить сотрудникам доступ к контрольным элементам системы в любое время.







А что с перебоями в энергоснабжении?



Один из самых важных вопросов — сможет ли ЦОД выдержать перебои в энергоснабжении. Такого рода проблемы случаются достаточно часто, так что об их решении нужно позаботиться заранее.



Особенно внимательно стоит отнестись к таким элементам инфраструктуры, как автоматические включатели резервов. Именно они отвечают за быстрое и безопасное переключение энергетических потоков, с нормального на аварийный. Не раз и не два случалось, когда ЦОД компании «отрубался» из-за того, что кто-то не проверил включатели. В итоге они не срабатывали во время отключений энергии должным образом и резервные системы не вводились в строй, хотя и были в полностью работоспособном состоянии.



Форматов и типов конфигураций включателей резервов очень много. Главное — знать, что они соответствуют потребностям компании.



Основных типов включателей два: это открытый и закрытый тип. Открытый включатель перед тем, как перейти на резервный канал энергии, отключает основной. Это сделано для того, чтобы ток не превысил нормальные значения.



Закрытые включатели устанавливают соединение с резервным каналом до того, как отключиться от основного.



Обо всем этом нужно помнить во время модернизации. Вроде бы капитанство, но часто проблемы случаются из-за отсутствия внимания к, казалось бы, само собой разумеющимся деталям. Если же обращать внимание на все подробности и детали инфраструктуры ЦОД, то оборудование будет работать исправно и без проблем, а показатель аптайма будет радовать и оператора ЦОД, и клиентов.



Кстати, если у вас возникали проблемы с энергооборудованием, расскажите об этом в комментариях, вместе с описанием решения. Всем нам будет интересно.




Original source: habrahabr.ru.

https://habrahabr.ru/post/323482/?utm_source=habrahabr&utm_medium=rss&utm_campaign=best

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Факторы, на которые стоит обратить внимание при выборе энергооборудования для ЦОД

Среда, 08 Марта 2017 г. 19:41 (ссылка)





Такой фактор, как аптайм, играет критическую роль в сфере информационных технологий. Один из важнейших факторов, поддерживающих высокий аптайм — надежное оборудование, включая разного рода силовые системы. В идеале, в ЦОД должно стоять наиболее безопасное и эффективное оборудование из всего, что представлено на рынке.



Но проблема в том, что требования к дата-центрам часто меняются, так что не получится установить раз и на всегда определенный тип силовых и распределительных систем, и забыть об этом. Стоит предусмотреть возможность обновления оборудования такого типа. Это, в общем-то, ясно. Но как узнать, когда пришло время апгрейда и модернизации? Давайте попробуем разобраться.



Соответствуют ли возможности потребностям?



Первый вопрос, который стоит задать себе, задумываясь о модернизации силовых систем в ЦОД — это вопрос «Насколько текущее оборудование соответствует потребностям?».



Замена морально и физических устаревших систем — это, прежде всего, временные и финансовые затраты, поэтому важно тщательно оценить возможности установленного в настоящее время оборудования и предстоящие затраты. Грубо говоря, нужно подумать, стоит ли овчинка выделки. Часто руководство компании считает, что новое — это всегда лучше, и бесконечно модернизирует все и вся. В итоге такой апгрейд может вылиться в сплошные убытки, а выгоды будут просто мизерными. Если же решение все же положительное, то начать процесс нужно незамедлительно. Конечно, в случае, если есть соответствующие средства.



Тщательно подходить к анализу ситуации нужно потому, что в процессе оценки часто открываются новые преимущества (или, наоборот, недостатки) предстоящего обновления. Например, распределение энергии можно сделать более эффективным, места станет больше, плюс повысится производительность работы компании и ее доходы. Важный момент — нужно учитывать тенденции. Например, сейчас в энергетической инфраструктуре превалируют кабеля и кабелепроводы, но начинает набирать популярность шинопровод. Достоинства у последниех такие:


  • Относительная простота и скорость установки. Пробрасывание кабелей и установка кабелепроводов — трудоемкий процесс, который занимает продолжительнон время. Шинопровод же гораздо более простая и практичная технология, работу по установке могут выполнять сппециалисты начального уровня без экспертной оценки.

  • Снижение стоимости внедрения. Благодаря тому, что в этом процессе практически не нужны услуги дорогостоящих профессионалов (за некоторыми исключениями), затраты на установку шинопроводов ниже, чем в случае проброски кабелей и установки кабелепроводов.

  • Экономия пространства. Во многих дата-центрах свободное пространство -вечная проблема. Шинопроводы позволяют сэкономить свободное пространство, освободив место.

  • Возможность модернизациии. В этом случае проводить обновление энергетической инфраструктуры гораздо проще, чем с кабелями. Можно сменять лишь некоторые компоненты, оставляя остальную инфраструктуру нетронутой. Такая гибкость позволяет проводить минимальное вмешательство в работающую систему, чего обычно нельзя достичь при работе с проводной инфраструктурой.



Насколько быстро растет дата-центр?



Еще один важный вопрос, который стоит задать себе при замене энергетического оборудования. Сейчас, пытаясь соответствовать современным реалиям, дата-центры многих компаний постоянно наращивают мощности и увеличивают свою производительность. Для этого требуется новое оборудование, а значит, и обновленная энергетическая инфраструктура.



Если предполагается бурный рост, следует предусмотреть возможности для этого в самом начале, когда дата-центр только лишь проектируется. Крупные компании, кстати, так и делают.



ЦОД расширяется? Тогда стоит подумать о замене распределительных щитов на коммутаторы или даже низковольтное распределительное оборудование. В случае, если ЦОД достаточно крупный, можно использовать большой распределительный щит, фрейм или несколько щитов для установки устройств защиты от сверхтоков, шин и прочего оборудования. Такие решения обычно самые практичные.



Но в некоторых случаях требуется установить более сложные элементы, например, многофункциональные низковольтные щиты, что позволяет защищать, контролировать и вести мониторинг работы критичных систем. Низковольтное оборудование обеспечивает защиту соответствующего оборудования, включая трансформаторы, генераторы, моторы и т.п. Такое решение позволяет получить сотрудникам доступ к контрольным элементам системы в любое время.







А что с перебоями в энергоснабжении?



Один из самых важных вопросов — сможет ли ЦОД выдержать перебои в энергоснабжении. Такого рода проблемы случаются достаточно часто, так что об их решении нужно позаботиться заранее.



Особенно внимательно стоит отнестись к таким элементам инфраструктуры, как автоматические включатели резервов. Именно они отвечают за быстрое и безопасное переключение энергетических потоков, с нормального на аварийный. Не раз и не два случалось, когда ЦОД компании «отрубался» из-за того, что кто-то не проверил включатели. В итоге они не срабатывали во время отключений энергии должным образом и резервные системы не вводились в строй, хотя и были в полностью работоспособном состоянии.



Форматов и типов конфигураций включателей резервов очень много. Главное — знать, что они соответствуют потребностям компании.



Основных типов включателей два: это открытый и закрытый тип. Открытый включатель перед тем, как перейти на резервный канал энергии, отключает основной. Это сделано для того, чтобы ток не превысил нормальные значения.



Закрытые включатели устанавливают соединение с резервным каналом до того, как отключиться от основного.



Обо всем этом нужно помнить во время модернизации. Вроде бы капитанство, но часто проблемы случаются из-за отсутствия внимания к, казалось бы, само собой разумеющимся деталям. Если же обращать внимание на все подробности и детали инфраструктуры ЦОД, то оборудование будет работать исправно и без проблем, а показатель аптайма будет радовать и оператора ЦОД, и клиентов.



Кстати, если у вас возникали проблемы с энергооборудованием, расскажите об этом в комментариях, вместе с описанием решения. Всем нам будет интересно.




Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/323482/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Обслуживание инженерных систем ЦОД: что должно быть в договоре подряда

Пятница, 17 Февраля 2017 г. 10:24 (ссылка)

Инженерная инфраструктура дата-центра – целый мир, требующий внимания и заботы, регулярного технического обслуживания, штатных, а иногда и аварийных, ремонтов. Всем этим можно заниматься самим, наняв специалистов по ДГУ, ИБП, кондиционерам и чиллерам. А можно доверить всю инженерку или отдельную систему специально обученным сервисным компаниям, особенно если это небольшая серверная на 10 стоек.



Мы, компания DataLine, используем гибридный вариант, где своя служба эксплуатации занимается управлением инженерной инфраструктурой, а подрядчики – ТО и ремонтом оборудования. Такая схема помогает нам успешно управляться с сетью коммерческих дата-центров на 3700 стоек.



Сегодня мы поделимся своим опытом работы с сервисными компаниями и расскажем, что обязательно должно быть в договоре на обслуживание инженерной инфраструктуры. В юридических формулировках упражняться не будем, поговорим по существу.





Предмет договора



В нашей практике договор на обслуживание инженерного оборудования или системы включает в себя следующие виды работ:




  • сервисное обслуживание – проведение планового техобслуживания (ТО);




  • штатный ремонт – устранение неполадок, выявленных во время работы или проведения ТО;




  • аварийный ремонт – срочные и внеплановые ремонтные работы;




  • техподдержка по телефону и email – консультация с подрядчиком без выезда на площадку.



Это тот оптимальный набор, который закроет все вопросы по обслуживанию оборудования в случае аварий или когда нужно уточнить какие-то детали по телефону.



Площадки, системы и оборудование



Перечисляем все площадки и названия помещений с оборудованием, обслуживание которого хотим отдать на аутсорсинг.



Пример:

Москва, Коровинское шоссе, 41, дата-центр NORD-4, зал Whiskey.

Москва, Боровая д. 7 стр. 10, дата-центр OST-3, зал Golf.



Затем определяемся с тем, какие системы отдадим на обслуживание подрядчику. Для этого рекомендуем проделать следующее упражнение: выпишите все системы в вашей зоне ответственности. Из этого списка выберите те, обслуживать которые будет подрядчик. Так вы лишний раз убедитесь, что ни одна из систем не осталась без внимания и о каждой есть кому позаботиться внутри компании или со стороны подрядчика.



Хозяйке на заметку

Составляя такой список, не ограничивайтесь только основными системами: энергоснабжение (гарантированное и бесперебойное), холодоснабжение. Помните и про вспомогательные, например, системы заземления и распределения энергоснабжения (распределительные щиты), приточно-вытяжная вентиляция.


Итак, с инженерными системами разобрались. Далее выписываем оборудование по каждой системе и составляем вот такое досье:




















































Данные Комментарии
Наименование оборудования
Модель (part number, P/N)
Серийный номер
Внутренняя маркировка Если ее до сих пор нет, то обязательно промаркировать.
Расположение Идеальный вариант — ссылка на схему или карту с расположением оборудования.
Наличие документации (проектная, исполнительная, акты работ) Если документации нет, то так так и пишем, чтобы подрядчик осознавал, что ее придется восстанавливать.
Год выпуска
Год ввода в эксплуатацию Поможет понять, можете вы еще рассчитывать на гарантию производителя или нет
Кем обслуживалось и обслуживается
Список работ и ремонтов (история работ и инструкции по ремонту) Поможет выявить слабые моменты в работе конкретного оборудования, необходимость в модернизации.


Для последнего пункта нужна статистика по ремонтам каждой единицы оборудования. Если раньше вы ее не собирали, начните делать это прямо сейчас. Эта информация пригодится не только для подготовки договора с подрядчиком, но и для расчета бюджета на закупку расходных материалов и ЗИП.



Состав работ по обслуживанию



Список работ по конкретному оборудованию и системе можно почерпнуть из рекомендаций производителя или запросить у подрядчика. Подрядчик часто дает договор со стандартным списком работ. Ваша задача – внимательно его изучить и адаптировать под себя. Проверяем следующие моменты:




  • Не дублируются ли одни и те же работы под разными формулировками.




  • Нет ли нерелевантных для ваших систем работ. Вот пара случаев из нашей практики: в стандартном договоре значилась проверка уровня масла в компрессоре кондиционеров, а у нас чиллерная схема, где компрессор есть только в чиллере. Проверка пароувлажнителей для всех кондиционеров, хотя у нас было всего два кондиционера с пароувлажнителем.




  • По возможности избегать “пустых” проверок оборудования без последующего устранения неисправностей. Предпочтительнее, чтобы формулировки звучали следующим образом: “Проверка и, в случае необходимости, исправление неисправностей”. Поэтому если в договоре значится “Контроль уровня хладагента и масла», то дополняем “Контроль уровня хладагента и масла, при необходимости – дозаправка”.



Таким образом вы получите актуальный список для вашего случая и избавитесь от дефолтных работ. По результатам такой вычитки количество пунктов может существенно уменьшиться, и у вас появится аргумент в пользу снижения стоимости договора.



Ремонтные работы



По описанию ремонтных работ в договоре можно выбрать одну из следующих стратегий:




  1. Все включено: все, что ломается, чинят в рамках стоимости договора. Подрядчик сам предоставляет материалы. Это самый ленивый вариант для тех, кто не хочет составлять никакого списка работ и пытаться прогнозировать их объем. В этом случае подрядчик оправданно заложит в договор свои риски на большие ремонты, связанные с полным выходом из строя оборудования. Нужно быть готовым к тому, что стоимость договора улетит вверх.




  2. В договор входит только обслуживание – все ремонты оплачиваются по прайсу в приложении или дополнительно согласовываются. Плюс такого подхода – низкая начальная стоимость договора. Минусов больше: любой мелкий ремонт придется оформлять дополнительным соглашением и оплачивать отдельно. У подрядчика не будет стимула хорошо работать, так как чем больше выездов, тем больше заработок.




  3. В договор включаются все ремонтные работы (замена вентиляторов на ИБП, зарядного устройства или подогревателя на ДГУ, пайка фреонопровода и пр.), кроме замены крупных узлов (замена инвертора в ИБП или компрессора в кондиционере). Также в такой договор не включаются плановые крупные замены, например, замена АКБ или всего топлива в ДГУ. Этот вариант потребует кропотливой работы, в награду за которую вы получите стоимость договора, соответствующую вашим реальным потребностям.



Аварийные выезд



Аварийный выезд требуется в тех случаях, когда поломка оборудования грозит остановкой сервиса и чинить нужно срочно. Например, если поломка кондиционера приводит росту температуры в машинном зале, то это как раз повод для аварийного выезда.

В отличие от штатных ремонтных работ, аварийный выезд можно организовать в любое время суток, в выходные и праздники. В Соглашении об уровне обслуживания (SLA), о котором мы тоже поговорим сегодня, обязательно прописывается время реагирования на заявку и приезда на площадку.



Сложно полностью прописать все случаи аварийных выездов, лучше закрепить за собой право определять их необходимость в договоре. Так у подрядчика не возникнет соблазна дискутировать о том, считать ли ту или иную поломку достойной аварийного выезда в 3 часа ночи в субботу. В качестве противовеса такой свободе подрядчик обычно прописывает стоимость аварийного вызова или ограничивает их количество в месяц. Это нормальная практика – подрядчику нужна какая-то защита от ложных тревог.



Стоимость аварийного выезда – плата за оперативный приезд специалистов в любое время суток. Сами работы обычно оплачиваются отдельно по человеко-часам или по прайсу, приложенному к договору. Эти траты тоже нужно учесть в бюджете.



Из практики DataLine

Мы прописываем количество аварийных выездов в месяц и стоимость последующих выездов в случае превышения этой квоты. По SLA мы получаем гарантированное прибытие ремонтной бригады в оговоренные сроки в любое время дня и ночи. Стоимость самих работ прописываем в фиксированных человеко-часах.


Периодичность работ



В приложении к договору составляется график проведения ТО с указанием, какие системы и когда обслуживаются. Если состав работ отличается от одного ТО к другому, прописываем и это (например, ТО-1, ТО-2).












































Оборудование Январь Февраль Март Апрель Май Июнь
Кондиционеры ТО ежемес. ТО ежемес. ТО кварт. ТО ежемес.+промывка ТО ежемес. ТО кварт.
ДГУ ТО-1 ТО-2 ТО-1
ИБП ТО


Пример графика ТО.



ЗИП и расходные материалы



В договоре важно прописать, кто обеспечивает ЗИП и расходные материалы и у кого они хранятся. Это нужно, чтобы необходимые материалы были под рукой во время ТО, штатных и аварийных ремонтов.



Расходные материалы для ТО. К расходникам относятся фильтры для кондиционеров, масло, охлаждающая жидкость, масляные и топливные фильтры для ДГУ и пр. Обычно подрядчик включает их в стоимость ТО и привозит с собой. Убедитесь, что это действительно так.



ЗИП и материалы для срочного ремонта. Эти материалы мы рекомендуем хранить на своей площадке, и вот почему. На замену условного вентилятора внешнего блока кондиционера уйдет не больше часа, а ждать прибытия самой запчасти со склада придется значительно дольше. В результате ремонт затянется. Или другая ситуация – аварийный ремонт в праздники. Инженера вы вызовите, пусть и за отдельные деньги, склад же в праздники скорее всего работать не будет, а значит вы останетесь без нужной детали.



Крупные узлы. Сюда относятся все крупные детали с долгим сроком поставки, например, компрессоры для чиллеров, насосы, контроллеры, вводные автоматы для ГРЩ. В договоре также фиксируется, кто предоставляет эти запчасти. Мы рекомендуем вне зависимости от договора на обслуживание иметь их на площадке.



Помимо расходников и запасных частей не забываем про инструмент.



SLA с контактными лицами и процедурами эскалации



У договора на сервисное обслуживание должно быть приложение – Соглашение об уровне обслуживания (SLA). Вот основные моменты, которые фиксирует SLA:




  • Контакты ответственных лиц со стороны заказчика и подрядчика с прописанной зоной ответственности. Например, дежурный инженер может только вызывать подрядчиков, старший инженер – подписывать акты, руководитель службы эксплуатации – делать аварийный вызов.




  • Процедура эскалации: кто и кому может писать в случае возникновения проблем, например: долгой реакции на инцидент, согласования спорных вопросов. Это обоюдная история: контакты должны быть как со стороны подрядчика, так и со стороны заказчика.




  • Время проведения ТО, ремонтных работ, аварийных выездов и график работы информационной поддержки. ТО, ремонтные работы и техподдержка обычно проводятся в рабочие часы по будням, аварийные выезды – круглосуточно в будни, выходные и праздники.




  • Гарантированное время реакции на заявку и время прибытия на площадку прописывается для ремонтных и аварийных выездов.




  • Штрафные санкции за нарушение какого-либо пункта. Размер штрафа оговаривается с подрядчиком в индивидуальном порядке и рассчитывается от общей стоимости договора.



Акт приема-сдачи выполненных работ



Образец акта о выполненных работах прикладывается к договору. Часто это не более чем формальность, но мы рекомендуем, чтобы в акте был подробный чек-лист, по которому вы будете проверять и принимать проделанные работы. В акте также будут фиксироваться все материалы, израсходованные в процессе работ.



Подведем итоги. Чтобы было удобно работать и вам, и подрядчику, уделите внимание следующим моментам в договоре на сервисное обслуживание:




  • определите типы работ, входящих в договор: сервисное обслуживание, ремонтные, аварийные работы, техническая поддержка;

  • список систем и оборудования и его местонахождение (в приложении);

  • аварийные выезды: количество и стоимость, время реагирования;

  • график ТО (в приложении);

  • Соглашение об уровне обслуживания, SLA (в приложении);

  • образец акта приема-сдачи выполненных работ.


Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/321972/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Как 3 тысячи рублей и простые методы повышения эффективности ЦОД помогли сэкономить кучу денег

Четверг, 16 Февраля 2017 г. 09:26 (ссылка)

За время своей работы я часто встречался с проблемами нехватки ресурсов корпоративных ЦОД, которые можно сформулировать, например, следующим образом: «У нас не хватает физического места для размещения оборудования», «У нас не хватает подведенной мощности» и так далее и тому подобное. Решение подобных проблем «в лоб» ведет к очевидному ответу – выключить и вывести из эксплуатации часть ИТ-оборудования, либо произвести замену оборудования на более эффективное по соотношению производительность/потребление/физические размеры.

В большинстве случаев оказывается, что ресурсов на самом деле в избытке, но используются они, мягко скажем, расточительно. Проблема заключается зачастую в банальном раздолбайстве либо развитии корпоративного ЦОДа экспансивно, так сказать по унаследованным принципам. Принимаемые решения не проверяются на предмет эффективного использования имеющихся ресурсов, в организациях нет методики их проверки и, в результате, мы получаем то, что получаем.

Если вы для себя поняли, что так дальше жить нельзя, рекомендую начать с чтения блогов таких компаний как: Крок, Билайн, Data Line. У них можно найти статьи, где они делятся своим опытом в области энергоэффективности. Их методы работают — PUE коммерческих площадок находится в пределах 1,3-1,4 (у кого-то поменьше даже) что при TIER III является отличным результатом. Однако в какой-то момент вы поймете, что у них там своя вечеринка с мегаваттами, резервами и опытным персоналом. И вам на ней не место.

Что же делать простым смертным, у которых ЦОД – это 10 стоек, 200 кВт мощности, всегда не хватает рук и времени?



В идеале, нужен простой для понимания контрольный список, который вы возьмете в руки и пойдете гулять по своей площадке, делая отметки. Желательно чтобы этот документ помогал вам, хотя бы приблизительно, оценить влияние предлагаемого метода на эффективность (у вас ведь нет опыта и best practices). Было бы неплохо, чтобы предлагаемые методы были разделены по этапам жизненного цикла. Собрались вы, например, докупать сервера и СХД, заглянули в соответствующий раздел методички, а там рекомендации по параметрам закупаемого железа.

В общем, не буду томить, есть такой документ, который называется «EU Code of Conduct on Data Centres». Сразу скажу, что я практически ни разу не встречался с людьми, которые руководствуются им в своей деятельности, что меня очень удивляет. Лежит в открытом доступе по легко запоминаемому адресу: iet.jrc.ec.europa.eu/energyefficiency/sites/energyefficiency/files/files/COC_DC/2016/2016_best_practice_guidelines_v7.1.2.pdf.

Итак, что это за документ, и почему он будет вам полезен:

1. Это сборник лучших практик в области повышения эффективности дата-центров, в написании которого приняли участие эксперты из различных областей.

2. Он хорошо структурирован по этапам жизненного цикла ЦОД, что позволит вам легко подготовиться к замене, например ИТ-оборудования.

3. Он хорошо структурирован по подсистемам. Поэтому, если у вас есть группа эксплуатации серверов, они могут легко оценить свой вклад.

4. Любая практика имеет оценку потенциального влияния (от 1 до 5, 1-небольшое влияние, 5- максимальное). Это позволит вам провести оценку на стадии планирования, исходя из затрат на внедрение и ожидаемой отдачи.

Предлагаю пробежаться по документу, понять, как с ним работать и рассмотреть пару примеров.

Однако сначала небольшое предупреждение. Надежность и энергоэффективность – это два параметра, которые зачастую тянут ваш ЦОД в разные стороны (не всегда, но часто). В качестве примера – повышение температуры в ЦОДе. Приводит к снижению потребления кондиционерами. Но одновременно мы наблюдаем повышение числа оборотов вентиляторов охлаждения в серверах, что приводит к повышению потребления сервером (упс…). И снижает ресурс самих вентиляторов, и когда он закончится, вентиляторы встанут, а за ними встанет и сервер по температуре. Поэтому к любому изменению нужно подходить осторожно, отслеживать его влияние на смежные системы и всегда иметь план отката на первоначальные позиции.

Итак, берем словарик, начинаем читать.

Сразу идем в пункт 2.2 на странице 3, где расшифрована цветовая кодировка практик.



Зеленый — подходы, аудиты, мониторинг и т.п. Самые эффективные с точки зрения материальных вложений пункты. Большинство предполагает либо минимальные вложения (5.1.4 Установка панелей-заглушек в шкафы) либо вообще нулевые вложения за счет изменения подходов в эксплуатации (4.3.1. Аудит неиспользуемого оборудования).

Красный — внедрение нового софта. Полная ерунда, типа «смотрите чтобы процессы в фоне не висели и не нагружали ЦП». Можно смело пропускать. Хотя, если у вас сотни приложений…

Желтый – на что обращать внимание при закупке нового ИТ-оборудования.

Голубой – что нужно сделать при ближайшей реконструкции или проведении техобслуживания. Есть примеры так называемого «ретрофита», т.е. усовершенствования существующих устройств. Например, при замене батарей ИБП заменить свинцовые на Li-Ion, что позволит отказаться от системы кондиционирования и освободить часть площади. Или при обслуживании кондиционера установить устройство регулировки скорости вращения.

Белый – опциональные практики, соблюдение которых не требуется для кандидатов.

Здесь необходимо небольшое отступление. Рассматриваемая методичка была создана для операторов, желающих вступить в добровольную программу «The European Code of Conduct for Data Centres». Поэтому в документе повсеместно встречается термин «кандидат», что не должно вас смущать. В «белых» практиках содержатся хорошие рекомендации относительно подходов к эксплуатации и строительству ЦОДа.

Далее прыгаем сразу на страницу 9 к главе №3. Дальнейшее движение по документу следует осуществлять последовательно. Подсистемы описаны в порядке их влияния на энергопотребление ЦОДа (ИТ-оборудование, холод, электроснабжение, прочее).



Попробуем применить и мысленно протестировать практики разных цветов из разных подсистем.

«Зеленая», пункт 4.3.1. Влияние – 5. Рекомендуется провести аудит используемого оборудования, мест его установки и сервисов, которое оно предоставляет. Как бы смешно это не звучало, но во многих организациях я сталкивался с ситуацией, когда на вопрос «а что это за сервер?» все инженеры пожимали плечами. И это в серверных, где 30 серверов, максимум. И это не говоря про сервера, которые крутят сервис, используемый 3-мя людьми в организации. Серьезно, особенно если вы недавно пришли в компанию, посмотрите на парк серверов с этой точки зрения.

Естественным образом выглядит пункт 4.3.2. Влияние – 5. «Выведите неиспользуемое оборудование из эксплуатации и регулярно проводите аудит на предмет незагруженных устройств».

Замечательный пункт 4.3.8. Влияние – 4. «Проведите аудит на предмет требований оборудования к окружающей среде. Пометьте такое оборудования на замену или перенос». Допустим, у вас есть несколько свежих серверов, например под ERP. И несколько постарше, с жесткими требованиями по температуре — не выше 25 градусов. Стоят себе и работают, но они не позволяют вам повысить температуру в машзале. И вот однажды ERP которая крутится на свежих серверах, разрослась и требует более мощного железа. Покупается новый сервер, который заменяет парочку предыдущих. В данном случае методичка рекомендует замененный сервер не на e-bay выкладывать, а поставить на замену древних машин, которые имеют ограничения по температуре. Т.е. фактически вы производите миграцию на новое железо не одного сервиса, а нескольких с выводом из эксплуатации самого старого железа. Хотя апгрейд вы делали ради ERP. В общем, смотрите глубже и дальше.

«Зеленая» пункт 5.1.4 Установка панелей-заглушек в шкафы. А с ним 5.1.7 и 5.1.8. С минимальными затратами вы сможете серьезно уменьшить перемешивание горячего и холодного воздуха и повысить эффективность охлаждения.



Теперь перейдем в раздел, касающийся механических систем (холодоснабжение). Пункт 5.1.2. Влияние – 5. Данный пункт предлагает нам разделить потоки горячего и холодного воздуха путем применения контейнеризации холодного и горячего воздуха. Практика «голубая», т.е. ретрофит. Несмотря на то, что методичка рекомендует модернизацию производить в периоды запланированных простоев, конкретно эти работы можно провести и на работающем ЦОДе, поскольку вы затрагиваете только конструктивы шкафов. Сейчас есть решения по постройке изолирующих коридоров практически без инструментов и без сверловки. И в очередной раз напомню о взаимосвязях. Сделали контейнеризацию – пересмотрите настройки кондиционеров, наверняка можно будет, как минимум, повысить уставки температуры подаваемого воздуха. И сразу же можно сделать заметку на пункты 5.4.2.4 (Влияние – 2) и 5.5.1 (Влияние – 4) Оснастить внутренние блоки плавной регулировкой скорости вращения вентиляторов и компрессоров.



«Желтые» практики практически полностью сосредоточены в подглавах 4.1 и 4.2. Они касаются в основном закупок ИТ-оборудования. Так уж случилось, что инженерные системы имеют срок жизни не меньше 10 лет. И то, что вы имеете сейчас, вы можете только модернизировать (т.е. «голубые» практики). ИТ-оборудование меняется гораздо чаще, есть возможность применить «желтые» практики уже в следующем квартале. В качестве примера приведу следующие рекомендации. «При составлении ТЗ на закупку нового железа обращайте внимание на температурный режим эксплуатации». Таким образом, вы сможете создать себе основу для внедрения методов управления энергопотреблением без ограничений, которые создают ваши сервера, СХД и т.п. «Требуйте наличия встроенных средств мониторинга энергопотребления и температуры на воздухозаборе сервера». Это позволит вам постепенно перейти от оценки ресурсов на основании паспортных данных, к оценке на основании данных в реальном времени. Естественно, всё это потребует изменений подходов к мониторингу и отчетности, которые прописаны в главе 9.



«Красные» практики я не рассматриваю в виду моего пренебрежительного к ним отношения. Буду рад, если в комментариях кто-то сможет продемонстрировать их эффективность.



«Белые» практики являются абсолютным хардкором для корпоративного ЦОДа. Повсеместно встречаются лозунги «Даешь класс A4 ASHRAE!», «Дуй воздух прямо с улицы!», «Используешь ИБП – не мужик!». Это как раз тот случай, когда игры с энергоэффективностью снижают надежность.



Резюме:

1. Предложенные практики достаточно просты для понимания и внедрения, не rocket science. Можете начать прямо сейчас.

2. В самом начале обратите внимание на «зеленые» методики. Они имеют большое влияние, просты, дешевы и позволят поменять подход к планированию и эксплуатации. Что в большинстве запущенных случаев дает быстрый видимый эффект.

3. Естественно, движение должно идти от наиболее влиятельных (5) к наименее (1).

4. Составьте план. В результате внедрения «зеленых» методик вы получите полную картину того, что у вас есть сейчас. В том числе и понимание технологий, которые вы используете. Создайте план по модернизации для всех подсистем, которые вы используете, с указанием пунктов из методички. Проведите бюджетную оценку изменений, примените поправочные коэффициенты на основании влияния методик, и вы получите план первоочередных мероприятий.

5. Не забывайте про связь систем и отслеживайте взаимное влияние. А для этого начните мониторить всё, до чего руки дотянутся.



И чуть не забыл про кейс из заголовка.

Компания Х обратились с просьбой просчитать бюджет расширения корпоративного ЦОДа на дополнительные площади. Им требовалось поставить 2 высоконагруженные стойки. С их слов, физического места для размещения стоек в действующем машзале не было, запасов по холоду не было, ИБП работали на 85% мощности в пике и их не хватало. Бюджет мы прикинули, получилась та самая куча денег. Пошли смотреть площадку. В процессе осмотра было выявлено следующее:

1. В машзале на 40 стоек использовалась раздача воздуха через фальшпол. При этом не было системы изоляции воздуха, в шкафах нашлось множество пустых юнитов не закрытых заглушками. С холодопроизводительностью существующей системы стало более-менее понятно. Одновременно появилось решение проблемы с физическим размещением.

2. Посмотрели логи ИБП и увидели, что нагрузка на ИБП растет в ночные часы. По логике, она должная снижаться, либо оставаться плюс-минус такой же. Очень похоже на создание резервных копий, обновление каких-то баз или приложений. Однако выяснилось, что обновление приложений происходит только в выходные дни, базы живут сами по себе, а резервное копирование идет в реальном времени на другую площадку вот уже как два года. В теории. На практике оказалось, что какие-то нехорошие люди не вывели из эксплуатации часть инфраструктуры, ответственной за резервирование. Там же на месте посчитали, что выключив ненужное железо получим необходимые киловатты.

3. Задали вопрос: «Аудит заказывать будете, или сами всё поняли?». «Поняли-поняли», — ответили они, и пропали на продолжительное время.

После нашей беседы, заказчик силами 2-х своих инженеров за пару недель раскидал бардак, который копился 2 года. Были заказаны и изготовлены конструкции для изоляции холодных коридоров, заглушки в шкафы. Были физически выведены из эксплуатации резервные железки, в процессе они нашли ещё несколько неиспользуемых серверов. Прибрали провода под фальшполом. В результате получили свои необходимые киловатты и юниты даже с запасом. Наши затраты составили 3 131 руб. на бензин и рабочее время. Но мы их выставлять заказчику не стали, потому что это некультурно.

А стойки свои высоконагруженные они потом так и не поставили.

Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/321944/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

«Как айсберг в океане»: Технологии охлаждения дата-центров

Понедельник, 13 Февраля 2017 г. 16:06 (ссылка)

Корпорации стремятся сделать свои дата-центры более энергоэффективными и снизить их воздействие на окружающую среду. Причем не всегда чем холоднее, тем лучше. Исследования показывают, что оборудование может нормально функционировать и при температуре в 27oC. При этом экономия электроэнергии составит 4-5% на каждый повышенный градус.



Поэтому компании не только пытаются найти новые технологии для охлаждения, иногда весьма экстремальные, но и занимаются усовершенствованием оборудования и помещений. Сегодня поговорим о том, какие решения становятся более популярными, а какие являются скорее исключением из общих правил.



/ PublicDomainPictures / George Hodan / PD



Не все то вода, что охлаждает



Многие дата-центры сегодня выбирают для охлаждения воду, которая считается эффективнее воздуха в десятки раз, особенно для «горячих точек». К тому же современные системы исключают возможность утечки и повреждения оборудования. Однако ЦОДы сегодня становятся все более «зелеными», и большой расход воды превращается в недостаток.



Только в США в 2014 году было использовано 626 миллиардов литров воды, включая воду для охлаждения и для производства электричества, необходимого для работы дата-центров. Поэтому кроме показателя PUE для ЦОДов все популярнее становится показатель эффективности расхода воды (WUE).



Одно из решений — использование хладагентов для охлаждения воды, которая в этом случае может циркулировать без потерь. Другой вариант — применение специальных жидкостей вместо воды. Например, жидкость GreenDEF, которая сделана из минерального масла, может снизить энергозатраты дата-центра на 30-40%.



Но у минеральных масел есть определенные недостатки: они загрязняют окружающую среду и легко воспламеняются. Поэтому многие предпочитают использовать диэлектрические жидкости, которые также предполагают прямой контакт между хладагентом и микросхемами.



Одна из таких жидкостей производства 3M применяется для двухфазного иммерсионного охлаждения. Подробнее о ней можно почитать тут. На ежегодной международной конференции SC16 были представлены некоторые новые решения, например, иммерсионное охлаждение от LiquidMips, которое в том числе устраняет проблему возможного повреждения оптических подключений.



И нашим, и вашим



Но не все дата-центры готовы сразу перейти на жидкостное охлаждение. Поэтому сегодня в качестве промежуточного варианта достаточно популярны гибридные системы, в которых комбинируется охлаждение жидкостью и воздухом. Но непонятно, насколько такие системы способствуют экономии средств, так как для них требуется в два раза больше оборудования.



Тем не менее новые решения появляются и в этой области: компания CoolIT совместно со STULZ представила модульную систему Chip-to-Atmosphere, которая позволяет использовать жидкостное охлаждение для наиболее горячих компонентов, а охлаждение воздухом — для всего остального.



Что естественно, то не безобразно



Все больше корпораций выбирают естественное охлаждение в попытке снизить влияние на окружающую среду. Наверняка все слышали о дата-центре Google в Финляндии, который охлаждают морской водой.



В дата-центр воду доставляют по тоннелю, существовавшему там еще со времен бумажной фабрики, которая раньше стояла на месте ЦОДа. Но соленая вода вызывает коррозию, поэтому в теплообменниках приходится применять армированные стекловолокном трубы и титановые пластины, а также устанавливать дополнительную фильтрацию.



С похожей проблемой столкнулись в Facebook при строительстве нового дата-центра в Ирландии, где для охлаждения используется прохладный морской воздух с высоким содержанием соли. Поэтому воздух должен проходить через дополнительные фильтры перед тем, как он попадает в сам дата-центр.



Согласно исследованию, проведенному Ратгерским университетом, частота отказов оборудования в дата-центрах с естественным охлаждением без контроля уровня влажности во влажном климате выше на 107-260%. Несмотря на возможные сложности в Ирландии находится большое количество дата-центров разных корпораций, которые используют «free cooling» и являются энергоэффективными.





/ Flickr / Shawn O'Neil / CC-BY



Парю, где хочу



В сочетании с естественным охлаждением воздухом выгодно применять охлаждение испарением, так как в этом случае можно существенно снизить объем потребляемой электроэнергии. Но вот выбранный метод зависит от температуры и влажности поступающего воздуха. Так, прямое охлаждение испарением возможно при более высокой температуре и не очень влажном воздухе. Большую выгоду от таких систем можно получить именно в сухом климате с высокой температурой. А вот в холодном климате нужды в них нет.



Для косвенного охлаждения температура и влажность воздуха снаружи должны быть выше, чем внутри. Сам воздух при этом не становится более влажным. Если климат не совсем подходит для таких систем, специалисты советуют прибегать к гибридной схеме охлаждения и применять охлаждение испарением только при определенной погоде, например, летом. Ну и, конечно, нельзя забывать о необходимости удалять лишнюю влагу из воздуха.



И дата-центр плывет



Мы уже писали о том, как устроены подземные дата-центры, но сегодня существуют и подводные. Первый такой ЦОД — проект Microsoft под названием Natick. Испытания прошли успешно и компания уже запатентовала свое изобретение. Сейчас ведется разработка второго поколения Natick, который будет гораздо больших размеров.



Основное преимущество — дата-центр практически не требует обслуживания и постоянного присутствия человека. Но все элементы находятся в отдельных капсулах, которые при необходимости можно извлечь или заменить.



Такие дата-центры подойдут для прибрежных регионов, а сэкономить можно будет также за счет отсутствия необходимости занимать территорию на земле. ЦОД получает энергию от движения волн, а охлаждается океанической водой. При этом расположение на достаточно большой глубине или даже на дне защищает от воздействия сильных волн. Но пока конструирование водонепроницаемых модулей обходится на 10-20% дороже, чем наземных модульных дата-центров, и говорить о массовом производстве не приходится.



А компания Nautilus Data Technologies проводит испытания плавучего дата-центра, который, по заявлениям компании, будет на 50% энергоэффективнее наземных аналогов. Такая разработка, несомненно, поможет сэкономить водные ресурсы, так как для охлаждения используется вода из водоема, которая после выполнения своей функции возвращается обратно. По мнению специалистов, разница температур при этом настолько мала, что не сможет серьезно повлиять на общую температуру водоема и на жизнь его обитателей.



Но полноценно такой ЦОД может функционировать только в порту. И необходимы будут дополнительные затраты, так как вода должна проходить систему очистки и фильтрации. А если размещать плавучий дата-центр в морском порту, то понадобятся специальные материалы, чтобы избежать коррозии, что также не способствует удешевлению строительства.



Интеллект на страже холода



Кроме всем известного примера Google, системы искусственного интеллекта сегодня используются и другими компаниями. Так, компания Vertiv, бывшая Emerson Network Power, благодаря системе контроля температуры Liebert iCOM-S Vertiv смогла устранить повторное попадание холодного воздуха в систему до выполнения своего прямого назначения по охлаждению оборудования.



В системах водного охлаждения, функция автонастройки позволяет сбалансировать скорость вращения вентилятора, температуру воды и скорости потока. Есть и другие компании, которые применяют системы искусственного интеллекта в дата-центрах в основном для повышения их энергоэффективности. Например, стартап Coolan и Romonet.



Сегодня компании стараются не только удешевить охлаждение, но и максимально снизить влияние дата-центров на окружающую среду. И иногда выбрать какую-то одну технологию и даже место для строительства дата-центра бывает очень сложно. Правительство Швеции предлагает для размещения ЦОДов специальные парки, которые находятся в пределах Стокгольма, чтобы использовать выработанное дата-центрами тепло для отопления близлежащих домов.



Государство снизило налоги на электричество на 97% (для ЦОДов) и готово покупать выработанное тепло. По другому сценарию дата-парки могут бесплатно предоставлять системы охлаждения своим резидентам. Поэтому, возможно, предложение «cooling-as-a-service» из Швеции устранит головную боль многих компаний и позволит им вообще не задумываться о том, какую технологию охлаждения выбирать.



P.S. Что еще модно почитать в нашем блоге:




Original source: habrahabr.ru.

https://habrahabr.ru/post/321688/?utm_source=habrahabr&utm_medium=rss&utm_campaign=best

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество

Следующие 30  »

<цод - Самое интересное в блогах

Страницы: [1] 2 3 ..
.. 10

LiveInternet.Ru Ссылки: на главную|почта|знакомства|одноклассники|фото|открытки|тесты|чат
О проекте: помощь|контакты|разместить рекламу|версия для pda