Случайны выбор дневника Раскрыть/свернуть полный список возможностей


Найдено 528 сообщений
Cообщения с меткой

цод - Самое интересное в блогах

Следующие 30  »
rss_rss_hh_new

Google превращает свои дата центры в произведения искусства

Понедельник, 23 Мая 2016 г. 13:59 (ссылка)


Как правило, большинство дата центров представляют собой невзрачные промышленные постройки, напоминающие складские помещения. Они неброские, однотонные и не привлекают внимания. Владельцы ЦОД предпочитают придерживаться строгости в экстерьере зданий, содержащих серверные системы корпораций, имеющих важное значение для бизнеса или даже для экономики целой страны. Но операторы дата центров Google решили иначе взглянуть на оформление зданий. Они запустили арт-проект «Data Center Mural Project», призванный преобразовывать серые стены центров обработки данных в настоящие произведения искусства стрит-арт.







Читать дальше →

https://habrahabr.ru/post/301086/?utm_source=habrahabr&utm_medium=rss&utm_campaign=best

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Варианты компенсации даунтаймов от Google и Telstra

Понедельник, 02 Мая 2016 г. 17:51 (ссылка)

Даунтаймы (время, когда система не работает) ЦОД наносят не только финансовый ущерб, но и причиняют репутацию бренда. Множество причин может вызвать даунтаймы ЦОД. Бывает, что инфраструктура не способна справиться с нагрузкой из-за различных дефектов (стихия, перебои в работе центральной электросети и т.д.). Но именно человеческий фактор является причиной большинства ошибок, которые приводят к снижению безопасности и надежности ЦОД. Согласно результатам статистики компании WinMagic, опросившей около тысячи операторов дата-центров, большинство респондентов (31%) считают самой серьезной угрозой логической безопасности именно сотрудников с доступом к серверным фермам. Любопытно, что атаки хакеров занимают лишь второе место (30%).







Google взялся возместить своим клиентам до 25% их месячных затрат за сбой работы облака Google Compute Engine, который длился почти 20 минут (учитывая, что аптайм 99,9% допускает недоступность сервиса в течении не более 45 минут в месяц). Согласно пресс-релизу, который был выложен на веб-ресурсе Google Cloud Platform, первопричиной сбоя были изменения конфигурации сети. Когда операторы занялись изменениями, программное обеспечение управляющее конфигурацией обнаружило конфликт. Пытаясь исправить ситуацию, система сделала попытку возвращения к предыдущей конфигурации. И тут возникла неизвестная ранее ошибка, которая привела к сбою. Кое-как «залатать» дыру удалось спустя 20 минут, но проблема осталась не решенной. Разработчикам Google пришлось немало поработать над оптимизацией своих систем.







Подобная история произошла в ЦОД австралийской телекоммуникационной компании Telstra. Тот самый пресловутый человеческий фактор вывел из строя весь дата-центр. Но в отличии от Google, на устранение проблем в Telstra потребовалось почти четыре часа. Мобильная сеть телекоммуникационной компании ушла в офлайн. По данным издания Sydney Morning Herald, инцидент произошел из-за действий инженера, который перевел неисправный сетевой узел в автономный режим без предварительной активации резервного узла. Эти действия вызвали перебои в работе мобильной сети и оставили множество клиентов без связи. Проблема затронула многие города Австралии, включая Брисбен, Сидней, Мельбурн, Аделаида и Перт. За время исправления неполадки тысячи людей высказали свое недовольство работой компании в социальных сетях.







После случившегося произошло еще несколько, менее серьезных и длительных даунтаймов. Руководством компании было принято решение компенсировать клиентам доставленные неудобства и ущерб. Telstra подарила своим абонентам день бесплатного безлимитного мобильного интернета (Free Data Day). По итогам дня было скачено 2,686 Тб данных, что естественно привело к перегрузке сети и снижением скорости загрузки.



Простой дата центров наносит финансовый ущерб и бьет по репутации компании. Поэтому операторам, проектировщикам и строителям ЦОД так важно делать все от них зависящее для минимизации даунтайма. Конечно же никто не может гарантировать безопасности на 100%, но если использовать современные стандарты, подготовить план действий на случай непредвиденных ситуаций и не забывать про своевременное техобслуживание — риск даунтайма будет сведен к минимуму.



Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/267145/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

[recovery mode] LinkedIn открывает мега-ЦОД в Сингапуре

Понедельник, 02 Мая 2016 г. 12:49 (ссылка)

Строительство и последующее обслуживание гипермасштабных серверных ферм требует огромных денежных вложений. Кроме того в реализации подобных масштабных комплексов понадобится найти проектируемую своими силами альтернативу стандартному серверному и вспомогательному оборудованию.



И тем ни менее, эта существенный минус в реализации подобных проектов не сравниться с последующими плюсами мега-ЦОД. Например, у владельцев серверных ферм появляется возможность сократить эксплуатационные расходы, используя оборудование, которое заточено под собственные нужды, без лишних энергопотребляющих компонентов. Само собой и «железо» может быть более экономным, закупленным у оптовика на максимально выгодных условиях. Таким образом получится снизить капитальные затраты.



Известная социальная сеть LinkedIn на своем примере демонстрируют реализацию концепции мега-ЦОД.







Основа для новой серверной фермы LinkedIn в Сингапуре



Реагируя на на значительное увеличение пользовательской базы соцсети в Азии, социальная сеть LinkedIn объявила об открытии сингапурского гипермасштабируемого дата-центра. Это первый столь крупный ДЦ, который находится за пределами США. Серверная ферма общей площадью в 23,5 тысяч футов 2 уже введена в эксплуатацию. Стоимость строительства обошлась компании в $ 58,3 млн. И по мере необходимости территория будет расширяться.



LinkedIn насчитывает около 414 миллионов пользователей по всему миру. И по официальным данным компании, за период с 2013 года по 2016 год число юзеров соцсети Азиатско-Тихоокеанского региона увеличилось более чем в два раза, то есть до 85 миллионов человек (включая 16 миллионов в Юго-Восточной Азии, 34 миллиона в Индии и 7 миллионов в Австралии).



Строительство сингапурского дата-центра проводилось по современным технологиям с применением новейшей инфраструктуры. По данным компании Singapore Power, отвечающей за передачу и распределение электроэнергии в Сингапуре, среднее энергопотребление одного домохозяйства страны составляет 602 кВт*ч в месяц. Конструктивные решения мега-ЦОД LinkedIn помогут сократить потребление электроэнергии на величину, эквивалентную спросу на электричество со стороны около 100 таких среднестатистических домохозяйств.



Серверная ферма в Сингапуре будет обрабатывать весь интернет-трафик соцсети данного региона, а также одну треть мирового трафика, идущего через серверы LinkedIn. Мощность дата-центра составляет 4,2 мегаватт.







В сингапурском дата-центре инженеры впервые установили стойки высотой в 52U вместо стандартных аналогов высотой 48U. Таким образом они выиграли дополнительные места, размещая по четыре дополнительных сервера внутри каждой монтажной стойки. В следствии дополнительные сервера в стойках позволили повысить эффективность использования потенциала коммутаторов и других элементов сетевой инфраструктуры.



Еще одним нововведением ЦОД стала трехфазная электросеть на 415 вольт. Аналог электросети в скором времени появится и в новом американском дата-центре LinkedIn. Он будет располагаться в штате Орегон и по мнению представителей компании станет еще одним большим шагом в строну внедрения концепции гипермасштабных серверных ферм LinkedIn. Внутри орегонского ЦОД будут размещены уникальные сетевые коммутаторы, а также электрораспределительные и механические системы, созданные по индивидуальному проекту. Планируется поставить по 96 серверов на стойку при плотности мощности чуть ниже 18 кВт на одну монтажную стойку. С помощью конструкции системы охлаждения получится доводить плотность мощности до 32 кВт на стойку.







В качестве сравнения — средняя плотность мощности в центрах обработки данных Facebook составляет около 5,5 кВт на одну монтажную стойку. Инженеры начали работать в направлении масштабирования вычислительной инфраструктуры без увеличения плотности мощности. Практический опыт, результаты исследований и тестов показали, что относительно низкая плотность мощности является отличным вариантом для дата-центров Facebook.



Original source: habrahabr.ru.

https://habrahabr.ru/post/282832/?utm_source=habrahabr&utm_medium=rss&utm_campaign=best

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Покоряя дно морское. Microsoft и его проект подводного ЦОД

Пятница, 29 Апреля 2016 г. 22:31 (ссылка)

К чему привело испытание под кодовым названием Leona Philpot



Под воду! Microsoft намерена развивать концепцию размещения серверной фермы на дне морском. Про прототип под кодовым названием Leona Philpot писала в одной из предыдущих статей. И вот, на конференции DatacenterDynamics Enterprise 2016, корпорация поделилась своими планами в ближайшем будущем развернуть под водой «настоящий» ЦОД, который уже в скором времени будет введен в эксплуатацию.







Напомню, что в августе 2015 года прототип серверной фермы цилиндрической формы, с габаритами примерно 3 на 2 метра, был погружен в километре от тихоокеанского побережья США и успешно эксплуатировался на протяжении четырех месяцев.







Leona Philpot был снабжен большим количеством теплообменников, которые в свою очередь передавали излишнее тепло от серверов в холодную воду.







Инженеры Microsoft поместили серверы внутри контейнера, управление ими велось в удаленном режим. Испытание длилось 105 дней. После того как подводная серверная ферма была поднята со дна, начался анализ полученных результатов.







Он был поднят в ноябре и перевезен на грузовике в штаб-квартиру Microsoft в Редмонде, штат Вашингтон (США), для дальнейшего анализа.











Испытание прошло успешно, без сбоев в работе оборудования + достигнута высокая энергоэффективность. Что касается системы охлаждения, она работала хорошо и превзошла некоторые из целевых параметров в области эффективности.











По словам топ-менеджера, этот результат придал инженерами Microsoft уверенности относительно того, что им следует разместить подводный ЦОД на еще большей глубине, в еще более холодной среде, поэтому было принято решение — развивать данную концепцию для дальнейшего строительства серверных подводных царств хранения информации. Изначально, прототип был погружен на 10 метров, теперь же компания уверена, что можно «окунуть» серверную ферму поглубже.







Представитель корпорации Microsoft Бен Катлер заявил, что размеры будущего подводного дата-центра будут в четыре раза больше, чем трестируемый прототип Leona Philpot, а мощность, помещенного внутрь ЦОД оборудования, достигнет половины мегаватта.



По словам Катлера, можно развернуть дата-центр мощностью в 20 мегаватт (или больше), если обьединить в один ЦОД такие отдельные модули. Благодаря тому, что такое хранилище данных будет развернуто рядом с побережьем крупного города это обеспечит минимальные задержки для пользователей/клиентов, живущих поблизости. Плюс еще в том, что такая серверная ферма обойдется в разы дешевле, чем на суше, а мобильность подводного ЦОД предоставит возможность перемещать его в кратчайшие сроки в нужные регионы.









Что касается выработки энергии для таких подводных царств



Проект Microsoft предполагает комплектовать подводные дата-центры турбинам, их планируется использовать для выработки электроэнергии с помощью механической энергии океанских волн и течений. Поэтому инженеры корпорации сейчас активно изучают насколько целесообразно использовать подводные генерирующие мощности (планируется использовать турбины, которые будут генерировать электричество за счет движения воды под поверхностью океана, волн).



Работа над проектом автономного подводного дата-центра дала специалистам корпорации возможность разработать новый подход по работе с серверами без физического доступа операторов к серверам. Для того, чтобы повысить эффективность удаления тепла первый модуль был заполнен азотом. Это помогло избежать сбору пыли на компонентах вычислительных систем. В качестве охлаждения прототипа был использован внутренний контур охлаждения и внешний теплообменник на базе килевого охладителя и ряда нестандартных конструкций от Microsoft.



Среди преимуществ подводного дата-центра — сокращение расходов за счет использования воды для охлаждения серверов и вспомогательного оборудования внутри серверной фермы, организация электропитания за счет той же воды, экономия на приобретении или строительстве недвижимости и уплаты налога на имущество.



Экологичен ли такой ЦОД



Прототип Leona Philpot не оказал негативного влияния на окружающую среду. Сам модуль генерировал очень мало тепла, так что даже разнообразные представители местной фауны облюбовали место на подводном ЦОД. Новый прототип, как уверяется, сможет демонстрировать нулевой углеродный след, при этом для охлаждения серверов не будет надобности в заборе воды извне.











На данный момент исследуются методы развертывания вычислительной инфраструктуры, которые позволят размещать дата- центры и на более серьезных глубинах, но при этом они не будут негативно влиять на окружающую среду в целом. Для этого в работу над проектом были привлечены сторонние ученые.



Project Natick







Original source: habrahabr.ru.

https://habrahabr.ru/post/282754/?utm_source=habrahabr&utm_medium=rss&utm_campaign=best

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Покоряя дно морское. Microsoft и его проект подводного ЦОД

Пятница, 29 Апреля 2016 г. 22:31 (ссылка)

К чему привело испытание под кодовым названием Leona Philpot



Под воду! Microsoft намерена развивать концепцию размещения серверной фермы на дне морском. Про прототип под кодовым названием Leona Philpot писала в одной из предыдущих статей. И вот, на конференции DatacenterDynamics Enterprise 2016, корпорация поделилась своими планами в ближайшем будущем развернуть под водой «настоящий» ЦОД, который уже в скором времени будет введен в эксплуатацию.







Напомню, что в августе 2015 года прототип серверной фермы цилиндрической формы, с габаритами примерно 3 на 2 метра, был погружен в километре от тихоокеанского побережья США и успешно эксплуатировался на протяжении четырех месяцев.







Leona Philpot был снабжен большим количеством теплообменников, которые в свою очередь передавали излишнее тепло от серверов в холодную воду.







Инженеры Microsoft поместили серверы внутри контейнера, управление ими велось в удаленном режим. Испытание длилось 105 дней. После того как подводная серверная ферма была поднята со дна, начался анализ полученных результатов.







Он был поднят в ноябре и перевезен на грузовике в штаб-квартиру Microsoft в Редмонде, штат Вашингтон (США), для дальнейшего анализа.











Испытание прошло успешно, без сбоев в работе оборудования + достигнута высокая энергоэффективность. Что касается системы охлаждения, она работала хорошо и превзошла некоторые из целевых параметров в области эффективности.











По словам топ-менеджера, этот результат придал инженерами Microsoft уверенности относительно того, что им следует разместить подводный ЦОД на еще большей глубине, в еще более холодной среде, поэтому было принято решение — развивать данную концепцию для дальнейшего строительства серверных подводных царств хранения информации. Изначально, прототип был погружен на 10 метров, теперь же компания уверена, что можно «окунуть» серверную ферму поглубже.







Представитель корпорации Microsoft Бен Катлер заявил, что размеры будущего подводного дата-центра будут в четыре раза больше, чем трестируемый прототип Leona Philpot, а мощность, помещенного внутрь ЦОД оборудования, достигнет половины мегаватта.



По словам Катлера, можно развернуть дата-центр мощностью в 20 мегаватт (или больше), если обьединить в один ЦОД такие отдельные модули. Благодаря тому, что такое хранилище данных будет развернуто рядом с побережьем крупного города это обеспечит минимальные задержки для пользователей/клиентов, живущих поблизости. Плюс еще в том, что такая серверная ферма обойдется в разы дешевле, чем на суше, а мобильность подводного ЦОД предоставит возможность перемещать его в кратчайшие сроки в нужные регионы.









Что касается выработки энергии для таких подводных царств



Проект Microsoft предполагает комплектовать подводные дата-центры турбинам, их планируется использовать для выработки электроэнергии с помощью механической энергии океанских волн и течений. Поэтому инженеры корпорации сейчас активно изучают насколько целесообразно использовать подводные генерирующие мощности (планируется использовать турбины, которые будут генерировать электричество за счет движения воды под поверхностью океана, волн).



Работа над проектом автономного подводного дата-центра дала специалистам корпорации возможность разработать новый подход по работе с серверами без физического доступа операторов к серверам. Для того, чтобы повысить эффективность удаления тепла первый модуль был заполнен азотом. Это помогло избежать сбору пыли на компонентах вычислительных систем. В качестве охлаждения прототипа был использован внутренний контур охлаждения и внешний теплообменник на базе килевого охладителя и ряда нестандартных конструкций от Microsoft.



Среди преимуществ подводного дата-центра — сокращение расходов за счет использования воды для охлаждения серверов и вспомогательного оборудования внутри серверной фермы, организация электропитания за счет той же воды, экономия на приобретении или строительстве недвижимости и уплаты налога на имущество.



Экологичен ли такой ЦОД



Прототип Leona Philpot не оказал негативного влияния на окружающую среду. Сам модуль генерировал очень мало тепла, так что даже разнообразные представители местной фауны облюбовали место на подводном ЦОД. Новый прототип, как уверяется, сможет демонстрировать нулевой углеродный след, при этом для охлаждения серверов не будет надобности в заборе воды извне.











На данный момент исследуются методы развертывания вычислительной инфраструктуры, которые позволят размещать дата- центры и на более серьезных глубинах, но при этом они не будут негативно влиять на окружающую среду в целом. Для этого в работу над проектом были привлечены сторонние ученые.



Project Natick







Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/282754/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

ЦОД DataPro: системы охлаждения и пожаротушения

Среда, 13 Апреля 2016 г. 16:48 (ссылка)

Немного о проекте DataPro. В предыдущем материале мы рассказывали о системе бесперебойного гарантированного электроснабжения и дизель-роторных ИБП (DRUPS) дата-центра DataPro, имеющего сертификат соответствия уровню доступности Tier III Uptime Institute. DRUPS практически полностью исключают возможность отказа резервной системы энергоснабжения и выходят на рабочую мощность всего за несколько секунд.





Теперь речь пойдет о системах охлаждения и пожаротушения, используемых в DataPro. Под катом больше деталей и видео срабатывания системы газового пожаротушения при тестовых испытаниях.



Система охлаждения EcoBreeze



В типичном дата-центре значение PUE (Power Usage Effectiveness — определяется, как соотношение мощности, потребляемой всем дата-центром, к мощности, потребляемой ИТ-оборудованием) достигает в среднем 1,6–2 именно за счет питания систем охлаждения. Поэтому производители этого оборудования давно пытаются разработать более эффективные системы. Одним из таких решений стала модульная система естественного охлаждения (фрикулинга) с дополнительным орошением — EcoBreeze.



В центре обработки данных DataPro находится одна из первых и крупнейших в России инсталляций системы охлаждения EcoBreeze от Schneider Electric.





В 2010 году компания American Power Conversion (APC), позднее вошедшая в состав Schneider Electric, представила первую воздушную систему кондиционирования ЦОД с экономайзером, разделяющим внутренний и наружный воздушные потоки. Эта система была разработана в соответствии с повышающимися требованиями к энергоэффективности ЦОД. В ней используется «естественное» охлаждение («непрямой» фрикулинг).

В EcoBreeze применяется принцип косвенно-испарительного охлаждения воздуха. Теплый воздух от стоек в ЦОД поднимается вверх и через воздуховод попадает в теплообменник кондиционера вне помещения ЦОД. Теплообменник продувается уличным воздухом, горячий воздух охлаждается и поступает назад в ЦОД.



EcoBreeze использует несколько методов переноса тепла из ЦОД в окружающую среду. В отличие от других систем фрикулинга, здесь применяется два метода естественного охлаждения:







1. Охлаждение воздушных потоков, в ходе которого происходит теплообмен между прохладным наружным воздухом и горячим воздухом из помещения дата-центра, причем их смешения не происходит. В теплообменнике для передачи тепла от одного воздушного потока к другому используются улучшенные материалы.







2. Если температура наружного воздуха недостаточно низкая для охлаждения, система переходит на режим дополнительного орошения — поверхность теплообменника покрывается тонким слоем воды.





На крайний случай, когда и системы орошения оказывается недостаточно, у EcoBreeze есть третий режим работы — фреоновый цикл с компрессором переменной производительности. По существу, это классический фреоновый кондиционер, призванный обеспечить круглогодичное охлаждение.





Решения EcoBreeze устанавливаются за пределами ЦОД, не занимая в нем полезной площади. После заводской сборки модули системы проходят предварительную проверку и монтируются на объекте.







Система кондиционирования ЦОД EcoBreeze поставляется в виде модулей мощностью по 50 кВт, которые можно объединять в группы, включающие до четырех (200 кВт) или восьми (400 кВт) модулей. Модульная конструкция позволяет масштабировать систему по холодопроизводительности.Такой подход дает возможность приобретать оборудование, которое соответствует текущим требованиям к кондиционированию ЦОД, сэкономить как начальные инвестиции так и эксплуатационные расходы. Кроме того, модульность системы обеспечивает резервирование на уровне модулей и ее работоспособность во время технического обслуживания или ремонта.



Как она работает?



Рассмотрим теперь подробнее, как все это работает. Выпущенная в 2010 году система и сегодня продолжает оставаться передовым решением. В 2014 году Schneider Electric начала серийное производство EcoBreeze. Пока что во всем мире смонтировано немногим более двух десятков систем.



Итак, для максимальной энергоэффективности ЦОД EcoBreeze использует преимущества климата, и в ней предусмотрено несколько способов охлаждения с возможностью автоматического переключения между ними:




  • При прямом воздушном теплообмене для охлаждения используются только электронно-коммутируемые вентиляторы, а воздушный экономайзер системы EcoBreeze работает в режиме рекуператора. В режиме прямого воздушного теплообмена горячий воздух прокачивается электронно-коммутируемыми вентиляторами через каналы косвенного испарительного охладителя (IEC). После первоначального охлаждения воздух выходит из IEC, проходит через систему кондиционирования и возвращается в центр обработки данных.




  • При превышении окружающей температурой порога +7°C (эта величина может корректироваться) подключается дополнительное орошение. Используется косвенно-испарительное охлаждение: воздух охлаждается за счет испарения воды с наружной стороны каналов теплообменника.




  • При высокой температуре окружающей среды (+27°C и выше) подключается фреоновый контур, компрессор которого имеет частотное регулирование.



Таким образом, при низких температурах система обходится и без воды, и без фреона, работая только от окружающего воздуха. При повышении температуры окружающей среды задействуется орошение, а если и этого недостаточно, то применяются компрессоры.



В условиях нашего климата большую часть года EcoBreeze может охлаждать ИТ-нагрузку без включения фреонового контура, затрачивая на это минимум электроэнергии. Считается, что применение EcoBreeze совместно с другими энергоэффективными компонентами инженерной инфраструктуры ЦОД позволяет достичь среднегодового значения PUE 1,25–1,3.



Наружный воздух не смешивается с воздухом из ЦОД, исключено попадание воды и фреона в машинный зал. А для наращивания мощности можно просто добавлять модули EcoBreeze.



Система интеллектуального управления и резервируемые компоненты воздушных экономайзеров EcoBreeze призваны обеспечить высокую надежность и готовность системы охлаждения ЦОД.





Система EcoBreeze предусматривает непрямой фрикулинг (то есть наружный и внутренний воздух не перемешиваются) с дополнительным орошением теплообменника «воздух-воздух»: испаряясь, вода остужает наружный воздух, охлаждающий трубки, по которым передается воздух внутреннего контура.





Вся система кондиционирования ЦОД расположена за его пределами. В DataPro она смонтирована на крыше здания. Сейчас установлено пять таких систем по восемь модулей в каждой.



Что это дает?



Подобная технология позволяет значительную часть года тратить электроэнергию лишь на питание вентиляторов, подающих воздух из ЦОД и обратно, а также вентиляторов, продувающих воздух через теплообменник. Для систем, подобных EcoBreeze, коэффициент эффективности (Coefficient of Performance, COP) может в несколько раз превосходить показатель лучших классических чиллерных систем. Кроме экономии электроэнергии достигается и выигрыш по площади: альтернативные решения занимают вдвое больше места.



По оценкам экспертов, для московского климата энергопотребление системы EcoBreeze примерно в три раза ниже, чем у системы на охлажденной воде, и примерно в шесть раз ниже, чем энергопотребление системы на фреоне. Кроме того, благодаря возможности перенаправления формируемых EcoBreeze потоков воздуха из одного машинного зала в другой, в ЦОД DataPro удалось повысить уровень утилизации мощности системы холодоснабжения до 80%. 3–4 месяца в году EcoBreeze работает «в полную силу», остальное время она функционирует в режиме фрикулинга.



Два пожарных бака на 260 м3 используются как резервные емкости для воды, которую можно использовать при проблемах в системе городского водоснабжения. Вода рециркулируется, но требует регулярного обновления из-за загрязнения. Летом уходит порядка 200 м3 воды в месяц. Нормальный расход составляет всего 20–30 м3 ежемесячно.



Еще одна особенность ЦОД DataPro: соединение фреоновых трасс кондиционеров в нем выполнено без пайки, с помощью фитингов. Такая реализация позволяет производить оперативный монтаж и ремонт без проведения огнеопасных работ.





Пример работы системы охлаждения ЦОД с отображением в системе диспетчеризации.



Сейчас расчетная нагрузка на каждый зал — 260 кВт. Проектная нагрузка на зал — 360 кВт. В процессе сертификации на Uptime Tier III одна система EcoBreeze выключалась полностью, и все машзалы работали при полной проектной нагрузке (5 залов по 360 кВт.). Если из строя выйдет более двух модулей EcoBreeze, запустятся резервные фреоновые кондиционеры.





Детальная информация по EcoBreeze. Цифры показывают реальную загрузку модулей. Индикаторы показывают, когда нужно менять или чистить воздушные фильтры.



Почему же в ЦОД DataPro используются еще и фреоновые кондиционеры? На самом деле, у них двойная функция: кроме резервирования они служат для поддержания требуемого уровня влажности. Кроме того, для поддержания требуемого уровня влажности, в машинных залах ЦОД установлена отдельная система адиабатического увлажнения.





Контрольные панели EcoBreeze в центре управления ЦОД DataPro.



Первоначально планировалось развернуть в новом ЦОД DataPro 26 установок EcoBreeze холодопроизводительностью 350 кВт каждая. Это была бы одна из крупнейших инсталляций системы в Европе. Однако на сегодняшний день смонтированы восемь систем EcoBreeze.





Схема охлаждения машинных залов.



Система позволила осуществить поэтапное развертывание и добиться высокого коэффициента энергоэффективности.



Специфика эксплуатации EcoBreeze



Система EcoBreeze подойдет далеко не для всех дата-центров. Дело в том, что для ее размещения потребуется значительная площадь, при вводе в эксплуатацию может возникнуть необходимость внести определенные «доработки», а ее обслуживание предъявляет высокие требования к квалификации персонала. Следующий момент, о котором мы говорили ранее, — EcoBreeze целесообразно использовать в масштабных проектах при нагрузке, приближенной к 100%. Именно в таких условиях система демонстрирует наилучший показатель PUE, в расчете которого следует учитывать, в том числе, и расход на подачу воды, требующей «водоподготовки» — снижения уровня жесткости. Также стоит обратить внимание на высокие капитальные затраты на покупку и монтаж модулей по сравнению с фреоновыми кондиционерами эквивалентной мощности. Отдельный нюанс для ЦОДов, размещенных в черте города, — требуется регулярная замена воздушных фильтров HEPA в системе прямого фрикулинга, которые в некоторых случаях могут стоить дороже сэкономленной ею электроэнергии.



Продуманное планирование всегда поможет оценить перспективность того или иного проекта, а также найти возможные пути нивелирования минусов. Например, в DataPro предусмотрели практически все, в частности, для оптимизации расходов на эксплуатацию, вместо фирменных воздушных фильтров производителя оборудования используются фильтры собственного изготовления из нетканого фильтрующего материала



Система пожаротушения Vesda



Система пожарной безопасности в ЦОД DataPro реализована с помощью оборудования Vesda производства компании Autronica, a в качестве огнетушащего вещества системы газового пожаротушения выбран биобезопасный газ — хладон 227. Хладон распределяется по защищаемому объему помещений с помощью трубной разводки и насадок радиального распыла. Огнетушащее вещество размещается в модулях газового пожаротушения.



Машинный зал оборудован системой сверхраннего обнаружения дыма Vesda, в которой для контроля воздуха горячего коридора используется лазерный газоанализатор. С помощью газоанализатора система раннего пожаро- и дымообнаружения постоянно анализирует состав воздуха. В отличие от обычных офисных детекторов дыма, это позволяет выявить признаки возгорания на самых ранних этапах и предотвратить ущерб от огня.



Газоанализатор выявляет наличие примесей, типичных для горения пластмассы или изоляции. При обнаружении таких примесей дается тревожное сообщение. Для исключения ложных срабатываний система газового пожаротушения функционирует в ручном режиме, то есть запускается дежурным инженером и сотрудником охраны при значительном возгорании.



При получении тревожного сообщения персонал, действуя по заранее составленному плану, проверяет наличие очага возгорания и при обнаружении такового приводит в действие систему пожаротушения или просто использует огнетушитель, обесточив соответствующий сервер или стойку. Это позволяет избежать случайного срабатывания системы и адекватно реагировать на такие события, как появление дыма от неисправного конденсатора в сервере.





В случае выявления, например, повышенной концентрации углерода система дает тревожный сигнал в центр управления ЦОД и на пульт охраны, показывая на соответствующем индикаторе место возможного возгорания. Цифры на панелях системы пожарной сигнализации показывают уровень сигнала лазера.



В отличие от большинства других ЦОД, система пожаротушения в дата-центре DataPro проверялась в «боевом» режиме: имитировалось возгорание, в результате срабатывания системы после эвакуации персонала машзал заполнялся углекислым газом, «пожар» в отсутствии кислорода гас, и углекислый газ из зала откачивался. Кроме того, регулярно проводятся учения и тренинги персонала.







Как проходил тест системы пожаротушения. Рекомендуем уменьшит звук, т.к. сигнализацию невозможно не услышать.



Дополнительно установлена штатная система пожарной сигнализации Bosch. Некоторым клиентам DataPro, в соответствии со своими корпоративными стандартами, требуется установки дополнительного оборудования защиты от возгорания, в этом случае устанавливаются необходимые для них системы.



Все оборудование дата-центра и клиентское оборудование застраховано.





Один из клиентов дата-центра инициировал проведение внешнего аудита ЦОД. По результатам аудита специально для этого клиента была дополнительно смонтирована система автоматического газового пожаротушения в помещении РП-10 кВ. В первоначальном проекте установка данной системы в РП не предусматривалась.



В настоящее время газовое пожаротушение предусмотрено во всех машзалах, помещениях кроссовых и дизель-роторных ИБП. Система способна справиться с возгоранием одновременно в двух машзалах и имеет 100% резерв, что позволит ей уже через минуту прекратить пожар еще в двух залах. После этого потребуется перезарядка баллонов.



Корпоративные ЦОД для «моноклиентов» сегодня научились строить многие российские интеграторы. Коммерческий ЦОД — совсем другая история, здесь несколько иные требования к системам жизнеобеспечения. Рассказ об этом мы продолжим в наших следующих материалах, посвященных ЦОД DataPro.





DataPro размещает проекты от одной стойки, также клиенту следует самостоятельно договариваться о сотрудничестве с операторами связи.

HOSTKEY является официальным розничным партнером DataPro. Если необходимо разместить оборудование, арендовать выделенные сервера или реализовать сложный конвергентный проект под высокий SLA в сертифицированном на Tier III ЦОД DataPro, обращайтесь.



Размещение в наших стойках 1U оборудования (современный сервер с любым блоком питания, не твин) с резервированным выделенным каналом доступа в Интернет 100Мбит/сек стоит 4000 руб. в месяц, включая НДС или всего 40000 руб. в год. Можно арендовать целую стойку, 1/2 или четверть стандартной стойки, в том числе и под пломбу. Мы поможем с установкой, подключением и предварительной настройкой переданного оборудования.



Мы предлагаем для аренды в DataPro любые выделенные серверы Supermicro или HP, дисковые полки HP/Dell и сетевую инфраструктуру (VLAN) от 100Мбит/сек до 10Гбит/сек (включая средства защиты и роутеры) по разумным ценам. Вы можете создать гибридное решение, состоящее из ваших серверов, арендованных серверов и сетевой инфраструктуры. HOSTKEY предоставляет высочайший SLA по обслуживанию собственного оборудования клиентов.



Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/281457/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Планирование вычислительных ресурсов и выбор серверов для RUVDS

Среда, 06 Апреля 2016 г. 17:58 (ссылка)





RUVDS, как официальный партнер компании Huawei, занимается внедрением новой системы виртуализации, чтобы предоставить своим клиентам доступ к современным облачным технологиям с высокой степенью надежности и защищенности. Это новый для нас опыт, и мы продолжаем делиться им с читателями нашего блога.

Начало вы можете прочитать в первой статье из этой серии. Перед вами вторая. В ней мы проведем планирование необходимых вычислительных ресурсов и рассмотрим пример того, как рассчитать необходимое количество серверов подходящей конфигурации.

В проекте RUVDS для создания облачной платформы виртуализации используются серверы на основе процессоров с архитектурой х64. Физические серверы объединяются в пулы вычислительных ресурсов, а услуги в ходе миграции переносятся на облачную платформу. Совместное использование ресурсов в рамках облачной платформы позволяет реализовать динамическое планирование ресурсов, максимизирует эффективность их использования и снижает затраты на аппаратные средства и техническое обслуживание. Компоненты базы данных могут быть развернуты на физических серверах.



При выборе серверов для RUVDS руководствовались следующими требованиями:

• Нам нужен сервер c современной архитектурой, объединяющей средства поддержки сети, управления, электропитания и теплоотведения в единой полке. Он должен обеспечивать возможность совместного развертывания нескольких серверов, упрощать каблирование, необходимое для реализации сетевых соединений проекта, максимально эффективно использовать пространство в серверной стойке, а также поддерживать горячую замену.

• В каждом сервере должно быть не менее 4 процессоров и не менее 128 ГБайт оперативной памяти. Данное требование вызвано тем, что серверы используются для создания виртуальных пулов ресурсов.



Основываясь на этих требованиях, для клиентов проекта RUVDS мы выбрали блэйд-серверы с не менее чем 4 процессорами Intel Xeon последних поколений и не менее чем 384Гб оперативной памяти.



Пример планирования количества серверов

Для расчета используются значения SPECint2006 Rates. Значение SPEC взяты на сайте www.spec.org/cgi-bin/osgresults?conf=rint2006.

Далее приведены два способа расчета: способ оценочного расчета на основании расчета общих требования к параметрам SPEC и точный способ на основании преобразования значения SPEC в количество vCPU с последующим преобразованием количества vCPU в количество серверов.

Данные расчеты приведены в качестве примера, чтобы понять, как проводится расчет количества серверов.




Способ 1: расчет на основании общих требований к параметрам SPEC

Суть этого способа заключается в следующем: все значения SPEC, необходимые для исходных прикладных систем, складываются для вычисления суммарной вычислительной мощности, после чего запрашиваются значения SPEC для новых серверов. Количество серверов равно суммарной вычислительной мощности, деленной на значение SPEC для новых серверов.



Пример расчета приведен ниже.

Средний коэффициент загрузки ЦП для 107 серверов Dell PowerEdge 2950 (8 Гбайт памяти и два ЦП E5420 с основной частотой 2,5 ГГц и четырьмя ядрами) составляет 20%. Значение SPEC равно 118 (оно получено на сайте www.spec.org/cgi-bin/osgresults?conf=rint2006).

Требуется осуществить миграцию прикладных систем на серверы RH5885 (каждый с четырьмя восьмиядерными ЦП E7-4820 с основной частотой 2 ГГц). Значение SPEC равно 775.

Следовательно, количество серверов можно рассчитать по следующим формулам:

Потребность в вычислительной мощности =

https://habrahabr.ru/post/281086/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

RUVDS запускает партнерскую программу

Пятница, 01 Апреля 2016 г. 15:32 (ссылка)

Партнерская программа — это формат рекламной активности сервиса, направленный на увеличение продаж. RUVDS предоставляет участникам партнерки ссылки для рекламы своих серверов и выплачивает процент с покупок, совершенных пришедшими по рекламе партнера клиентами.

image

Партнерская программа RUVDS хороша тем, что позволяет даже новичкам зарабатывать сравнительно быстро неплохие деньги, не создавая своего продукта.

Для того, чтобы зарабатывать на партнерке RUVDS — не обязательно даже иметь свой сайт или рассылку.

Вы можете просто рекомендовать наши VPS/VDS сервера своим друзьям и клиентам и зарабатывать с продаж с того момента, когда покупатель приобретает сервер.



5 причин стать нашим партнером:



1.Мы гарантированно выплачиваем комиссионные по вашему требованию.

2.Ваш заработок составит от 15% до 25%.

3.Пригласив клиента один раз, вы зарабатываете на нем пожизненно.

4.Наша компания предлагает одни из лучших по техническим показателям виртуальные сервера при самой низкой стоимости на рынке хостинга.

5.Участвуя в партнёрской программе RUVDS, Вы можете значительно сократить расходы на оплату своего виртуального сервера, а также неплохо заработать!



Несколько рекомендаций по эффективному размещению свой партнерской ссылки:

социальные сети

тематические блоги

тематические форумы

оставлять комментарии к каким-то тематическим постам

электронные письма друзьям и знакомым

рассылки по подписчикам вашей группы, сайта



Подробнее об условиях и способе подключения к партнерской программе по ссылке ruvds.com/partner



Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/280696/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество

Следующие 30  »

<цод - Самое интересное в блогах

Страницы: [1] 2 3 ..
.. 10

LiveInternet.Ru Ссылки: на главную|почта|знакомства|одноклассники|фото|открытки|тесты|чат
О проекте: помощь|контакты|разместить рекламу|версия для pda