Случайны выбор дневника Раскрыть/свернуть полный список возможностей


Найдено 6875 сообщений
Cообщения с меткой

хостинг - Самое интересное в блогах

Следующие 30  »
rss_rss_hh_new

Нужен энергоэффективный дата-центр? Тогда стоит построить его под водой

Четверг, 23 Марта 2017 г. 16:52 (ссылка)





Когда Шон Джеймс, специалист по разработке дата-центров из Microsoft предложил коллегам идею создания ЦОД под водой, его посчитали едва ли не сумасшедшим. Но он не забросил свою идею, а стал постепенно развивать. С течением времени у него появились единомышленники. Примерно за год после появления идеи был разработан прототип небольшого ЦОД, готового для размещения на дне Тихого океана.



Речь идет о проекте, который получил название Project Natick. О нем мы уже писали, а сейчас появилась более подробная информация с некоторыми техническими деталями. По словам авторов идеи, основные преимущества такого типа ЦОД-ов это снижение затрат энергии на охлаждение оборудование, а также возможность размещения дата-центров ближе к пользователям, что сократит время обработки запросов. В Microsoft подсчитали, что около 50% населения мира живут примерно в 100 км от побережья. Еще одно преимущество — модульность.



Плюс ко всему, в компании считают, что на строительство таких дат-центров понадобится меньше разрешений от регуляторов.



Как это выглядит?



По замыслу, подводный ЦОД от Project Natick будет представлять собой систему из отдельных стальных цилиндров, в каждом из которых располагается типовое серверное оборудование. Дата-центр будет состоять из большого количества таких цилиндров. Подводный ЦОД сможет вмещать несколько тысяч серверов. Дата-центры будут располагаться рядом с побережьем на глубине от 50 до 200 метров. Стальные цилиндры могут как плавать (для этого создается специальная система балансиров), так и быть прикрепленными к дну моря или океана.



Все цилиндры будут находиться под водой, их будут поднимать на поверхность только в двух случаях. Если потребуется заменить сервера, которые находятся в них либо же изменятся условия рынка и дата-центр решат перенести. Управлять дата-центром придется исключительно удаленно, без возможности исправить какую-то техническую проблему или заменить вышедший из строя аппаратный элемент.



Модульная структура таких серверов делает их производство более простой задачей, чем создание оборудования для обычных дата-центров. У Microsoft будет специальный промышленный объект, где элементы подводных дата-центров будут производиться «под ключ». На складе всегда будет несколько готовых стальных цилиндров, полностью укомплектованных и готовых к отправке в любую точку мира. Никаких модификаций оборудования не потребуется, все соответствует единому стандарту. Это позволит строить дата-центр за 90 дней вместо обычных нескольких лет. Речь идет о 90 днях с момента указания на развертывание дата-центра от руководства до момента введения всей системы в строй.







Высота цилиндров составляет около 3 метров, диаметр — 2 метра. Эти цилиндры полностью герметичны. Контейнеры было решено сделать цилиндрической формы для того, чтобы они лучше держали давление на глубине. Конечно, даже при низкой окружающей температуре оборудование внутри нагревается. Так вот, система охлаждения здесь жидкостная. Внутри — теплообменные устройства, переводящие тепло из воздуха в жидкость.



Представители Microsoft заявили, что если дата-центр будет большим, возможно, придется использовать жидкие диэлектрики или гелий под высоким давлением. При этом цилиндры нужно покрывать каким-то материалом, который будет препятствовать их обрастанию биомассой (ракушки, водоросли) и прочее, что может мешать эффективному охлаждению.







Например, капсула, которая тестировалась ранее, уже в первые же сутки после погружения стала центром внимания для морской живности — крабов и других животных. В то же время, оказалось, что разработанная для подводных дата-центров система охлаждения работает вполне эффективно (при температуре воды в 10-18 градусов Цельсия).







Что касается снабжения дата-центра энергией, в будущем компания рассчитывает на возобновляемые источники. Это ветер, энергия приливов, волн и течения. Сеть подключается с берега при помощи оптоволоконного кабеля.



Время эксплуатации системы составляет около 5 лет. После завершения этого срока на место прибудет специальная команда, которая либо заменит устаревшее оборудование, либо заберет ДЦ для переработки. В целом, предусмотрено 4 возможных цикла обновления оборудования, что позволит подводному ЦОД работать вплоть до 20 лет.




Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/324708/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Как мы создавали хостинг-провайдер с собственным ЦОД (продолжение)

Среда, 22 Марта 2017 г. 09:06 (ссылка)

Всем привет! В очередной раз получается большая пауза между публикациями. Очень хочется её сократить, но пока никак не удаётся. Буду над этим работать. Сегодня затронем ряд вопросов, которые задал нам один из наших читателей. Вопросы действительно важные и достаточно интересные. Спасибо Вам большое. Вообще хочется всех поблагодарить, и тех, кто читает, и тех, кто участвует в обсуждении, все комментарии воспринимаются объективно и принимаются во внимание. Итак, сегодня мы коснёмся планировки нового ЦОД, настройки сети и серверов, каналов связи и их организации на территории завода, а также изменения, которые мы внесли в конструкцию ДГУ.http://savepic.ru/13333653.jpg

В прошлой публикации habrahabr.ru/post/322192 мы остановились на том как самостоятельно приступили к планировке и ремонту помещения. На наведение порядка, вывоз мусора, ремонт своими силами, ушло где-то три месяца. Вначале я делал один из серверных залов, чтобы перенести часть оборудования туда и так как имел ограниченный бюджет, делал всё сам, одновременно работая с клиентами. Всё это конечно наложило определённый след на сроки переезда. Уже после, сделав один из залов, я перевёз туда оборудование, настроил его и приступал постепенно к дальнейшему ремонту. Вот так, в течении трёх месяцев, я привёл всё в порядок.

Итак, из каких помещений состоял наш новый ЦОД? Распланировать наше помещение мы решили следующим образом: на 70 кв. м. располагались два серверных зала 20 и 25 кв. м. В одном из залов находились стойки с оборудованием, в другом размещалась техподдержка. Также отвели помещение для одного из наших генераторов, менее мощного. Кондиционеры и второй генератор находились за пределами ЦОД, но на нашей территории. Вот в принципе и всё, что мы могли себе позволить разместить на 70 кв. м. В последствии, благодаря договорённостям мы добавили ещё 15 кв. м., освободили вторую серверную и техподдержка переехала именно в эту комнату 15 кв. м., освободив место для расширения. Так через некоторое время второй зал был занят оборудованием. Мы не всё фотографировали, потому что в тот момент ещё не было мыслей что-то рассказывать о нас, даже не представлял, что это можно вот так сделать. Но вот выложу что есть, чтобы примерно имелось представление как было до и становилось после. savepic.ru/13312149.jpg

savepic.ru/13318293.jpg

savepic.ru/13363348.jpg

Как я уже писал, на новую площадку закупали всё новое. Со средствами пожаротушения мудрить ничего не стали, решили пока остановиться на противопожарных модулях, о которых было написано в прошлых публикациях. Это потом, впоследствии, мы уже стали использовать другую противопожарную систему, об этом позже и вы поймёте почему очень скоро. Про ИБП, ДГУ и кондиционеры я писал тоже в прошлой публикации, а вот про АВР ни слова. Учитывая ошибки прошлых лет, к этому вопросу мы подошли более серьёзно. На этот раз воспользовались услугами компании из нашего города и нам собрали АВР по нашему проекту. Потрачено было около 40000 рублей. Вот его фото.

savepic.ru/13364372.jpg

savepic.ru/13367444.jpg

Также мы добавили аварийное освещение. Не смотря на гарантированное энергоснабжение, мы решили приобрести светильники аварийного освещения. Мало ли что… Такой светильник является автономным, в случае прекращения подачи электроэнергии светильник переходит на работу от встроенного аккумулятора. Так не разу не пришлось воспользоваться ни аварийным освещением, ни противопожарной системой.

Для переезда на новую площадку нам было необходимо приобрести другой маршрутизатор, достаточно профессиональный. Опять же в целях экономии купили бывший в употреблении, потратив около 100000 рублей. Новый такой стоил порядка 1000000 рублей. Чувствуется разница, правда?

savepic.ru/13357204.jpg

Нужно было его настроить, с этим пришлось повозиться. Необходимо было сбросить старый пароль. Двое специалистов пытались это сделать, но ничего не вышло. Я так и не понял почему, видимо не работали с подобным железом. Пришлось разбираться самому. Оказалось, ничего сложного, поработал с поисковиком, нашёл решение и сбросил пароль. А вот для дальнейшей настройки пришлось пригласить посвященного человека, так как я объективно смотрел на вещи и не надеялся на свои возможности в данном случае. Он-то всё и сделал. Для того чтобы начать перенос виртуальных серверов мы между площадками проложили волокно, точнее взяли в аренду на время. Нужно было чтобы они взаимодействовали. Я такое не разу не делал, забегая вперед скажу, что с какими-либо трудностями столкнуться не пришлось. Работали два маршрутизатора, виртуальные сервера мы перенесли по сети, и клиенты даже не заметили этого. А физические приходилось отключать и перевозить. С каждым клиентом индивидуально договаривались, учитывая, когда ему будет удобно отключиться. Иногда получалось объединять в один временной промежуток по 10 серверов. Перевозил на своём легковом автомобиле. В среднем время отключения на каждого клиента занимало около двух часов, благо площадки, в рамках нашего города, находились недалеко друг от друга, на расстоянии 5 км. Переезжали где-то около месяца, так как повторюсь, учитывали время и возможности клиентов. В основном всё это происходило ночью. По настройке серверов сказать особо нечего. Так как оборудование б/у, если чего не знали, смотрели в интернете рекомендации и делали самостоятельно. Теперь что касаемо интернета… По интернет- провайдерам, завод предлагал своих операторов по совсем уж заоблачным ценам. Мы обращались к конкурсному управляющему, который отвечал за эти вопросы. Аудиенцию у него очень было сложно получить, в итоге мы с ним так и не встретились. IT-отдел отказывался, чтобы мы подключали своего оператора. В конце концов наше упорство было поощрено, и мы воспользовались услугами оператора с предыдущей серверной и завод взял лишь деньги за крепление кабеля к объектам.

Теперь по генератору. В ДГУ нам пришлось внести незначительные изменения в конструкции, для удобства обслуживания и работы, сейчас расскажу почему и что было сделано. При включении аварийного энергоснабжения и запуске ДГУ двигатель не заводился самостоятельно. По всей вероятности, причиной этого было попадание воздуха в систему. Приходилось вручную подкачивать топливо, а помпа ручной подкачки находилась в очень неудобном месте, плюс шаг был ну очень маленьким, всего 1 см. Не понятно, почему так неудобно было всё сделано. Это нас не устраивало, да и ненадёжно как-то. Пообщались с людьми, который сталкиваются по роду своей работы с дизелями и пришли к выводу, что нужно поменять помпу ручной подкачки, а также перенести её в другое, более удобное место.На фото как раз видно где располагается старая, фабричная помпа

savepic.ru/13331604.jpg

Мы решили не экономить и приобрели помпу иностранного производства, а также заменили топливные шланги на прозрачные, чтобы можно было наблюдать наличие топлива. На фото как раз видно новую помпу и общий вид, где располагалась старая и где теперь новая.

savepic.ru/13322388.jpg

Стрелочками как раз указано-вверху расположение фабричной помпы, внизу новая.

savepic.ru/13321364.jpg

Ну и конечно решили увеличить время запуска зажигания до 15 секунд. Это оказалось очень удобным решением. С проблемой мы справились, ДГУ заводится с пол оборота и по сей день, при необходимости. Но эта необходимость возникает крайне-крайне редко. Ну вот пока и всё, будем готовить следующий материал. Всем удачи и всего хорошего. До встречи. Продолжение следует……

Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/324546/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Pwn2Own 2017: итоги десятого по счету соревнования хакеров

Вторник, 21 Марта 2017 г. 15:14 (ссылка)





В этом году прошло уже десятое по счету соревнование хакеров Pwn2Own, которое проводится организацией Zero Day Initiative. Каждый год о ходе соревнований рассказывают и авторы Хабра, но в этом году почему-то этого не случилось. Поэтому мы, компания Kingservers, исправляем это упущение. Так вот, в этом году призовой фонд соревнования составил рекордные 1 миллион долларов. Участникам предлагалось показать свои навыки в пяти основных категориях.



Это взлом виртуальных машин (VMware Workstation и Microsoft Hyper-V), взлом браузеров и плагинов к ним (Microsoft Edge, Google Chrome, Mozilla Firefox, Apple Safari и Flash Player для Edge), повышение привилегий (Microsoft Windows, macOS и десктопная версия Ubuntu), взлом разного типа корпоративных приложений (Adobe Reader, Word, Excel и PowerPoint) и взлом серверов (Apache Web Server под Ubuntu). Надо сказать, что участникам удалось многое, соревнование было очень интересным.



В первый же день двум независимым командам удалось взломать Adobe Reader. После этого при помощи нескольких уязвимостей в ядре Windows OS специалисты повысили привилегии, получив высший уровень доступа. Кстати, обе команды были из Китая — вообще говоря, китайцы показали себя на этом соревновании просто отлично. Первая команда, 360 Security, за достижение цели получила $50 тысяч, вторая, Tencent — в два раза меньше.



Другим двум командам удалось взломать браузер Safari. Первой отличилась команда во главе с Samuel Gross и Niklas Baumstark. Вторая команда Chaitin Technology (Китай) тоже достигла цели. Обе команды участников работали с уязвимостями, которые открывали возможность выполнения стороннего кода с правами суперпользователя на macOS. По итогам взлома этого браузера первая команда получила $28 тысяч (им удалось выполнить цель лишь частично, добившись вывода сообщения на сенсорной панели нового MacBook Pro), вторая — $35 тысяч.









Во взломе Microsoft Edge, считающегося одним из наиболее устойчивым к взлому браузеров из-за наличия «песочницы», тоже отличились китайцы из Tencent. Они получили за выполнение поставленной цели уже $80 тысяч, поскольку этим специалистам удалось выйти за пределы «песочницы».



Кстати, Microsoft Edge стал одним из самых взламываемых браузеров на соревновании, его защиту удалось преодолеть пять раз. На третий день мероприятия в очередной раз Microsoft Edge взломал специалист по кибербезопасности Ричард Жу, который получил за свое достижение $55000.



Браузер Safari поддался участникам соревнования четыре раза, Firefox — один раз, Google Chrome взломать пытались, но не хватило времени.



Соотечественники Tencent, команда Chaitin, получила еще $15 тысяч за успех в атаке с применением повышения привилегий на уровне ядра в десктопной версии ОС Ubuntu 16.10. Китайцы показали взлом с использованием уязвимости в ядре Linux 4.8 (именно оно используется в названном дистрибутиве). Изначально у атакующего был лишь базовый доступ пользователя, но в итоге ему удалось получить root-права. Canonical уже известили о найденной уязвимости.



Крупнейшим призом стала сумма в $105000, которую получили представители команды Qihoo 360. У них удалось взломать защиту VMware Workstation. Начали китайцы с компрометации Microsoft Edge, затем перешли на ядро Windows, после чего достигли цели. Team Sniper тоже удалось преодолеть барьер между виртуальной машиной и ОС хоста.



По результатам соревнований вперед вышли китайцы. Первое место с максимальным количеством очков получила команда Qihoo 360. Второе и третье место досталось командам Tencent Team Sniper и Chaitin Technology, соответственно.



Компании, чье ПО было взломано, в срочном порядке выпускают патчи. Так, Mozilla еще в прошлую пятницу представила Firefox 52.0.1 с ликвидированной уязвимостью.




Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/324480/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

[Перевод - recovery mode ] Как облака меняют рынок колокации в дата-центрах

Вторник, 21 Марта 2017 г. 14:41 (ссылка)



Подготовлено Data Center Knowledge



Крупные поставщики облачных сервисов отнимают все больше и больше клиентских операций у дата-центров и при этом занимают все больше их мощностей для удовлетворения этой нагрузки, внося серьезные коррективы в мировой рынок услуг колокации в центрах обработки данных.



Согласно последнему отчету StructureResearch, одним из наиболее существенных изменений стало замедление темпов роста в розничной колокации и оживление на оптовом рынке размещения данных. На период с 2016 по 2017 год аналитики прогнозируют рост в розничной колокации на 14,3 процентов и на 17,9 процентов на оптовом рынке, при этом на розничную колокацию приходится 75 процентов рынка, а на оптовый рынок оставшаяся доля.



По оценкам StructureResearch, в 2016 году объем мирового рынка колокации, в том числе его розничного и оптового секторов, достиг 33,59 млрд долларов США, а прогнозируемый рост составляет 15,2 процента в год.



Вот как доход рынка центров обработки данных распределяется по регионам (диаграмма предоставлена StructureResearch):







Изменение темпов роста розничного и оптового рынков вызвано целым рядом факторов, но, по мнению Structure Research, наиболее существенную роль сыграли крупномасштабные облачные сервисы таких компаний, как Amazon и Microsoft. Например, по данным агентства коммерческой недвижимости North American Data Centers, в прошлом году компания Microsoft подписала соглашения на аренду площадок ЦОД с общей мощностью более 125 МВт лишь в США.



Не желая отставать от конкурентов, за 2016 год компания Oracle заключила семь оптовых соглашений в США на аренду площадок в дата-центрах с общей мощностью более 30 МВт. До мощностей Microsoft еще далеко, но так много компания Oracle еще не арендовала. Недавно, после открытия первой зоны доступности в Фениксе (США), компания открыла несколько площадок в северной Вирджинии, в Лондоне и в Турции. В каждом регионе находится не менее двух-трех ЦОД на несколько мегаватт, и на этом процесс расширения географического охвата новой облачной платформы компании Oracle еще далеко не завершен.



По данным NADC, примерно две трети из 30 крупнейших сделок на аренду ресурсов ЦОД, подписанных в Северной Америке в 2016 году, были заключены с гипермасштабируемыми поставщиками облачных услуг. Помимо Microsoft и Oracle в их число входят Salesforce, IBM SoftLayer и Box.



Замедление роста мелких игроков



Structure Research подчеркивает, что эта тенденция не означает спад розничного рынка услуг колокации в ЦОД. Состояние рынка все еще благоприятное и динамика роста положительная.

Тем не менее, в своем интервью с Data Center Knowledge, директор по исследованиям Structure Research и соавтор доклада Jabez Tan сообщает, что основное развитие осуществляется за счет роста верхушки рынка и стимулируется крупнейшими поставщиками. На нижнем и среднем сегментах рынка наблюдается снижение темпов роста при переходе доли дохода от розничной колокации к поставщикам облачных сервисов.



Сокращается целевая аудитория малых предприятий-поставщиков услуг колокации, которые не работают в нескольких регионах, поскольку они по сути нацелены на работу с малым и средним бизнесом, а именно таким предприятиям в первую очередь имеет смысл перенести приложения в облако. Многие небольшие провайдеры стремятся ускорить прирост доходов за счет предложения более сложных средств управляемых услуг, но, как указывает Тан, «многие из них растут не так быстро».



От нейтралитета провайдера к облачному нейтралитету



К другим важным переменам, вызванным облачными технологиями, относится смещение акцента с нейтралитета провайдера к облачному нейтралитету. По мере того, как все больше предприятий переносят операции в облако, по прогнозам дата-центров будет нарастать рост потребность в возможности пользоваться услугами нескольких провайдеров, и обеспечение удобного доступа к максимальному числу облачных провайдеров станет важнейшей составляющей стратегии поставщиков услуг колокации.



Некоторые провайдеры (особенно Equinix) уже несколько лет говорят о необходимости предоставить клиентам возможность разрабатывать стратегию на основе нескольких облачных сервисов. Однако, нет оснований полагать, что мультиоблачное размещение уже широко применяется. На сегодняшний день кажется, что обеспечение доступа к множеству облачных сервисов для провайдеров колокации это всего лишь часть стартовой стратегии. Тан заявил: «Это направление находится на ранней стадии развития. Со временем ситуация будет меняться».



Азиатско-Тихоокеанский регион обгонит Северную Америку



По прогнозам Structure Research Азиатско-Тихоокеанский регион скоро обгонит Северную Америку по доле на рынке колокации в ЦОД.



Как считает Тан, Китай будет продолжать стимулировать рост, но регион насыщен странами с развивающимися рынками, как например, Малайзия и Тайланд, которые будут питаться инерцией стран со зрелыми рынками, таких как Индия, Япония, Сингапур и Австралия. Все это приведет к тому, что по прогнозам Structure Research к 2020 году объем Азиатского-Тихоокеанского региона по доле на рынке услуг колокации в ЦОДах превзойдет североамериканский рынок.



Вот как по прогнозам Structure Research изменится расстановка сил на рынке колокации в течение следующих трех лет:







Выбираете виртуальный сервер или хостинг? Попробуйте воспользоваться поиском на HOSTING.cafe.
Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/324442/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Анализ спроса на виртуальные серверы

Вторник, 21 Марта 2017 г. 12:36 (ссылка)

В предыдущей статье я собрал информацию по предложению виртуальных серверов различными компаниями. В настоящей статье будет рассмотрена статистика поисковых запросов на сайте Поиск VPS, для чего было собрано чуть более 500 тысяч запросов от пользователей.





Это не те серверы, которые вы ищете



Объем диска



По умолчанию задается минимальное значение объема диска 1 Гб, максимальное — 200 Гб.

Запросов с двумя параметрами оказалось 12749, с заданным минимальным значением — 32154, с заданным максимальным значением — 4046.



По минимальному объему диска чаще всего ищут:



Запросы по минимальному значению дискового пространства:







По максимальному объему диска преобладают следующие поисковые запросы:



Запросы по максимальному значению дискового пространства:







Тип диска в поисковых запросах был указан 27617 раз. Более чем в 70% случаев пользователи ожидают от хостеров использования SSD накопителей.







Оперативная память



Минимум оперативной памяти искали 73472 раз, максимум — 25405, оба значения были заданы в 16482 запросах.



По минимальному объему оперативной памяти выделяются такие значения:



Запросы по минимальному объему оперативной памяти:







Для максимального объема оперативной памяти часто указывают:



Запросы по максимальному объему оперативной памяти:







Процессор



Минимальная общая частота процессора используется в 19748 запросах, максимальная частота — в 1286 запросах.



Частоту процессора при поиске указывают следующую:



Запросы по минимальной общей частоте процессора:







Максимальные значения общей частоты процессора, часто использующиеся при поиске таковы:



Трафик и скорость канала



Минимальное значение трафика задано в 6983 запросах, максимальное — всего в 215 запросах. Минимальные показатели трафика, включенного в тарифный план, большинство пользователей видит так:



Географическое положение



Предпочтительное расположение дата-центра было указано в 73298 запросах.

В порядке убывания популярности:



Наиболее востребованные страны:







Виртуализация



Используемый тип виртуализации был указан при поиске 38156 раз.

Чаще всего пользователи ищут:



Запросы по типу виртуализации:







Операционная система



Возможность установки определенной операционной системы указана 49348 раз.

Чаще других пользователи указывают:



Запросы по операционным системам:







Способы оплаты



Возможность оплаты услуг определенными способами указана в 31267 запросах.

Наиболее востребованными способами отъема денег оплаты оказались:







Администрирование



По типам администрирования 11377 запросов распределились следующим образом:







Лицензии на панели управления



Наличие лицензии на панель управления, включенной в цену виртуального сервера:







Наличие IPv6



Поддержка протокола IPv6 указана в 15438 запросах, ее отсутствие — в 13735 запросах.



Цена



Максимальная цена, которую готовы рассмотреть пользователи:



Спасибо andorro за помощь в подготовке публикации.



На PoiskVPS.ru вы сможете подобрать виртуальный сервер по всем вышеперечисленным параметрам.

Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/324432/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Делимся инфорацией о работе своего сайта. Обзор сервиса ХостТрекер, часть 5

Вторник, 21 Марта 2017 г. 10:02 (ссылка)

Открытость и прозрачность — немало современных компаний упоминают эти понятия среди принципов своей работы. Сервис мониторинга ХостТрекер предоставляет возможность прозрачно и открыто делиться с миром информацией о житиях своих сайтов и сервисов. Честно признаваться клиентам, когда и что не работало — в ряде случаев очень неплохая идея. Если, конечно, это случается нечасто. С другой стороны, что может быть лучшим стимулом перестать откладывать накопившиеся задачи и заставить, наконец, сайт работать как следует?









Итак, сервис мониторинга собирает данные о нашем сайте (ранее я это детально описал) и мы можем легко все это просмотреть, и даже использовать для препирательств с хостингом, если вдруг нужно. Как же теперь показать их клиентам? Существует несколько опций.



Виджеты









Наиболее информативный для клиента способ, позволяет легко убедиться в наличии/отсутствии проблемы. Кстати, не только для клиента. Админам и другим ответственным лицам тоже полезно время от времени посмотреть, как вообще дела идут. Быстро и удобно, можно разместить на любой странице своего сайта, как для пользователей, так и для своих сотрудников. Виджет можно отредактировать как визуально — выбрав цвета в тон своего сайта — так и по содержанию. Например, объединить несколько сайтов в в одну диаграмму — тогда на ней все будет хорошо, только когда хорошо на всех сайтах одновременно. Если же вы заранее планируете технические работы и не забудете указать это при настройке мониторинга — эта информация также появится на виджете. И админ не хватается за сердце, а клиент не бежит к конкурентам — ибо видит, что это не поломка, а важное и, главное, запланированное обновление.







Можно также добавить на виджет логотип своей компании, если, например, вы предоставляете кому-то аналитические услуги и используете при этом ХостТрекер. Диаграмма к тому же интерактивная — пользователь может посмотреть в деталях, что и когда стряслось, просто кликнув на инцидент.

Напомню, что никаких приложений устанавливать для всего этого не нужно. Сайты мониторятся из облака, а для виджета нужно всего лишь добавить сгенерированный код на свою страницу.



Информеры







А это для любителей олдскула и/или минимализма. Кнопка показывает аптайм за определенный период. Время расцвета подобных кнопок (когда некоторые страницы по большей части состояли из них) прошло, тем не менее, некоторые до сих пор пользуются. Быстро и малозаметно, но когда нужно посмотреть — всегда под рукой!



Открытая статистика



При необходимости, можно поделиться даже самым сокровенным — логами проверок и описанием проблем. Для этого сразу при создании мониторинга нужно отметить этот сайт специальной галочкой:







Впрочем, это не полный эксгибиционизм: эти данные действительно открытые, но только для тех, кто имеет на них прямую ссылку. Таким образом, можно смело открывать задания для партнеров, поддержки хостинга или сайта, разработчиков и т.д., снабдив их предварительно нужными ссылками типа таких:







Поэтому волноваться о том, что кто-то случайно сюда зайдет, особо не стоит.



О других функциях нашего сервиса можно почитать в предыдущих частях, начиная вот с этой. Мы открыты для пожеланий и предложений, поэтому пишите в комментарии и даже напрямую в поддержку, если что-то особенно заинтересовало или же вы знаете, как сделать мир лучше, но все руки не доходят.
Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/324428/

Комментарии (0)КомментироватьВ цитатник или сообщество
Понтифик_Иванов

Кому можно доверить создание сайтов

Пятница, 17 Марта 2017 г. 21:01 (ссылка)
md-eksperiment.org/post/201...nie-sajtov

Любая фирма рано или поздно приходит к тому, что иметь собственный сайт – это не прихоть, а необходимость. И на этом этапе некоторые предприниматели встают перед вопросом: ком можно доверить такое важное дело?
Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Жидкостное охлаждение серверов как восходящий тренд в оборудовании для дата-центров

Четверг, 16 Марта 2017 г. 15:08 (ссылка)





Выставка SC (Supercomputing Conference) посвящена высоким технологиям. Если точнее, то на этой выставке демонстрируются суперкомпьютеры и сопутствующие технологии. С каждым годом на этой выставке показывается все больше систем с жидкостным охлаждением, плюс увеличивается количество компаний, которые эти технологии демонстрируют. Всего пару десятков назад жидкостное охлаждение для серверов показывали лишь такие известные технокомпании, как Cray-2 и IBM. И то, по большей части, в качестве концепта.



Сейчас же количество производителей выросло, а разнообразие технологий впечатляет: на новой SC показывались как полноконтакнтные системы, так и системы полного погружение. В общем-то, утверждение, что жидкостные системы в ряде случаев гораздо более эффективны, чем охлаждение воздухом, сомнений не вызывает. Но раньше эксплуатация жидкостных систем была проблемной. Сейчас появились новые практичные решения, которые не вызывают никаких сложностей в работе и обслуживании.







Кроме того, использование систем жидкостного охлаждения помогает экономить средства. По словам специалистов, снижение эксплуатационных расходов в случае работы с жидкостями вместо воздуха составляет вплоть до 40%.



Об эффективности этих систем можно судить и по тому, что в списке наиболее производительных компьютеров мира Top 500 представлено несколько систем, которые используют жидкостное охлаждение. Есть и схожий рейтинг, Green500, в котором показаны наиболее производительные системы, использующие те либо иные «зеленые» технологии. Здесь еще больше мощных компьютеров с жидкостными системами охлаждения, некоторые из них представлены в топ-10.



Достоинством жидкостного охлаждения является и возможность более плотного размещения оборудования. Тепло отводится более эффективно, чем в случае воздушных систем, так что расстояние между оборудованием может быть значительно меньшим, чем обычно. Отдельные элементы серверов могут работать в более активном режиме, чем обычно, поскольку, снова-таки, тепло отводится быстро и без проблем. А еще — меньше шума, чем в случае работы с системами, где есть активное охлаждение с вентиляторами. Поэтому можно избежать зависимости «больше серверов — больше шума». Жидкостные системы охлаждения тоже генерируют звук, но не такой сильный, как их воздушные «родственники».



Достоинств здесь много, но о них, по большей части, известно все. Давайте лучше посмотрим, какие компании представили новые технологии на выставке.



Компания Aquila продемонстрировала анонсированную ранее серверную систему Aquarius с водяным охлаждением. Эта система предназначена для размещения в стойках, изготовленных по стандарту Open Compute Project (OCP). Партнером этой компании стала Clustered Systems, которая предложила собственную технологию охлажденных пластин.



Специалисты Asetek показали собственный вариант прямоконтактных систем жидкостного охлаждения. Здесь используется теплая, а не холодная, вода. Партнеров у проекта довольно много. Из числа прочих можно назвать Cray, Fujitsu, Format, Penguin, HPE, NVIDIA и Intel. Решение компании уже используются — например, машина QPACE3 (разработана специалистами Университета Регенсбурга), которая находится на 5-м месте рейтинга суперкомпьютеров Green500 работает как раз с жидкостной системой охлаждения.



Вендор CoolIT Systems продемонстрировал еще несколько решений прямоконтактных систем. С ними работают Hewlett Packard Enterprise Apollo 2000 System, Dell PowerEdge C6320, NEC Blue Marlin, а также Lenovo NeXtScale. Эта компания показала и микроЦОД собственной конструкции.



Компания Ebullient показала систему двухфазного охлаждения для серверов внутри дата-центров. Здесь используется охлаждающая жидкость с низким давлением. Теплоноситель закачивается в герметичные модули, устанавливаемые на процессоры в серверах. Жидкость получает тепло от процессоров и уводит его по шлангам в центральный блок для охлаждения. Работать такая система может с практически любым сервером.



Еще одна универсальная система — CarnotJet System от Green Revolution Cooling. Она, как и предыдущий вариант, совместима практически со всеми стоечными серверами любого из производителей. Такие системы можно устанавливать в специализированных стойках, которые заполнены специальным минеральным маслом.



LiquidCool Solutions (о ней когда-то уже писали на Хабре) представила обновленные решения для полного погружения электроники в диэлектрическую жидкость. Эту жидкость компания разработала самостоятельно. Кроме того, производитель показал два новых сервера на основе платформы Clamshell. Первый сервер — Submerged Cloud Server (4-хузеловой сервер высотой 2U для облачных платформ ) и Submerged GPU Server (2-хузловой GPU-сервер высотой 2U. Последняя модель может быть оснащена сразу четырьмя GPU-картами или четырьмя ускорителями Xeon Phi.







HPE Apollo



Специалисты LiquidMips показали оригинальный вариант системы охлаждения сервера с одним процессорным чипом с погружением в хладагент 3M Fluorinert. К сожалению, это лишь концепт, который еще не реализован на практике.



Не обошлось и без китайских производителей. Так, компания Inspur Systems Inc., дочернее подразделение Inspur Group показала свои системы жидкостного охлаждения с двумя типами растворов. Одно из решений — охлаждение чипов путем прямого контакта с жидкостью. Китайцы утверждают, что их система позволяет значительно увеличить производительность и одновременно снизить эксплуатационные расходы.



Allied Control рассказала о своем достижении — совместном с другими компаниями создании дата-центра мощностью в 40 МВт, с использованием системы погружного охлаждения. В результате удалось добиться установки оборудования с плотностью в 252 КВт на одну стойку. В системе используется диэлектрическая жидкость 3M Novec.



Известный вендор из Китая, компания Huawei показала новый сервер HPC FusionServer X6000 с жидкостным охлаждением. Здесь используется отвод от процессора при помощи микроканалов. Охлаждающая жидкость течет через модули памяти. Температура жидкости на входе предлагается в районе 50 градусов Цельсия, что снижает показатель совокупной стоимости и одновременно обеспечивает высокую энергоэффективность.



Fujitsu показала новый тип дата-центра с «облачными» серверами, хранилищем и прочими элементами. В дата-центре используется объединенная система погружного жидкостного охлаждения, которая обычно используется для суперкомпьютеров. Но Fujitsu применила ноу-хау и добилась возможности использования такой системы для стандартных серверов.



Можно ли использовать жидкостное охлаждение для уже работающих серверов?





Как правило, нет. Использование ЖКО, как правило, устанавливается для новых систем. Конечно, при желании все возможно, но в общем случае дата-центру понадобится много времени и усилий для того, чтобы установить жидкостные системы охлаждения для уже установленного и работающего оборудования. Наверное, кое-какие системы такого типа есть, но они не слишком известны.



А модифицировать серверы все равно придется — так, в большинстве случаев нужно будет снимать кулеры, устанавливая новые охладительные элементы. Придется переоборудовать и стойки. В большинстве случаев, такого рода модификации потребуют не только много времени, но и значительных вложений.



Как бы там ни было, а рынок систем жидкостного охлаждения постепенно растет. Аналитики считают, что в 2020 году объем рынка составит около $960 млн. Выставка SC — это, можно сказать, окно в будущее, которое показывает нам, как изменится рынок систем охлаждения в ближайшее время. ЖКО могут оказаться незаменимыми для высоконагруженного оборудования, которое используется в таких сферах, как разработка ИИ, Big Data и т.п.



P.S: по просьбам хабра пользователей мы продлили акцию «Пожизненная скидка -25%» до 22 марта 2017 включительно.




Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/324110/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Сколько стоит облачный офис

Среда, 15 Марта 2017 г. 15:26 (ссылка)

Серия статей о переносе инфраструктуры в облако еще раз подтверждает общую тенденцию, наметившуюся в течении последних нескольких лет. К сожалению, если решать задачу в лоб, цена хостинга получается очень высокой, вот один из примеров — habrahabr.ru/post/317222/. Недавно к нам пришел клиент, который на наш взгляд является наиболее подходящим на роль среднестатистической компании, интересующейся этой услугой. Описание этого проекта со всеми ценами мы и решили показать уважаемому хабрасообществу. Некоторые данные для соблюдения конфиденциальности изменены, но это не влияет на конечную картину.







Исходные данные:



Компания 35 человек, один основной офис и два дополнительных, несколько человек работает из дома.

Что нужно:


  • перенести на облако существующий сервер приложений (1С) с терминальным доступом для 15 человек;

  • перенести почту с платного хостинга и с публичных почтовых сервисов 30-40 почтовых ящиков;

  • среда для совместной работы звонков и видеоконференций вместо skype 30-40 пользователей;

  • телефония с подключением к существующему оператору и возможностью подключить новых. Желательно с возможностью проведения телефонных конференций по телефонному номеру и ПИНу;

  • Мобильный VoIPклиент с шифрование голосового трафика;

  • Хранилище общих документов 60-100Гб.



Требования по безопасности достаточно стандартные: размещение в западной Европе, шифрование всего трафика, шифрование данных. Как-будто клиент прочитал статью habrahabr.ru/post/315972/, перестал боятся за свои данные за границей.



В качестве решения предложено использовать связку 1с на Terminal Server+RDG, MS Exchange, MS SfB+FreePBX и MS SharePoint с Office Online Server.



MS SharePoint спорное решение
Share Point спорное решение, многие компании даже при построении остальной инфраструктуры на продуктах Микрософт предпочитают использовать другие решения (File Cloud, OwnCloud).



Но с учетом географической разнесённости офисов компании, острой потребности в улучшении коммуникации между сотрудниками, и при интеграции с Skype for Business и Exchange, SharePoint на наш взгляд является наиболее логичным выбором. Это решение покрывает как все современные «must have» требования к хранилищу документов – версионность, доступность отовсюду, безопасность подключения, возможность работать с документами офлайн, возможности поиска, сортировки и структурирования хранения документов, гибкая настройка доступов, так и приятные дополнения – возможность позвонить или написать автору документа, не выходя из окна браузера.



Office Online Server (OOS) позволит править документы через браузер без необходимости скачивания документа и не требуя установки на устройстве программ пакета MS Office. Это является одним из основных слагаемых безопасности, т.к. наличие офлайн копии важных документов на локальном компьютере пользователя является потенциальной угрозой, а работа с Word, Excell через терминал гораздо менее удобна чем через OOS.



Ну и, конечно, возможности совместной работы – когда можно наблюдать процесс создания или правки документа в реальном времени, работа становится: наглядней, быстрее, интереснее (обзор возможностей совместной работы — habrahabr.ru/post/310396/).



Исходя из требований получилась следующая конфигурация VM:



Хост HV1




































































































Сервер RAM, Gb HDD, Gb Роли выполняемые сервером
Exch1 14-20 450 Exchange сервер, Data availability group совместно с Exch2
RP 2-4 60 Реверс прокси
DC1 2-4 60 Контролер домена
Mkt1 1 20 MikroTik Cloud Hosted Router
RDSHost1 40-60 300 Терминальный сервер, балансировка с RDSHost2
RDSBroker 4-6 60 RD Connection Broker, RD Gateway, RD Web Access
FS1 2-4 300 Файловый сервер, объединённый в DFS с FS2
SQL 16-24 300 MS SQL для 1С
1C 8-12 80 1С сервер
Sb-fe 8-12 60 Skype for Business Front-End
Sb-edge 2-4 60 Skype for Business edge
SP 12-24 300 Sharepoint
OOS 12 80 Office Online Server
Frpbx 1 40 FreePBX в качестве SIP шлюза
Итого 124-188 2170


Хост HV2












































































































Сервер RAM, Gb HDD, Gb Роли выполняемые сервером
Exch2 14-20 450 Exchange сервер, Data availability group совместно с Exch1
RP 60 Реплика VM
DC2 2-4 60 Контролер домена
Mkt2 1 20 MikroTik Cloud Hosted Router, Failover IP c Mkt1
RDSHost2 40-60 100 RD Session Host балансировка с RDSHost1
FS2 2-4 300 Файловый сервер, объединённый в DFS с FS1
RDSBroker 60 Реплика VM
SQL 300 Реплика VM
1C 80 Реплика VM
Sb-fe 60 Реплика VM
Sb-edge 60 Реплика VM
SP 300 Реплика VM
OOS 80 Реплика VM
Frpbx 40 Реплика VM
Bckp 2-4 2000 Сервер бекапов
Итого 59-89 3970


Итак, где размещать



Мы провели небольшое сравнение цен разных хостеров с приблизительно одинаковой конфигурацией, подходящей для этой задачи (сортировка по цене)




































































Хотстер Тип Название конфигурации Параметры Конфигурации Цена в месяц URL
Azure+Office 365 Enterprise E5 Облако Virtual Machines $1,649.41+$35 (за пользователя) https://azure.microsoft.com/en-us/pricing/calculator/
AWS Облако r4.4xlarge 16 Core,122Gb RAM 2000Gb HDD $1296+EBS $90 https://aws.amazon.com/ec2/pricing/on-demand/
Rackspace Выделенный сервер Dual Processor Intel Xeon E5-2640 2.5GHz, 128GB, 5x300GB 15K SAS 2x$649+Storage https://www.rackspace.com/dedicated-servers
Digitalocean Облако 16 Core,128Gb RAM 2000 GB SSD $960 + Storage$200 https://www.digitalocean.com/pricing/
ProfitBricks Облако 12 Core, 108GB RAM, 2000Gb HDD $866 https://www.profitbricks.com/pricing#section=details-price-performance-guarantee
OVH Выделенный сервер SP-128 Intel Xeon E5 1650v3, 128, 2 x 2 TB 2x$179 https://www.ovh.com/us/dedicated-servers/
Hetzner Выделенный сервер PX121 E5-1650 v3 256Gb RAM 2x4Tb HDD 2x€116.81 https://ru.hetzner.com/hosting/produktmatrix/rootserver-produktmatrix-px


Выбор хостинга или рассуждения о доступности и SLA
Простейший расчет с калькулятором показывает, что SLA, в котором указанно снижение абонентских платежей пропорциональное времени недоступности, является профанацией. Например, в году 8764 часа, за два года сервис был не доступен 12 последовательных часов, получается, что не считая косвенных потерь бизнеса только на простое 30 сотрудников, при 80 000р в месяц затрат на человека, вы понесли потери 109 090р, а компенсация от дата центра составит 0.07% от платежа за два года или, даже беря гипотетические 5000$ в месяц, получим 82$, что несерьезно ни для вашего бизнеса, ни для провайдера услуги.



А пятна бывают и на солнце, все помнят сбои Gmail, Facebook, Azure, выключение питания в главном коммуникантом узле Европы Telecity2, когда половина Англии осталось без интернета и даже московские сотовые абонента испытывали проблемы. http://arstechnica.co.uk/business/2016/07/bt-isps-telehouse-north-major-outage/



Для компании с количеством сотрудников в 20-50 человек использование HP 3PAR с репликацией хранилища между двумя дата центрами, скорее всего, является избыточным, да и не дает 100% гарантии от ошибок в конфигурации — пример недавний сбой из-за человеческого фактора у AWS https://aws.amazon.com/ru/message/41926/. Наиболее приемлемых два варианта — построение software cluster (есть возможность у всех серверов Microsoft), а если простой 2-3 часа для бизнеса не критичен, то онлайн резервное копирование во второй дата-центр и ручное включение виртуальных машин вполне приемлемое и бюджетное решение.



Что бы 100% застраховаться не только от сбоев в оборудовании, но и от проблем дата-центра, лучше взять одни сервер у одного оператора, а второй у другого (например, hetzner и OVH), но для упрощения администрирования контроля оплаты можно вначале взять оба физических сервера у одного оператора, а в будущем вынести второй к другому. Перемещение резервных виртуальных машин по быстрым, внутри- европейским каналам задача простая и не требующая остановки обслуживания.



Итак, провайдер хостинга выбран, что получилось. Как все работает:



Железо: для нашего случая мы выбираем аренду двух серверов в Hrtzner с очень удобной услугой failover IP. Два сервера https://ru.hetzner.com/hosting/produktmatrix/rootserver-produktmatrix-px E5-1650 v3 256Gb RAM 2x4Tb HDD, по 116€ каждый. В качестве гипервизоров MS Hyper-V, на которых будут размещены виртуальные машины в соответствии с вышеуказанной таблице. На первом сервере будет расположены основные VM а на втором резервные.



Внутренняя сеть между серверами: Сеть построена между двумя MikroTik Cloud Hosted Router (Mkt1 и Mkt2), установленными на каждом хосте, через которые настроен туннель. В Heztner заказан, отказоустойчивый IP (Failover IP), который назначен на роутеры Mkt1 и Mkt2 для организации публикации внешних сервисов.



Терминальные сервера объедены в пул и будут одновременно активны на обоих гипервизорах для экономии ресурсов. В случае выхода из строя одного из узлов, пользователи терминального сервера переключатся на второй с некоторой деградацией производительности, но смогут продолжить работу, т.к. пользовательские профили находятся на сетевом ресурсе, реплицируемом по технологии DFS.



Репликация: Между двумя хостами будет настроена непрерывная репликация виртуальных машин. В случае сбоя хоста или профилактики будет включается реплика.



Почта: организована на двух серверах Exchange объединённых в DAG, вместо репликации виртуальных машин, пользовательский доступ с помощью Active Sync, OWA и Outlook



Телефонная связь, видеоконференции, IM на Skype for Business. Как и Exchange для почты, это на сегодня лучшее средство совместной работы. Т.к. провайдеров телефонии, подключающих sip транки по стандарту SfB не много, в качестве шлюза, установили FreePBX, к которому подключены транки с SIP регистрацией.



Файловое хранилище: MS SharePoint c OOS обсуждалось ранее.



Сервер приложений: здесь все прозаично 1С с базой на MS SQL.



Удаленный доступ: ко всем приложениям через HTTPS. Опубликованы — терминальный сервер через RDG, Active Sync, OWA, Outlook, SharePoint c OOS, Skype for Business.



Безопасность: шифрование данных на VM на основе Shielded VM. Доступ ко всем ресурсам по SSL. Шифрование голосового трафика по TLS+SRTP. Для доступа к терминальному серверу применяется двухфакторная аутентификация Azure MFA. Возможно еще подключить двухфакторную аутентификацию для доступа к OWA и SharePoint, но пока ограничились мониторингом IP, с которых пользователи подключаются к этим ресурсам, тем более новая версия Skypetime позволяет это делать.



Сколько стоит данное решение:



Железо — 238€ включая дополнительный ИП и failover в месяц. Если есть значительная нагрузка на терминальный сервер или на SQL, необходимо еще 28€ на SSD диск.



Лицензии на время внедрения и тестовой эксплуатации рекомендуется взять вот такую лицензию https://www.visualstudio.com/msdn-platforms/ (3VU-00016 MSDNPltfrms ALNG LicSAPk OLV NL 1Y AP) 67 123руб на msbuy. Данная лицензия содержит все продукты Microsoft с правом тестирования и разработки. После того, как будет окончена тестовая эксплуатация и будет понятно, сколько и каких лицензий необходимо, тогда и покупать. Рекомендуем обратить внимание на цены по программе OVS.



Сертификат – SSL, можно взять бесплатный на 10 SAN от StarCom или более надежный, например, от Godaddy $249.99 в год.



Azure MFA — 1.04€ в месяц за пользователя



Работа — конкретных цифр называть не будем, чтобы не делать из стати рекламу, оценим только объем работ в часах.



Установка данной конфигурации, включая все административные работы с провайдерами, от 90 до 120 часов без миграции данных пользователей, где все индивидуально.



Ежемесячная поддержка серверной части: 8-15 часов в зависимости от объемов изменений и надежности работы sip провайдеров. Поддержка пользователей сильно варьируется от средней квалификации пользователь, но в среднем берется из расчета 0.8-1,2 часа в месяц на пользователя.
Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/323994/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество

Следующие 30  »

<хостинг - Самое интересное в блогах

Страницы: [1] 2 3 ..
.. 10

LiveInternet.Ru Ссылки: на главную|почта|знакомства|одноклассники|фото|открытки|тесты|чат
О проекте: помощь|контакты|разместить рекламу|версия для pda