Случайны выбор дневника Раскрыть/свернуть полный список возможностей


Найдено 6015 сообщений
Cообщения с меткой

хостинг - Самое интересное в блогах

Следующие 30  »
Универмос

Ура! Дневник Универмос заработал после кибер-атаки на Liveinternet.ru

Понедельник, 23 Мая 2016 г. 06:46 (ссылка)

Это цитата сообщения Высший_закон Оригинальное сообщение

Ура! Дневник Универмос заработал после кибер-атаки на Liveinternet.ru




Ура! Дневник Универмос заработал после кибер-атаки на Liveinternet.ru



 



Атака все еще идет (проблема полностью не решена) , т.к. открываются не все дневники на отдельных доменах

Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Как создать свой VPS-хостинг с нуля и начать на нем зарабатывать (введение)

Пятница, 20 Мая 2016 г. 15:50 (ссылка)






Здравствуйте, уважаемые читатели хабра. С данного материала мы начинаем серию публикаций о том, как построить VPS-хостинг с нуля на базе RUVDS White Label API.



В данной вводной публикации мы расскажем, что нужно сделать в первую очередь, чтобы как можно скорее начать получать первую прибыль от вашего собственного VPS-хостинга, как сделать относительно быстро и насколько это целесообразно и выгодно. Если вы решили создать свой VPS-хостинг с нуля, но у Вас нет своей инфраструктуры или нет средств и времени для её создания с нуля, добро пожаловать под кат. Читать дальше →

https://habrahabr.ru/post/301300/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
Мария_Звонарь

Посмотреть изображение, размещённое на VFL.Ru

Понедельник, 16 Мая 2016 г. 07:40 (ссылка)
vfl.ru/fotos/011dd999109218...ag/21.html


Бесплатный фотохостинг, хранящий ваши фотографии неограниченно долго



ЕЩЁ http://vfl.ru/fotos/tag/21.html


Метки:   Комментарии (5)КомментироватьВ цитатник или сообщество
nataliyamai

Посмотреть изображение, размещённое на VFL.Ru

Воскресенье, 15 Мая 2016 г. 09:10 (ссылка)
vfl.ru/fotos/9df950532714185.html


Бесплатный фотохостинг, хранящий ваши фотографии неограниченно долго

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
Портал_Солнцево

Марафон скидок стартует! Сэкономьте 30% при заказе хостинга!

Суббота, 14 Мая 2016 г. 11:45 (ссылка)
domain-rf.ru/?p=742


16 мая начинается юбилейный марафон скидок от REG.RU. В честь 10-летия компании мы дарим вам 10 суперскидок на различные услуги. Начните с первой!

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
Worldstar

Big DATA Hosting — современный сервис по аренде VDS/VPS серверов.

Пятница, 13 Мая 2016 г. 08:03 (ссылка)

лого

Технология VDS хостинг это самая совершенная и современная система хранения информации в виртуальном пространстве. Итак сегодня новые технологии позволяют хранить большие объемы информации корпоративного и другого характера без проблем в виртуальных серверных компаниях.

Big DATA Hosting — современный сервис по аренде VDS/VPS серверов, качественный виртуальный сервер гарантирует высокую скорость, надежность и качество хранения информации. Компания обеспечила бесперебойную работу своей корпорации благодаря новейшему современному оборудованию, которое работает на европейском уровне качества предоставления услуг. Цена на услуги не так высока, за то техническим сопровождением и условиями вы будете приятно удивлены. Сегодня на сайте есть вся информация для клиента, заходите и звоните работнику компании.

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Ожидания направлений развития в сфере хранения и обработки данных до 2020 года.Основные тренды

Среда, 11 Мая 2016 г. 18:27 (ссылка)





Развитие ИТ-инфраструктуры это неуклонный процесс, который был, есть и непременно будет, набирая все только большие обороты. Взяв очередную высоту стандартов осуществления своей деятельности, перед сетевыми инженерами открываются новые горизонты, достижение которых становится для них очередным вызовом и основой их повседневных трудов. Для успешного функционирования ИТ-компаний всегда было очень важным точно определить цели, направления развития, самые актуальные тренды ведь как можно наблюдать именно ИТ-сфера находится на самом острие технологического прогресса и особо подвержена внедрению нововведений. В древности, за возможностью заглянуть в день грядущий, люди обращались к оракулам и вещунам, сейчас же эту столь вакантную деятельность «окучивают» профессиональные ассоциации, проводя всевозможные опросы и создавая на их основе самые разносторонне направленные отчеты. Именно таким отчетом, совсем недавно, порадовала ИТ-сообщество AFCOM(Association for Computer Operation Management). Предметом полномасштабного исследования стало функционирование дата-центров. Со слов представителей AFCOM представленный отчет является настоящим событием, поскольку охватил самые широкие слои специалистов задействованных в работе ЦОД(Центр Оброботки Данных). Сетевые инженеры, менеджеры, программисты и владельцы компаний-провайдеров в представленном докладе дадут нам более четкое виденье той ситуации, в которой отрасль находится сейчас и где она окажется в ближайшие 3-4 года. Далее в статье будут представлены основные акценты на которых базируется вышеупомянутый отчет, что претендует быть наиболее репрезентативным и наиболее актуальным среди всех аналогичных проведеных в 2015 году.





Будущее за мега дата-центрами



Из года в год мы слышим про огромные дата-центры, которые все чаще возводят такие лидеры ИТ-отрасли как Amazon, Facebook, Google, Yahoo, IBM тем самым явно порождая новый тренд. Такая ситуация определенно будет продолжаться и в ближайшие годы, что в свою очередь непременно приведет к доминированию этих гигантских площадок над более мелкими – привычными нам дата-центрами. Следствием наступления еры гигантов, общее количество ЦОДов неуклонно будет сокращаться, отдавая потоки стремительно растущего из года в год объема трафика наиболее крупным инфраструктурным узлам.







«По нашим расчетам к 2018 году в мега дата-центрах будут размещаться 72.6 процентов всех предоставляемых хостинг услуг, при этом площадь серверных, от общего числа, относящихся к упомянутым дата-центрам будет составлять уже 44.6 процентов. По состоянию на 2013 площадь мега дата-центров от общего числа площадок составляла всего 19.3 процентов» высказался по этому поводу начальник аналитического отдела IDC(International Data Corporation) Ричард Вилларс (Richard Villars).



Если к столь точно вычисленным процентам сотрудниками IDC можно отнестись с долей скептицизма, то сам вектор укрупнения дата-центров не вызывает у специалистов отрасли никакого сомнения. Почему прогресс пошел именно по этому пути развития не удивительно, в полной мере понять его истоки можно основываясь на комментариях представителей двух противоборствующих сторон: операторов мега дата-центров и сетевых инженеров эксплуатирующих небольшие серверные площадки на предприятиях и не больших компаниях.



«Услуги предоставляемые мега дата-центрами в абсолютном большинстве случаев будут дешевле и существенно качественнее нежели у их малых собратьев» бескомпромиссно заявляет Адам Крамер (Adam Kramer) – вице-президент по развитию Switch SUPERNAP. «Наша компания сделала ставку не просто на дата-центры гиганты, некоторые из которых уже успешно функционируют, наш проект Fiber SuperLOOP стал действительно прорывом в понимании существования ИТ-инфраструктуры будущего. Имея в своем распоряжении структуру из комплекса мега дата-центров объединенных оптико волокном с задержкой сети не превышающей 7 миллисекунд, мы получаем колоссальный потенциал моментального наращивания мощностей для наших клиентов, перераспределения пиковой нагрузки, обеспечения резервирования, что дает нам возможность оставить далеко позади наших конкурентов».



Позицию представителей крупного бизнеса понять не сложно, но то что по этому поводу высказали операторы не больших серверных площадок стало некоторой неожиданностью. Большая часть опрошенных операторов, хоть и не в такой категорической форме как это сделал Адам Крамер, были едины в своем прогнозе, что на протяжении ближайших десяти лет большинство мелких серверных площадок в Европе и Северной Америке прекратит свое существовании. В отличии от привычных в таком вопросе аргументов гибкости малых дата-центров и дешевизны серверных комнат на предприятиях, акцент был расставлен несколько по другому.



«В наше время изолированная от мира сеть компании это скорее исключение из правил, которое может быть продиктовано завышенным требованием к ее безопасности. Необходимость иметь сотрудникам доступ к востребованным ресурсам сети предприятия из любой точки мира это уже данность. Естественно такой функционал под силу обеспечить каждой уважающей себя компании своими силами, но, как показывает практика, с каждым годом это становится все дороже и бессмысленнее. Возросшие требования к нагрузкам на сеть, критичность доступности данных 24/7, приемлимое время реакции технической поддержки – SLAs, явно привод к увеличению счетов на поддержание корпоративных сетей, в тоже время мы видим все более возрастающее разнообразие предложений хостинг компаний, цены на услуги которых с каждым годом становятся все более доступными. Обеспечить отказоустойчивость серверной на уровне TIER IV для небольших и средних компаний это и вообще непосильная задача, в тоже время для крупных дата-центров внедрение этого стандарта уже стало вполне обыденным делом»- отметил Ричард Вилларс.







Согласно представленным данным опроса Uptime Institute в прошлом году, собственной серверной инфраструктурой решили обзавестись лишь 18 процентов крупных компаний, в ранние годы этот процент был куда выше и достигал 46 процентов.



«Также немаловажным фактором в массовом уходе от малых серверных площадок, к крупным дата-центрам в ближайшем будущем, можно назвать программную среду. Если вы хотите использовать готовый корпоративный программный продукт, вы все чаще будете сталкиваться с невозможностью применения его в масштабах «серверной подсобки», это является следствием того, что уже сейчас требования таких продуктов к топологии сети бывает довольно требовательным. В то время когда крупные компании могут откинуть готовые программные решения и позволить себе создание собственных рабочих оболочек под онлайн сервисы, для малых компаний, в случае которых небольшая серверная могла бы быть достаточно эффективной, разработка собственных платформ это уже утопия. Переплачивая за использования «железа», облачные сервисы могут дать економию средства потребителю предлагая програмную оболочку готовую для использования «под ключ»» подметил аналитик Wikibon Давид Флойер (David Floyer).



ИТ-инфраструктура берет курс на озеленение



Поскольку создание дата-центров, где одна лишь только стойка может потреблять до 40 кВт, это всегда ощутимое событие для местных энергосетей, проектирование собственных энергогенерирующих мощностей становится необходимым этапом, но почему выбор все чаще падает на возобновляемые источники энергии? Вопрос об актуальности использования дата-центрами именно возобновляемых источников энергии является достаточно неоднозначным. ИТ-оборудование потребляет с одинаковым аппетитом энергию произведенную как солнечными панелями, так и энергию добытую в результате сжигания «неэкологического» каменного угля, однако специалисты едины в своих ожиданиях — грядет все более тесное сплетение ИТ-индустрии и зеленых технологий. Для такой перспективы есть два субъективных, но от того не менее важных, фактора: административный, маркетинговый. В США, Японии, странах Европы существуют весьма серьезные стимулы, от субсидий до запретов, использования компаниями возобновляемых источников энергии, а также не производящих СО2. С точки зрения маркетинга, в современном мире, не быть «зеленым» порою может быть весьма рискованно для бизнеса. Риск идет как от структурированных организаций, так и от общих настроений потенциальных клиентов. Организации вроде Green Peace, периодически создают «позорные списки» компаний продуцирующих загрязнение среды парниковыми газами и ядерными отходами, могут своей деятельностью легко подорвать функционирование существующего, или создание запроектированного ЦОДа.







«У менеджеров крупных компаний-провайдеров не осталось сомнений по поводу необходимости использования возобновляемых источников энергии, проблема с их внедрением заключается только в дороговизне модернизации уже существующих сооружений» говорит Матт Стансберри (Matt Stansberry) – контент директор Uptime Institute «Наиболее зелеными компаниями сейчас считаются Apple, Facebook, Google однако не стоит забывать, что статус зеленых не делает их наиболее эффективно использующими энергоресурсы. До определенной степени общественность вводится в заблуждение. ЦОД на котором применяются наиболее эффективные системы теплоотвода может быть существенно гуманнее к природным ресурсам Земли нежели иной ЦОД, даже при условии что он целиком обеспечен возобновляемыми источниками энергии».



В отличии от сотрудников Uptime Institute представители компаний-провайдеров вкладывающих огромные средства в создания гигантских солнечных, ветровых и геотермальных электростанций с нескрываемым энтузиазмом рапортуют о своих успехах в «озеленении» своей инфраструктуры, видимо такое положение вещей в ближайшие годы будет лишь укреплятся.



«Место выбранное нашими проектировщиками для создания Switch SUPERLOOP действительно уникальное, оно позволяет нам эффективно использовать не только солнечную, ветровую и геотермальную энергию, также мы имеем возможность использовать в системе охлаждения на 93 процента техническую воду, уже используемую ранее другими пользователями» подтвердил общее мнение своих коллег Адам Крамар «Уже сейчас мы заключили контракт на обеспечение нашего проекта энергией от будущей солнечной электростанции проектная мощность которой составит не менее 100 МВ. Расположится наша новая станция неподалеку от Лас-Вегаса».







Оптимизация и плановое сокращение уровня расходов



Давно канули в лету времена слабой финансовой дисциплины ИТ-подразделений на предприятиях и в научных организаций. С каждым годом, магия мигающих свето-диодов и ритмичный шум вентиляторов все меньше производит завораживающее впечатление на руководящий менеджмент компаний и как результат ИТ-инженеры все чаще сталкиваются с практикой урезания бюджетов своих отделов и стают перед лицом борьбы за повышение показателей производительности.



Как показывает опрос организации 451 Research, из 1200 респондентов лишь 17 процентов заявили, что их компании целиком отказались поддерживать собственную сетевую инфраструктуру переведя ее в крупные дата центры, сняв с себя основные проблемы связанные с подержкой собственных серверных мощностей. В то же время, согласно вышеупомянутому отчету 49 процентов опрошенных утверждали, что в их компаниях активно используется как внутренняя структура хранения и обработки данных так и внешняя, а это уже большое подспорье для проведения анализов и поисков путей оптимизации сетевой структуры. Как можно увидеть из приведенных данных, «призрак» повышения эффективности труда задевает довольно много ИТ-специалистов, как инженеров так и менеджеров.







«Когда речь идет о небольших хранилищах данных, наши исследования показывают весьма стабильные бюджеты выделяемые на эти подразделения. Несмотря на драматически возрастающие потребности и нагрузки на ИТ-инфраструктуру, руководители компаний не хотят существенно пересматривать статью расходов на ИТ-составную. В отличии от инженеров заведующих небольшими серверными, их коллеги в крупных дата-центрах стыкаются с необходимостью увеличения эффективности работы ИТ-инфраструктуры уже по несколько другим причинам, основная причина это существующая жесткая конкуренция на рынке услуг» — объясняет сотрудник по связям 451 Research Тим Джеферсон (Tim Jefferson).



Задевая эту тему, весьма характерным параметром может послужить энергопотребление современного ИТ-оборудования. Если в 90-х годах среднее потребление электроэнергии серверной стойкой рассчитывалось на уровне 1 кВт на метр квадратный, то сейчас этот показатель стартует от 6 кВт и выше, а это выдвигает уже новые требования к сопутствующим компонентам серверных.



Если с необходимостью улучшений в общем то понятно(меньше, легче, економнее), давайте рассмотрим основные точки оптимизации, которые выделили в проведенных опросах специалисты отрасли.



Кардинальный отказ от старых решений в пользу новых


Для небольших хранилищ данных на предприятиях, существенная оптимизация может состоять в частичном, или даже полном отказе от эксплуатации «внутренних» хранилищ в пользу передачи этой задачи на подряд крупным дата-центрам. Как отмечали опрошенные, в рамках «серверной комнаты» с размерами порядка десятков квадратных метров, отдача от мелких рацпредложений зачастую сводится к нулю, чего не скажешь о техже решениях в масштабах крупных ЦОД.



Размеры


Точный расчет потребностей рынка ИТ-инфраструктуры еще на этапе проектирования дата-центра является ключевым компонентом, недостаток мощностей столь же губителен для эффективного бизнеса сколь и их переизбыток.







Инновационность сооружения


Применение самых современных материалов и передовых технологий делает функционирование серверного оборудования на порядок эффективнее. Затраты на охлаждения сетевого оборудования с каждым годом становятся все меньше, что является результатом организации в сооружениях из серверных стоек холодных и горячих коридоров, атмосферное охлаждение стоек и конечно же применение теплоотвода за счет размещения оборудования в специальных жидкостях.



«Благодаря нашей работе по модернизации дата-центра в Калифорнии, время полного использования мощностей охлаждающей системы сократилось всего до 210 часов в год. На уровне в 83 процента всего времени, модернизированный ЦОД и вообще вентилируется исключительно за счет атмосферного воздуха, который естественно проходит предварительную фильтрацию. Кроме того нашими специалистами была организована система распредиления нагрузки на оборудования таким образом, что клиенты с наиболее ресурсоемкими проектами целенаправленно размещались в зонах повышенного охлаждения»- сказал Рон Пепин (Ron Pepin) исполнительный директор компании NaviSite, основная деятельность компании собственно и состоит в проведении оптимизаций на существующих ЦОД.



Вышеупомянутые слова Рона также подтверждают многие участников проведенного опроса, которые отметили ужесточение всевозможных мониторинга и как результат контроля над, порою, самыми незначительными параметрами в работе дата-центров.



Целостное виденье


Сооружение дата-центров не как отделенных от мира форпостов, а как дополняющих его частичек пазла, также внесло свою лепту в оптимизацию затрат на их функционирование. Уже сейчас работают десятки дата-центров избыточное тепло создаваемое которыми идет на нужды офиса, городской инфраструктуры, тем самым возвращая часть затраченных средств своим владельцам.



Изменения структуры повседневных задач инженеров обслуживающих ИТ-инфраструктуру



По оценкам принявших в проведенном опросе людей, в ближайшие 3-4 года особо остро изменения своих повседневных задач ощутят работники обслуживающие корпоративную серверную инфраструктуру. Данная тенденция активно проявляется уже сейчас и причиной послужившей этому стало все более частое использование компаниями облачных сервисов. В то время когда цифровая жизнедеятельность компаний все чаще перекочевывает из серверных комнат в дата-центры, сетевые инженеры постепенно уходят от работы с «железной» частью инфраструктуры и все чаще стыкаются с ее «программной» составной.







«Имея дело с гибридной структурой собственных серверных мощностей и вынесенных в дата-центры, проблема отладки и увязки всего этого хозяйства в рамки единой экосистемы становится серьезным вызовом для многих сисадминов, требую от них новых знаний и опыта» — Джеф Клаус (Jeff Klaus) – управляющий менеджер корпорации Intel. «Отслеживание температуры в серверной комнате, резервирование электропитания, прокладка коммуникаций эти и другие схожие физические процессы перестают быть основным видом работ системных администраторов на предприятиях. Поскольку организация программного компонента, его мониторинг и отладка зачастую не требует постоянного, физического присутствия специалиста на предприятии, такой вид услуг все чаще будет уходить на аутсорсинг».



Что касается персонала крупных ЦОД, то часть опрошенных респондентов выразили мысль, согласно которой некоторые изменения в повседневных задачах торкнутся и этот разряд сотрудников ИТ-сектора. В первую очередь изменения заденут не столько технических специалистов, как именно менеджеров по работе с клиентами. Столкнувшись с новыми реалиями налаживания клиентами ЦОД сложной инфраструктуры на основе совмещения своих мощностей и дата-центров, менеджеры по работе с клиентами все чаще вынуждены будут отвечать на сложные технические вопросы. Как отметил один из опрошенных специалистов «Скоро мы будем иметь ситуацию когда даже самые хорошие «продажники» не владеющие специфическими знаниями в сфере взаимодействия программных оболочек и налаживания связи среди разбросанных локальных ИТ-узлов, серьезно будут рисковать не выполнить свои квартальные планы по продажам».



Кадры решают все



Что касается кадрового вопроса, весьма интересным и несколько неожиданным стал результат опроса менеджеров высшего звена и владельцев компаний-провайдеров. Практически все опрошенные показали, что в данные момент компании занимающиеся предоставлением услуг ЦОД-ов испытывают серьезный кадровый голод, который к 2020-му году будет только возрастать. Удивителен был не столько сам факт не хватки специалистов, вся ИТ-индустрия в общем страдает от этой проблемы, неожиданными стали цифры, по которым 81 процент менеджеров сталкиваются с проблемой поиска квалифицированных кадров, а время на поиски сотрудника который требуется на закрытие актуальной позиции слишком велико.







Основных причин кадрового голода на самом деле несколько. В первую очередь это конечно же рост производственных мощностей, которым необходимо все больше и больше высококвалифицированных специалистов, подготовка которых занимает не один год. Во вторую очередь загущает краски прогресс, что порождает совершенно новые вакансии, по которым приходится вырывать специалистов из всякого рода смежных отраслей производства.



Мега дата-центры вроде возводимых Switch SUPERNAP являются весьма характерным примером, того когда в очень короткие сроки открываются сотни новых вакансий в условиях существующих проблем с трудовыми ресурсами. Поскольку к 2020-му году ожидается рост ввода в эксплуатацию гигантских ЦОД то и проблема с наполнением этих ИТ-узлов сетевой инфраструктуры кадрами становится огромной. Что касается упомянутой компании, то ее руководство видит проблему и подходит к ее решению весьма серьезно, налаживая связи с учебными заведениями штата Невада.



«Мы тесно работаем с образовательной системой штата. Институты, колледжи и даже школы это все те места, где мы отбираем своих будущих сотрудников. Благодаря планированию своей деятельности мы можем сформировать запрос на молодых специалистов, которые после окончания учебы смогут найти вое первое рабочее место в нашей компании»-отметил Адам Крамер – вице-президент Switch SUPERNAP.



«Архитекторы, экологи, инженеры тепло-энергетики, инженеры водоснабжения и многие другие это те специалисты, с которыми ранее функционирование дата-центров не имело ничего общего и без которых уже сейчас просто невозможно представить себе работу крупного ЦОД» отметил Карстен Шерер (Karsten Sherer) сотрудник аналитической компании TEKSystem.



Весьма благоприятная ситуация для сотрудников дата-центров складывается и в плане перспектив личного развития. Возникшая проблема с кадровым голодом, стала настоящим подарком судьбы для существующих работников. Как отмечают многие опрошенные рядовые сотрудники, зачастую их компании предлагают для них бесплатные курсы повышения квалификации, возможность за счет компании получить образовательные сертификаты и весьма заманчивые возможности быстрого карьерного роста, с ростом денежного довольствия.



«Близко 72 процентов опрошенных нами руководителей компаний-провайдеров заявили о том, что планируют, либо уже осуществляют программы адресного обучения своих специалистов новым, необходимым для успешной работы дата-центров знаний» утверждает Тед Лейн (Ted Lane) учредитель исследовательской фирмы Foote Partners «Все опрошенные нами руководители также подтвердили ту логику, что специалист получивший учебные, аттестационные сертификаты законно имеют право претендовать на увеличение своих окладов».







Послесловие



Приведенные результаты вышеупомянутого опроса проводились в развитых странах Европы и Северной Америки, именно для этого региона Земли они будут наиболее актуальными. В тоже время, они могут стать весьма интересными для сотрудников и клиентов услуг в сфере хостинга на постсоветском пространстве. Описанные тенденции являются довольно универсальными и актуальными не только для «западного» мира но также и для всего остального, ведь описывают проблемы роста отрасли, с которыми в той или иной мере сталкиваются на всех континентах. Как можно увидеть из приведенного материал, а в ближайшие 3-4 года, отрасль хранения и обработки данных наиболее сильно будет подвержена: укрупнению дата-центров, «озеленению», оптимизации расходов, некоторому смещению производственных задач, нехватке квалифицированных специалистов. Все эти проблемы актуальны и для нас, кроме разве что критичности использования для роботы ЦОД возобновляемых источников энергии, а это в очередной раз напоминает нам о том, что мы крепко интегрированы в современный мир и являемся его неотъемлемой составной, разделяя все его горести и радости, которые нам диктует технологический прогресс.



Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/283160/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
Lartis

Надёжный и современный хостинг-провайдер

Среда, 11 Мая 2016 г. 19:17 (ссылка)

Услуги компании RUVDS, предоставляющей и обеспечивающей VDS-сервис проекта RUCloud.host (VPS/VDS) – это то, что надо клиентам, желающим иметь надёжный виртуальный хостинг с круглосуточной технической поддержкой.

лого

1. Компания применяет современное оборудование корпоративного класса от ведущих мировых производителей: Intel, Supermicro, Cisco.
2. Мы гарантируем скорость вашего VDS не ниже 250 Мбит/сек с лучшим доступом по России. Собственный ЦОД компании имеет 3 интернет-канала в 5 Гбит/сек. Каналы подключены к крупнейшим узлам связи М-9 и М-10.
3. У наших услуг - комфортная стоимость. От 240 руб. в месяц при оплате за год.
5. Заказ и установка виртуального сервера полностью автоматизированы. Быстрая регистрация: вы начинаете работать через два клика. Сервер устанавливается мгновенно и сразу становится доступным для работы.
6. Используется лицензионная операционная система Windows.
7. Все предоставляемые ресурсы гарантированы.
8. Мы обеспечиваем защиту от DDOS-атак, с которой ваш ресурс в безопасности. Анализ сетевого трафика производится в режиме 24/7, а защита позволяет стабильно выдерживать до 1500 Гбит/сек. Вы платите лишь за нужный трафик.
10. Клиентам предоставляется бесплатный тестовый период.
11. Мгновенная работа с файлами на SSD.
12. Есть дополнительная скидка 10% по промокоду «E4CA-7559», специально для читателей этого блога!

Пользуйтесь VPS. Согласно вступающему в силу федеральному закону «О персональных данных», компании обязаны хранить персональные данные граждан России исключительно на территории РФ. Сервера на RuVDS – официально лицензированного VDS/VPS провайдера для работы в РФ - этому соответствуют идеально.

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

[Перевод] Показатели эффективности: KVM vs. Xen

Среда, 04 Мая 2016 г. 12:27 (ссылка)

Мы в Cloud4Y считаем лидирующим решением для виртуализации продукты VmWare. Тем не менее, мы интересуемся и другими решениями, в том числе, Xen и KVM. И вот что мы заметили: существует не так уж много информации, позволяющей сравнить эти гипервизоры: последние дельные исследования, которые мы нашли в сети, относятся к 2012 году и, конечно, уже не могут считаться актуальными. Сегодня мы представим вашему вниманию тоже не самое новое, но, на наш взгляд, достаточно полезное исследование, посвященное производительности гипервизоров KVM и Xen.

image



Гипервизор KVM



Да простят нас гуру виртуализации, но для начала мы напомним читателям, что такое гипервизор и для чего он нужен. Для выполнения разных по смыслу задач (разработки программного обеспечения, хостинга и т. п.) проще всего использовать виртуальные машины: они позволят иметь несколько разных ОС с соответствующей программной средой. Для простоты работы с виртуальными машинами применяются гипервизоры — программные средства, позволяющие быстро развертывать, останавливать и запускать ВМ. KVM является одним из наиболее широко распространенных гипервизоров.



KVM — это ПО, позволяющее организовывать виртуализацию на основе ПК под управлением ОС Linux и похожих. С недавнего времени KVM считается составляющей Linux-ядра и развивается параллельно ему. Этот гипервизор может использоваться только в системах, где виртуализация поддерживается аппаратно — с помощью процессоров Intel и AMD.



В процессе работы KVM осуществляет доступ к ядру напрямую посредством процессор-специфичного модуля (kvm-intel или kvm-amd). К тому же, в состав комплекса включено основное ядро — kvm.ko и элементы UI, включая широко распространенный QEMU. KVM дает возможность напрямую работать с файлами ВМ и дисковыми образами. Каждая виртуальная машина обеспечивается своим изолированным пространством.



Гипервизор Xen



Изначально студентами Кембриджа был запущен проект, который в итоге стал коммерческой версией Xen. Первый релиз датирован 2003 годом, а в 2007 исходный код выкупила компания Citrix. Xen — это кроссплатформенный гипервизор с большим функционалом и огромными возможностями, что дает возможность применять его в корпоративной сфере. Xen поддерживает паравиртуализацию — особый режим ядра операционной системы, когда ядро настроено на одновременную работу с гипервизором.



В код Xen добавлен только необходимый комплект функций: управление виртуальной памятью и тактовой частотой процессора, работа с DMA, таймером реального времени и прерываниями. Остальной функционал вынесен в домены, то есть в работающие в это время виртуальные машины. Таким образом, Xen — самый легкий гипервизор.



Суть исследования



Тестирование основано на использовании двух серверов SuperMicro, у каждого из которых четырехядерный процессор Intel Xeon E3-1220 с тактовой частотой 3,10 Гц, 24GB Kingston DDR3 RAM и четырьмя драйверами Western Digital RE-3 160GB (RAID 10). Версии BIOS идентичны.

Для хостинга и виртуальных машин мы взяли Fedora 20 (с SELinux). Вот взятые нами версии ПО:


  • Kernel: 3.14.8

  • Для KVM: qemu-kvm 1.6.2

  • Для Xen: xen 4.3.2



Все корневые файловые системы — XFS с конфигурацией по умолчанию. Виртуальные машины созданы с помощью virt-Manager с использованием настроек по умолчанию, применимых к KVM и Xen. Виртуальные диски использовали raw-образы и было выделено 8 Гб РАМ с 4 vCPU (виртуальными процессорами). ОС, запущенные на Xen, использовали PVHVM.



Пояснения



Кто-то из вас может начать возмущаться — мол, владелец Fedora 20, Red Hat, тратит значительное количество усилий на поддержку именно KVM. Уточним: Red Hat не делали значительных продвижений по части Xen долгие годы.



Кроме того, конкуренция между гипервизорами жестко контролируется и сведена к минимуму. На большинстве виртуальных серверов у вас будет несколько виртуальных машин, борющихся за время процессора, устройства ввода/вывода и доступ к сети. Наше тестирование не принимает это во внимание. Один гипервизор может иметь низкую производительность при низкой конкуренции за ресурсы, а затем показать куда большую эффективность, чем конкуренты, когда борьба за ресурсы выше.



Исследование проводилось на процессорах Intel, поэтому его результаты могут отличаться для AMD и ARM.



Результаты



Тесты для виртуальных машин, установленных непосредственно на «железо», то есть, без операционной системы (далее — «железо»), послужили основой для тестирования виртуальных машин. Отклонение в производительности между двумя серверами без виртуализации составило 0.51% или менее.



Производительность KVM упала в пределах 1,5% по сравнению с «железом» практически во всех тестах. Только два теста показали иной результат: один из них — тест 7-Zip, где KVM показал себя на 2,79% медленнее, чем «железо». Странно, что KVM был на 4,11% быстрее в тесте PostMark (который симулировал сильно загруженный почтовый сервер). Производительность Xen сильнее отличалась от производительности «железа», чем в ситуации с KVM. В трех тестах Xen отличался на 2,5% от скорости «железа», в остальных тестах он оказался еще медленнее.



В тесте PostMark Xen был медленнее на 14.41%, чем «железо». При перезапуске результаты теста отличались от первоначальных на 2%. Лучший тест для KVM, MAFFT, оказался вторым в списке худших для Xen.



Вот краткий итог тестирования:






















































































Best Value Bare Metal KVM Xen
Timed MAFFT Alignment lower 7.78 7.795 8.42
Smallpt lower 160 162 167.5
POV-Ray lower 230.02 232.44 235.89
PostMark higher 3667 3824 3205
OpenSSL higher 397.68 393.95 388.25
John the Ripper (MD5) higher 49548 48899.5 46653.5
John the Ripper (DES) higher 7374833.5 7271833.5 6911167
John the Ripper (Blowfish) higher 3026 2991.5 2856
CLOMP higher 3.3 3.285 3.125
C-Ray lower 35.35 35.66 36.13
7-Zip higher 12467.5 12129.5 11879


Если вы хотите увидеть результаты полностью, пройдите по ссылке.



Вместо заключения



В нашем тестировании KVM был почти всегда на 2% медленнее, чем «железо». Xen оказался на 2,5% медленнее всего в трех тестах из десяти, а в остальных был выше на 5–7%. Хотя KVM показал себя с лучшей стороны в тесте PostMark, следует отметить, что мы провели всего один I/O тест, и для получения более достоверной картины стоит провести еще несколько.



Для выбора правильного гипервизора необходимо правильно оценить характер своих нагрузок. Если ваши нагрузки предполагают меньший объем для процессора и больший для I/O, то можно провести больше I/O тестов. Если же вы работаете, в основном, с аудио и видео, попробуйте тесты x264 или mp3.



[UPD] Как справедливо заметил mister_fog, в 2007 Citrix выкупила не исходный код Xen, а компанию XenSource, которая была основана разработчиками Xen и занималась коммерческим развитием этого открытого проекта. Пруф.

Original source: habrahabr.ru.

https://habrahabr.ru/post/282918/?utm_source=habrahabr&utm_medium=rss&utm_campaign=best

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Варианты компенсации даунтаймов от Google и Telstra

Понедельник, 02 Мая 2016 г. 17:51 (ссылка)

Даунтаймы (время, когда система не работает) ЦОД наносят не только финансовый ущерб, но и причиняют репутацию бренда. Множество причин может вызвать даунтаймы ЦОД. Бывает, что инфраструктура не способна справиться с нагрузкой из-за различных дефектов (стихия, перебои в работе центральной электросети и т.д.). Но именно человеческий фактор является причиной большинства ошибок, которые приводят к снижению безопасности и надежности ЦОД. Согласно результатам статистики компании WinMagic, опросившей около тысячи операторов дата-центров, большинство респондентов (31%) считают самой серьезной угрозой логической безопасности именно сотрудников с доступом к серверным фермам. Любопытно, что атаки хакеров занимают лишь второе место (30%).







Google взялся возместить своим клиентам до 25% их месячных затрат за сбой работы облака Google Compute Engine, который длился почти 20 минут (учитывая, что аптайм 99,9% допускает недоступность сервиса в течении не более 45 минут в месяц). Согласно пресс-релизу, который был выложен на веб-ресурсе Google Cloud Platform, первопричиной сбоя были изменения конфигурации сети. Когда операторы занялись изменениями, программное обеспечение управляющее конфигурацией обнаружило конфликт. Пытаясь исправить ситуацию, система сделала попытку возвращения к предыдущей конфигурации. И тут возникла неизвестная ранее ошибка, которая привела к сбою. Кое-как «залатать» дыру удалось спустя 20 минут, но проблема осталась не решенной. Разработчикам Google пришлось немало поработать над оптимизацией своих систем.







Подобная история произошла в ЦОД австралийской телекоммуникационной компании Telstra. Тот самый пресловутый человеческий фактор вывел из строя весь дата-центр. Но в отличии от Google, на устранение проблем в Telstra потребовалось почти четыре часа. Мобильная сеть телекоммуникационной компании ушла в офлайн. По данным издания Sydney Morning Herald, инцидент произошел из-за действий инженера, который перевел неисправный сетевой узел в автономный режим без предварительной активации резервного узла. Эти действия вызвали перебои в работе мобильной сети и оставили множество клиентов без связи. Проблема затронула многие города Австралии, включая Брисбен, Сидней, Мельбурн, Аделаида и Перт. За время исправления неполадки тысячи людей высказали свое недовольство работой компании в социальных сетях.







После случившегося произошло еще несколько, менее серьезных и длительных даунтаймов. Руководством компании было принято решение компенсировать клиентам доставленные неудобства и ущерб. Telstra подарила своим абонентам день бесплатного безлимитного мобильного интернета (Free Data Day). По итогам дня было скачено 2,686 Тб данных, что естественно привело к перегрузке сети и снижением скорости загрузки.



Простой дата центров наносит финансовый ущерб и бьет по репутации компании. Поэтому операторам, проектировщикам и строителям ЦОД так важно делать все от них зависящее для минимизации даунтайма. Конечно же никто не может гарантировать безопасности на 100%, но если использовать современные стандарты, подготовить план действий на случай непредвиденных ситуаций и не забывать про своевременное техобслуживание — риск даунтайма будет сведен к минимуму.



Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/267145/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Покоряя дно морское. Microsoft и его проект подводного ЦОД

Пятница, 29 Апреля 2016 г. 22:31 (ссылка)

К чему привело испытание под кодовым названием Leona Philpot



Под воду! Microsoft намерена развивать концепцию размещения серверной фермы на дне морском. Про прототип под кодовым названием Leona Philpot писала в одной из предыдущих статей. И вот, на конференции DatacenterDynamics Enterprise 2016, корпорация поделилась своими планами в ближайшем будущем развернуть под водой «настоящий» ЦОД, который уже в скором времени будет введен в эксплуатацию.







Напомню, что в августе 2015 года прототип серверной фермы цилиндрической формы, с габаритами примерно 3 на 2 метра, был погружен в километре от тихоокеанского побережья США и успешно эксплуатировался на протяжении четырех месяцев.







Leona Philpot был снабжен большим количеством теплообменников, которые в свою очередь передавали излишнее тепло от серверов в холодную воду.







Инженеры Microsoft поместили серверы внутри контейнера, управление ими велось в удаленном режим. Испытание длилось 105 дней. После того как подводная серверная ферма была поднята со дна, начался анализ полученных результатов.







Он был поднят в ноябре и перевезен на грузовике в штаб-квартиру Microsoft в Редмонде, штат Вашингтон (США), для дальнейшего анализа.











Испытание прошло успешно, без сбоев в работе оборудования + достигнута высокая энергоэффективность. Что касается системы охлаждения, она работала хорошо и превзошла некоторые из целевых параметров в области эффективности.











По словам топ-менеджера, этот результат придал инженерами Microsoft уверенности относительно того, что им следует разместить подводный ЦОД на еще большей глубине, в еще более холодной среде, поэтому было принято решение — развивать данную концепцию для дальнейшего строительства серверных подводных царств хранения информации. Изначально, прототип был погружен на 10 метров, теперь же компания уверена, что можно «окунуть» серверную ферму поглубже.







Представитель корпорации Microsoft Бен Катлер заявил, что размеры будущего подводного дата-центра будут в четыре раза больше, чем трестируемый прототип Leona Philpot, а мощность, помещенного внутрь ЦОД оборудования, достигнет половины мегаватта.



По словам Катлера, можно развернуть дата-центр мощностью в 20 мегаватт (или больше), если обьединить в один ЦОД такие отдельные модули. Благодаря тому, что такое хранилище данных будет развернуто рядом с побережьем крупного города это обеспечит минимальные задержки для пользователей/клиентов, живущих поблизости. Плюс еще в том, что такая серверная ферма обойдется в разы дешевле, чем на суше, а мобильность подводного ЦОД предоставит возможность перемещать его в кратчайшие сроки в нужные регионы.









Что касается выработки энергии для таких подводных царств



Проект Microsoft предполагает комплектовать подводные дата-центры турбинам, их планируется использовать для выработки электроэнергии с помощью механической энергии океанских волн и течений. Поэтому инженеры корпорации сейчас активно изучают насколько целесообразно использовать подводные генерирующие мощности (планируется использовать турбины, которые будут генерировать электричество за счет движения воды под поверхностью океана, волн).



Работа над проектом автономного подводного дата-центра дала специалистам корпорации возможность разработать новый подход по работе с серверами без физического доступа операторов к серверам. Для того, чтобы повысить эффективность удаления тепла первый модуль был заполнен азотом. Это помогло избежать сбору пыли на компонентах вычислительных систем. В качестве охлаждения прототипа был использован внутренний контур охлаждения и внешний теплообменник на базе килевого охладителя и ряда нестандартных конструкций от Microsoft.



Среди преимуществ подводного дата-центра — сокращение расходов за счет использования воды для охлаждения серверов и вспомогательного оборудования внутри серверной фермы, организация электропитания за счет той же воды, экономия на приобретении или строительстве недвижимости и уплаты налога на имущество.



Экологичен ли такой ЦОД



Прототип Leona Philpot не оказал негативного влияния на окружающую среду. Сам модуль генерировал очень мало тепла, так что даже разнообразные представители местной фауны облюбовали место на подводном ЦОД. Новый прототип, как уверяется, сможет демонстрировать нулевой углеродный след, при этом для охлаждения серверов не будет надобности в заборе воды извне.











На данный момент исследуются методы развертывания вычислительной инфраструктуры, которые позволят размещать дата- центры и на более серьезных глубинах, но при этом они не будут негативно влиять на окружающую среду в целом. Для этого в работу над проектом были привлечены сторонние ученые.



Project Natick







Original source: habrahabr.ru.

https://habrahabr.ru/post/282754/?utm_source=habrahabr&utm_medium=rss&utm_campaign=best

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество

Следующие 30  »

<хостинг - Самое интересное в блогах

Страницы: [1] 2 3 ..
.. 10

LiveInternet.Ru Ссылки: на главную|почта|знакомства|одноклассники|фото|открытки|тесты|чат
О проекте: помощь|контакты|разместить рекламу|версия для pda