Случайны выбор дневника Раскрыть/свернуть полный список возможностей


Найдено 126 сообщений
Cообщения с меткой

хостинг-провайдер - Самое интересное в блогах

Следующие 30  »
Natalya_Alexandr

Надёжный хостинг-провайдер в Европе DCXV

Суббота, 25 Марта 2017 г. 16:18 (ссылка)


        Вам нужен надёжный европейский веб сервер для размещения своего сайта? Тогда вам нужно обратиться в компанию DCXV.












РїРїРїРїРїРїРїРїРїРїРїРїРїРїРїРїРїРїРїРїРї (570x367, 205Kb)

Этот хостинг-провайдер за много лет успешной работы заработал высокий рейтинг и множество положительных отзывов. Узнать подробнее можно здесь https://dcxv.com/en/. Необходимо заметить, что компания DCXV использует только самое качественное оборудование и высокую пропускную способность, составляющую доли секунды. Техническая поддержка сайта обеспечивается круглосуточно, без перерывов и выходных. 


На сайте также есть живой чат, в котором вы можете общаться, предварительно указав адрес своей электронной почты.



   Если у вас возникли вопросы, вы можете их задать консультантам компании, воспользовавшись формой обратной связи. 

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Трудности выбора Хостера

Пятница, 10 Февраля 2017 г. 13:05 (ссылка)

image


Дорогие читатели, не так давно мы опубликовали пост «Битва идей», где спрашивали вас о предустановленном ПО на виртуальных серверах. Сегодня мы хотим провести опрос не на узкую тему, а о хостерах в целом.



Сейчас любой может арендовать сервер в Хетцнере, поставить WHMCS, Cpanel, сделать сайт в конструкторе на WordPress и вот, новая хостинговая компания за $100 готова. Доступность ресурсов и технологий способствует развитию конкуренции на рынке. Стандарты профессиональных хостинговых компаний постоянно растут, кто-то находится в поиске своей уникальной «фишки», но зачастую, как только такая «фишка» появляется, её копируют конкуренты.



В итоге, на рынке сложилась ситуация, когда потенциальному клиенту нужно выбирать одного среди нескольких сотен хостинг провайдеров.



Нам интересно узнать три вещи, которые относятся к выбору хостинга под проект. Надеемся, и вам, и нашим конкурентам, будут интересны результаты.

И как обычно — если нет вашего варианта ответа, пишите в комментарии.



За что Вы выбрали Вашего хостера?




























































































































































































Проголосовало 2 человека. Воздержавшихся нет.





Как Вы нашли Вашего хостера?
























































































Проголосовало 2 человека. Воздержавшихся нет.





Используете ли Вы партнерские/реферальные программы хостингов?




































































Проголосовало 2 человека. Воздержавшихся нет.





Только зарегистрированные пользователи могут участвовать в опросе. Войдите, пожалуйста.


Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/321568/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Какой должен быть хостинг?

Пятница, 13 Января 2017 г. 20:50 (ссылка)

Извечный вопрос новичков, который зачастую содержит гораздо больше смысла, чем мы представляем. Ведь речь пойдет не только о выборе хостинг-провайдера, но и о выборе самой услуги.



Но в начале сам вопрос, чтобы тема обсуждения была более понятна:



Собираюсь поднять сайт развлекательной тематики, в перспективе у которого может быть большое кол-во трафа, ддосы и тому подобное.



Дорогое ли удовольствие содержать такие сайты? На чем сидят сайты с трафом 25-50к в сутки? Что выбирать?




Приглашаем коллег и разбирающихся в вопросе веб-мастеров также принять участие в обсуждении и высказать свое мнение, будем рады комментариям с отзывами и критикой.



Мой путь как веб-мастера закончился ровно тогда, когда я решил отложить собственные веб-проекты на второй план и делать то, что у меня получается лучше всего — предоставлять людям качественный хостинг. И теперь, по прошествии почти 10 лет работы в хостинг-индустрии, пройдя путь от новичка с level 0 — который спрашивал 11 лет назад более сведущего однокурсника, в какую директорию нужно загрузить главную страницу и как она должна называться для интерпретатора по умолчанию, а уже менее чем через год продал ему же хостинг-аккаунт на виртуальном сервере еще незарегистрированного хостинг-провайдера — до хостинг-провайдера, абоненты которого сгенерировали трафика больше, чем вся Беларусь, могу сказать, что ответ не так неоднозначен, сложен и может с течением времени существенно меняться.



И причина — в развитии технологий, удешевлении стоимости услуг и их видоизменении. Мой личный опыт выбора правильного поставщика описан в моей же статье: «ua-hosting.company» или как стать хостинг-провайдером с нуля и сгенерировать трафика больше, чем вся Беларусь. И если будет время — ознакомьтесь, статья уже поможет частично ответить на сегодняшний вопрос, не прямо, а посредственно, приобрести базовое понимание.



Правда в том, что если раньше разрыв между услугой хостинга и выделенным сервером был колоссальным, не только в плане стоимости, но и в плане предоставляемых ресурсов, то сейчас, с учетом того, что серверы стали мощнее, даже на услуге хостинга или виртуальном сервере стоимостью в несколько долларов, можно получить столько ресурсов, сколько было на выделенных серверах 2007-2009 годов, которые стоили раз так в 50 дороже. Да и деньги тогда были значительно дороже. Однако стоит отметить, что приложения / сайты стали потреблять больше ресурсов в разы, но не в 50 раз.



Тем не менее, даже в 2009 году сайт с посещаемостью в 25 000 хостов (уникальных посетителей в день) порой мог существовать даже на хостинге, даже на «бесплатном», том же uCoz. К слову был «забавный» момент, когда несколькими годами позднее фильтр поисковой системы Google дал сбой и в топе оказались uCoz-сайты школьников — онлайн-кинотеатры и другие сайты развлекательной тематики. В результате сбоя многие школьники, организовавшие такие сайты, смогли заработать на рекламе тысячи долларов в сутки. В то время, как веб-мастера с многолетним опытом в сфере создания развлекательных порталов, с огромными многотысячными инвестициями в SEO и серверы, потеряли позиции в поисковых системах и терпели колоссальные убытки при наличии колоссальных счетов за серверы стримминга, которые они вынуждены были оплачивать дата-центрам. И такое продолжалось в течении продолжительного периода времени.



Но вернемся к вопросу. Какое же решение будет оптимальным для проекта с посещаемостью 25 000 человек в сутки?



Все зависит от проекта. Если это проект преимущественно статический с нечастым добавлением новых данных, без применения большого количества фильтров и выборок, к примеру типа Хабра — он не требует колоссальных ресурсов при посещаемости в 25 000 человек в сутки и даже более. Если же пользователи будут смотреть видео-онлайн и трансляция будет идти с Вашего сервера, Вам, вероятно, понадобится выделенный сервер, а возможно даже и не один. Также, как и в случае Интернет-магазина, когда пользователь будет искать товар из огромной базы товаров, которая обновляется часто, непрерывно подтягивается информация со складов, производятся действия связанные с добавлением данных в базу, применением различных фильтров и выборок — возможно Вам понадобится несколько серверов только под базы данных, с настройкой репликации и построении довольно сложных моделей взаимодействия.



В любом случае, если Вы только думаете сделать посещаемый сайт и никогда не сталкивались с этой задачей, то, с большой доли вероятности, планы в 25 000 посещаемости могут остаться только планами.



Не нужно сразу покупать / арендовать мегаинфраструктуру для проекта, с другой стороны, порой, наличие того же выделенного сервера вместо VPS или хостинга — может предоставить дополнительные удобства и послужит дополнительным стимулом к работе, ведь Вам как-то надо будет окупать затраты хотя бы на железо.



Хотя, в последнее время, грань между выделенными серверами и VPS размылась, порой, вторые оказываются удобнее и целесообразнее первых. Как, к примеру, в случае наших виртуальных серверов на выделенных накопителях:



ua-hosting.company/vds — полноценном аналоге выделенного сервера в Нидерландах:





















который будет не только удобней entry level выделенных серверов, но и гораздо производительнее. А самое главное, решение может быть значительно стабильнее, ведь железо — новее, а сама нода круглосуточно сопровождается нашей командой опытных системных администраторов. И Вам за это сопровождение не нужно платить ни цента.



Но, что-то я отвлекся на рекламу, извините :) Не скрываю, почему не прорекламировать продукт, если он действительно вышел на уровень entry level выделенного сервера по многим задачам, а в некоторых случаях даже мощнее и производительнее, а самое главное, удобнее? Это же подтверждают и наши клиенты.



Так какую же услугу выбрать в общем случае?



— если Ваш проект не предполагает больших нагрузок, не нужно проводить тюнинг серверных настроек под него, и впоследствии с ростом Вы спокойно можете мигрировать проект на более производительное решение, просто развернув его из бэкапа — качественный хостинг для начала будет идеальным вариантом, так как на хостинге зачастую Вы сможете получить больше ресурсов, чем на VPS, бесплатный мониторинг и отсутствие необходимости это администрировать;

— если Ваш сайт, размещаемый на хостинге, хостинг-провайдер собирается переводить, к примеру, на nginx+php-fpm в виду очень большого количества запросов и необходимости оптимизации нагрузки от него на ноду, что потребует действий со стороны хостинг-провайдера, то желательно сменить услугу на VPS или даже выделенный сервер, ибо когда Вы соберетесь переносить все на что-то большее, чем VPS, скажем сразу выделенный сервер — все эти «тонкие» настройки скопировать без помощи хостинг-провайдера не получится, а настройка переезда и сам переезд превратиться в по истине адский процесс;

— если Вы изначально знаете, что Ваш проект изначально может потребовать оптимизации настроек со стороны сервера, желаете более четко планировать необходимые ресурсы и полноценно следить за нагрузкой от Вашего проекта, а также иметь возможность мигрировать его в один клик — лучше разместить проект на виртуальном сервере, ибо образ с VPS может быть развернут на выделенном сервере довольно оперативно вместе с оптимизированными серверными настройками, хотя, в этом моменте также может быть масса особенностей;

— если Вы изначально знаете, что Ваш проект будет потреблять много CPU / RAM, то возможно, что виртуальные серверы на выделенных накопителях будут идеальным решением, так как за счет того, что на такой ноде весьма лимитированное количество пользователей (не больше, чем количество накопителей в ноде, а если услуга с RAID — в соответсвующее количество раз меньше), каждый может получить в пике не только свой гарантированный ресурс, но порой гораздо больше, так как одновременно соседи не расходуют весь свой лимит CPU и в пиках провайдер может разрешать потреблять свободный ресурс. Помимо прочего, выделенный накопитель позволит Вам обеспечить гарантированную производительность хранилища и утилизировать CPU полноценно, не «уткнуться» внезапно в I/O хранилища. Однако, вполне вероятно, что Вы можете упереться в другой параметр — трафик. Так что в случаях, когда высокое потребление CPU приводит к генерации большого трафика, выделенный сервер может быть предпочтительней и более экономически эффективным решением.

— если Вы изначально знаете, что Ваш проект будет потреблять много трафика, дешевле всего его будет разместить на выделенном сервере, так как помимо трафика Вам нужно будет обеспечить нужную для его генерации производительность хранилища и объем хранилища, а на виртуальных, облачных серверах и хостингах — это может быть крайне дорого.



Тем не менее Вы можете не слушать эти советы и сразу взять выделенный сервер для удобства развития Вашего проекта, если Вы правда уверены в том, что в скором времени получите аудиторию в 25 000 человек, к тому же необходимость солидной оплаты, в сравнении с другими вариантами, Вас будет стимулировать к развитию проекта. Только не забывайте о главном — сопровождении. Никогда не берите сервер без поддержки не имея опыта, ибо это поможет Вам не потерять Ваши данные и сделать работу проекта более отказоустойчивой и эффективной. Не поленитесь проконсультироваться у Вашего хостинг-провайдера о том, какой сервер Вам нужен, какие типы накопителей лучшей подобрать и целесообразно ли строить RAID. Не экономьте на «спичках»!



Почему не облака? Или почему облака нужно выбирать с осторожностью?



Некоторые спросят, а как же масштабируемые инфраструктуры — облака, которые позволяют наращивать необходимые ресурсы с течением времени? Может это быть выгодным?



Зачастую нет. Переплачивать прийдется в большинстве случаев, все масштабируемые инфраструктуры выгодны только в случаях, когда нагрузки пиковые и можно на короткое время купить много нужных ресурсов, а потом также быстро продать, а еще, когда это все автоматизированно и платится за реальное потребление. Но таких проектов на самом деле — крайне мало.



А сам же динамический ресурс — крайне опасен в конечном итоге, так как в случаях, когда какой-то скрипт в результате своей работы приведет к не оптимальному расходу ресурсов или произойдет атака, как на Ваш инстанс, так и с Вашего, и в случае взлома в результате можно будет попасть на несколько тысяч долларов или даже десятков тысяч:



NO!, i just got a $1000 bill due: «Thanks for following up. Your instance appears to have been compromised. It was implicated in a large scale Distributed Denial of Service attack. Because of the size of this attack, you will need to either replace the instance or find the actual compromise and resolve the root cause.»




Также счета получали и за использование сопутствующих сервисов, к примеру, «забавный» случай произошел, когда клиент оплатил свыше 150 долларов за извлечение всего лишь 60 ГБ данных с «Amazon Glacier»:



I ended up paying $150 for a single 60GB download from Amazon Glacier




А другой клиент предупредил о возможном счете на $22 000 в случаях необходимости в извлечении архива в 3ТБ в один день, так как система тарификации хитрая и позволяет скачивать в сутки бесплатно только порядка 5 ГБ (для его тарифа):



The retrieval fee for 3TB could be as high as $22,082 based on my reading of their FAQ.

After uploading 3TB (3 * 2^40 bytes) as a single archive, your retrieval allowance would be 153.6 GB/mo (3TB * 5%), or 5.12 GB/day (3TB * 5% / 30). Assuming this one retrieval was the only retrieval of the day, and as it's a single archive you can't break it into smaller pieces, your billable peak hourly retrieval would be 3072 GB — 5.12 GB = 3066.88 GB.

Thus your retrieval fee would be 3066.88 * 720 * .01 = $22081.535 (719x your monthly storage fee).

That would be a wake-up call for someone just doing some testing.




Нужен ли такой «ледник» с такими рисками — решать только Вам.



В том варианте, когда Вы расширяетесь поэтапно — это только удобство, связанное с отсутствием необходимости миграции, которое по итогам может обойтись очень дорого. И речь не столько о ресурсах, сколько о трафике. Арендуя выделенный сервер, Вы, как правило, можете получить 30-100 ТБ трафика вместе с сервером, в пределах $100. Трафик на всяких клауд-проектах будет стоить в разы дороже, а проблем может быть куда больше. Это очевидно.



Более того, арендуя масштабируемые инфраструктуры Ваши проекты, не факт, что получат нужные Вам ресурсы. Порой, наблюдаются проблемы с производительностью хранилищ, неэффективной работы CPU (Вы уверены в качестве используемых процессоров в облаке их честном распределении этих ресурсов?). В конечном итоге 10 000 IOPS в масштабированной инфраструктуре будут стоить космических денег. В то время, как арендуя выделенный сервер или даже виртуальный сервер с выделенным накопителем, Вы можете получить десятки тысяч IOPS с гарантией использования только Вами, при этом Вам никто не будет мешать добавлять новые серверы в кластер и масштабироваться. Только в конечном итоге это решение может быть гораздо надежнее, дешевле и иметь лучшую связность.



Да, Вы переплатите на ранних этапах, так как Вам нужно будет арендовать сразу выделенный сервер даже тогда, когда Вы эти ресурсы использовать не будете, но никто не мешает в начале арендовать VPS и разработать четкий план миграции. Также переплата будет заключаться и в построении кластерного решения в будущем. Однако, работая с хостинг-провайдером, который специализируется на построении таких инфраструктур — Вы все-равно окажетесь в плюсе. Так как впоследствии, разово инвестировав средства в написание скриптов и построение собственного решения, Вам не потребуется мигрировать на другую масштабируемую инфраструктуру, если в текущей что-то будет не устраивать и что-то станет слишком дорогим. Вы никогда не получите счет за услуги, которые были скрыты от Вашего взгляда умелыми маркетологами облаков.



Иными словами, выгоднее иметь контроль над своими узлами самостоятельно, самому решать на счет точек присутствия, чем полагаться на провайдера IaaS, который может менять условия на свой вкус и зависеть при этом от соседей по этому облаку и того, как спроектирована система.



К тому же облака, если падают, то падают на долго, так как большие инфраструктуры, порой, приводят к большим проблемам и недочетам, которые иногда невозможно разрулить оперативно.



Именно по этой причине я призываю по-возможности пользоваться решениями, основанными на bare metal (физических выделенных серверах), меньше вестись на облачный маркетинг и если и брать что-то в облаке, то без возможности попасть на сверх большой surcharge.



Выбор поставщика услуг.



Что же касается выбора самого поставщика услуг, то определиться для начала нужно с локацией. Не всегда размещение в локации более близкой к пользователям может быть оптимальным. Как в законодательном, так и финансовом плане.



К примеру, если речь идет о проекте развлекательной тематики для русскоязычной аудитории, то лучше взять сервер в тех же Нидерландах, а не Германии или РФ. Ведь не секрет, что взрослый контент в РФ запрещен и можно с легкостью получить блокировку от Роскомнадзора, только за то, что сайт размещается на территории России. В большинстве же регионов Германии попасть на содержащие такой контент сайты можно с условием платного доступа, хотя есть регион в Германии, где взрослый контент разрешен в открытом доступе.



Наиболее лояльная страна к контенту такого рода — Нидерланды. А поверьте, 80% пользователей интересуется таким контентом и они будут пробовать его залить, если портал будет поддерживать такую опцию. Хотя, если будут нарушаться чьи-то права, может возникнуть конфликт с BREIN — организацией, которая борется с распространением пиратства в Нидерландах. Но опять же — все зависит от того, как будет позиционироваться ресурс и как будет построена работа по DMCA.



Да и по стоимости трафика и серверов локация очень выгодна, а учитывая тот факт, что существует прямая связность с РФ и Украиной и можно получить пинг в пределах 40-60 мс до МСК, вопрос одобрения локации решается положительно. Именно благодаря большей свободе и низкой цене, адекватному законодательству, Нидерланды — одна из благоприятных точек Европы, где сосредоточена масса Интернет-проектов и мы выбрали для себя и наших клиентов именно её, как основную:  «Преимущества размещения в Нидерландах, Дата Центр EvoSwitch».



По поставщику же определиться гораздо сложнее. Провайдеры продвигают свои услуги самыми разными методами, нередко черными. К последним можно отнести «правдивые» отзывы на ресурсах, оставляемые клиентами без четкой идентификации, либо клонами, а следовательно отзывы не всегда могут быть объективными.



Самый эффективный метод проверки — зарегистрироваться в системе, открыть запрос в тех. отдел и отдел продаж и посмотреть в какие сроки идет реакция на запросы, какого характера ответы Вам предоставляют. Не стесняйтесь выглядеть глупо при постановке вопросов. Иногда с виду глупый вопрос может на самом деле быть довольно таки не глупым, или же наоборот показать глупость поставщика услуг. Если Вы только начинаете свой путь в веб-строительстве — не стесняйтесь почитать Google, чтобы задать не просто вопрос, а вопрос, который покажет степень грамотности и профессионализма, выбранного Вами поставщика услуг в тех или иных аспектах.



Удачи Вам в Ваших проектах, надежных хостинг-провайдеров и минимум 99.95% аптайма! В комментариях будем рады услышать Ваши мнения касательно ответа на поставленный в начале вопрос.
Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/319264/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

История клиента: поиск и выбор надежного партнера

Понедельник, 27 Сентября 2016 г. 01:46 (ссылка)





Под катом, история нашего клиента, о работе с местными хостинг-провайдерами, с какими проблемами столкнулся, о том, как всю его базу «случайно» удалили при переносе, и о том, что важно не ГДЕ, а у КОГО арендовать мощности, важен поставщик услуг. Этот кейс — пример того, что хороший маркетинг – не гарантирует хороший сервис.



Клиент: сеть аптек «ДС», 111 аптек, обслуживают 25 000 клиентов ежедневно, работают во Львовской, Волынской, Тернопольской, Черновицкой, Ивано-Франковской, Хмельницкой и Закарпатской областях. Подробнее:







Итак, слово клиенту:

— Через несколько лет работы нашей сети аптек, мы пришли к мысли о том, что нужно расширять поле своей деятельности. В данном случае речь шла о сайте, где будет показан каталог наших товаров (не лекарственные средства), на тот момент (2012 год) это было порядка 6000 товаров. Одной из задач нашего сайта была задача информирования существующих и будущих клиентов с инструкциями, фотографиями и прочими данными о лекарственных препаратах, представленных в наших аптеках. Так как государство не позволяет продавать лекарства в интернете, была выделена та категория товаров для продажи онлайн: косметика, не лекарственные препараты (пример — витамины), медтехника и такое прочее. Таким образом, первая задача сайта была информативная – инструкции пользования + фотографии товара для пользователей товаров, вторая – продажа определенной категории товаров.



Свой сайт мы реализовали на Битриксе, плюс интеграция с 1С. За услугой хостинга для нашего сайта мы первым делом обратились к одному из украинских хостеров. За время теста, нам ни разу не удалось выгрузить часть нашего каталога разрешенных к интернет торговли товаров, как я уже сказал – это около 6000. Мы подумали о том, что «может быть хостинг такой попался». :) Попробовали другой хостинг – опять ни одна попытка просто выгрузить весь наш каталог не удалась. Возникло подозрение, что существуют какие-то проблемы с нашим ПО. На своем сервере в офисе мы развернули виртуальный сервер, где все тесты прошли успешно. Мы искали хостинг-провайдера, мощности которого могли бы выдержать нагрузку обмена нашего объемного каталога товаров. После 2 неудачных попыток пользования хостингом, мы решили попробовать воспользоваться услугами европейских хостинг-провайдеров, в итоге наше доверие было оправдано. На наш взгляд очень важно, как хостер определяет порог мощности для своих клиентов, если выделенная мощность стабильна, ровна та, которая была обещана, это добавляет плюс в карму хостеру и укрепляет доверие, как к партнеру и поставщику услуг.



Комментарий от SIM-Networks

Всех наших битрикс-клиентов мы выносим в отдельные сервера, где есть только битрикс-клиенты
.




При загрузке нашего каталога уже у хостинг-провайдера SIM-Networks, с первого раза все было реализовано без проблем и задержек. Два года сотрудничества с этим хостинг-провайдером прошли успешно и мы приняли решение расширятся, необходимо было увеличить мощности, поскольку контентно-медийное содержание нашего сайта было значительно расширенно. Кроме того, в виду некоторых действий контролирующих органов (2013 год), мы хотели дополнительно обезопасить нашу инфраструктуру, нашу ERP-сеть, наши данные. Мы решили пробовать выносить нашу инфраструктуру в облако. Также важной задачей было увеличение мощностей, так как наши сервера не справлялись с пиковой нагрузкой. В частности, речь шла о потоковой загрузке документов (подробности ниже). Первоначально была идея на наших серверах перейти с SAS-дисков на SSD, но, просчитав стоимость такого перехода, мы поняли, что гораздо выгоднее нужные мощности арендовать. С теми темпами роста, как у нас, добавлять мощности дорогостоящего оборудования, нужного нам — необходимо будет каждый год, соответственно такая стратегия будет совсем не рентабельна.



Сделав мониторинг цен, вначале мы пробовали «пойти в облако» к одному из отечественных хостинг-провайдеров, из-за более низкой цены. Взяли мощности на тест, загрузили копию нашей системы, провели самые необходимые для нас тесты – все было хорошо. Но, когда мы запустили нашу систему в продуктив, то мы были разочарованы. В течение 2014 года мы наблюдали провалы в определенные даты и у нас очень задерживалась работа. Мы начали наблюдать постоянные провалы в продуктивности, например, производительность инфраструктуры падала до нуля где-то на 1-3 минуты, а затем быстро «поднималась». И эта вроде бы небольшая задержка вызывала снежный ком больших и временных задержек и приносила очень большие нарушения наших бизнес-процессов.



Наша пиковая нагрузка – это каждый рабочий день с 9.30 до 11.00 – около 700 документов и 15.00 до 17.00 – около 700 документов – в день выходило порядка 1500 документов, в это время работали так называемые «тяжелые пользователи», которые пакетно загружали документы. Это все загружалось в одно время и с разными обработками.



Нужно отдельно сказать о том, какие обработки проходила почти каждая накладная. Сам по себе этот документ весил не очень много – около 50 кб в текстовом, определенном формате, тут важно какому процессу обработок подвергался каждый документ. Каждая накладная проходила такие обработки:

— распознавание контрагента;

— распознавание SKU позиции по таблице соответствия;

— сложная обработка по ценообразованию (есть государственные ограничения, есть таможенные ограничения, цена дистрибьютора — проверка стоимости по всем этим и другим параметрам);

— происходила проверка этого товара на складе, если он был – ставился резерв, если нет – формировался заказ;



Если учесть, что у нас есть 111 аптек, на каждую аптеку есть как минимум 10 дистрибьюторов, а еще каждая накладная может иметь разные позиции: НДС-товар, не НДС-товар, это не говорим уже о других свойствах – продукт должен хранится в холодильнике, например. Проверка 1 накладной могла осуществляться по 20 (!) позициям.




Мы тестировали хостинги, на наших собственных серверах 100 накладных загружались за 16 минут. Если посадить 5 человек, которые будут загружать 100 накладных – это растягивалось до 2 часов, и эти 15 минут превращались в 40 минут-1час. На SSD хостинге отечественного провайдера – тот же пакет документов загружался за 9 минут. При SSD хостинге в европейском дата-центре все загружалось приблизительно за 4 минуты. Главной задачей было – убрать эти очереди к БД, и на тех мощностях которые мы сейчас арендуем у провайдера SIM-Networks – удалось решить эту наболевшую для нашего бизнеса задачу.







Вот это падение на отечественном хостинге «всего лишь на 3 минуты» выстраивало большую очередь к нашей БД, подвисали все пользователи и система 1С могла за эти 3 минуты выбить блокировку, и все пакеты документов сбрасывались, документы которые загружались бизнес-пользователями (торговые точки и отделения); что приносило очень много неудобств и нарушало бизнес-процессы. Положим, менеджер загружал несколько накладных, при сбое он оставался в неведении – прошла проводка или нет? И менеджерам приходилось все загружаемые проводки удалять, и вручную вбивать незагруженные накладные. Это был такой вечный, нудный, раздражающий и никому не нужный процесс (– все топали ногами и матерились на чем свет стоит!). Ежемесячный наш оборот составляет около 50 000 000 гривен, из-за таких провалов, потери могли составить до 10% — 5 000 000 грн ежемесячно, можете представить, как это нарушало бизнес-процессы!?



Нужно сказать о своеобразной сезонности таких сбоев, во время использования украинского хостинга: как правило они случались в начале-конце месяца (10 дней), середина месяца – очевидно, когда все сдавали документы в налоговую и т.д, 20-е числа – время сдачи налоговых документов – было заметно, что хостер не рассчитывал на то, что все клиенты единовременно будут на все 100% использовать арендуемые ими мощности. И, получается, что обещанные нам мощности, нам же и не предоставляли. Не было провалов только тогда, очевидно, когда другие клиенты (наши соседи) не пользовались серверами.



Дисклеймер об украинском хостинге
Мы не считаем всех отечественных хостинг-провайдеров плохими, довелось сотрудничать только с двумя компаниями. К сожалению, опыт сотрудничества с ними оказался негативным. Названия компаний специально не стали упоминать, чтобы никого не обидеть. Уверены, что среди украинских хостинг-провайдеров немало профессионалов и есть достойные компании, с уровнем качества заслуживающим уважения. Но, вопрос с выбором хостинг-провайдера, для себя мы уже закрыли и вполне довольны своим выбором. Несколько лет успешного сотрудничества и партнерства позволяют говорить об этом с уверенностью.




Комментарий от SIM-Networks

Такие задержки, чаще всего происходят, когда на сервер рассчитанный, скажем на 5 клиентов провайдер размещает 10 клиентов, в (наивной) надежде, что они никогда не будут использовать все свои (уже купленные ими!) мощности. Мы считаем, что если клиент купил место, купил запас мощности – то пустует оно или нет – это уже клиента, и он может делать с ресурсами все что захочет.




Мы очень долго доказывали хостеру, что это проблема с их стороны, запускали мониторинговые системы, которые показывали, как работают их сервера. И только после года таких мучений, компания хостер согласилась купить специально под нас SSD-полку в свой дата-центр. Но миграция наших данных на эту полку была осуществлена из рук вон плохо и непрофессионально. Хостер выяснил, что для нас комфортное время переноса данных — с 21.00 пятницы до середины дня воскресенья. Провайдер обещал осуществить миграцию всего за сутки. В воскресенье в обед реструктуризация новой полки еще не была закончена и мы начали просить все вернуть как было, на что получили ответ, что на старой арендуемой нами мощности наших данных уже нет (- а мы перенесли, смотрим система поднялась и поэтому старую БД удалили – сказал хостер), хостер решил удалить эти данные, так как считал, что миграция уже произошла и их хранить уже не обязательно ( — Они сошли с ума!? – подумали мы). Т.е. еще до того, как полностью была реструктуризирована новая SSD полка, они всю исходную БД убили. В виду такого чрезвычайного положения, мы разворачиваем свои данные из наших бэкапов. Полная реструктуризация нашей «новой» SSD-полки у хостинг провайдера заняла целую неделю! И все это время нам пришлось работать гораздо медленнее на нашей запасной инфраструктуре.

На наше предложение этому хостинг-провайдеру взять физическое оборудование в аренду, мы получили ответ, что необходимо порядка 85 000 долларов, провайдер предложил нам самостоятельно купить это оборудование для установки в их дата-центр, что, конечно же нас не устроило.



После такого неудачного опыта, мы решили арендовать у европейского хостинг-провайдера уже не виртуальную, а физическую инфраструктуру, куда мы перенесли не только наши основные 1С сервера, но после успешного опыта использования, взяли в аренду 2 резервных сервера, плюс перенесли наш кластер, где у нас была ИТ-инфраструктура, файловый сервер, Microsoft exchange и т.д., итого мы взяли в аренду несколько серверов, плюс полку.







Если говорить об экономической целесообразности аренды надежных мощностей для ИТ-инфраструктуры – на то время наши сервера уже служили нам 3 года и как раз заканчивалась гарантия от вендора (next business day) и ее нужно было продлевать, эта гарантия в год обходилась около 300 000 гривень (на то время это было 25 000 долларов, примерно) и плюс расходы на электроэнергию, в итоге аренда этого же оборудования у хостинг провайдера выходила не намного дороже, но это без забот о:

— продлении и покупке гарантии;

— увеличении физических мощностей (апгрейд оборудования);

— расходах на электроэнергию.



Мы просчитывали, что если все нужное нам оборудование мы купим сами, то выйдем в 0 покрытия капитальных затрат только через 3,5 года – и это не окончательные просчеты, так как наша компания постоянно развивается, и сумма затрат на увеличение мощности нашей ИТ-инфраструктуры могла бы увеличиваться в геометрической прогрессии.



Наши глобальные планы в будущем – всю нашу инфраструктуру перевести в арендуемую, у того же провайдера, где мы арендуем мощности, мы вязли в субаренду программное обеспечение Microsoft для своих нужд. Для компании, которая развивается – это гораздо выгоднее. Перефразируя эту мысль можно сказать: если вы развиваетесь – считаем что нужно идти в облака.



Мы снова хотим расширяться, так как нам уже не хватает мощности, и серьезно рассматриваем вариант с облаком. Опасений перехода в облако у нас нет, так как на своем опыте мы убедились — не так важно ГДЕ арендовать, важно у КОГО арендовать, важно выбрать надежного провайдера услуг!




www.sim-networks.com – выделенные серверы и защищенное облако в Германии, SSD хостинг и VPS.



Наш быстрый SSD хостинг для сайтов на CMS 1С-Битрикс. Также мы готовы предложить выделенные серверы и VPS оптимально сконфигурированные для работы с продуктами 1С-Битрикс.
Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/311040/

Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Миграция в облако. Простые шаги для повышения эффективности бизнеса

Пятница, 29 Июля 2016 г. 15:46 (ссылка)





Сложная экономическая обстановка продолжает оказывать давление на российский бизнес и IT отрасль не стала исключением. Многие компании пытаются сэкономить на инфраструктуре или хотя бы «растянуть» затраты. В этом на помощь к ним пришли хостинг-провайдеры, которые предлагают размещение данных и рабочего пространство для сотрудников в облаке.



Услуга набирает популярность особенно среди иностранных компаний, работающих в России, в виду ужесточения законодательства в области работы с информацией. Так или иначе, каждой компании необходимо учитывать требования Федерального закона номер 152 «О персональных данных» при работе с контрагентами и партнерами.



Что этот закон в себе несет для компании:


  • Обязанность брать согласие на обработку, хранение и, при необходимости, передачу данных на обработку третьим лицами,

  • Обязанность собирать только те данные, которые действительно необходимы для работы с клиентом,

  • Обязанность удалять данные клиента по его требованию,

  • Обязанность оберегать данные клиента от кражи, взлома, передачи лицам, которые не имеют права доступа к данным, в частности, рекламным агентствам.



Это только небольшой список обязанностей. В зависимости от типа данных, требования могут меняться. К примеру, для работы с конфиденциальной информацией будет требоваться лицензия Федеральной службы по техническому и экспортному контролю (ФСТЭК), а с государственной тайной – ФСБ. Естественно, и требования к держателю данных там совсем другие.



Очень важным является пункт о трансграничной передаче данных, который резко усложняет процесс передачи персональных данных зарубеж.



В целом, данный закон, принятый в 2006 году, претерпевший значительные изменения за последние года, призван повысить уровень безопасность лично гражданина и государства в целом. К тому же государство планировало при помощи данного закона стимулировать развитие отечественного рынка IT.



И государство следит за исполнением Закона. Роскомнадзор регулярно производит проверки не только в крупных банках и компаниях, но и в рядовых интернет-магазинах.



Естественно, наличие такого регулирования создает определенные сложности в работе компаний.



Давайте взглянем на иностранный бизнес в нашей стране.

Для того, чтобы работа иностранных фирм полностью соответствовала букве закона, компании должны не только перенести сами данные на территорию Российской Федерации. Всем понятно, что инфраструктура для хранения данных стоит колоссальных капитальных вложений и системы обслуживания. Все это требует довольно высокой квалификации от сотрудников. При этом экономическая выгода с точки зрения бизнеса здесь, мягко говоря, сомнительна. А если вспомнить про то, что количество информации, в частности, подлежащей хранению, постоянно растет, хотя бы и благодаря недавно принятому пакету законов «Яровой», то возникает еще одна головная боль – масштабирование инфраструктуры.

Потому многие и идут в облака.



Хостинг-провайдеры на текущий момент предлагают практически весь спектр необходимых услуг – от обычного бэкапирования и хранения данных до организации командной работы распределенных географически сотрудников и в целом обеспечения компаний нужными вычислительными мощностями без необходимости закупать мощной оборудование в собственность и тратиться на его содержание.



Отдельная статья – аренда лицензий программного обеспечения. Арендовать ПО становится намного выгоднее, чем покупать на каждую отдельную машину весь пакет софта.



Про то, что перевод затрат из капитальных в операционные создает экономию на налогах тоже не стоит забывать.

Конъюнктура рынка, которая включает в себя падение курса рубля, рост цен на оборудование, падение стоимости рабочей силы и рост конкуренции среди хостинг-провайдеров, делает перевод своей IT инфраструктуры в облако экономически более чем оправданным.



К примеру, если у вас в компании есть 10 серверов, средней цены 1 000 000 рублей, к ней необходимо приложить:


  • обеспечение бесперебойного питания, связи и охлаждения. Стойка потребляет порядка 25 КВт в час с учетом охлаждения, 1 КВт в час стоит около 5 рублей. В месяц набегает на 90 000 рублей.

  • Гигабитный канал связи добавляет еще 30 000 рублей в месяц.

  • Плюс хотя бы двое специалистов, готовых круглосуточно мониторить оборудование – хотя бы еще 150 000 рублей в месяц с учетом налогов.



Итого вам капитальных вложений изначально нужно 10 000 000, плюс ежемесячно не менее 270 000 рублей, не считая затрат на замену выходящего из строя оборудования.



В случае аренды аналогичных мощностей у vps провайдера, это будет стоить порядка 600-700 тысяч рублей в месяц, без необходимости обеспечения своей инфраструктуры и команды поддержки.



Как видите, экономика проста – за год на облако вы потратите 8 400 000 рублей, а за тот же период владения своей инфраструктуры вы затратите 13 240 000. Расходы на оба направления сравняются через два года, когда на свою инфраструктуру вы потратите 16 480 000, а на облачную 16 800 000.



Но при этом вы не будете думать о том, что вам нужно следить за оборудованием и содержать команду. Более того, большинство провайдеров при таком объеме заказа дадут дополнительную скидку. Не стоит забывать так же и о том, что вы всегда можете легко менять масштаб вашей инфраструктуры как в меньшую, так и в большую сторону простым запросом к провайдеру, и то, как это обеспечить – уже его проблема. Вы при этом платите только за то, что вам реально нужно и на этом экономия может быть еще больше.



Благо сейчас выбор хостеров большой и вы можете выбрать как любую среду виртуализации, так и любую ОС и набор сопутствующих услуг. Поистенне, сейчас можно полностью организовать бизнес в сети.



Таким образом, и для российских и для иностранных компаний виртуальная инфраструктура стало надежным и понятным решением.



Естественно, иностранный бизнес ждет от облачного провайдера исполнения 152-ого ФЗ. То есть хостер должен как минимум обладать лицензией Роскомнадзора и располагать все свои мощности на территории России, а если предполагается работа со специфической информацией, должна быть еще и лицензия ФСТЭК и/или ФСБ, как мы говорили выше.



С юридической и организационной стороной все более-менее ясно, тем более у нас уже есть немало статей на эту тему.

Давайте рассмотрим технический аспект перехода из собственной инфраструктуры в облачную. Сразу отбросим простые примеры, где компании нужно, скажем, просто настроить бэкап.



Пусть ваша компания предоставляет услуги населению, к примеру – банк. Как перенести всю инфраструктуру банка в облако?



Давайте двигаться поэтапно:


  1. Оценка хранимой информации с точки зрения возможности хранения и обработки ее третьей стороной (скорее всего, что-то банк оставит у себя, а что-то отдаст)

  2. Оценка текущей ресурсной базы банка в соотношении с реальными требованиями при хранении данных (скорее всего где-то можно оптимизировать мощности серверов, которые используются при хранении и работе с данными)

  3. Оценка софтверной составляющей при работе с данными (какое ПО нужно для работы – от операционной системы до версии базы данных и веб-сервиса)

  4. Подготовка плана поэтапного перехода сервисов из собственной инфраструктуры в облачное с полным дублированием на этапе перехода.

  5. Тестирование на отказоустойчивость и корректность работы после выполнения каждого этапа плана перехода.



При выполнении миграции на vps сервер, скорее всего, каждый хостинг-провайдер сможет помочь вам на каждом этапе, ведь это в его интересах – с одной стороны ему нужен клиент, с другой – миграция должна пройти без сбоев и обеспечить качественную работу на всем промежутке обслуживания, ведь владельцы хостинга тоже хотят спокойно спать.

Давайте кратко пройдемся по содержанию этапов.



1. Оценка хранимой информации с точки зрения возможности хранения и обработки ее третьей стороной



Прежде всего, необходимо разделить информацию на:


  • Общедоступную,

  • Служебную,

  • Конфиденциальную,

  • Специальную (государственная тайна, к примеру).



Информацию будет необходимо физически разделить (устранить возможное спешивание в базе данных) для того, чтобы можно было выделить ту часть, которая будет передана к хостинг-провайдеру, а какая – останется в компании.



То же самое нужно будет сделать и сервисами компании (как внутренними, так и внешними). К примеру, веб-сайт, интернет банк можно будет передать третьей стороне, а вот систему, работающую с конфиденциальной информацией уже можно передавать только при наличии лицензии ФСТЭК у оператора.



2. Оценка текущей ресурсной базы банка в соотношении с реальными требованиями при хранении данных



Не секрет, что в докризисное время компании могли покупать довольно мощные серверы и компьютеры. Как правило, эти вычислительные мощности используются совсем неэффективно. К примеру, во многих случаях можно сэкономить на мощности процессора. Зачастую сократить и жесткий диск с каналом связи.

Соответственно, необходимо просуммировать системные требования к вашему программному обеспечению, собрать статистику по реальному использованию и подобрать необходимую инфраструктуру у хостера. Это однозначно даст вам большую экономию уже на старте работы.



3. Оценка софтверной составляющей при работе с данными



Здесь вы вместе с хостинг-провайдером составите список того ПО, которое он вам сможет предоставить в аренду (например, тот же MS Office, SQL), а что вам будет необходимо приобрести отдельно.



Аренда, как правило, выйдет значительно дешевле, чем покупка лицензионной копии любого ПО на отдельную машину, потому очередную экономию вы увидите еще и здесь.



4. Подготовка плана поэтапного перехода сервисов из собственной инфраструктуры в облачное с полным дублированием на этапе перехода



Ломать, как говориться, не строить. И ломать ничего не нужно, до тех пор, пока новая инфраструктура не протестирована и не отлажена.



Подготовьте план поэтапного перевода вашей инфраструктуры в облако. Начинать нужно всегда с малого, отправьте в облако один из веб-сервисов вашей компании или какой-нибудь внутренний ресурс. Проверьте, как все работает, заметили ли клиенты переход или все прошло «бесшовно», учтите возникшие проблемы и переходите к следующему сервису. Постепенно вы переведете все, что было необходимо с минимальными техническими трудностями.



5. Тестирование на отказоустойчивость и корректность работы после выполнения каждого этапа плана перехода



Обязательно проверьте работоспособность всей инфраструктуры в целом после миграции. Только после этого вы сможете полностью отказаться от своей инфраструктуры.



Более детальные технические моменты миграции – не предмет данной статьи, тем более, что это все индивидуально для каждой компании. Тем не менее, следование указанному общему плану позволит вам мигрировать максимально быстро и при этом с минимальным набором вопросов технического плана.
Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/306734/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Лоукост VDS хостинг в России и его техподдержка

Среда, 27 Июля 2016 г. 20:53 (ссылка)

Доброго времени суток, дамы и господа.



Есть тут на Хабре одна компания, которая имеет свой блог и отчаянно пиарится как "Лоукост VDS хостинг в России".



Я ничего не имею против лоукоста и сразу же оплатил у них сервер. Первое время сервис был на достаточно хорошем уровне, кроме нескольких факапов со скидками, которые тут же и рекламировались. Но все эти проблемы достаточно быстро решались через ТП или комментарии на Хабре.



Но сегодняшняя ситуация перечеркнула все плюсы.



В обед я заметил тормоза своих сайтов, обратившись в техподдержку, я получил ответ, что был небольшой DDoS и сейчас проблема решена. И действительно, проблема была решена и сайты забегали по IPv4. Но весь фокус в том, что в DNS был прописан и IPv6. К почте он был привязан так же, как и к сайтам. И вот он отвалился чуть более чем полностью.



Что обычно делают все нормальные люди? Пишут в техподдержку. Что я и сделал.



Ответ меня не то что поразил. Ответ убил на повал:





За 15 лет работы со всякими датацентрами и хостингами я не припомню ситуации, чтоб хостер просил рутовый доступ к моему серверу. В принципе, все и так понимают, что хостер имеет доступ к файловой системе сервера, при необходимости. Но чтоб вот так в наглую.



Я думал, что на этом все и закончится. Напишут список команд, я выдам им результат и все. Но нет. Следующий комментарий от ТП был более настойчивым и все так же продолжали требовать рутовый доступ.



Не буду пересказывать всю переписку. Это лишено смысла и пост не является жалобой как таковой, а всего лишь предостережением.



В общем, если кто-то из хабровчан пользуется услугами этого чудо-хостера и испытывает проблемы с IPv6, то проблема решается одной командой:



ping6 -I <ваш_ipv6_адрес> 2a02:6b8::feed:0ff


После этого все начинает работать.



Как вы, наверное, уже догадались эта команда пришла не от техподдержки, а от моего товарища, который боролся с ТП за три дня до этого в течение двух суток. В результате, у него сегодня ситуация повторилась и это помогло.



Вероятнее всего есть проблемы с AntiDDoS оборудованием, которое широко рекламировалось в твиттере. Но кто же у нас признает проблемы и компенсирует простой? Вопрос риторический.


Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/306570/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Гипер-конвергентное решение – FusionCube и FusionSphere Openstack для провайдера облачной услуги

Понедельник, 11 Июля 2016 г. 18:40 (ссылка)





Продолжаем публиковать материалы форума Облачные технологии в России, который наша компания вместе с технологическим партнером HUAWEI провели 23 июня в LOTTE HOTEL MOSCOW. Первые три части вы можете прочитать здесь: часть I, часть II, часть III. Сегодня представляем читателям интересный доклад Дениса Дубинина на тему современных инструментов создания облачных решений.











Денис Дубинин, менеджер по продуктам ИТ, сервера, СХД, виртуализация, HUAWEI



Добрый день! Зовут меня Денис Дубинин, я продакт-менеджер компании HUAWEI по продуктам, серверам СХД и системам виртуализации. Сегодняшняя тема моего доклада называется FusionCube, FusionSphere, инструменты для создания облаков. Кто-нибудь пользовался уже нашим ПО, облачным, скажем так, направлением? FusionSphere, какими-то другими вещами? FusionStorage? То есть вообще никто не сталкивался? Ну сегодня попытаюсь приоткрыть тайну, висящую над этими продуктами, что же они из себя представляют. Начну я сейчас с решения FusionCube, что это такое.







Пару слов о компании HUAWEI. Компания HUAWEI — международный лидер по производству телеком-оборудования для различных операторов связи — сотовой связи, фиксированной связи, магистральных каких-то линий. Вот слышал, тут сегодня были разговоры про оптику Владивосток, Сахалин и прочее, прочее. Собственно, этими вопросами тоже HUAWEI занимается. В принципе, здесь коротко наше портфолио, чем же занимается HUAWEI в направлении энтерпрайз — облачные решения, про которые мы сегодня поговорим, серверы, системы хранения данных, сетевое оборудование, достаточно широкого профиля от, еще раз, магистральной оптики, заканчивая вай-фаем, коммутаторами для центра обработки данных, стандартных кампусных решений. Есть решения по сетевой безопасности, анти-DDOS решения, антивирусные файерволы и прочее, прочее, прочее…спектры трафика и так далее. И инженерная инфраструктура для ЦОД, т.е. HUAWEI также производит бесперебойные источники питания, кондиционеры, модульные ЦОДы, контейнерные ЦОДы и все, что с этим связано.







Про решение FusionCube, что же это такое. FusionCube – это гиперконвергентное решение, которое, скажем так, позволяет заказчику сэкономить время, сэкономить ресурсы для того, чтобы развернуть IT-ландшафт для какой-то своей задачи. Почему не просто конвергентное, а именно гиперконвергентное – потому что в едином корпусе, в едином шасси все три компонента, собственно, сервера, сетевое оборудование и система хранения данных. Причем, система хранения данных это не отдельные аппаратные выделенные элементы, а для системы хранения данных используются ресурсы самих серверов, т.е. устанавливается определенный софт, получаем software defined storage, и этот software defined storage презентуем собственно сереверам, которые вращаются на этой же аппаратной платформе. В текущий момент у нас, скажем так, две модели – FusionCube 9000 и FusionCube 6000.







Параметры их здесь приблизительно видны. Значит, старшая модель позволяет в одном шасси получить до 32 процессоров, 12 терабайт оперативной памяти, 172 терабайта под систему хранения данных. FusionCube 6000 – решение полегче, попроще, поменьше – здесь до 8 процессоров, до 2 терабайт оперативной памяти на такой модуль и до 280 терабайт хранения. В принципе, тут уже указаны для младшей модели общие направления, для чего стоит применять, скажем, вот это решение, то есть до виртуализации 60 каких-то серверов, до 280 рабочих мест виртуализированных. Если вам нужно больше параметры, то, наверное, стоит уже рассматривать решение 9000-е.







По поводу применения FusionCube. FusionCube — это не равно облако. FusionCube — это не равно виртуализация. FusionCube, скажем так, это равно некая универсальная структура, некий универсальный IT-ландшафт, который вы вольны распределять, использовать на свое усмотрение.

Для 9000-х систем существуют уже апплайенсы протестированные, готовые, сертифицированные для решений с УБД, баз данных, такие как SAP HANA, ORACLE и прочие. Есть решения гибридные, когда часть нод используется под виртуализацию, часть НОД используется под базы данных, допустим, часть нод используется для узлов SAP HANA.

Для 6000-й системы, как для более младшей системы, все-таки в большем приоритете виртуализация, причем виртуализация достаточно широкого профиля — VDI, облака, серверная виртуализация и так далее.







По поводу, из чего же состоит FusionCube и почему мы FusionCube называем определенный набор решений, а не просто любой наш сервер обзываем FusionCube. По решениям, первое – конвергентное. В этом решении отсутствует выделенное СХД. Если мы поставили несколько серверов в один ряд, прикрепили к ним СХД аппаратную, то это уже не FusionCube. Это просто какой-то кластер. Упрощенно, управление вот этим FusionCube происходит из одного окна, то есть менеджмент и управление аппаратным железом, софтверными вещами, которые на нем установлены, производится из одной консоли операторской. Ну и решение достаточно мощное, потому что используется, опять же, распределенное СХД и ряд элементов, которые повышают производительность. Это передача данных по InfiniBand и использование наших SSD PCI-экспрессных карт для хранения данных и для кэширования данных.







Следующий момент – открытость решения, то есть, еще раз говорю, мы не заставляем заказчика или нашего партнера, вот вы приобретаете наш FusionCube, и дальше используется в одном каком-то, не знаю, направлении, в одном сценарии. Вы можете, в принципе, создать этот сценарий сами, т.е. от нас вы получаете вот это железо, от нас вы получаете виртуальную СХД, получаете, допустим, модели управления, ПУ управлением, но всю последующую набивку, как в операционных системах, приложениях, баз данных и так далее остается на ваш выбор.







Про сравнение с классической архитектурой, преимущества: меньше занимает места в несколько раз, энергоэффективность, зеленые технологии и так далее.







Про еще один плюс этого решения – оно позволяет сократить время на развертывание, то есть вам не нужно получать оборудование от разных вендоров, потом его интегрировать, потом получать ПО от третьего вендора, его тоже интегрировать, запускать все в работу, сдавать заказчику, потом бороться с багами, скажем так, от всех вместе взятых. Наше решение всегда поставляется с единым саппортом, с единой точкой входа, под единое конкретное решение.







По поводу быстрого развертывания – для тех, скажем так, протестированных сценариев, которые предлагаем мы с использованием FusionCube, уже готовые есть инструменты, которые позволяют быстро развернуть этот FusionCube под конкретную задачу. Есть ПО, называет FusionCube Builder – это installation tool, т.е. вы его запускаете на своем лэптопе, по сети подключаете к FusionCube, как в визарде делаете – next, next, next, в итоге получаете тот ландшафт, который вы заказывали. И FusionCube Center – это, собственно, менеджмент платформа, которая позволяет интегрировано этим всем, ну не скажу чтобы до конца управлять, но, по крайне мере, мониторить точно на 100%.







Следующий момент – линейный рост. Поскольку нет выделенной СХД, при увеличении количества серверов, линейно растет, как производительность самих серверов, так и производительность СХД, то есть как бы вы количество пользователей, VDI у вас ни росло, ни росло количество серверов, используемых в решении, производительность остается на том же уровне. Повышение количества пользователей не вызовет у вас какого-то уменьшения производительности работы этих пользователей, имеющихся.







Из преимуществ, про software defined storage будет еще дальше рассказано, но собственно, чем оно отличается от классической архитектуры. В классической СХД присутствуют – сеть передачи данных, san сеть, либо 10 Гбит, либо 8 Гбит файбер ченнел, либо 16 Гбит файбер ченнел, дальше стоит контроллер, в классических системах 2-контроллерные машины, сейчас идет развитие мульти-контроллерных систем, но, как правило, количество контроллеров в СХД ограничено. Я, допустим, не знаю ни одной СХД, в которой контроллеров больше восьми. Скажем так, можем повысить эту цифру – больше 16 контроллеров точно нет у СХД. И, собственно, количество дисков, которое может обслужить этот контроллер. Мы все при использовании классической архитектуры СХД можем в любой момент времени упереться в один из этих ограничивающих факторов. Либо san сеть у нас начинает тормозить, не хватает производительности, либо контроллер в СХД, имеющийся, начинает тормозить, не хватает производительности, либо количество дисков – мы дошли до того предела, что дальше диски ставить просто некуда. От всех этих проблем на избавляет, собственно, распределенное хранилище, где каждый сервер, во-первых, является узлом хранения, поэтому при увеличении нагрузки у вас, естественно, растет количество серверов, которое должно переваривать эту нагрузку и автоматически растет количество узлов в виртуальной СХД. Таким образом, мы избавляемся от узкого места по поводу жестких дисков. Больше серверов, больше дисков, если нужно еще больше дисков, мы просто добавляем сервера в нашу инфраструктуру, практически ничем не ограничены.

Передача данных между узлами, служебная информация, я имею в виду, происходит по протоколу InfiniBand с минимальными задержками, с минимальной латентностью, со скоростью 56 Гбит в секунду. Наружу это может отдаваться по гигабитному эзернету, по 10-гигабитному эзернету, ну или, если у вас специфические задачи по тому же InfiniBand-у может отдаваться. Количество кэша, количество портов ввода-вывода, количество процессоров в виртуальном контроллере СХД так же пропорционально количеству узлов. Поэтому при использовании распределенной системы, Вы, в принципе, уткнуться при текущих реалиях в производительность не должны.







Вернусь немножко назад, я говорил, что Fusion Cube – это не значит облако, даже частное, это не значит 100% виртуализация, это значит – какой-то универсальный IT-ландшафт, причем он уже может быть протестирован и существовать рекомендации, сертификации, о том, как этот ландшафт использовать. Вы его можете использовать под Oracle, под IBM DB2, Sybase, под решения SAP HANA, если с такими работаете, под FusionSphere, опять же приложениями sub и под, в принципе, просто виртуализацию на базе VmWare, в принципе можно использовать и с нашей FusionSphere, надо было добавить, наверное, еще седьмую строчку, как бы самый очевидный вариант.







Про распределенное хранилище – распределенные хранилища на рынке предлагаем не только мы. В общем-то есть и другие вендоры, которые только софтверной частью, скажем, занимаются этого вопроса, есть вендоры, которые предлагают одновременно и софтверные и аппаратные решения, но, как правило, все эти решения выполнены по следующей структуре: есть хранилище данных или объектовое хранилище и есть хранилище метаданных. Как правило, узким местом является хранилище метаданных, т.е. это те сервера или выделенные СХД небольшого объема, но достаточно производительное, на которых лежат, грубо говоря, данные о том, где лежат все остальные данные, некоторая такая, если перевести к файловым системам, fat-таблица, т.е. вот этот сервер знает, где лежат все остальные данные. И, в принципе, вот этот вот узел, сервер метаданных, является узким местом.



Почему он не является узким местом для нашего решения – потому что мы не храним метаданные в явном виде, мы храним только хэш-суммы, т.е. когда сервер отсылает запрос за каким-то блоком данных, он не отсылает его в явном виде, т.е. блок такой-то, цилиндр такой-то файл такой-то и т.д., встроенный драйвер, который инсталлирован в систему, высчитывает хэш-сумму от данного запроса и отправляет в сторону нашей виртуальной СХД только вот этот вот запрос, состоящий из хэш-суммы. Запрос этот минимальный, в принципе, объем хэш-таблицы у нас 232, я не знаю сколько это миллиардов, олимпиардов является в десятичном виде, и, в принципе, вся эта таблица занимает 6Мбайт, и каждый узел, участвующий в системе хранения данных, хранит копию вот этой таблицы. Она у нас называется, правда, не таблица, а кольцо, но смысл, что это функционально, что это таблица. То есть весь этот объем 6Мбайт всегда хранится у узла в оперативной памяти, даже скажу больше, он часто хранится в кэше процессора, т.е. в самом быстродействующем месте, и, в принципе, он распределен равномерно между всеми узлами, которые участвуют в хранении. Поэтому за счет этого обращения по хэш-сумме, т.е. сервер обращается «где мои данные», драйвер обрабатывает запрос, говорит «вот по адресу этого хэша», хэш отсылается к хранилке, хранилка обрабатывает этот кэш, говорит «вот этому хэшу соответствует вот тот-то узел хранения», приходит запрос на узел хранения, и уже вот это запрос разбирает узел хранения и он уже знает, где у него что лежит по полочкам. То есть за счет вот этого уменьшения передаваемых данных по адресации и распараллеливание этих запросов, что можно хэш-сумму высчитывать параллельно на нескольких машинах и так далее, и так далее, получается более высокая производительность.







Что еще у нас используется из позитивного – это распределенный кэш. Между узлами хранения кэш может распределяться, т.е. отсутствуют выделенные острова кэша, когда отдельный узел обладает своим кэшем и про этот кэш никто не знает. Можно использовать следующий механизм работы, когда кэш вот этого узла будет частично реплицироваться с кэшем другого узла. И когда будет происходить запрос другому узлу, вот эти данные уже будут находиться в горячем кэше, что, в свою очередь, тоже повышает быстродействие.







По поводу управления скоростью, тоже уязвимое место для данных систем, но в наших системах встроен, скажем так, вальюти оф сервис интеллектуальный, который, в зависимости от того, какая задача используется, находится ли система в процессе ребилдинга или она в состоянии стабильной работы находится, меняет приоритеты для второстепенных или первоочередных задач.







Про алгоритм ребалансировки — казалось бы, очевидная вещь, но почему-то мне часто задают вопрос: «а если вот у нас было 10 узлов в системе хранения, мы добавили еще 20 узлов, перераспределение это для повышения производительности будет происходить?» Да, повышение перераспределения данных по узам происходить будет, собственно, ради этого все и затеялось. Есть отдельный механизм, который занимается этим вопросом.







По поводу надежности, отказоустойчивости — у потребителя есть два варианта той защиты, которую он может получить – он может ограничиться двойным дублированием данных, когда есть основная копия данных и ее резервная, которая обязательно должна находиться на другом узле или в режиме повышенной надежности, когда хранится не одна копия, а еще две копии. Такая надежность в количестве девяток получает семь девяток, т.е. если заказчик готов пожертвовать объемом в два раза больше, чем занимает просто информация для повышения надежности, то он может этим воспользоваться. С учетом того, что в серверах используются более дешевые диски, чем в СХД, в принципе, зачастую такая затрата, скажем так, является оправданной. Использование PCI-ного SSD-кэша, в принципе, это не то чтобы наше ноу-хау, эти карты производят многие вендоры, но вот мы их используем, в том числе, для кэширования оптимизации работы нашей виртуальной СХД.







По поводу восстановления данных – за счет того, что отсутствует единый контроллер, через который происходит восстановление, за счет того, что данные все распределены между узлами, как правило, равномерно более менее, процесс ребилдинга в данных системах достаточно быстр, т.е. вам не нужно ждать, вот внизу приведены примеры, за 30 минут ребилдится один терабайт данных, т.е. если у вас рухнул сервак, на котором у вас лежало 4Тбайт данных, то система вернется в исходное устойчивое состояние меньше, чем за два часа. Если вспомнить классические СХД, то они могут неделями восстанавливаться после падения 4-терабайтных систем, 4-терабайтных дисков. Собственно, показывается, демонстрируется, как происходит ребилд. В принципе, ничего космического, непонятного, странного, все то же самое, просто идет это в несколько потоков, параллельно, поэтому этот процесс идет значительно быстрее.







Снэпшоты для данной системы есть, опять же, с учетом архитектуры, это меньше влияет на производительность, как в сравнении с классическими системами. По поводу интеграции с приложениями и прочим, в принципе, на данный момент, пока что открытый, т.е. консистентность снэпшота требует выяснения и не для всех пока приложений она доступна.







Существование ресурсных пулов – мы заказчика не заставляем все узлы объединить в единый пул, и всю его политику по безопасности, политику по хранению, по доступности определять сразу на весь пул. Вы можете ваш большой пул разделить на кусочки и в каждом кусочке будет своя политика безопасности, политика отказа устойчивости, политика репликации, политика по снэпшотам и так далее, и так далее. Ну я не знаю, при сетевых технологиях такие домены коллизий, т.е. что происходит в этом сегменте, меня не волнует, поскольку вот я автономен по отношению к другим сегментам.

В принципе, по софтверной СХД на этом все. Почему она стоит как бы особняком. Дальше буду рассказывать про FusionSphere, она там тоже есть, но, в принципе, там еще раз я рассказывать про нее не буду. Вот Fusion Storage можно приобретать отдельно без нашей виртуализации, это отдельный продукт, маркетинговый, со своим ценником, который можно поставить, в принципе, на любой сервер, любого вендора. Он не жестко привязан к нашему железу, вы можете имеющиеся у вас сервера, если они удовлетворяют требованиям, в общем-то, использовать под вот эту вот систему.







По поводу аппаратной части, из чего же состоят наши FusionCube, что это такое: собственно, 9000-й состоит из нашего блейд-шасси, собственно вот сама корзина, вид спереди, можно поставить 16 половинчатых серверов, либо 8 4-процессорных серверов, либо серверов с системами хранения с жесткими дисками, не системами хранения данных еще раз, с обратной стороны – блоки питания, вентиляция, сетевой интерконнект и модули управления самим шасси, через которые происходит управление аппаратными узлами этого агрегата.







Так, по узлам – это не все узлы, которые у нас есть для наших блейдов, их список значительно шире, больше, есть специфические модели, компактные, когда в один слот вставляется два двух-процессорных сервера, скажем так, популярное решение для high performance компьютинга. Но вот самая типовая набивка именно для FusionCube – двух-процессорный сервер, 24 планки памяти, 2 процессора Xeon Е5, в принципе, поколение Е4, E3 доступно, сервер 222-й в правой части, он аналогичен вот этому серверу, просто у него есть пристежная корзина на 15 жестких дисков, это вот узел хранения, который будет использоваться в Fusion Storage. Здесь есть выделенный RAID контроллер аппаратный от LSI, но как правило, он используется в режиме рейда первого, нулевого, когда все диски доступны индивидуально. Скажу сейчас, что в следующем месяце появляется новый узел, в котором, правда, не 15 дисков, а 12 дисков, и они уже подключены по протоколу NVМe, т.е. они через PCI-express подключаются с минимальными задержками, латентностями и так далее. Есть еще 226-й узел под 3-дюймовые диски, т.е. если нужен узел для медленного хранения 8-10 терабайтников, то он тоже есть для блейдов. 220-я модель –блейд сервера c 6-ю pci-ными слотами, внутрь можно поставить PCI-карточки обычные, причем, две из них можно выкинуть порты наружу, в них включить либо специфические карточки сетевые, которые пробрасывают трафик через себя в выключенном состоянии, либо NVIDIA Cuda поставить, как они там, Intel Fixion и прочие специфические вещи. Из особенностей, кстати, попрошу прощения, вернусь к 121-му узлу – туда можно поставить внутрь блейд-сервера одну PCI-экспрессную карту, обычную с лезвийным разъемом, т.е. не мезонинный, не какой-то проприетарного протокола, а обычного, обычный PCI-express, это может быть наша SSD-шная карточка, это может быть, я не знаю, ключи для 1С юсбишные, это может быть какая-то криптография кастовая, это может быть ограничение доступа к серверу и так далее, т.е. в обычный узел двух-процессорный можно смонтировать такую карту. Ну и, собственно, 242 узел – это 4-процессорник, 1 Тбайт оперативной памяти, 4 процессора Xeon Е7.

Сетевая коммутация, которая используется в FusionCube. 310-й – это 10-гигабитный коммутатор, CX611 – это InfiniBand коммутатор. В принципе, у нас сейчас доступны 40-гигабитные коммутаторы уже как год, даже больше, уже второй год, как доступны для блейдов 40Гбит и в сентябре будет доступен 100Гбит InfiniBand, т.е. если вы боитесь, что упретесь в производительность сетевого интерконнекта, можете не бояться, еще очень нескоро в него упретесь.







Младшее решение FusionCube 6000, здесь, кстати, ошибка, ну не ошибка, а цветом подсветили неправильно, 6000-я – 4-юнитное шасси, в которое можно поставить до 8 процессорных серверов. Здесь изображено 4 узла, покажу, что дальше за узлы… Сетевой интерконнект доступен с лицевой части, сзади 4 блока питания общие, которые питают всю конструкцию, и система охлаждения, которая также охлаждает всю конструкцию. Сзади есть pci-слоты, которые проброшены прям по каждому серверу в эти сектора.







Про сервер – сервер, опять же, есть в достаточном ассортименте, есть сервера с жесткими дисками, подключаемые по sas-протоколу, есть по pnvme-протоколу, есть, вот здесь изображено, два процессора и 12 трех-дюймовых жестких диска, а внутри салазок трех-дюймовых могут стоять двух-дюймовые жесткие диски. Есть вариант с подключением по sas, есть вариант по NVМe, есть вариант с PCI-express, т.е. стоят pci-экспрессные разъемы, туда можно поставить либо видеокарты NVIDIA Cuda и прочее, либо, допустим, наши PCI-экспрессные карты.







Ну и, собственно, наши PCI-экспрессные карты – внезапно, скажем так, историческая справка: компания HUAWEI является той компанией, которая первая выпустила вот эти вот карты вообще в мире, т.е. они существуют сейчас у многих вендоров, в широком ассортименте, какие-то карты лучше наших, скажем так, больше нравятся заказчикам, какие-то карты мы считаем, что лучше, чем другие, но тем не менее, вот этим вот вопросом, создание PCI-экспрессных SSD-карт HUAWEI начал заниматься достаточно давно и выпустил в промышленную эксплуатацию эти карты одними из первых. Это SSD накопитель, который втыкается в PCI-ный разъем, за счет отсутствия этих sas-протоколов, за счет отсутствия sas-овских RAID контроллеров и пр. его латентность 9 микросекунд, не миллисекунд, а микросекунд, то что, в общем-то, на 1000 порядков меньше, чем параметры классических СХД или классических жестких дисков. Параметры по производительности по IOPS-ам, собственно видите, 770 в пике и до 230 в стабильном режиме. В общем-то инсталляция этих карточек внутрь узлов хранения позволяет нам не беспокоиться о производительность нашей софтверной СХД. Несмотря на то, что там могут использоваться обычные SAS-диски, SATA-шные диски, при наличии вот этих вот карточек, за счет кэширования данных на них, производительность достаточно велика.







По поводу управления – в принципе, я уже коротко сказал, есть FusionCube Builder, ставите на лэптоп, подключаете FusionCube, делаете next, next, next, к сожалению, слайд на китайском языке. Сразу скажу, это доступно для ограниченного набора ПО, т.е. вы не можете там…визарда для создания лотус нотуса нет, или для 1С, к сожалению, нет пока. Есть для ландшафта FusionSphere или для ландшафта Vmware ESXi. Делаете next, next, next, за один час разворачиваете до 8 узлов, собственно, готовых, сконфигурированных.







Затем мониторинг. Мониторите сразу через единое окошко физические сервера, физические сетевые компоненты, Fusion Storage, хотел сказать физическую хранилку, но не физическую, а виртуальную и пулы ресурсов виртуальных машин, либо на данный момент доступна FusionSphere и VmWare продукт.







Как выглядит интерфейс – он, на самом деле, на английском языке, пугаться не надо, есть там, конечно, режим переключения, какой язык использовать. Русского языка, сразу говорю, нет. Есть английский, достаточно понятный, достаточно прозрачный, мониторинг выглядит вот следующим образом, никаких там страшных иероглифов больше не попадается, ну и единое логирование данных, что происходит с системой также доступно через этот интерфейс.

Повожу небольшое резюме: FusionCube это аппаратное решение с виртуальной СХД, с software defined storage. Как вы будете использовать в дальнейшем FusionCube, в общем-то, зависит от ваших задач, которые вы собираетесь решать. Еще раз повторюсь, FusionCube это не равно виртуализация, да, это один из вариантов применения, но не обязательно 100%.







Перехожу к FusionSphere. FusionSphere – называется она у нас облачной операционной системой, развивается она в соответствии со стандартами, не знаю, как это сказать, OpenStack.







Компания HUAWEI участвует в данном мероприятии, вклад в OpenStack Community оценивается следующими параметрами: 23 новшества было привнесено компанией, 63 бага, вот красным цветом это показывает место, которое занимает HUAWEI по величине вклада, программного кода и т.д. В принципе, тут должна быть такая небольшая похвальба, что мы вот участвуем в OpenStack Community, у нас там статус золотой, в общем-то, мы с вами, из этой серии.







Все-таки из чего же состоит программный продукт, где заканчивается HUAWEI и начинается OpenStack. Собственно, вот про этого героя я вам уже все практически рассказал. FusionStorage является компонентом FusionSphere, но он может покупаться, приобретаться, использоваться отдельно.

Fusion Compute – это серверная виртуализация, это гипервизор и сервер, который управляет гипервизорами. У нас он называется Virtual Resource Manager или VRM сокращенно, это аналог VmWare-вского V-center. Вы через вот этот вот VRM управляете нашими гипервизорами, нашими виртуальными машинами и так далее. И, в том числе, есть там закладка для FusionStorage.

Следующий компонент – FusionNetwork. На данный момент он представляет, пока что уверенно можно говорить только про одну инстанцию – это виртуальный свитч, распределенный между гипервизорами, остальные элементы SDN-контроллеры, они пока что таким пунктиром выделены, т.е. они пока что в разработке и для коммерческого использования не доступны. Ключевое слово «для коммерческого». Далее через плагины, через драйвера, это дело интегрируется с контроллерами OpenStack, который сверху управляется, опять же, через наш портал управления, который называется ManageOne, т.е. в комплекте с нашим решением есть еще и портал самообслуживание и административный портал, они на одном сервере крутятся, просто под разные задачи. Здесь можно определить, где заканчивается HUAWEI и начинает OpenStack. Да, за развитие собственных гипервизоров, за развитие СХД, за развитие сети, отвечает компания HUAWEI. За интеграцию с OpenStack отвечают все вместе.









По поводу параметров FusionSphere, параметров виртуализации – хвалиться особо нечем, параметры на самом деле, такие же, как и у всех – 128 виртуальных процессоров на одну виртуальную машину, до 4 Тбайт оперативной памяти, 64 Тбайт максимальный размер жесткого диска, 60 дисков на одну виртуальную машину, 12 сетевых интерфейсов виртуальных на одну виртуалку, количество физических ядер на сервере до 480, оперативной памяти физической, на которой развернута Fusion сфера, до 12 Тбайт, одновременное количество включенных виртуальных машин 1000 на одном кластере. Эти параметры тоже озвучивать не буду, кому-то нравится, кому-то не нравится, в принципе, параметры средние по больнице, средние по отрасли, т.е. у Hyper-V или у ESXi Vmware примерно то же самое.







По поводу портала – портал, я сказал, что портал – это отдельное решение, называется ManageOne, ставится на отдельную виртуальную машину, физическую машину и через него происходит обслуживание, администрирование вот этого облачного решения.







По поводу безопасности пользователей — для каждого пула ресурсов существует свой сисадмин, т.е. у нас нет единого супер-админа, супер-рута, который может настраивать сразу все, и физическое оборудование, и пулы ресурсов, и приложениями, и инфраструктурой виртуальной, нет, это 4 разные инстанции и они должны между собой согласовывать свои действия. В принципе, с вопросом безопасности сюда же отправляю вопрос по ФСТЭКу. В данный момент система находится в процессе обследования, соответственно одобрения, сертификат в ФСТЭК будет получен где-то в сентябре-октябре на данный продукт. Данный продукт на данный момент сертификацией не обладает.







По поводу катастрофоустойчивости и отказоустойчивости – это решается силами самой платформы на базе. Значит, отказоустойчивость внутри ЦОД высокая доступность, full tolerance доступны, создание актив-активных дата-центров, актив-пассивных дата-центров, репликации, политики, прочее доступны и гео-распределенные, гео-удаленные ЦОДы тоже можно решать эти задачи на уровне данного приложения. В принципе, уже удаленные, распределенные географически ландшафты, наверное, лучше получаются, когда используется, в том числе, и наше оборудование сетевое, и системы хранения данных, где происходит аппликация данных не софтверным путем, а за счет аппаратных ресурсов систем хранения данных, например.







Из преимуществ – инсталляция с графического интерфейса, т.е. с командной строкой ковыряться не нужно, не знаю, насколько это является преимуществом для того или иного заказчика или партнера, но тем не менее инсталляция происходит из графического интерфейса.







Поддержка операционных систем гостевых – поддерживается достаточно широкий ассортимент, начиная с Windows-систем, заканчивая совершенно экзотическими внутри-китайскими, скажем так, линуксами, которые, в общем-то, никого не интересуют за пределами Поднебесной, но тем не менее, они также поддерживаются. Есть еще волшебный вот такой вот сегмент – кастом, т.е. если вам нужна интеграция с нашей Fusion сферой, вам нужны какие-то виртуальные драйвера, обращайтесь, если что наш R&D готов решить и эту задачу.







Про реализованные проекты. Про FusionSphere я закончил, совсем коротко получается, я по времени ограничен, перехожу про те моменты, которые уже реализованы на данный момент.

Наверное, первый облачный, ну не первый, наверное, начну с облаков. Аргентина Телеком понятно, что достаточно далеко от нас, другой континент, но все, если я назову ядро сети виртуализовано, то я не уверен, что правильно поймете, ядро сети сотового оператора полностью виртуализовано, т.е. это не сетевой коммутатор, который в дата-центре основным там считается, виртуализировано, а именно все сервисы, все услуги, которые передает и использует данный оператор, они выполняются теперь на виртуальной платформе и эта виртуальная платформа FusionSphere.







Отечественный заказчик – компания Антарес, специфический у него выбран сегмент бизнеса – это voice over lte, voice over wi-fi, то есть это сотовый оператор связи, но он пользуется либо lte, либо wi-fi для передачи голосового трафика, т.е. он не пользуется ни 2G, ни 3G сетями, как таковыми. Вот у них тоже ядро сети оператора сотовой связи полностью реализовано на нашем решении, в том числе на наших блейдах. В принципе, можно сказать, что это FusionCube с FusionSphere для реализации вот этих задач.







Следующий вариант – китайское публичное облако для использования самим государством. Ну не знаю, хвалиться этим, наверное, в наших широтах бессмысленно, но в целом, само китайское государство пользуется этой платформой OpenStack совместимой, разработанной HUAWEI, для своих государственных нужд, и не испытывает при этом никаких больших проблем.







Еще внезапные потребители вот этого ПО – сама компания HUAWEI. Зачастую бывает, что компании, которые производят тот или иной продукт, ими стараются не пользоваться. Здесь ситуация обратная, все наше R&D сидит на VDI, на виртуальных рабочих столах, все эти виртуальные рабочие столы развернуты в облаке, т.е. у сотрудников нет ни ноутбуков, ни лэптопов никаких, ничего нет, они сидят полностью на этой облачной инфраструктуре. Я не говорю про продавцов, я не говорю про менеджеров, я говорю про R&D, про инженеров, которые занимаются разработкой.







И, собственно, наверное, самый интересный проект – это Deutsche Telecom, T Systems. К вопросу об импортозамещении и хранении личных данных это забава не наших правителей российских, это международная забава вообще. В Германии в один прекрасный момент поняли, что большинство их компаний китайских пользуются ресурсами Amazon, кому принадлежит Amazon – вопрос достаточно темный, он точно не подвластен немецкому правительству, вопрос, кому же он принадлежит, Ирландии или США, в какой юрисдикции находится, остается в воздухе. Этот момент не устроил немецкое правительство, и был выбран отечественный немецкий оператор, прошу прощения, не оператор, а телеком-компания Deutsche Telecom для реализации отечественного облака, чтобы оно находилось на территории Германии, чтобы там хранились все данные, которые принадлежат компаниям, юрисдикция которых попадает под немецкое законодательство, и, собственно, это работало отказо-устойчиво, безотказно, 24/7, с гибкими сервисами, и вообще это был немецкий Amazon, в общем-то, в двух словах. И этот вопрос был успешно закрыт компанией HUAWEI в 2016 году на CeBIT была презентация этого решения, что оно теперь доступно.







В этом решении были вложены не только, решены вопросы софтверные какие-то, облака, безопасность, ресурсы и прочее, в том числе, выполнялась еще постройка нового дата-центра, модульного, на базе продукции компании HUAWEI, новый дата-центр создавался контейнерный на границе между Германией и Голландией, т.е. был такой совместный консорциум, не только Германия участвовала в этом мероприятии, и резервный ЦОД, на котором не хранятся данные, а хранятся вспомогательные вещи, находится в Ирландии. Вот этот вот единый пул из трех дата-центров был закрыт единым ПО FusionSphere.







Вот как выглядит схема нового дата-центра контейнерного, вот это 4 контейнера, один из них обитаемый. Это контейнер под климатическое оборудование, чиллеры, это контейнер под ИБП, это контейнер под IT-оборудование. В принципе, видно, что его можно линейно масштабировать это решение до нужных вам объемов, т.е. это не конечное решение.







Ну и самое интересное, я думаю, и вам будет самое приятное, что облако уже публично доступно, вы можете в любой момент туда залогиниться вот по этой ссылке, создать бесплатно тестовую машину и, в принципе, уже сейчас посмотреть, что такое FusionSphere, т.е. вам не нужно ее инсталлировать, вам не нужно где-то железо, ресурсы искать, вот Deutsche Telecom развернул FusionSphere на собственных аппаратных, интеллектуальных ресурсах. Понятно, что это был проект большой, и поддержка со стороны HUAWEI была значительной, тем не менее, это уже готовый ресурс, на котором вы можете потренироваться. Понятно, что может быть в продакшн запускать в соответствие с нашими законодательствами сразу не получится, но по крайней мере, технологические какие-то вопросы разрешить, этот ресурс вам поможет.








Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/305430/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Закон «О персональных данных» и практика его применения в российской действительности

Пятница, 08 Апреля 2016 г. 13:01 (ссылка)





Как известно, в России несколько лет действует Федеральный Закон №152 «О персональных данных».

За время его первой публикации в 2006 году Закон претерпел значительные изменения, а сами данные теперь обязаны храниться на территории Российской Федерации и быть защищены. На практике это приводит к повышению ответственности бизнеса в отношении обработки данных. О том насколько сложно соблюдать требования Закона «О персональных данных» и дает ли это реальный эффект пойдет речь в этой статье.



Любое юридическое лицо, организованное в российском правовом поле подпадает под данное регулирование. Наш проект RUVDS Закон затрагивает как в части обработки личных данных клиентов, так и защиты информации, с которой работают клиенты на нашем оборудовании.



Есть несколько объектов защиты.



Первый тип данных — сами данные о клиенте. К примеру, это его имя, дата и место рождения, паспортные данные, для юридических лиц – данные о компании. Клиент при начале работы с сервисом соглашается передать нам эту информацию на обработку, а мы обязуемся работать с ними в соответствии с Законом. Это более-менее понятный и просто объект защиты.



Второй тип данных – информация, которая непосредственно хранится клиентами на VDS/VPS сервере. Это как раз более значимый и важный объект защиты. Примерами таких данных может быть логин-пароль к социальной сети, почте, личная бухгалтерия у физических лиц. А у юридических лиц спектр подобной информации еще шире – это и клиентские базы данных, и бухгалтерия, и специализированное ПО.



С точки зрения Закона, юридические лица, передавая данные на хранение или обработку, несут полную ответственность за защиту этой информации. Именно поэтому банки, брокеры, крупный бизнес проверяют потенциального партнера по организации хранения и обработки данных. Проверяется все. Нужно отметить, что некоторые клиенты приезжали в наш дата-центр с целью убедиться, что физический носитель и каналы связи под надежной охраной, а персонал действительно компетентный.



Каким образом можно организовать защиту данных?



Есть различные источники угроз личной информации, к примеру, использование данных клиентов в личных целях сотрудником компании, уничтожение данных клиента будь это физическое или юридическое лицо, кража данных путем взлома сервера.

Это, наверное, самые известные и понятные угрозы, с которыми каждый оператор связи сталкивается. Сам список, конечно, гораздо шире.



Естественно, есть разные способы и уровни защиты данных.



Если говорить в терминах 152-ого Закона, то этапы защиты информации можно перечислить как: определение угроз, разработка мер безопасности и учет носителей информации, применение мер и оценка их эффективности и мониторинг всей этой системы безопасности. Наша компания последовательно выполняет все необходимые действия для максимальной защиты данных и первое, с чего начинается работа – это люди. Каждый сотрудник нашей компании при поступлении на работу знакомится со списком конфиденциальной информации, к которой, в частности, относятся персональные данные клиентов. Он подписывается под своей ответственностью за то, что будет работать с этими данными в рамках законодательства РФ.



Однако полагаться только на сознательность в данном вопросе нельзя. Поэтому нас действует четкая система разграничения и контроля прав доступа, разработанная дипломированными специалистами в области защиты информации. Если вкратце, то доступ к данным о клиентах (первый тип, о котором я говорил ранее) получают только те сотрудники, которые имеют соответствующую, подтвержденную сертификатом, квалификацию по работе с конфиденциальной информацией, и строго по регламенту. При этом доступ всегда персонифицированный, с логированием всех действий сотрудника. Поэтому, если специалист что-то модифицировал, скачал, отправил, сохранил данные о клиенте – мы это всегда увидим и сможем однозначно определить, кто это сделал.



Доступ же к данным клиентов (второй тип данных), которые они хранят на сервере, сотрудники могут получить только при наличии заявки от клиента, к примеру, для оказания помощи в настройке, оказания каких-либо дополнительных специфических услуг. При этом сотрудник, который проводит любые работы на сервере клиента, так же сертифицирован для работы с конфиденциальной информацией, а компьютеры, с которых в случае необходимости осуществляется доступ к данным клиента, оборудованы специализированным ПО для предотвращения несанкционированного доступа и сертифицированы Федеральной службой по техническому и экспортному контролю (ФСТЭК).



Такая организация работы, по сути, гарантирует защиту данных клиентов от потенциальных злонамеренных действий сотрудников и ограничивает потенциальную утечку информации областью защищенных и недоступных извне машин. К слову, и наш операторский зал оборудован круглосуточным видеонаблюдением, для предотвращения утечек с помощью подручных средств фотофиксации.



Однако, остается вопрос, над решением которого бьются системные администраторы и сотрудники служб безопасности многих компаний – взлом информационных систем. Должен сказать, что при работе с виртуальным сервером обеспечить защиту от взлома значительно проще и прозрачнее. Когда вам нужно обеспечить безопасность передачи данных между физическими компьютерами сотрудников, на каждом из которых в отдельности есть конфиденциальная информация, вам необходимо контролировать каждый ПК, деятельность на нем в каждый момент времени. А если у вас все данные на одном виртуальном сервере, то вам нужно контролировать лишь доступ к нему. Мало того, нужно учесть, что сам дата-центр как отдельная бизнес-единица уже проработал защиту данных клиентов, защиту от DDOS-атак. Отдельно над этими же задачами поработал так же и провайдер хостинг услуг. К примеру, в нашем дата-центре есть мониторинг как самих серверов, так и анализатор трафика, позволяющий оперативно блокировать DDOS-атаки. То есть клиент еще на старте отношений получает серьезный уровень защиты «из коробки».

Если вам нужно больше, можно заказать услугу по DDOS-защите. С такой услугой сервер получает IP-адрес из выделенной подсети, где на адрес поступает уже отфильтрованный поток данных. Это очень актуально для популярных сайтов, интернет-банков, игровых ресурсов.

При этом при организации массового доступа к серверу, каждый доступ персонифицирован и логируется, как средствами самого VPS, так и средствами контроля оператора связи, поэтому вы достаточно легко и быстро сможете выявить и пресечь любую нелегальную деятельность с данными.



Это является мотивом для очень многих компаний для перевода командной работы с данными, начиная от общей разработки до хранения многолетней бухгалтерской отчетности и работы интернет банков, на виртуальные сервера. Это и дешевле, и эффективнее.

Среди наших клиентов, к примеру, есть банки и брокеры. В работе с ними есть определенная специфика, но с точки зрения безопасности данных на самом деле работа с такими клиентами не сложнее и не проще, чем с любыми другими. Стандарты безопасности и уровень сервиса одинаково высоки как для небольшого розничного клиента, так и для крупного юридического. Почему так? Потому что лицензию могут отозвать за нарушение в отношении любого клиента. Да и как юридическое лицо может доверить свои данные оператору, который не может защитить данные розничного клиента? Однако стоит сказать, что по запросу крупных клиентов мы можем установить дополнительные средства мониторинга, защиты, которые, по мнению клиента, нужны именно ему. Тут мы всегда идем навстречу. Естественно, при работе с крупными клиентами на слово никто не верит. Потому свою компетентность и уровень нужно подтверждать лицензиями.



Любой оператор связи, который предоставляет свои услуги через свой узел связи (дата-центр), обязан обладать лицензиями Роскомнадзора на соответствующую деятельность. К примеру, наша компания лицензирована для предоставления телематических услуг связи и услуг по передачи данных (без голосовой информации). Отдельно для работы с конфиденциальной информацией и государственной тайной необходимо получить лицензию ФСТЭК. Лицензию можно получить только при наличии внутренних процедур по защите информации, специального сертифицированного ПО и оборудования для контроля доступа к данным, а так же физическую защиту носителей информации от любого способа кражи или воздействия. Это уже серьезная гарантия при работе с юридическими лицами. RUVDS как раз в процессе получения данной лицензии.



На практике же реальная защита данных начинается с нескольких кордонов охраны помещения с видеонаблюдением, персонифицированным доступом в помещение с оборудованием, а само оборудование и операторский зал при этом так же находится под круглосуточным видеонаблюдением. Вся связь проходит через сертифицированные защищенные коммутаторы, а обработка личных данных клиентов и их хранение происходит на выделенной машине под контролем специализированного ПО, гарантирующего защиту от утечек.

Так как само помещение имеет глухие стены толщиной минимум 1 метр, то это гарантирует от прослушки. Зачастую, подобные условия защиты невозможно создать в офисных помещениях, не говоря уже о технологической составляющей в поддержании постоянной температуры, бесперебойной связи и электропитания и газового пожаротушения. По сути, это хранилище данных уровня надежного банковского хранилища.



Зачем такие меры?



Во всем мире уже давно известно, что информация – своего рода нефть. Она может быть бесполезна, как когда-то ничего не стоила и сама нефть. Но при правильном ее использовании она может стать золотой жилой. В нашей стране это так же осознали и начали заниматься защитой этого ресурса. Самое простое применение такой информации – базы данных потенциальных клиентов. Это, вероятно, самое безвредное, если можно так сказать. Спектр же применений самый обширный, вплоть до сбора компрометирующих данных и взломов банковских счетов с помощью полученной информации. Поэтому защита нужна серьезная и постоянная.



Так же не стоит забывать об отказоустойчивости и хранении резервных копий данных. Хотя сам факт отказа всего сервера крайне маловероятен, почти невозможен, всегда должна быть система зеркалирования данных, а для серьезных клиентов, по запросу, как правило, выделяется двойной объем дисков для постоянного бэкапирования. Это актуально как раз банкам, особенно тем, кто развернул интернет-банк на сервере, ведь они должны максимально быстро «поднять» резервную копию ресурса. Такая система это позволяет сделать и у нас она тоже есть.

Еще одним нюансом становится масштабирование инфраструктуры. В случае, когда вы сталкиваетесь с подобной проблемой со своим «железом», выхода у вас два – сокращать нагрузку, что, вероятнее всего вас не устроит, — либо наращивать мощность сервера, докупая составные части, если архитектура позволяет, а скорее всего, вам придется купить просто более мощный сервер.

С учетом текущей экономической ситуации задача иногда неподъемная для малого бизнеса и просто невыгодная. Очень сложно оценить эффект отдачи нового оборудования, а деньги за него нужно заплатить сразу.



Если вы используете виртуальный сервер, подобные вопросы решаются мгновенно. Вы просто дозаказываете ресурс и компания выделяет для вас нужные мощности. Происходит это обычно с течение нескольких минут. Если вы так разрослись, что для вас уже не хватает одного сервера и данные нужно перенести на новый более мощный сервер, это займет пару часов. Но в любом случае, по сравнению с покупкой и настройкой своего железа – это молниеносно. А цена будет на порядки ниже. К примеру, аренда сервера, мощностью в хороший ноутбук, стоимостью 50 000 рублей, вам обойдется в 1 500 рублей (это без учета скидок за оплату за год). Сами понимаете, какая экономия. Это не говоря о том, что на машине могут работать сразу много сотрудников, подключаясь к ним со слабого дешевого ПК или даже с планшета. Так же к этому нужно добавит экономию на покупке программного обеспечения. Вы можете арендовать практически любое ПО для деятельности вашей команды у хостинг-провайдера.



Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/281230/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Планирование вычислительных ресурсов и выбор серверов для RUVDS

Среда, 06 Апреля 2016 г. 17:58 (ссылка)





RUVDS, как официальный партнер компании Huawei, занимается внедрением новой системы виртуализации, чтобы предоставить своим клиентам доступ к современным облачным технологиям с высокой степенью надежности и защищенности. Это новый для нас опыт, и мы продолжаем делиться им с читателями нашего блога.

Начало вы можете прочитать в первой статье из этой серии. Перед вами вторая. В ней мы проведем планирование необходимых вычислительных ресурсов и рассмотрим пример того, как рассчитать необходимое количество серверов подходящей конфигурации.

В проекте RUVDS для создания облачной платформы виртуализации используются серверы на основе процессоров с архитектурой х64. Физические серверы объединяются в пулы вычислительных ресурсов, а услуги в ходе миграции переносятся на облачную платформу. Совместное использование ресурсов в рамках облачной платформы позволяет реализовать динамическое планирование ресурсов, максимизирует эффективность их использования и снижает затраты на аппаратные средства и техническое обслуживание. Компоненты базы данных могут быть развернуты на физических серверах.



При выборе серверов для RUVDS руководствовались следующими требованиями:

• Нам нужен сервер c современной архитектурой, объединяющей средства поддержки сети, управления, электропитания и теплоотведения в единой полке. Он должен обеспечивать возможность совместного развертывания нескольких серверов, упрощать каблирование, необходимое для реализации сетевых соединений проекта, максимально эффективно использовать пространство в серверной стойке, а также поддерживать горячую замену.

• В каждом сервере должно быть не менее 4 процессоров и не менее 128 ГБайт оперативной памяти. Данное требование вызвано тем, что серверы используются для создания виртуальных пулов ресурсов.



Основываясь на этих требованиях, для клиентов проекта RUVDS мы выбрали блэйд-серверы с не менее чем 4 процессорами Intel Xeon последних поколений и не менее чем 384Гб оперативной памяти.



Пример планирования количества серверов

Для расчета используются значения SPECint2006 Rates. Значение SPEC взяты на сайте www.spec.org/cgi-bin/osgresults?conf=rint2006.

Далее приведены два способа расчета: способ оценочного расчета на основании расчета общих требования к параметрам SPEC и точный способ на основании преобразования значения SPEC в количество vCPU с последующим преобразованием количества vCPU в количество серверов.

Данные расчеты приведены в качестве примера, чтобы понять, как проводится расчет количества серверов.




Способ 1: расчет на основании общих требований к параметрам SPEC

Суть этого способа заключается в следующем: все значения SPEC, необходимые для исходных прикладных систем, складываются для вычисления суммарной вычислительной мощности, после чего запрашиваются значения SPEC для новых серверов. Количество серверов равно суммарной вычислительной мощности, деленной на значение SPEC для новых серверов.



Пример расчета приведен ниже.

Средний коэффициент загрузки ЦП для 107 серверов Dell PowerEdge 2950 (8 Гбайт памяти и два ЦП E5420 с основной частотой 2,5 ГГц и четырьмя ядрами) составляет 20%. Значение SPEC равно 118 (оно получено на сайте www.spec.org/cgi-bin/osgresults?conf=rint2006).

Требуется осуществить миграцию прикладных систем на серверы RH5885 (каждый с четырьмя восьмиядерными ЦП E7-4820 с основной частотой 2 ГГц). Значение SPEC равно 775.

Следовательно, количество серверов можно рассчитать по следующим формулам:

Потребность в вычислительной мощности =

https://habrahabr.ru/post/281086/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

RUVDS благодарит пользователей Хабрахабр за сделанный выбор

Вторник, 05 Апреля 2016 г. 13:12 (ссылка)

По независимой оценке, Пользователя AlexeyKh сервера RUVDS признаны лучшими среди протестированных VDS/VPS серверов на Windows.

В честь этого события, специально для читателей блога habrahabr проект виртуального хостинга RUVDS предоставляет уникальную скидку на свои услуги.



Воспользуйтесь промо-кодом на баннере и получите скидку до 50% на любую конфигурацию VDS сервера.

Условия акции: базовая скидка по промо-коду 30%, скидка по промо-коду суммируется со скидкой при оплате за 3, 6 или 12 месяцев. Таким образом при оплате за 3 месяца общая скидка составит 35%, при оплате за 6 месяцев – 40%, при оплате за год – 50%.



Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/280964/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

RUVDS запускает партнерскую программу

Пятница, 01 Апреля 2016 г. 15:32 (ссылка)

Партнерская программа — это формат рекламной активности сервиса, направленный на увеличение продаж. RUVDS предоставляет участникам партнерки ссылки для рекламы своих серверов и выплачивает процент с покупок, совершенных пришедшими по рекламе партнера клиентами.

image

Партнерская программа RUVDS хороша тем, что позволяет даже новичкам зарабатывать сравнительно быстро неплохие деньги, не создавая своего продукта.

Для того, чтобы зарабатывать на партнерке RUVDS — не обязательно даже иметь свой сайт или рассылку.

Вы можете просто рекомендовать наши VPS/VDS сервера своим друзьям и клиентам и зарабатывать с продаж с того момента, когда покупатель приобретает сервер.



5 причин стать нашим партнером:



1.Мы гарантированно выплачиваем комиссионные по вашему требованию.

2.Ваш заработок составит от 15% до 25%.

3.Пригласив клиента один раз, вы зарабатываете на нем пожизненно.

4.Наша компания предлагает одни из лучших по техническим показателям виртуальные сервера при самой низкой стоимости на рынке хостинга.

5.Участвуя в партнёрской программе RUVDS, Вы можете значительно сократить расходы на оплату своего виртуального сервера, а также неплохо заработать!



Несколько рекомендаций по эффективному размещению свой партнерской ссылки:

социальные сети

тематические блоги

тематические форумы

оставлять комментарии к каким-то тематическим постам

электронные письма друзьям и знакомым

рассылки по подписчикам вашей группы, сайта



Подробнее об условиях и способе подключения к партнерской программе по ссылке ruvds.com/partner



Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/280696/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Juniper MX + IX + SynFlood

Вторник, 15 Марта 2016 г. 17:24 (ссылка)

В данной статье я бы хотел рассказать об одном достаточно простом методе защиты от Syn Flood атак на маршрутизаторах Juniepr серии MX. Данный метод может помочь при нескольких условиях, о которых рассказано ниже. Конечно, есть аппаратные и программные решения, технологии Syn Cookies, Syn Proxy и другие. Но, иногда, большую часть трафика получается заблокировать на маршрутизаторе без применения дополнительных механизмов или дорогостоящих устройств. Так как мы использовали для настройки маршрутизатора некоторые статьи наших коллег, решили поделиться и нашим опытом, он достаточно специфичны, но надеемся принесет пользу. Пример такой атаки приведен на графике ниже.





Немного теории



Syn Flood — одна из разновидностей сетевых атак типа отказ от обслуживания, которая заключается в отправке большого количества SYN-запросов в достаточно короткий срок. Сам SYN пакет имеет маленький размер (с заголовками канального уровня 54+ байт), даже с полосой 1G можно генерировать большое количество пакетов в секунду. Часть провайдеров не запрещают отправку из своей сети пакетов с подменным адресом источника, и даже один сервер с полосой 1G, размещенный у такого провайдера, может генерировать атаку, которая создаст много проблем. Большинство провайдеров интернета для конечных пользователей не выпускают из своей сети пакеты с поддельным адресом источника и, как следствие, большинство атак идет именно с клиентов ДЦ, при этом количество атакующих машин невелико.



Что можно предпринять на Маршрутизаторе?



Изначально нужно исходить из того, что у нас хорошая связанность и подключено много точек обмена трафиком. Конечно, если у Вас единственный UPLINK и, предположим, Syn Flood идет с одной машины, можно попробовать проанализировать трафик, и, если человек который организует DDOS совсем ленивый и не позаботился о разных ttl, можно заблокировать трафик по ttl + dst ip. В этом случае отрежется весь трафик с данным ttl — это, безусловно, лучше, чем если бы сервер лежал совсем, но не оптимально.



На текущий момент на моей работе кроме магистральных провайдеров и провайдеров обеспечивающих неполную связанность, подключены такие точки обмена трафиком, как:




  • DataIX

  • Cloud-IX

  • Pirix

  • WIX

  • SpbIX

  • MskIX

  • CodIX

  • GlobalIX

  • IHome



Достаточно большое количество провайдеров, датацентров и поставщиков услуг подключено к данным IX. Большинство из низ обеспечивают L2 связанность между участниками. Используя эти факты можно достаточно просто локализовать источник атаки в случае, если трафик идет через IX.



Как это сделать



Изначально нужно подключать IX в отдельный virtual-switch — для возможности фильтрации по MAC адресам. То есть даже при подмене src адреса пакеты будут приходить с src MAC адресом граничного маршрутизатора. Для примера можно предположить, что мы подключили только DataIX и аномальный трафик идет через него.



Конфигурация подключения IX
interfaces {
xe-0/3/0 {
description "UPLINK_IX: DATAIX XX.XX.XX.XX 255.255.252.0 (path XXX);";
flexible-vlan-tagging;
native-vlan-id 20;
encapsulation flexible-ethernet-services;
unit 0 {
encapsulation vlan-bridge;
vlan-id 20;
}
}
irb {
unit 20 {
description "DataIX route interface";
family inet {
filter {
# стандартный набор фильтров
}
address XX.XX.XX.XX/22;
}
}
}
}

firewall {
family bridge {
filter ix_mac_filter {
# пока пустой
}
}
}

protocols {
bgp {
group dataix {
# настройка BGP
}
}
}

routing-instances {
switch_dataix {
description "DATAIX - prometey XX.XX.XX.XX 255.255.252.0";
instance-type virtual-switch;
bridge-domains {
switch_dataix_bridge {
domain-type bridge;
vlan-id 20;
interface xe-0/3/0.0;
routing-interface irb.20;
forwarding-options {
filter {
input ix_mac_filter;
}
}
}
}
}
}


Далее можно посмотреть MAC адреса, которые пришли с данного IX:

root@rt01> show bridge mac-table
MAC flags (S -static MAC, D -dynamic MAC, L -locally learned, C -Control MAC
SE -Statistics enabled, NM -Non configured MAC, R -Remote PE MAC)

Routing instance : switch_dataix
Bridging domain : switch_dataix_bridge, VLAN : 20
MAC MAC Logical NH RTR
address flags interface Index ID
00:01:e8:a3:ed:20 D,SE xe-0/3/0.0
00:03:fe:0a:ac:00 D,SE xe-0/3/0.0
00:04:80:f4:bc:00 D,SE xe-0/3/0.0
00:04:96:51:ba:84 D,SE xe-0/3/0.0
00:04:96:52:05:a4 D,SE xe-0/3/0.0
00:04:96:52:05:ea D,SE xe-0/3/0.0
00:04:96:52:06:14 D,SE xe-0/3/0.0
00:04:96:6d:13:a9 D,SE xe-0/3/0.0
00:04:96:6d:14:79 D,SE xe-0/3/0.0
00:04:96:6d:17:79 D,SE xe-0/3/0.0
00:04:96:6d:52:3e D,SE xe-0/3/0.0
00:04:96:6d:5b:26 D,SE xe-0/3/0.0
00:04:96:6d:6f:f0 D,SE xe-0/3/0.0
00:04:96:7d:bf:68 D,SE xe-0/3/0.0
00:04:96:7d:f8:99 D,SE xe-0/3/0.0
...
И на основе этих данных можно составить фильтр, который будет подсчитывать количество пакетов, пришедших с MAC адреса на атакуемый сервер:

filter ix_mac_filter {
term 00:01:e8:a3:ed:20 {
from {
source-mac-address {
00:01:e8:a3:ed:20/48;
}
ip-destination-address {
# адрес атакуемого сервера
}
}
then {
count 00:01:e8:a3:ed:20;
accept;
}
}
term 00:03:fe:0a:ac:00 {
from {
source-mac-address {
00:03:fe:0a:ac:00/48;
}
ip-destination-address {
# адрес атакуемого сервера
}
}
then {
count 00:03:fe:0a:ac:00;
accept;
}
}
term other {
then {
count other;
accept;
}
}
Судя по документации в маршрутизаторах Juniper серии MX есть ограничение в 1024 правила с действием counter, но в данный лимит мы не упирались. Сбрасываем состояние счетчиков в данном фильтре и через некоторое время (1-2 минуты) смотрим на результат:

root@rt01> clear firewall filter ix_mac_filter  
root@rt01> show firewall filter ix_mac_filter

Filter: ix_mac_filter
Counters:
Name Bytes Packets
00:01:e8:a3:ed:20 142632382856 288079929
00:02:4a:2f:a0:1a 5159885 75880
00:03:fe:0a:ac:00 14915791420 72085522
00:04:96:6d:6f:f0 2508125168 35985837
00:04:96:7d:f8:99 362692758 5352205
00:04:96:82:4d:57 216046092 2851369
...


И, если находится аномалия, смотрим какой IP адрес связан с этим MAC адресом, далее смотрим кому он принадлежит, и, если это не шлюз, устанавливаем политику reject. Тем самым минимизируя последствия атаки.



Конечно, это не панацея, блокируется часть интернета, но, в большинстве случаев, это бордеры дата центров — они не являются нашими потребителями трафика. Блокировка достаточно простая и, например, если нет других средств, данная защита вполне себя оправдывает. Когда процесс полностью автоматизирован, это позволяет понять, откуда идет атака и можно ли с ней справиться несколькими командами, что сильно упрощает жизнь.



пс. После установки в одно шасси DPCe и MPC данная схема стала работать не совсем корректно, часть пакетов в фильтре просто не видится. Если кто подскажет почему, буду благодарен.



Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/278613/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
Троян_95

Хостинг-провайдер нового поколения VPS.house

Суббота, 13 Февраля 2016 г. 13:29 (ссылка)


LOGO



На правах рекламы... Для всех российских пользователей отличной новостью будет узнать, кто еще не в курсе, о хостинг-провайдере нового поколения VPS.house, посредством которого можно воспользоваться услугами по аренде виртуального сервера (VPS/VDS). Виртуальные сервера на vps.house, размещаемые в сертифицированном дата-центре в Москве, поэтому и в связи со вступлением в силу федерального закона «О персональных данных», который обязывает компании хранить персональные данные граждан РФ исключительно на территории России эти сервера идеально всем подходят.



Представьте себе, на протяжении минуты виртуальный сервер будет автоматически установлен на vps.house, мало того, он тут же станет годным к работе подключения по RDP. Беспокоится пользователю не стоит даже в случае опасности, так как предусмотрена эффективная защита виртуальных серверов от всех популярных видов DDoS-атак мощностью до 1000 Гбит/с по цене 800 руб в месяц.



По описанию и наличию позитива все больше похоже на сказку, но это не она, это реальность! Мало того, на период экономического кризиса интересным будет узнать, что цена за услуги фиксирована в рублях и составляет от 550 руб. в месяц, хотя есть и еще приятнее новость: при оплате за год получите 30% скидку. Кроме прочего, в Вашем распоряжении целая неделя бесплатного тестового режима.



Обратите внимание, речь идет не о мышеловке: в спектре услуг -  бесплатно любая серверная ОС Windows (2003, 2008 или 2012), включая последние обновления, ну разве не уникальное и своевременное предложение?!



Вот такой он хостинг-провайдер нового поколения VPS.house, поспешите воспользоваться!!! Не стоит упускать шанс! Тестируйте!


Метки:   Комментарии (3)КомментироватьВ цитатник или сообщество
Портал_Солнцево

Надёжные серверы Dedicated от хостинг-провайдера №1!

Четверг, 14 Января 2016 г. 10:05 (ссылка)
domain-rf.ru/?p=547


На сайте REG.RU можно подобрать и заказать проверенные хостинг-услуги для задач любого масштаба. Каким бы ни был ваш интернет-проект, мы всегда можем предложить

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество

Следующие 30  »

<хостинг-провайдер - Самое интересное в блогах

Страницы: [1] 2 3 ..
.. 10

LiveInternet.Ru Ссылки: на главную|почта|знакомства|одноклассники|фото|открытки|тесты|чат
О проекте: помощь|контакты|разместить рекламу|версия для pda