Случайны выбор дневника Раскрыть/свернуть полный список возможностей


Найдено 6085 сообщений
Cообщения с меткой

хостинг - Самое интересное в блогах

Следующие 30  »
LVEZ

Успешная работа на ваших сайтах

Четверг, 28 Июля 2016 г. 18:32 (ссылка)


Если вы хотите иметь свой сайт, интернет-магазин, информационный портал в сети Интернет без технических осложнений и нюансов, то можно сделать их на Extreme хостинге, где много разных преимуществ. В компании DCXV https://dcxv.com/ru/hosting.html есть сервер и хостинг, где можно заказать те или иные услуги, например, установку веб движка (CMS), поддержку множественных доменов на одном аккаунте, техподдержку и другие услуги, которые надежные качественные. Компания имеет большой накопленный опыт работы. Так что обеспечивается успешная работа на ваших сайтах.

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
Ehle

Улучшение работы на сайте на сервере и хостинге компании DCXV

Четверг, 28 Июля 2016 г. 11:51 (ссылка)


Кто хочет создать собственный сайт, информационный портал или интернет-магазин, рекомендую воспользоваться сервером и хостингом в компании DCXV https://dcxv.com/ru/vps.html. Компания предоставляет супер-быстрые VPS-сервера на базе SSD дисков, которые увеличивают производительность подсистемы ввода/вывода и которые являются одной из важнейших в работе серверных приложений. А это положительно влияет на вашу работу на сайте, например, росту трафика, увеличению числа продаж и заказов и так далее. Подробную информацию можно найти на сайте компании.

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Лоукост VDS хостинг в России и его техподдержка

Среда, 27 Июля 2016 г. 20:53 (ссылка)

Доброго времени суток, дамы и господа.



Есть тут на Хабре одна компания, которая имеет свой блог и отчаянно пиарится как "Лоукост VDS хостинг в России".



Я ничего не имею против лоукоста и сразу же оплатил у них сервер. Первое время сервис был на достаточно хорошем уровне, кроме нескольких факапов со скидками, которые тут же и рекламировались. Но все эти проблемы достаточно быстро решались через ТП или комментарии на Хабре.



Но сегодняшняя ситуация перечеркнула все плюсы.



В обед я заметил тормоза своих сайтов, обратившись в техподдержку, я получил ответ, что был небольшой DDoS и сейчас проблема решена. И действительно, проблема была решена и сайты забегали по IPv4. Но весь фокус в том, что в DNS был прописан и IPv6. К почте он был привязан так же, как и к сайтам. И вот он отвалился чуть более чем полностью.



Что обычно делают все нормальные люди? Пишут в техподдержку. Что я и сделал.



Ответ меня не то что поразил. Ответ убил на повал:





За 15 лет работы со всякими датацентрами и хостингами я не припомню ситуации, чтоб хостер просил рутовый доступ к моему серверу. В принципе, все и так понимают, что хостер имеет доступ к файловой системе сервера, при необходимости. Но чтоб вот так в наглую.



Я думал, что на этом все и закончится. Напишут список команд, я выдам им результат и все. Но нет. Следующий комментарий от ТП был более настойчивым и все так же продолжали требовать рутовый доступ.



Не буду пересказывать всю переписку. Это лишено смысла и пост не является жалобой как таковой, а всего лишь предостережением.



В общем, если кто-то из хабровчан пользуется услугами этого чудо-хостера и испытывает проблемы с IPv6, то проблема решается одной командой:



ping6 -I <ваш_ipv6_адрес> 2a02:6b8::feed:0ff


После этого все начинает работать.



Как вы, наверное, уже догадались эта команда пришла не от техподдержки, а от моего товарища, который боролся с ТП за три дня до этого в течение двух суток. В результате, у него сегодня ситуация повторилась и это помогло.



Вероятнее всего есть проблемы с AntiDDoS оборудованием, которое широко рекламировалось в твиттере. Но кто же у нас признает проблемы и компенсирует простой? Вопрос риторический.


Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/306570/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
kseniasamohina

Особенности создания уникального контента для сайта

Среда, 27 Июля 2016 г. 15:56 (ссылка)
md-eksperiment.org/post/201...dlya-sajta


Если у вас новостной ресурс, то актуальным становится вопрос текстового наполнения, а самое важное – его уникальности.

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
Понтифик_Иванов

Особенности создания уникального контента для сайта

Среда, 27 Июля 2016 г. 15:53 (ссылка)
md-eksperiment.org/post/201...dlya-sajta

Если у вас новостной ресурс, то актуальным становится вопрос текстового наполнения, а самое важное – его уникальности.
Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Как развернуть Windows Nano Server (TP5) на vSphere

Среда, 27 Июля 2016 г. 11:06 (ссылка)

Все ближе релиз Windows Server 2016 Microsoft, вместе с которым будет представлена новая операционная система: Windows Nano Server, суперлегкая версия Windows Server, созданная специально для облака. Когда мы впервые услышали о ней нам сразу стало жутко любопытно, поскольку она напоминает во многом VMware ESXi: это такая же встроенная система, занимающая мало месте и управляемая исключительно дистанционно. Она ограничен в применении, но может выступать в качестве полнофункционального хоста виртуализации Hyper-V и как хост для контейнера.



Мы нашли несколько инструкций по развертыванию Nano Server на vSphere, но они относились к более старым версиям Server 2016 Tech Preview (TP) (ведь многое могло измениться в текущем 5 превью), поэтому мы решили представить другой вариант инструкции. Nano Server нельзя установить с загрузочного CD, как другие версии Windows Server, но он выходит со своими параметрами развертывания, основанными на Powershell.



Файл Windows WIM или виртуальный диск Hyper-V будет выводиться в старом формате vhd или в более новом формате vhdx. Образ должен быть сконвертирован в файл VMware vmdk, который затем необходимо загрузить на хост ESXi и соединить с новой созданной виртуальной машиной.



Все последующие шаги тестировались на рабочей станции Windows 10 и на хосте ESXi 6.0 U2. Все должно работать аналогично с Windows 8.1 и ESXi 5.5.



Построение образа



1. Загружаем Windows Server 2016 TP5 ISO



если вы еще этого не сделали, загрузите файл Windows Server 2016 Technical Preview 5 ISO с Microsoft Technet Evaluation Center. Это потребует аккаунта Microsoft и быстрой и бесплатной регистрации.



2. Убедитесь, что у вас есть самые новые драйверы VMware vmxnet3 и pvscsi



Загрузите последнюю версию VMware Tools for Windows (x64) в формате exe (в данный момент это версия10.0.9). Выполните административную установку пакета с помощью /a, например:

image

Это еще не установит Tools на вашу локальную систему, но распакует все файлы в директорию, которую вы укажите в появившемся диалоговом окне:

image

В этом примере мы используем директорию C:\TEMP\VMTools. Убедитесь, что папка C:\TEMP существует, или используйте другую родительскую директорию.



Тперь создаем новую директорию C:\TEMP\Drivers и копируем в нее все извлеченные драйверы pvscsi и vmxnet3. В командной строке выполняем:

image

Теперь можно удалить C:\TEMP\VMTools, эта директория больше не нужна.



3. Запуск скрипта



Установите Windows Server 2016 TP5 ISO, чтобы использовать его как диск Windows (в Windows 8 и 10 нужно дважды кликнуть на него в Explorer). В примере ниже предполагается, что он установлен на диск E:.



Теперь откройте окно Powershell как Администратор и запустите следующие команды: image

Первая команда импортирует модуль NanoServerImageGenerator Powershell из TP5 ISO. Вторая команда создает образ. Вот значение наиболее важных команд:




  • -BasePath: Временная директория для создания билда (создается при необходимости)

  • -TargetPath: Полное имя файла сгенернированного образа (формат определяется расширением: .wim, .vhd или.vhdx)

  • -ComputerName: имя Nano Server

  • -EnableRemoteManagementPort: включает порт удаленного управления Nano Server по умолчанию. Также это можно сделать уже после развертывания в консоли.

  • -DriversPath: каталог с дополнительными драйверами для добавления. Здесь мы уточняем пусть к извлеченным драйверам VMware

  • -AdministratorPassword: пароль администратора. В примере мы используем VMware123!.

  • -DeploymentType: Как в отношении Host, так и относительно Guest. Если здесь указать Guest, это автоматически добавит Hyper-V Integration Tools (эквивалент VMware Tools компании Microsoft), чтобы запустить образ как виртуальную машину Hyper-V. Поскольку мы хотим сделать развертывание для vSphere, в нашем примере мы уточняем Host (что также использовалось бы для физических развертываний).

  • -Edition: Версия Nano Server, Standard или DataCenter.

  • -Compute: Опция, которая добавляет образу роль Hyper-V.



… вот как все это будет выглядеть:

image

Как вы уже заметили, мы создаем файл vhd, а не vhd, поскольку нам нужен более современный вариант: он использует форматы GPT и EFI. Использование vhd также отлично работало бы.



4. Конвертируем файл vhdx в формат vmdk



Есть только один способ сконвертировать файл vhdx в формат VMware: использовать бесплатный инструмент Starwind V2V Converter Tool. При его использовании выбираем VMware ESX server image в качестве формата Destination image:

image

В результате будет создано два файла, небольшой метафайл *.vmdk file и, собственно, файл *-flat.vmdk (размером 4 Гб).



Развертывание виртуальной машины



Создаем новую ВМ на хосте ESXi со следующими параметрами:




  • Последняя доступная версия виртуального оборудования (11 для ESXi 6.0)

  • Гостевая ОС: Microsoft Windows Server 2016 (64-bit)

  • CPU и RAM согласно требованиям (здесь использовался процессор с двумя ядрами и 4Гб RAM)

  • Сетевой адаптер vmxnet 3

  • Контроллер VMware Paravirtual (pvscsi) SCSI

  • Не добавляйте жесткий диск во время создания!



После создания виртуальная машина редактирует свои Advanced Options / Boot Options и выбирает EFI в. качестве загрузочной прошивки.

image

Теперь загружаем два файла vmdk, созданные с помощью Starwind Converter tool, в каталог ESXi, созданный для вашей виртуальной машины. Редактируем ВМ и добавляем загруженный диск как Existing virtual disk и Virtual Device Node «SCSI (0:0)».



Наконец, меняем тип контроллера SCSI, автоматически добавленного в VMware Paravirtual (pvscsi): image

Итак, мы создали свою первую виртуальную машину Nano Server на vSphere, и ее уже можно запустить! Проходит всего пара-тройка секунд до загрузки и вот мы уже видим минималистическое приветствие:

image



Полезный совет



Если вы хотите попробовать использовать Nano Server как хост Hyper-V, то вам нужно включить вложенную виртуализацию с помощью:


  • Включив аппаратную поддержку виртуализации для виртуальных CPU и

  • Добавив параметр конфигурации hypervisor.cpuid.v0 со значением false, когда виртуальная машина отключена.



На отдельных хостах ESXi это может быть сделано с использованием нового HTML5 Host Client (уже включенного в обновление ESXi 6.0 Update 2 и более поздних):

image image

Предвидим вопрос: можно ли установить VMware Tools на Nano Server? Нет, нельзя, поскольку формат MSI недопустим для Nano Server. В остальном….вперед!
Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/306490/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
kseniasamohina

Зачем нужен свой личный сайт современному человеку

Воскресенье, 24 Июля 2016 г. 19:59 (ссылка)
md-eksperiment.org/post/201...-cheloveku

Блог - один из самых популярных типов сайта. Его сущность кроется в публикации новостей, которые будут отображаться в хронологическом порядке. Изначально блоги использовались для того, чтобы поделиться своими мыслями
Комментарии (0)КомментироватьВ цитатник или сообщество
bnkp

Зачем нужен свой личный сайт современному человеку

Воскресенье, 24 Июля 2016 г. 19:51 (ссылка)
md-eksperiment.org/post/201...-cheloveku


Блог - один из самых популярных типов сайта. Его сущность кроется в публикации новостей, которые будут отображаться в хронологическом порядке. Изначально блоги использовались для того, чтобы поделиться своими мыслями

Комментарии (0)КомментироватьВ цитатник или сообщество
Понтифик_Иванов

Зачем нужен свой личный сайт современному человеку

Воскресенье, 24 Июля 2016 г. 19:50 (ссылка)
md-eksperiment.org/post/201...-cheloveku

Блог - один из самых популярных типов сайта. Его сущность кроется в публикации новостей, которые будут отображаться в хронологическом порядке. Изначально блоги использовались для того, чтобы поделиться своими мыслями
Комментарии (0)КомментироватьВ цитатник или сообщество
Asket_61

Посмотреть изображение, размещённое на VFL.Ru

Пятница, 22 Июля 2016 г. 16:39 (ссылка)
vfl.ru/fotos/foto_zoom/91ef...65596.html


Бесплатный фотохостинг, хранящий ваши фотографии неограниченно долго

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
Удав102

Надежный выделенный сервер и хостинг

Четверг, 21 Июля 2016 г. 15:50 (ссылка)


Вам нужен надежный VPS-сервер, который физически расположен на территории Европы? Да нет проблем. В настоящее время достаточно много компаний предлагают в Европе услугу такого рода. Главное найти качественный сервер и хостинг по приемлемой стоимости.



Я вот пользуюсь — источник — меня на нем устраивает фактически все! Веду потихоньку свои ресурсы на для русскоязычных пользователей. Ну не силен я в грамматике и орфографии иностранных языков. Понимать понимаю. А формулировать мысли так и не научился. В принципе, это не страшно. Много наших бывших советских соотечественников с удовольствием посещают мои веб-ресурсы.



Мне остается только рассматривать предложения от рекламодателей и не демпинговать их. Заработок на такой монетизации средний, но мне вполне хватает. А как вы реально делаете деньги в инете. Пишите об этом в комментариях к этому посту.

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Как перенести свой железный сервер в облака за 1 день

Среда, 20 Июля 2016 г. 16:28 (ссылка)





Сегодня всё ещё остаётся огромное множество больших и маленьких организаций, которые держат у себя старенький сервер, размещая его прямо в офисе или на какой-либо площадке в ЦОД. Дело не в безопасности и не в удобстве, просто так исторически сложилось и есть стереотип, что очень долго всё переносить куда-то, перенастраивать, да ещё и можно потерять при этом данные.



На самом же деле всё делается очень просто и указанный в заголовке 1 день – это не день кропотливого труда, это всего лишь время на создание образа текущего диска и копирование его в облака. Скорости сети у всех разная, как и объём переносимой информации – в среднем поучается за 1 день.



Итак, в чём же заключается суть переноса:


  1. с помощью специализированного программного обеспечения снимается полный образ диска вашего текущего сервера (или даже домашнего компьютера) – в результате вы получаете обычный файл со всем, что у вас есть

  2. отправляем этот файл хостинг-провайдеру для размещения у себя (если провайдер, как мы такое поддерживает)

  3. вы подключаетесь к серверу по новому сетевому адресу и работаете как раньше, забыв про ваше физическое оборудование и его обслуживание





Шаг 1. Создаём файл образа диска с вашего текущего сервера



Наиболее простым, популярным и удобным (а ещё не маловажно бесплатным!) средством для этого является утилита Disk2vhd. Скачать её можно прямо с сайта Microsoft:

https://technet.microsoft.com/en-us/sysinternals/ee656415



Программа не требует установки, это просто архив, который нужно распаковать и запустить disk2vhd.exe:







Убедитесь, что выбрано вверху «Use Vhdx» — это формат выходного образа диска сервера. VHDX –современный формат в Windows и Hyper-V, поддерживающий диски объёмом до 64ТБ, VHD – устаревший и позволяет создавать диски объёмом всего до 2ТБ.

Ниже в строке адреса указывается произвольный путь для сохранения файла образа диска и после выбираем, какие диски включить в этот образ.

В зависимости от объёма данных и скорости (производительности) дисков на вашем сервере, процесс создания файла образа может длиться до нескольких часов.









Шаг 2. Отправляем образ диска сервера хостинг-провайдеру



Создайте аккаунт на сайте ultravds.com, выбрав требуемую конфигурацию сервера по параметрам производительности и объёма дисковой системы в зависимости от количества переносимых данных.









После создания аккаунта и сервера, просто напишите заявку в службу поддержки для организации приёма вашего файла.



В ответ на вашу заявку мы подготовим специально для вас доступ по FTP до изолированного временного хранилища для загрузки образа диска вашего сервера.



На нашей стороне для переноса данных в облако выделен канал на скорости 1Гбит/с, что позволяет загрузить образ объёмом 1ТБ всего за 2 с половиной часа, это конечно если на вашей стороне присутствует такой же быстрый интернет-канал.



По окончанию загрузки просто напишите повторную заявку в поддержку, и мы развернём предоставленный образ диска в созданном вами ранее виртуальном сервере.




Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/306050/

Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Автовыход пользователя на сервере Windows. Использование его для оптимизации работы вашего VDS сервера

Вторник, 19 Июля 2016 г. 20:21 (ссылка)

Анализируя поступающие заявки наших клиентов в службу технической поддержки и обращения к консультантам, мы заметили, что множество наших клиентов сталкиваются с такой проблемой как «автовыход», не понимая, что это и как с ней бороться.



Любой сервер в том числе и виртуальный должен работать в постоянном режиме 24 х 7 х 365. И соответственно пользователь, который запускает программы на выполнение на сервере, рассчитывает, что они будут работать в таком же режиме. Именно на это и рассчитывают наши клиенты. Однако устанавливая на сервер различного рода десктопное программное обеспечение, которое разрабатывалось «умельцами» без мысли, что существуют компьютеры, не имеющие мониторов, отключившись от сервера через какое-то время замечают, что его программа перестала работать должным образом, при том что сервер активен и доступен. Замечают это как правило при следующем подключении к серверу для анализа данных с как подразумевалось работавшего ПО. Проблема, очевидно в том, что данное ПО что-то пытается брать со свойств экрана (разрешение, позиция курсора и т.д.) при том, что ни экрана, ни курсора при отключенном сеансе нет.



Данная проблема является частным случаем ограничения работы сеансов по времени, за которую отвечает узел групповой политики «Службы удаленных рабочих столов» с одноименным названием «Ограничение сеансов по времени». Он позволяет гибким образом настраивать время работы запущенных сеансов или Ваших сотрудников на сервере при организации рабочих мест, что позволяет Вам более оптимально использовать ресурсы сервера.



Запустим на сервере редактор «Локальной групповой политики» нажав сочетание клавиш Win+R и Набрав команду GPEDIT.MSC







Далее необходимо перейти по следующему пути в ветке «Конфигурация пользователя», если Вы хотите произвести настройки для текущего пользователя или в ветке «Конфигурация компьютера», если Вы хотите настроить для всех пользователей сервера.



Административные шаблоны -> Компоненты Windows -> Службы удаленных рабочих столов -> Узел сеансов удаленных рабочих столов -> Ограничение сеансов по времени.








Видим, что параметры ограничения по времени не заданы явным образом и настраивать их можно для следующих ситуаций:


  1. Для отключенных сеансов

  2. Для активных, но бездействующих сеансов

  3. Для активных сеансов

  4. Сеанс RemoteApp



Рассмотрим каждый из них несколько подробнее.





1.«Задать ограничение по времени для отключенных сеансов»



При помощи этого параметра Вы можете указать промежуток времени в минутах, часах или днях, на протяжении которого открытые программы будут продолжать работать после отключения от сервера.



Если Вы хотите, чтобы Ваша программа работала на сервере в постоянном режиме и не происходило «автовыхода» при отключении, то данный параметр следует указать как Включен и выбрать Никогда. Что является решение выше описанной ситуации.







Данный параметр можно так же использовать в моменты, когда рабочий день сотрудника закончен, но на выполнение некоторых автономных процессов, которые не требуют вмешательства пользователя, нужно еще дополнительное время, в таком случае можно указать Включено и указать необходимо количество времени.





2.«Задать ограничение по времени для активных, но бездействующих сеансов служб удалённых рабочих столов»



Бездействующим сеансом считается тот сеанс, когда удаленный рабочий стол начинает простаивать без каких-либо операций ввода, со стороны пользователя. Сотрудник может подключиться к удаленному рабочему столу сервера, а затем по завершении рабочего дня попросту забыть отключиться от сервера и уйти домой. В таком случае сеанс активен, но простаивает и ресурсы выделяемые сервером и зарезервированные для этого пользователя, простаивают и соответственно расходуются не эффективно. В таком случае можно указать Включено и указать необходимо количество времени, после которого при простое, сеанс будет завершен.









3.«Задать ограничение по времени для активных сеансов служб удалённых рабочих столов»



Данный параметр отвечает за завершение даже активного сеанса, скажем если политикой Вашей компании является достаточно строгий контроль рабочего времени и не допускаются переработки. То Вы можете установить это параметр на Включено и указать максимальный период рабочего времени. Соответственно по завершению рабочего дня, сеанс даже активного пользователя будет завершен, но за две минуты до отключения, пользователю будет предоставлено предупреждающее сообщение, чтобы он смог сохранить все выполненные за время подключения изменения и открытые рабочие документы.







Во втором и третьем случае обязательно включение параметра «Завершать сеанс при достижении ограничения по времени». Включение данного параметра указывает, чтобы производилось именно завершение сеанса пользователя, в противном случае будет производится только отключение сеанса, но не его завершение.













4.«Задать предел времени для выхода из сеансов RemoteApp»



Данный параметр позволяет Вам, завершать сеанс в момент, когда Вы не производили подключение к удаленному рабочему столу сервера, но подключение к серверу было установлено при помощи сторонних программ. При закрытии программы, если параметр «Не задан», то сеанс отключается, но не завершается. Для завершения сеанса необходимо указать Включено и установить время, так же доступен параметр «Немедленно».




Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/305988/

Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Применение облачных технологий в биржевой торговле — особенности и перспективы

Вторник, 19 Июля 2016 г. 14:58 (ссылка)

Биржевая торговля уже давно стала областью применения самых передовых технологий. Сюда мгновенно приходят самые последние изобретения человечества, начиная от телеграфа заканчивая интернетом. Облачные технологии не стали исключением. Каковы запросы потребителей услуг в данном секторе? Удовлетворяет ли сейчас рынок IAAS в России новым реалиям?



Наш сегодняшний материал продолжает серию репортажей с полей форума Облачные технологии в России: часть I, часть II, часть III, часть IV, часть V. И сегодня читателей нашего блога и пользователей Хабра ожидает интереснейшая дискуссия на тему того, как облачные технологии меняют механизмы взаимодействия биржевых игроков. К дискуссии были привлечены представители всех крупнейших брокерских компании РФ. Было жарко)









Участники:

Модератор дискуссии, Вадим Закройщиков, департамент срочного рынка, Московская биржа

Никита Цаплин, Управляющий партнер, RUVDS

Константин Ивайловский, заместитель директора, ИА «МФД-ИнфоЦентр»

Юрий Савицкий, начальник управления алгоритмической торговли, ИК «Церих Кэпитал Менеджмент»

Юрий Маслов, управляющий директор, член правления, «ИК «Ай Ти Инвест»

Сергей Слукин, руководитель отдела DMA и алгоритмической торговли, АО «ФИНАМ»

Лада Кобкина, руководитель проектов брокерского бизнеса,«Компания БКС»











Тепло поприветствовал участников круглого стола и коллег, выступил со вступительным словом модератор, Вадим Закройщиков, департамент срочного рынка, Московская биржа:



— Коллеги, добрый день! Мы очень рады приветствовать вас на интересном круглом столе, т.е. не секрет, что построение высокопроизводительных торговых систем – это достаточно затратное занятие, не только по начальным костам, но и по операционным затратам, которые требуется нести. И несколько лет назад вот следующий сценарий казался полной фантастикой, т.е. я, как алгоритмический трейдер, чтоб смог управлять с той торговой системой с минимальной задержкой с помощью телефона, лежа где-то на пляже, причем это стоило, как обычные затраты на сотовую связь. Несколько лет назад это вообще казалось полной фантастикой, но сейчас это реальность, которая уже доступна в нашей российской действительности, и все благодаря применению облачных технологий в биржевой торговли, именно это является центральной темой нашего круглого стола. Меня зовут Вадим Закройщиков, я представляю Московскую биржу. И прежде чем начать нашу интересную дискуссию, я хотел бы кратко представить наших уважаемых спикеров. В порядке от меня, т.е. Никита Цаплин – Управляющий партнер RUVDS, Константин Ивайловский – МФД-ИнфоЦентр, Юрий Савицкий – Церих капитал, Лада Кобкина – БКС, Сергей Слукин, как ни странно, Финам, и Юрий Маслов – Ай Ти Инвест. И вопрос, с которого бы я хотел начать это – какие модели использования облачных технологий в биржевой торговле вы видите и в чем, с вашей точки зрения, заключается преимущество использования данных технологий для клиентов. Значит, начну по порядку.







Никита Цаплин, Управляющий партнер RUVDS:



— Итак, начну с ответа на первый вопрос. Соответственно, тут существует несколько моделей использования. Первая модель использования, когда, образно, когда компания занимается алгоритмической торговлей использует, непосредственно, виртуальные сервера VPS для оптимизации затрат на структуру, например, для тестирования каких-либо стратегий, возможно дешевле попробовать, например, какие-то облачные решения, что касается дата-центра биржи, прежде чем приобрести дорогостоящее оборудование. Вторая же модель заключается в том, что потребитель – это компания-брокер, которая перепродает эти услуги конечным клиентам и, таким образом, оказывает сопутствующую услугу или даже организует некоторую точку вовлечения клиентов, потому что не все брокерские компании предоставляют такую услугу. Наверное, если выделить модели – их всего две. А там уже как бы внутри этих моделей разделяется услуга на еще несколько вариантов, т.е. это может быть – размещение в дата-центре биржи, оборудования, это может быть размещение в дата-центре брокера, либо провайдера.



Вадим Закройщиков (Модератор): — Константин, вот с точки зрения твоего бизнеса, какие модели использования ты видишь, преимущества какие-то?







Константин Ивайловский, заместитель директора, ИА «МФД-ИнфоЦентр»:



— Я бы, во-первых, хотел бы понять, что такое облачные технологии, потому что, на самом деле, облачными технологиями называют некоторые технологии, которые где-то располагаются, мне все равно как, главное, чтобы они сделали мою функцию. Это понятие, оно возникло не так давно, хотя состоит, если посмотреть, из трех основных элементов. Один элемент это хранение данных, т.е. как существительное, пассивная какая-то информация, она хранится. Это вычислительные мощности определенные, которые делают алгоритм, это скорее глагол. И это может быть некоторый кластер, на котором ставится операционная система, вычислительные базы данных, какие-то определенные алгоритмы. Все эти модели, они используются.

Вот мы предлагаем программные решения компаниям финансового рынка и сами оказываем услуги. У нас практически все клиенты используют кластеры, т.е. по крайней мере тестовые контуры, мы говорим про подключение к бирже, некоторые вычислительные комплексы, это системы рисков, они, как правило все располагаются на виртуальных машинах, на кластерах. А если говорить про клиентов, то многие клиенты, как и сотрудники банка, куда они приходят, часто у них есть некоторые виртуальные машины, которые помогают им, т.е. не просто компьютер, а некоторая виртуальная среда, на которую они запускают машины и имеют доступ отовсюду к этим машинам просто для решения своих задач. И клиенты, обычные, в том числе, клиенты брокеров, банков, они имеют тоже свои обычные кластерные решения. А вот, что касается вычислительных мощностей, некоторые банки, некоторые брокерские и компании, да и трейдеры тоже используют такие решения, связанные, в том числе, с биг датой, либо просто с оптимизацией вычислительной. Вот это используется. Мы, в том числе, предоставляем некоторое облако для управляющих, где они транслируют сигналы, и операции зеркально копируются на счетах клиентов. Это тоже можно называть некоторым облаком, поэтому, я думаю, что целесообразно, вообще прежде, чем говорить, нужно как-то определить более узко, специфически, что такое облако и как-то задать контекст.



Вадим Закройщиков (Модератор): — Спасибо. Юрий, Вы как можете охарактеризовать возможные модели использования облачных технологий, как у Вас в компании это применяется, какие выгоды видят Ваши клиенты?







Юрий Савицкий, начальник управления алгоритмической торговли, ИК «Церих Кэпитал Менеджмент»:



— Ну, я вижу два варианта использования облачных технологий, т.е. даже разделю их в нашей компании на два варианта. Первый – это использование виртуальной инфраструктуры, и второе – использование платформы. Вот, на мой взгляд, сейчас много компаний предлагают виртуальную инфраструктуру, если говорить про виртуальную инфраструктуру, то мы рано или поздно упираемся просто в законы физики, где мы не можем улучшить скорость, либо какие-то реализации наших решений, которые мы используем. Но, однако, не знаю ни одной компании, которая именно предлагала такую облачную платформу, которая позволяла бы активно и успешно совершать сделки на всевозможных мировых площадках, биржах. И вот вторая часть, я считаю, наиболее не развита в нашей российской действительности на текущий момент.



Вадим Закройщиков (Модератор): — Спасибо. Лада, у Вас какое мнение?







Лада Кобкина, руководитель проектов брокерского бизнеса,«Компания БКС»:



— У нас, наверное, скажем, три тогда модели, но то, что вот Никита сказал. Мы можем использовать для себя, как брокер. Например, у нас есть облачные технологии, применяются для наших филиалов, которые находятся удаленно, мини-филиалы мы их называем, а так, в основном, мы используем облачные технологии для наших клиентов. Здесь у нас два сервиса есть. Один из сервисов это то, что Костя рассказал, у нас подобная есть услуга — это автоследование. И, соответственно, клиентам предлагается виртуальная машина, достаточно стандартная, не очень дорогая, на которой установлен определенный образ, установлено ПО, т.е. клиенту не нужно ничего самому ничего скачивать, ничего настраивать, введи логин и пароль, пожалуйста, у тебя сделаны минимальные настройки, у тебя будет повторение сделок управляющего. И вторая более сложная технология это размещение оборудования в дата-центре биржи. Вот эта услуга, она тоже пользуется своим успехом, но она уже более специфична для крупных алготрейдеров. Второй вопрос у тебя был – какое преимущество?



Вадим Закройщиков (Модератор): — Да, какие преимущества получает клиент при применении?



Лада Кобкина: — Да, давай тогда немножко вкратце расскажу, мы, наверное, дальше подробнее остановимся. Первое — это экономия финансовая, т.е. вам не нужно размещение оборудования в дата-центре, вам не нужно покупать сервер. У алгоритмистов особые потребности к серверам, они достаточно дорогие- самые простые от 100 тыс. рублей и дальше, вообще ребята берут за десятки тысяч долларов. Второе – размещение оборудования в дата-центре, услуга тоже платная у бирж, т.е. 10 тыс. за размещение, там разово, и 10 тысяч в месяц, и, соответственно, дополнительно платите за всякие шлюзы, Плаза 2 и т.д.- это очень много костов составляет, там 2000 за плазу. Если вы берете виртуальный сервер, то вам не надо за размещение оборудования в дата-центре платить, вам не надо покупать свой сервер, вам достаточно купить шлюз и взять услугу, которая есть у брокера. У нас, например, 4 000, а у вас 20 000 бирже, есть разница для клиента, она существенная.



Вадим Закройщиков (Модератор): — Ну, небольшая разница, но есть.



Лада Кобкина: — Ну, да, в несколько раз. Она уже приятна. Это основное при выборе имуществ. Дополнительно, у Никиты там, не знаю, почему Никита не стал на эту тему говорить, у RUVDS есть круглосуточная поддержка, если случается сбой, они оперативно решают. Есть вообще бесперебойная проблема с интернетом, если у вас компьютер дома и т.д., я знаю кучу смешных историй про то, что кошка села на клавиатуру и т.д., то есть у вас такое на виртуальной машине никогда не случится и такое никогда не произойдет. У вас там не будет там, что кабель какой-то кто-то там задел ногой и у вас все вылетело, ну вот такие будут плюсы.



Вадим Закройщиков (Модератор): — Сергей?







Сергей Слукин, руководитель отдела DMA и алгоритмической торговли, АО «ФИНАМ»:



— На самом деле я по большей части повторю Ладу, потому что у нас примерно та же самая бизнес-модель. У нас два варианта использования облаков, которые мы используем на данный момент. Первое – использование в брокерской инфраструктуре, т.е. у нас достаточно много филиалов, как российских, так и международных, и облака нам еще помогают, если честно сэкономить на инфраструктуре. И недавно мы начали, и при помощи Никиты, предоставлять нашим клиентам конечным тоже облачные сервисы, т.е. это те же самые виртуальные машины, как в дата-центрах по сути компаний-партнеров, так и дата-центре биржи. Собственно плюсы все те же самые: т.е. клиент получает возможность попробовать свои HFT-шные алгоритмы, как-то попробовать себя в алготрейдинге, не тратя при этом существенных денег на инфраструктуру, т.е. не имея там огромных CAPEX’ов в десятки тысяч долларов и не платя, да простит меня биржа, большие деньги за коллокацию и сеть, и все остальное. Это все за него делает брокер, он разбивает эти косты на клиентов. То есть- это дополнительная клиентская база, дополнительный оборот для биржи, для брокера.



Вадим Закройщиков (Модератор): — Супер! Юрий, есть что добавить?







Юрий Маслов, управляющий директор, член правления, «ИК «Ай Ти Инвест»:



— Пару слов, в общем, скажу про то, что мы, как компания, достаточно консервативно смотрим на виртуально-облачные решения, однако в последнее время у нас запущено несколько проектов, где они могут быть полезными. Основная проблема, на мой взгляд, в том, что мы сами не хотим развивать такие решения, поскольку это для нас непрофильный бизнес, а провайдеры в России, которые предоставляли бы нужный уровень сервиса, в первую очередь, это требования по стабильности и скорость и реакция, скорость и поддержки, нужно еще поискать. Это не очень видно снаружи, видно для непосвященного в сферу.



Вадим Закройщиков (Модератор): — Спасибо. Вот ты затронул очень интересный и важный вопрос. Как может показаться, есть два пути развития вот этой виртуализации и облачных технологий, т.е. строить инфраструктуру собственными руками, либо каким-то образом найти провайдера, либо по схеме White Label, либо напрямую как-то договор с ним заключить и уже работать с ним. Я хотел бы на эту тему немножко с вами подискутировать. Сергей, как ты думаешь, какая модель более перспективная, и какую вы используете?



Юрий Маслов: — Слушай, на самом деле, несмотря на то, что мы обсуждаем здесь IT-вопросы, этот вопрос, мне кажется, он больше в поле видения менеджера. Если проектный менеджер понимает, что для него выгоднее приобрести облако и выгоднее реализовать бизнес компании в облаке, то, пожалуйста, он это делает. Если выгоднее купить свое оборудование, организовать свою поддержку, предоставлять сервисы клиентам с помощью своей инфраструктуры полностью, без проблем, он это делает. Но есть масса примеров клиентов, у которых одинаковый бизнес и между тем они реализуют свои задачи по-разному, т.е. это ответ на вопрос, каждый решает для себя сам.



Вадим Закройщиков (Модератор): — Юра, правильно я понимаю, что все-таки вы отказались от этой идеи построения собственных виртуальных серверов? На этом пока остановились?



Юрий Маслов: — Мы поддерживаем эту идею, но мы держим ее в вялом достаточно состоянии, потому что, с одной стороны, у нас достаточно высокие тарифы на эти услуги, чтобы ферма, которая у нас в колокации, не разрасталась, потому что понимание, стоит ли нам ее развивать и брать на себя эти косты или найти все-таки партнера с достаточным service-level у нас точно не сформировалось. Ближе ко второй, конечно, модели, потому что профильный бизнес должен быть профильным бизнесом, все остальное саппорт.



Вадим Закройщиков (Модератор): — Лада, Вы что-то можете добавить.



Лада Кобкина: — Я, наверное, подтвержу ребят, с точки зрения брокера и проф. участника. С точки зрения, может быть, клиента расскажу, если это кому-то интересно. С точки зрения клиента, использование собственной структуры, либо виртуальной, она зависит, прежде всего, от потребности клиента, на самом деле. Т.е. если вы начинающий трейдер, вам собственная структура, компьютер дома – это, в принципе, достаточно. Если вы в дальнейшем начинаете развиваться как трейдер, соответственно, у вас появляется потребность увеличения мощностей; появление алгоритма, который нужно запустить, соответственно, вам лучше купить какую-то стандартную виртуальную машину и на ней сделать, включить свой алгоритм, в том числе, можно его потестировать, чтобы он круглые сутки работал, чтобы у вас дома ничего не перегревалось, компьютеры целыми сутками не работали. А в дальнейшем, просто по развитию, вы будете все больше и больше приходить к виртуальным серверам, т.е. опять же размещение оборудования в дата-центре, то что проговорили, т.е. в зависимости от развития трейдера, он постепенно развивает и свои мощности, ой, и свои потребности он развивает, потребность к серверам, т.е. вам не нужно будет покупать больше дисков, вам не нужно больше увеличивать обороты, вам не его будет заменять, вы захотите там, на облачных технологиях можно спокойно увеличить мощность, т.е. это будет более правильное решение. Но с другой стороны, при определенном уровне, у вас будет предел, когда вам виртуальные машины уже не помогут. Это HFT-трейдеры, у которых есть low latency. Это очень важное для них понятие и, соответственно, если у вас там очередь, серьезные вычисления внутри одной секунды и очень важна скорость доставки до биржи, то здесь уже облачные технологии, к сожалению, не помогут, там будет просто аппаратное ограничение, там будет из технических, если говорить терминами, там может быть расхождение из-за тактов процессоров, т.е. во времени может быть проблемы, из-за того, что задержки дополнительные, из-за того, что у вас сначала идет информация на хост сервер, а потом она идет на виртуальные машины, это создает дополнительные задержки. Но это с точки зрения, клиента.



Вадим Закройщиков (Модератор): — А с точки зрения брокера, как Вам кажется, выгоднее самому брокеру выстраивать всю эту облачную инфраструктуру для клиентов или искать какого-то надежного партнера, который все это выстроит, это будет поддерживать? Какой из этих вариантов?



Лада Кобкина: — Ничто не мешает реализовывать оба варианта, но вот по зависимости от задач, которые ставит перед собой брокер.



Вадим Закройщиков (Модератор): — Юрий, можете что-нибудь сказать?







Юрий Савицкий, начальник управления алгоритмической торговли, ИК «Церих Кэпитал Менеджмент»:



— Честно, я бы все купил. Вот реально, я не вижу смысла, зачем держать кучу айтишников, которые следят за моим железом, я не вижу смысла, почему я это железо каждый раз апгрейджу за свои деньги, я не вижу, почему я всегда звоню на биржу, когда у них проблемы, почему я всегда контролирую пром-сервера биржи, почему я все это делаю? У меня большие касты на людей, которые за всем этим смотрят, вы думаете это один человек – это десятки людей, которые следят за инфраструктурой. Я бы реально нашел человека, который мне сделал все, что мне нужно, я бы все это купил и был бы доволен и счастлив. На текущий момент я не знаю ни одной компании, которая решила бы мою задачу, так как мне нужно, к сожалению, и поэтому приходится делать самостоятельно, держать штат айтишников, штат программистов, штат настройщиков CISCO, там дойдем до этого и штат людей, который закупает оборудование. Ты все время втыкаешь в те вещи, что тебе надо знать все во всех точках, которые у тебя влияют на бизнес, это очень дорого, тратить много времени, ресурсов и не доставляет никакого удовольствия. Поэтому я думаю, что лучше все купить и быть спокойным за то, что это качественно и хорошо работает.



Вадим Закройщиков (Модератор): — Да, замечательная точка зрения.



Юрий Маслов: — Еще раз, твоя позиция, она в том, что никто не делает так, как надо, не дает нужного уровня сервиса. Вот я не знаю, если здесь есть коллеги из отрасли, то обратите внимание, это хорошее место для развития бизнеса в России, потому что, если убрать всю историю с владением этим сервисом, которая вытекает из Юриных слов, то источник этого желания, он в том, что нужно обеспечивать service-level.



Вадим Закройщиков (Модератор): — Кость, ты что-то хотел добавить?



Константин Ивайловский: — Да, тут Юрий отчасти сказал, что несколько важных аспектов должно быть – это наличие компетенций внутри компании, либо их приобретение, денежные касты тоже важны на тот программно-аппаратное средство, которое нужно. В конечном итоге, на мой взгляд, это решение, вообще, что покупать нам или создавать самим, оно в двух плоскостях. Первая плоскость – важность программно-аппаратного комплекса, вторая плоскость – это сложность его. Если для компании важна какая-то программа, либо какой-то комплекс решений, он довольно сложный, то тут выбрать, на самом деле, сложно, если его сложность высокая. Если важность программного обеспечения, аппаратного комплекса она низкая, то можно создавать, можно не создавать, да не важно, можно купить. Вот если важность невысокая, а сложность высокая, то, конечно, однозначно, нужно просто покупать это дело и все. Не важно, сложность высокая – зачем заниматься этим. Но вот есть еще одна плоскость – это конкуренция на рынке и зрелость вот таких решений. Если конкуренция у нас на рынке низкая, а зрелость тоже низкая, тот тут ничего не остается, как создавать решения самим. Хотите, не хотите, придется это вам создавать. Если конкуренция высокая и зрелость программного обеспечения и аппаратного обеспечения высокая, то однозначно нужно покупать, потому что все затраты уже включены, оптимизированы процессы, это низкий порог на вход для приобретения такого решения. Единственно, что я хотел бы отметить – это конфиденциальность данных…



Вадим Закройщиков (Модератор): — Ну, я хотел бы потом еще об этом отдельно поговорить.



Юрий Маслов: — Мне кажется, очень логичное продолжение, потому что я хотел на слова Кости ответить, что опыт показывает, что простая инфраструктура, которую стоит поддерживать самому это локальная сеть в офисе и доступ к другим сегментам сети. А вот у нас, как у брокеров, основным стоппером является вопрос конфиденциальности данных наших клиентов.



Вадим Закройщиков (Модератор): — Если не против, я хотел бы потом об этом более подробно вас спросить. Мой следующий вопрос Никите, как представителю независимого провайдера, который как раз предоставляет услугу облачных технологий для биржевой торговли. Никита, видишь ли ты, какую-то специфику именно в плане биржевой торговли, с твоей точки зрения?



Никита Цаплин: — На самом деле, специфика может заключаться в каком-то критичном отношении к скоростям, к летенси доступу, потому что так или иначе, даже если трейдер, использующий виртуальный сервер, у него нет необходимости совершать какие-нибудь хай-фриквенси торговые операции, то все равно он бы не хотел, чтобы даже квик исполнял заявки медленно. А с другой стороны, с точки зрения конфиденциальной информации, так и других подходов, разница между тем, хранится ли там бухгалтерия или какая-то база данных, либо это трейдер, на самом деле нет. Потому что по сути подход, он один и тот же и какой-то специфики я бы здесь не стал выделять, кроме именно важности скорости доступа до пром-серверов или серверов QUIK’а, в зависимости от торговой системы, которую использует клиент.



Вадим Закройщиков (Модератор): — То есть, ты говоришь, что особо никакой разницы нет, поддерживать виртуальные сервера для каких-то видео игр или биржевой торговли?



Никита Цаплин: — Ну, действительно нет, потому что в целом, облачные технологии призваны обеспечить практически 100% аптайм, понятно, что не 100, но 99,98%, т.е. разница с точки зрения провайдера, развернут там игровой сервер или развернута торговля, в принципе, никакой нет, потому что, что там, что там, можно предоставить высокое качество услуг, круглосуточную поддержку и подход к конфиденциальным данным, там точно такой же. С этой точки зрения, никаких нет различий.



Вадим Закройщиков (Модератор): — Понятно. Спасибо, Никит, за ответ. Про преимущества мы, вроде, в целом обсудили…



Никита Цаплин: — Хотел бы немного добавить к предыдущему вопросу. Шла речь про то, что вот высказывание Юрия – хотелось бы купить готовую инфраструктуру, но такого решения нет. На самом деле, облачные технологии, в целом, это достаточно типовое решение, понятно, что оно подходит для клиентов брокера или для каких-то типовых задач, но, например, заменить брокеру свою инфраструктуру в дата-центре биржи, это практически невозможно. Это не область применения облачных технологий. Область применения, она может заключаться, например, в оказании клиентам каких-то услуг, предоставления им виртуального пространства, но заменить там пром-сервера какими-то…ну, это просто не та область. Единственно схема, какая может быть, в сокращении затрат, это лизинг оборудования, на самом деле. Потому что пром-сервера, они все равно должны находиться в собственности брокера, т.е. это даже не конкурирующая среда с облачными технологиями, это совсем другая.



Юрий Савицкий: — Я немножко поясню, что я имел в виду по поводу пром-серверов биржи, если говорить про торговлю на бирже. У биржи есть много оборудования, которое делает одинаковые функции, т.е. образно говоря, у тебя есть 4 компьютера, которые выполняют одну и ту же организацию какого-то нажатия клавиш и Enter, и в данном случае моей интерпретацией было, зачем за этим нужно следить, клавиша Enter на каждом компьютере нажимается с разной скоростью и приходится решать задачу выбора того компьютера, который нажимает эту кнопку быстрее. И в данном случае можно сделать облачное решение, которое бы за меня, за клиента, выбирало бы этот компьютер самостоятельно, и при этом я не собираюсь лезть в компьютеры биржи, мне нужно просто найти ту клавишу, которая работает быстрее, вот и все.



Константин Ивайловский: — Эта неэффективность всегда будет, нет алгоритмов, которые решают однозначно, потому что все алгоритмы, они работают по принципу массового обслуживания и решают массовые задачи. При это, чем больше массового обслуживания, тем больше для одного клиента неэффективности будет найдено.



Вадим Закройщиков (Модератор): — Хорошо, мы обсудили вкратце преимущества данных технологий, и хотелось бы также рассмотреть риски, которые также могут возникнуть при применении облачных технологий в биржевой торговле. Поясню, рассмотрим совершенно простую ситуацию, допустим, я клиент некоего брокера и купил у него виртуальный сервер, запустил туда свой высокопроизводительный алгоритм и в момент сильного движения на рынке по каким-то причинам сервер вышел из строя. Кто за это отвечает, прописывается ли это как-то юридически. Сергей, давай с тебя начнем, если ты не против.



Сергей Слукин: — И биржа, и брокер, они всегда стараются страховаться от таких случаев и всегда есть у любого нормального брокера документ, в котором он прописывает всю свою ответственность, в том числе, в таких случаях, точно так же, как это делает биржа, причем биржа страхуется гораздо сильнее, чем любой брокер.

(обращается к Модератору- представителю биржи) Прекрасно знаешь все ваши документы.

А если вдруг случаются такие ситуации, да, это сбой ПО. Решение этого вопроса всегда остается на усмотрение брокера, т.к. он предоставил клиенту эту услугу, т.е. с какими-то клиентами договариваются отдельно, кому-то просто говорят, да, это обычная ситуация, такое бывает, т.е. это вопрос, который, в любом случае, будет решаться индивидуально.







Вадим Закройщиков (Модератор), департамент срочного рынка, Московская биржа:



— А кто все-таки отвечает, т.е. это брокер, провайдер отвечает? Вы, допустим, арендуете сервер у провайдера, он стоит в зоне биржевой колокации, по каким-то причинам этот сервер перестал нужным образом работать. А кто мне, как трейдеру, возместит финансовые потери, мою упущенную прибыль.



Сергей Слукин: — Слушай, да, во-первых, правильно Юра говорит, это называется service level agreement, где между поставщиком и потребителем услуг прописываются такие случаи и когда поставщик несет ответственность, в каком размере, если сервер не аптайм какое-то время, возвращается какая-то часть оплаты, либо что-то сверху, т.е. это обычная практика. Если случается такой сбой, то, естественно, мы, как брокеры, будем разбираться с поставщиком услуг и дальше уже на основании этого разговора, мы будем уже параллельно общаться с клиентом. За всю нашу практику пока такого не было, т.е. пока, в основном, последние полгода больше всего проблем у нас было со сбоями с точки зрения организатора торгов. А с точки зрения нашей инфраструктуры клиентской, если сбои какие-то и были, они были незначительные, и все это решается индивидуально, в частном порядке.



Вадим Закройщиков (Модератор): — Понятно. Лада, у Вас какая точка зрения, кто отвечает?



Лада Кобкина: — Я Сережу поддержу, у нас все решается тоже индивидуально с клиентом, ответственность, говорить, что отвечает хост-сервер, предоставляющий вам виртуальные сервера VPS, это неправильно, у них ограниченная ответственность, в договоре прописано, т.е. полностью они вам возмещать все убытки не будут. А вот с брокером будем решать индивидуально. Дополнительно для клиентов хочу еще раз повторить, что ситуация, когда у вас падают сервера и т.д., у вас всегда существует возможность подать заявку альтернативным способом и ограничить свои финансовые убытки. Настройте себе оповещение о мониторинге работы с сервером, что он у вас работает, что он у вас упал, это все настраивается, это все решается, и алготрейдеры это делают.



Вадим Закройщиков (Модератор): — То есть, в принципе, возможен почти моментальный перезапуск моего алгоритма на другом виртуальном сервере, если что-то упало или нет?



Лада Кобкина: — Я говорю про другое, если вы, Никита начал говорить, если вы арендовали два сервера и один из них упал, пожалуйста, запустите бэкап на втором. Я говорила про другое, я говорила, что окей, у вас упал сервер, вы можете получить инфо от сервера, как пользователь, что ваш сервер не работает, что он временно упал. Вы это можете себе настроить, вы можете позвонить брокеру и подать с голоса подачу до поручения закрыть ваши позиции, рассказать ему эту ситуацию, вам не надо ждать несколько дней, пока все это восстановится, нормализуется, потом приходить к нам с претензией. Ну а дальше то, что Сережа говорит, все решается индивидуально с брокером. Целиком ответственность на провайдере, она не будет, целиком ответственность на брокере, она тоже не будет, вопрос клиента будет индивидуальным.



Никита Цаплин: — Я просто хотел сказать, что на самом деле, очень сложно оценить понятие упущенной выгоды здесь, наверное, в российской юридической практике такого вообще нет термина и оценить его практически невозможно. Это, во-первых. Во-вторых, пределом ответственности провайдера является стоимость оказания услуг, это в любом случае, потому что иначе ситуация может быть доведена до абсурда, как мы говорили в ходе первых сессий, действительно брокеры, не обязательно брокеры, банки перекладывают, государственные учреждения свою ответственность делегируют на провайдера и фактически все камни собирает провайдер. Тут надо понимать, что провайдер он обладает ответственностью согласно соглашению SLA и готов отвечать за них, своей стоимостью полученных услуг. Но принцип тут работ приблизительно как у мобильного оператора, т.е. если у вас телефон не ловит сигнал, вы не сможете ничего взыскать с оператора, даже если вы из-за этого в лотерею не выиграли.



Вадим Закройщиков (Модератор): — Понятно. Константин?



Константин Ивайловский: — Меня вообще удивил вопрос, т.е. сам-то клиент не должен думать о своих рисках? Потому что и биржа, и брокер, и другие, провайдер услуг, в общем-то, они занимаются бэкапированием горячее, холодное резервирование, это все поднимается, это все существует, и я так понимаю, отдел, который обеспечивает IT-парк и IT-инфраструктуру, они предоставляют у нас вообще шикарную инфраструктуру, когда клиент вообще не думает об инфраструктуре, подключился терминалом, что там произошло, случился сбой, его быстро перекинули на другой сервер, и там все работает. Но клиент настолько привык, что оно все должно быть вот так автоматически, что в общем-то, вопрос ставится, а кто виноват в этом. Ну, нужно предварительно самому думать, о том, что может случиться с каждым узлом и как-то иметь сценарии действия. Этот вопрос возникает, как правило, у не профессионалов, но часто и денежные лимиты у них небольшие, поэтому вопрос может быть не совсем актуальным.



Вадим Закройщиков (Модератор): — Но я же плачу за виртуализацию, я делаю аутсорсинг, т.е. передаю какой-то компании плату за обслуживание этих виртуальных мощностей. Почему я должен думать, упадет она или нет?



Константин Ивайловский: — Мы же живем в физической среде, тем не менее. Надо понимать, что такое IT. IT это всегда три компонента — это hardware, software, brainware. Соответственно, если не включать brainware, то просто системы IT-инфраструктуры, ее не получится, т.е. аппаратная, компьютеры да, ломаются, они горят, программы глючат, люди умирают. И для того, чтобы этого не случалось, просто нужна избыточность. Избыточность заключается в том, что нужно покупать отдельные компьютеры, которые следят за этим компьютером, которые обеспечивают резерв, что нужно ставить дополнительные элементы роботов, которые следят за этими роботами в другое место, в другой кластер. Параллельно робот, который смотрит тоже и совершает операции, более того, нужны дополнительные люди, которые следят за этими людьми, чтобы это все было так. Если приходит человек, который заключает просто договор, то в договоре, как правило, все его риски описаны. Если он не идет дальше, то это он не профессионал, возможно, ему и нечего делать на рынке в таком варианте, либо он набьет шишки и второй раз просто решит свою проблему сам.



Вадим Закройщиков (Модератор): — Да, Константин, очень жестко прям сказал, т.е. на провайдера надейся, но сам не плошай.



Никита Цаплин: — Хотел тоже добавить, дело в том, что как бы следует понимать, что за услуга оказывается, т.е. если, например, покупается виртуальный сервер в зоне колокации биржи, то это означает, что данное решение, оно аналогично по рискам владению собственным сервером в зоне клокации биржи, т.е. там риски точно такие же, что там ваш сервер, он может так же выйти из строя, и в этом случае торговля будет парализована, только виртуальное решение предлагает это по стоимости гораздо более выгодно, потому что вы платите несколько тысяч рублей в месяц, а при собственном сервере вы должны будете платить порядка 20 тыс. в месяц и плюс приобрести собственный сервер. Но это вам даст точно такие же риски в этом плане, что ваш единственный сервер может так же выйти из строя. А чтобы обеспечить систему абсолютного аптайма, вам нужно иметь несколько серверов желательно в разных зонах размещения, которые будут зеркалироваться, работать с разных логинов, это будет несопоставимая стоимость. Нельзя, платя 3000 рублей, ожидая какого-то там аптайма космического, здесь невозможно сравнить.



Вадим Закройщиков (Модератор): - Хотел бы все-таки, Юр, ты хотел добавить что-то по этому вопросу?



Юрий Маслов: — В двух словах, когда мы говорим о серьезном бизнесе, речь о том, что мы готовы платить за сервис, за надежность и за гибкость. И мы не ищем меньшую цену, мы ищем лучшие вот эти три параметра.



Юрий Савицкий: — Я подтвержу Юр, я тоже хочу платить 6 тыс. и ни о чем не думать, вместо трех.



Вадим Закройщиков (Модератор): — И я поддержу. И следующий вопрос, он уже затрагивался нашими спикерами. Это вопрос про безопасность. Как контролируется безопасность по управлению деньгами, когда я работаю не на своих собственных серверах, а использую виртуальную структуру. Юра Маслов, ты можешь как-то прокомментировать.



Юрий Маслов: — Вот сейчас пока мы поддерживаем собственную инфраструктуру, в том числе, инфраструктуру по виртуализации, мы…ничто не выходит за границы брокера, и я говорю о том, что если кто-то из коллег решит войти в этот бизнес, то именно это будет основной стопер при работе с нами, например. Ни цена, например, ни какие-то другие физические параметры, т.е. сервис служба и безопасность.



Вадим Закройщиков (Модератор): — Вот если мы говорим, что все-таки мы строи виртуальную инфраструктуру не собственными силами, а силами провайдера, то где гарантия, что мой торговый алгоритм не украдут и мои деньги не украдут. Сергей, как-то можешь прокомментировать?







Сергей Слукин, руководитель отдела DMA и алгоритмической торговли, АО «ФИНАМ»:



— На самом деле, тут несколько степеней защиты у тебя будет, т.е. первую обеспечивает провайдер, т.е. это та же самая банальная защита от DDOS, вторую и третью обеспечивают брокеры биржи, т.е. ты можешь торговать только со своего айпишника, больше ни с какого другого, тебя больше просто никто и не пустит. И какие-то брокеры вообще не разрешают со своих виртуальных серверов VPS ходить даже в интернет, у тебя даже исходящего трафика никакого не будет. То есть у тебя будет очень жестко привязан коннект, никто кроме тебя туда не зайдет, соответственно, только ты сможешь решать там свои задачи. Это, конечно, несет и некоторые минусы, потому что, если у тебя вдруг что-то случается с твоей локальной машиной и с этим айпишником, то все, у тебя нет торговли. И опять же тебе нужно будет использовать сторонние решения, того же QUIK, TRANSAQ, чтобы снять заявки и снять концы с коннекта или что-то выставить новое, но это жесткое ограничение, которое позволяет контролировать твою валидацию, что торгуешь только ты, что это твои деньги.



Вадим Закройщиков (Модератор): — То есть с сотового телефона, находясь где-то там в Тайланде, я не смогу контролировать своего робота?

Сергей Слукин: — Нет, если ты хочешь виртуалку на колокации, точно нет.



Лада Кобкина: — А если хочешь обычную виртуалку, то можешь. С алгоритмом. Но то, что сказал про дата-центр Сережа, он прав, у нас БКС тоже это заход с определенных айпи адресов, определенных портов, нет там интернета, т.е. это жестко все контролируется, по факту, клиент должен был сам что-то накосячить и у него что-то там сбойнул алгоритм, т.е. максимально мы его защищаем. Что касается обычных виртуалок, о которых мы говорили, у нас есть там алгоритмы, определенные боты, там роботы стоят, соответственно, по ним. Но как правило так стоит квик терминал, соответственно у Arco Technologies есть два решения, это и двухфакторная авторизация, т.е. при заходе в QUIK, у вас есть там дополнительный смс пароль разовый, который приходит вам на мобильный, и второе – это смс оповещение обо всех ваших заявках, сделках, это, пожалуйста, можете настроить, это Arco Technologies дает. Там сервер стоит копейки, вы платите за смски, буквально 50 коп. одна смска, это не те деньги, которые клиента будут интересовать.



Юрий Савицкий: — Идеальное облачное решение, т.е. у тебя на бирже стоит какое-то облачное решение, твой большой сервере, на котором живет облако. Ты с утра включаешь свою удаленную машину, которая где-то прячется в Гонконге, либо на Кипре. Она заходит на твою виртуальную машину, которая находится на бирже, запускает виртуальную сущность, которая живет только в процессоре, не оставляет следов на жестком диске, ни где-то еще и в случае даже отключения питания, у тебя вся информация теряется и ты ни чего, в принципе, уже можешь не опасаться, даже если тебе вот сервис биржи, все равно на нем ничего нет, кроме инфраструктуры, за которую хорошо платить и самому не разрабатывать, которую можно сделать и это все организовать, поэтому тут нет риска ничего, даже если ты поставил железку к брокеру и там есть твое ПО, т.е. теоретически брокер может забрать твое железо, открыть его, достать оттуда все что угодно, в том числе твой код и их забрать. А если ты живешь такими способами через облачные технологии и у тебя твой робот живет только в процессоре и ничего больше нигде не использует, это хорошо, ты обезопаен от всего, что только можно, но он выключает питалово, вытаскивая мою железку, там ничего нет, ну найдешь ты, как я исполняю заявки и все, а алгоритм у меня в голове и на другой машине, которая живет в совсем другом мире.



Лада Кобкина: — Юра, забыла сказать, мы еще и сотрудников наших ограничиваем доступ к этим виртуалкам, т.е. сказать, что любой сотрудник брокера залез к тебе на виртуалку и что-то там тебе нахимичил, извини, такого тоже не будет.



Юрий Савицкий: — Ладно, сотрудники биржи? Сотрудники технической поддержки биржи, технической поддержки брокера? Почему нет, открыл отверткой, достал жесткий диск, пошел его разобрал. В чем проблема? Я не вижу проблемы. Просто мы говорим, что брокер честный, биржа честная, ну да, но это вопрос.



Никита Цаплин: — Я хотел бы сказать, действительно, если уж на то пошло, у администратора счета брокера тоже есть доступ к счету и как бы это не меньший операционный риск, чем технический специалист провайдера. По сути, и там, и там операционные риски, поэтому говорить о каких-то дополнительных технических рисках в случае применения облачных технологий нельзя, потому что их нет просто, наоборот, как Юрий сказал, можно обезопасить себя, таким вот хитрым способом, и невозможно будет ничего даже вычислить.



Константин Ивайловский: — Я могу добавить, что конфиденциальность штука дорогая, и нужно просто понимать, когда ее использовать. Она нужна, она дорогая и нужно понимать, когда нужны сотрудники, которые точно туда не залезут, когда нужно покупать сервера и когда нужно ставить бункер, чтоб туда никто не вошел. Если это частные клиенты с небольшими капиталами, то это им все не нужно. Вот мы используем решение от компании RUVDS, в общем-то, там все секьюрно, там все достаточно, наши клиенты они только довольны этим решением. В общем там поддержка, бэкапирование, качество вычислительных мощностей, качество телекоммуникационных каналов, оно достаточно хорошее, и для несрочной торговли, а для совершения таких интрадневных или среднесрочных операций, это более чем достаточно за очень приемлемые деньги, конфиденциальность, она вся сохраняется.



Вадим Закройщиков (Модератор): — Супер! Это очень радует, что деньги не пропадут, и я хотел бы перейти к следующему, наиболее, с моей точки зрения, интересному вопросу, как для биржи, так и для профессионального сообщества. Вот применение таких технологий, как вы думаете, будет способствовать увеличению клиентской базы или это просто некий дополнительный сервис, который может пригодиться вашим клиентам? Юра Маслов, могу я с тебя начать?



Лада Кобкина: — Давайте я пока скажу, пока Юра переваривает вопрос. На самом деле будет, спасибо Московской бирже. Я говорила на первой секции, здесь, может, некоторых нет, кто присутствовал на первой секции, т.е. у нас Московская биржа с ноября планирует ограничить доступ к плазе 2 через интернет. Соответственно, мы ожидаем, что наша виртуалка, размещенная на дата-центре, будет пользоваться особым спросом, как альтернатива VPN, не покупайте VPN у биржи, возьмите у нас виртуалку в зоне колокации, разместите оборудование там.



Вадим Закройщиков (Модератор): — Замечательное конкурентное предложение.



Лада Кобкина: — А учитывая то, что у нас всего два брокера на рынке, мы ждем массовый спрос, у кого это есть.



Вадим Закройщиков (Модератор): — Супер! Юр?



Юрий Маслов: — Здесь для меня, скорее всего, речь идет о расширении типов сервисов, которые будут доступны клиентам, и для меня это позволит покрывать, как сказать, Лада сейчас говорила о горизонтальных покрытиях — больше клиентов, а я говорю о вертикальных – больше типов клиентов. С этой стороны я смотрю.



Вадим Закройщиков (Модератор): — То есть ты не ждешь прихода вчерашних выпускников, ВМиК, физтеха, которые не хотят много платить на начальном уровне за свою облачную инфраструктуру?



Юрий Маслов: — Нет, я постоянно его жду. Просто кроме выпускников физтеха, есть еще и другие клиентские группы, которые тоже хочу ждать.



Вадим Закройщиков (Модератор): — Сергей? Ты как можешь прокомментировать, будет это способствовать взрывному росту алготренинга в России?



Сергей Слукин: — Честно говоря, вопрос сложный, потому что, в любом случае, для брокера основной бизнес- это бизнес от именно брокерки. Естественно, что брокер на этом не зарабатывает, это во-первых. А, во-вторых, как сопутствующая услуга, да. Это может быть полезно, как сказали, Юра, Лада, как-то кастомизировать сервисы для клиентов, т.е. не просто открывать ему счет и давать ему QUIK, TRANSAQ, а давать ему какую-то инфраструктуру, которая позволит ему лучше реализовывать свои алгоритмы, и это позволит брокеру быть чуть более конкурентным в линейке и заинтересовывать чуть большее количество клиентов. Но сказать, что клиент не пойдет торговать на рынок только потому, что нет такого сервиса, это нельзя, это не является определяющим фактором. Скорее, это такая приятная плюшка, которая помогает клиенту торговать правильно.



Вадим Закройщиков (Модератор): — Юрий, у вас отличается как-то точка зрения?



Юрий Савицкий: — Да, моя точка зрения интереснее. Смотрите, что предлагает Лада. Лада предлагает нам – давайте, когда биржа ставит нам ограничения, что вы не можете торговать не из сети биржи, то вы должны платить либо за коллокацию внутри, либо купить виртуальную машину у Лады. Ну, да, нормальное решение, все интересно. Но я предлагаю, у нас на каждом сервере, например, который дается виртуально, который работает на бирже, ну клиентов, например, 20 живет вот на этой железяке. Каждые 20 клиентов это новая железяка. Ну да, хорошее решение Лады, мне нравится. Мы с Серегой подумываем дальше, мы возьмем на две головы подумаем и решим, ну раз Лада дает виртуальные машины, а давайте-ка мы возьмем большую машину и большой трейд-канал и проковыряем дырку на биржу. Вот реально, мы на пробросим наших клиентов через биржу, и они смогут торговать дома у себя, так же, как они торговали до того момента, когда биржа ввела ограничения. Красиво-красиво. У Лады 20 клиентов, у нас 100 тыс., ну посмотрим, у кого будет круче.



Вадим Закройщиков (Модератор): — Супер! Сейчас, секундочку, вот Никита скажет.



Никита Цаплин: — На самом деле, Юрий, мы уже работаем над перемычкой на Data Space, поэтому тут не так…



Юрий Савицкий: — Даже больше, Вы, видите, уже готово у Никиты все, поэтому только берем, главное, чтобы об этом Лада не узнала. Я думаю, что память девичья, забудет. А так, все уже готовы, Никит, мы у тебя покупаем.



Вадим Закройщиков (Модератор): — Константин?



Лада Кобкина: — Юра, тебя еще на видео снимают.



Константин Ивайловский: — Я подумал о том, что сейчас обсуждали частный такой вопрос, конкретный, то что там на бирже происходит у брокеров, но в конечном итоге, нужно понимать, что есть какие-то общие глобальные тренды, которые происходят даже просто у людей. Количество процессоров, которые обслуживают людей, они просто растут. У меня 7 процессоров обслуживают меня, два года назад их было в два раза меньше. У каждого есть телефон это процессор, ноутбук – процессор, планшет – процессор и т.д. Все они подключены к сети интернет. Сеть интернет, так или иначе, она не сама по себе. Там есть определенные вычислительные центры, которые этим занимаются. То же самое происходит и в торговле. Я думаю, что будет программное обеспечение, когда я написал робота, просто нажал кнопку опубликовать и сразу произошел где-то паркинг. Это будут такие облачные технологии, в любом случае, их будут предоставлять и брокеры, и все. Но это вопрос будущего. Вопрос-то он, мне кажется, состоял в том тренде, который происходит на текущий момент. Безусловно, этот тренд есть. Он не скорый и дело в том, что он всячески ограничивается нами, людьми, законодательно, т.е. нужно прописать определенный IP адрес, с которого мы это принимаем, обязательно юридически это все нужно ограничить, ограничить с точки зрения безопасности. И пока эти тормозящие процессы подтянутся, к тому времени, может быть, и будут развиты, будут решены эти вопросы с техническими паркингами, с техническими кластерами, которые можно будет везде размещать, ну просто очевидно, это тренд.



Вадим Закройщиков (Модератор): — Понятно. Лада, Вы?



Лада Кобкина: — Меня тут упрекнули, что я конкретную ситуацию обсудила, давайте тогда общий тренд обсудим. Вот поддерживаю идею Кости, да, общий тренд есть, но вы и так это видите. Сбербанк переходит на облачные технологии, это открыто, заявлено во всех СМИ. Народ сейчас, в свете нашего курса доллара и т.д., задумался о кастомизации своих расходов, соответственно, облачная технология у нас сейчас самая популярная, что у нас только есть, и это будет дальше развиваться и т.д.



Вадим Закройщиков (Модератор): — У меня небольшое предложение, просто один из наших спикеров скоро вынужден нас покинуть, к сожалению. Это Юра Маслов из Ай Ти Инвеста. Я хотел бы у зала спросить, может быть у вас есть какие-то есть текущие вопросы, которые вы прямо сейчас хотите узнать у Юры прежде, чем он уйдет?



Юрий Савицкий: — Вот у нас есть несколько брокеров, которые плотно сотрудничают, например, мы периодически пытаемся сотрудничать с Сергеем из Финама, а будет ли сотрудничать с нами Юра?



Вадим Закройщиков (Модератор): — Хороший вопрос.



Юрий Савицкий: — И на каких условиях? И в каких направлениях? Это записывается.







Юрий Маслов, управляющий директор, член правления, «ИК «Ай Ти Инвест»:



— Это интересный вопрос, поэтому приходи, обсудим. Ладно, коллеги, спасибо за внимание. К сожалению, действительно, вынужден вас покинуть. В любом случае, мои контакты есть у организаторов, если какие-то вопросы, всегда можно обратиться.



Вадим Закройщиков (Модератор): — Спасибо, Юр. У меня еще осталось несколько интересных вопросов. Мы начали все говорить о том, какие у нас перспективы открываются с применением этих технологий и даже некоторые докладчики были очень оптимистичны, что раз Сбербанк это использует, то за этим будущее. Вот я хотел у оставшихся уважаемых спикеров узнать, вот Никита, ты как думаешь, большое ли будущее у виртуализации в плане именно биржевой торговли, как это будет развиваться?



Никита Цаплин: — Я, на самом деле, эту тему раскрывал уже в ходе первой сессии. Наверное, те, кто были, они…придется повториться, но, так или иначе, этот процесс, он неизбежен, перехода в облачные технологии. Это стандартный экономический процесс, в плане того, что там, можно его сравнить с какой-нибудь средневековой экономикой, т.е. в начале каждое хозяйство имело свою пекарню, а сейчас мы редко кто задумываемся об этом. То же самое относительно традиционной IT-структуры, т.е. все уже понимают, что иметь собственную структуру, если это даже понимает, вот ты говоришь, Сбербанк, на самом деле, JP Morgan в марте объявил о том, что они переходят в Amazon Public Cloud, это крупнейший американский мировой инвестиционный банк, ну и ряд громких проектов было запущено, в частности, Deutsche Boerse, немецкая биржа, запустила проект Deutsche Boerse Cloud Exchange, это отдельная секция биржи, где различные провайдеры Еврозоны торгуют своими вычислительными мощностями, т.е. все это демонстрирует то, что переход в облако очевиден тренд. Мы обсудили уже в ходе предыдущих дискуссий, какие там есть проблемы, препятствия. Они все устранимы, пройдет какое-то время и это будет само собой, так же как и мобильная связь. И никто не будет думать о том, что мобильная…мы говорим, кто-то может там прослушать, это станет просто обычной сферой нашей жизни, оно уже по сути проникает.



Вадим Закройщиков (Модератор): — Если уж в сериале Физрук, сюжет строится вокруг облака, то, что уж говорить о том, что это прочно вошло в нашу жизнь. Юрий, есть у тебя, что добавить по поводу перспектив?



Юрий Савицкий: — Мне не нравятся облачные технологии, мне не нравится Большой брат, который ставит у меня на ноутбук Windows 10. Вот честно, не нравится мне это, но с этим приходится жить. Кстати, надо подумать над той идеей, что была, какое-то облачное решение, чтобы меня никто не знал. Я не хочу, чтобы по моим тем клавишам определяли, кто я такой, и следили по всему миру, где я нахожусь. Я вообще хочу жить в деревне, чтобы меня никто не видел и лучше не слышал, и не записывал на видеокамеру, а не получается, пока. Надеюсь, что облачные технологии мне это позволят сделать, при этом не рассказывая, кто я такой.



Вадим Закройщиков (Модератор): — Супер! Никит, ты что-то хотел сказать?



Никита Цаплин: — Хотел сказать, что мы как раз обсуждали концепцию такого анонимного хостинга, но на самом деле, все упирается в том, что на подобных проектах клиент не получит качества услуг высокое, потому что понятно, что контингент, собравшихся там людей, будет такой, что там будут регулярно совершаться DDOS атаки друг на друга и в итоге, работа сервиса будет не стабильная. Здесь есть оборотная сторона. Мы стремимся создать продукт по правилам, где есть какие-то понятные регулировки, а когда, если создать это анонимно, то это привлечет различные, можно так сказать, кибер-криминальные элементы и о стабильности работы можно забыть на самом деле. И еще хуже будет.



Константин Ивайловский: — Я хотел добавить просто фразу – «мама, я в облаках, на небесах», у банка больше нет отделений. Естественно, к этому все придет. Я так понимаю, что у нас пока такого рода, как Амазон, нет решений в России. Но Россети вместе с Parallels, вместе с Ростелекомом видимо готовят такое решение, интересно будет и, в принципе, они тоже готовят с некоторым будущим, чтобы, в том числе, государственные документы и, возможно базы, можно было там использовать. Безусловно, это все будет ограничиваться средствами крепкой защиты, для того, чтобы обеспечить достаточный уровень безопасности и конфиденциальности. Ну, очевидно, тренд.



Вадим Закройщиков (Модератор): — Сергей, какое у тебя мнение? Будущее за облаками?



Сергей Слукин: — С точки зрения биржевой торговли, мы всегда будем использовать и то, и другое, это понятно. Потому что мы, как ритейловый брокер, всегда будем предлагать одним клиентам попробовать разные сервисы. Естественно, если клиент хочет торговать хфт, то он должен понимать, что у него должен быть свой сервак, у него должна быть своя инфраструктура, и он должен за ней следить сам. Если что-то упало, то, собственно, виноват он. Но, в любом случае, если клиент хочет попробовать, то облака это помощь. Не скажу, что для брокера это будет основным прототипом инфраструктуры, но как часть сервиса, это круто, т.е. мы будем это использовать.



Вадим Закройщиков (Модератор): — Лада, у Вас есть может какие-то новые дополнения?



Лада Кобкина: — Могу только сказать, Юра говорит, что ему не нравится. Юра, затраты, которые выросли в два раза из-за курса доллара тебе нравятся? На инфраструктуру твою, обновление серверов?



Юрий Савицкий: — Ну да, я их оплачу разово. Однако, я все время зайдя, наберя что-то в Яндексе, ищу, например, ищу новые плавки, я все время вижу рекламу плавок на любом ресурсе, даже который торгует биржевыми котировками. Интересно мне… Я не хочу, чтобы я об этом знал, и чтоб кто-то об этом показывал, на мой взгляд, тут должно быть немножко колуарней, чем сейчас это делается. Все копают биг дату, ну да, я набираю три клавиши, сначала, потом две потом, ну и зачем мне анализировать? А потом мне продают какие-то услуги, которые я покупал 10 лет назад, т.е. у нас есть даже история, что на совете директоров мы сидели, и у нашей компании есть свой сайт и потом все интересовались, почему на всех страницах мы видим рекламу нашего сайта. Да, мы туда заходили, но зачем мне об этом знать, я уже сотрудник его, клиент, без разницы.



Вадим Закройщиков (Модератор): — В принципе, у меня закончились вопросы к спикерам. И я хотел бы, чтобы уважаемый зал тоже воспользовался случаем и задал вопросы про облачные технологии ведущим представителям индустрии. Есть ли какие-то идеи?







Алексей Зиновьев, «Солнечные продукты»:



— Почему Вы все-таки решили прийти в облако к провайдеру, у Вас же вроде своя инфраструктура планировалась в Новосибирске, насколько я помню?



Лада Кобкина: — Она не планировалась, она есть, своя инфраструктура в Новосибирске.



Алексей Зиновьев: — И что с ней?



Лада Кобкина: — Работает, все хорошо.



Алексей Зиновьев: — То есть у Вас параллельно, и частное облако и…



Лада Кобкина: — Да. Я просто, может, в продолжение того, что у нас была дискуссия, то, что Сережа сказал. Я, может, подчеркну. К сожалению, у нас сейчас не все можно перенести в облако. Мы, Юра начал эту тему задавать, Вы это, может быть, пропустил модератор. Мы хотели вернуться про списки клиентов. Брокер не может передать списки клиентов туда, на облако. Но есть определенные дополнительные параметры со стороны брокера, которые мы не можем отдать в облачные технологии. Соответственно, мы используем частные технологии, мы сотрудничаем с RUVDS для клиентов, но дополнительно у нас есть альтернативное решение. Клиент сам решает, что ему выбирать.



Вадим Закройщиков (Модератор): — Еще какие-то вопросы? Вопросов нет… Тогда я хотел бы поблагодарить наших уважаемых спикеров. Мне кажется, тема очень-очень интересная, но судя по тому, что на Западе все это развивается уже на протяжении 5 лет, достаточно активно и, допустим, те же Trading Technologies предлагают IT-сервисы, просто их на ура выхватывают их новые клиенты. Я тоже думаю, что будущее за облаками. Всем спасибо! И успехов!








Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/305950/

Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Открытие API для работы с услугами от российского лоукост-хостера (часть 1)

Пятница, 15 Июля 2016 г. 12:17 (ссылка)

После продолжительной паузы мы собрались с мыслями и решили подготовить небольшой цикл статей, которые будут полезны как разработчикам, так и обычным нашим клиентам, кому потребуется заказывать больше одной услуги за один раз.







Предпосылки к этой публикации появились достаточно давно. Один из клиентов с большим количеством виртуальных серверов поинтересовался о том, есть ли возможность работать с API нашего биллинга. В то время, честно говоря, мы были не готовы к такому диалогу и не смогли предложить готовое решение.

С начала лета мы получили еще несколько подобных вопросов и поняли, что нельзя оставлять их без ответов. И сегодня я расскажу как работать с API биллинга нашей компании для заказа виртуальных серверов любого количества.





В качестве биллинговой системы мы используем продукт российской компании ИСПсистем — BILLmanager4. Для всех продуктов ИСПсистем есть открытое API и оно описано в большей или меньшей степени на их официальном сайте документации ispdoc.com

Работать с API можно как из командной строки, обращаясь непосредственно к интерпретатору mgrctl, так и через адресную строку браузера (или любое другое приложение, которое будет отправлять запрос на веб-сервер: curl, wget и т.п)

Исходя из документации можно составить запрос к любому из продуктов, НО при работе с биллингом требуется некоторое количество информации, которая доступна только со стороны хостинг-провайдера.



Сам запрос для заказа виртуального сервера, к примеру, KVM Ferrum на один месяц с автоматическим помесячным продлением, шаблоном ОС Centos-6.7-x86_64-minimal без использования лицензии ISPmanager, будет выглядеть так:



https://billing.ihor.ru/billmgr?authinfo=:&addon_1101=20&addon_1103=1&addon_1104=1&addon_1110=1&addon_1791=4&enum_1112=21&enum_1106=25&agree=on&domain=test-for.habr&ostempl= Centos-6.7-x86_64-minimal&period=1210&price=1100&autoprolong=1210&payfrom=neworder&func=vds.order.7&sok=ok




Теперь попробуем расшифровать все это нагромождение переменных и цифр.

Сам запрос можно разделить условно на две части: это URL биллинга и передаваемые параметры запроса биллингу.

Сами параметры можно распределить следующим образом:



Описание параметров




  • Авторизация — authinfo



В качестве данных авторизации указывается логин и пароль пользователя, зарегистрированного в биллинге.




  • Тарифный план — price



Каждому тарифному плану соответствует свой идентфикатор в биллинге, берется из таблицы «Тарифные планы».




  • Параметры тарифного плана – addon_



К параметрами тарифного плана относятся параметры виртуального сервера, его ресурсы. Каждый параметр тарифного плана имеет свой идентификатор и свое значение по умолчанию, которое соответствует размеру диска, количеству ядер процессора и оперативной памяти, а так же IPv6- и IPv4-адресам.




  • Дополнительные услуги – enum_



В дополнительные услуги входят DNS-серверы и использование лицензии ISPmananger.





(параметры по умолчанию для KVM Ferrum)




  • Период заказа — period

  • Автопродление – autoprolong



Идентификатор периода заказа и автопродления для каждой из услуг абсолютно одинаковы.




  • Доменное имя сервера – domain



Доменное имя должно быть уникальным. Иначе появится ошибка

Ошибка: The domain is already in use. Specify a different domain name.

При массовом добавлении виртуальных серверов, рекомендую использовать формат +<порядковый номер>.




  • Шаблон ОС – ostempl



Неполный список шаблонов приведен в этом тексте чуть ниже. Обращаю внимание, что при заказе шаблона ОС без ISPmanager, в установке значения дополнительных услуг следует отключить использование панели управления ISPmanager (для всех тарифных планов этот идентификатор одинаков — 25)




  • Параметры оплаты – payfrom



В примере я привел значение параметра оплаты — neworder, что соответствует отдельному заказу с оплатой для каждого сервера. payfrom=neworder.




  • Оплата заказа – func



Так как весь заказ виртуального сервера состоит из 7 шагов, то в API, что не особо очевидно на первый взгляд, следует указывать не только саму функцию vds.order, но и номер последнего шага — 7. Таким образом полное значение этого пункта выглядит так: func=vds.order.7




  • Подтверждение пользовательского соглашения – agree



При заказе любой из услуг мы предлагаем ознакомиться с пользовательским соглашением и принять его (тогда заказ уходит на активацию) или не принять его (тогда заказ отменяется). В API этот пункт так же обязателен: agree=on.





Часть параметров фиксирована и я привел их значения при описании, а значения других можно взять из таблицы, которая целиком приведена на странице сайта со справочной информацией по работе с хостингом.



Чтобы не загромождать текст большими таблицами со всеми тарифными планами, я приведу только ту часть, которая поможет разобраться, как была составлена строка для заказа виртуального сервера с тарифным планом KVM Ferrum. А так же два других младших тарифных плана SSD и OVZ



Тарифные планы








































price period / autoprolong
Тариф ID 1 мес. 3 мес. 6 мес. 1 год
KVM Ferrum 1100 1210 1213 1214 1211
SSD Ferrum 1033 1180 1183 1184 1181
OVZ Ferrum 2061 1758 1761 1762 1759




Параметры тарифного плана

















































addon_ enum_
Тариф / Значение Диск ОЗУ CPU IPv4 IPv6 NS ISPmgr
KVM Ferrum 1101

/ 20

1103

/ 1

1104

/ 1

1110

/ 1

1791

/ 4

1112

/ 21

1106

/ (1/25)

SSD Ferrum 1034

/ 20

1037

/ 1

1043

/ 1

1036

/ 1

1404

/ 4

1045

/ 21

1039

/ (1/25)

OVZ Ferrum 2062

/ 20

2065

/ 1

2071

/ 1

2064

/ 1

2074

/ 4

2073

/ 21

2067

/ (1/25)



Список шаблонов




  • FreeBSD-11-amd64-minimal

  • Centos-6.7-x86_64-minimal

  • Debian-7-x86_64-minimal

  • Debian-8-x86_64-ispconfig

  • Ubuntu-16.04-x86_64-minimal

  • CentOS-7-x86_64-ispmgr5



Если запрос составлен корректно и заявка на активацию новой услуги принята, Вы получите в ответ что-то типа этого:








Ниже в качестве бонуса прикладываю несколько скриптов для заказа произвольного количества виртуальных серверов для консоли Linux и Windows.

Если в комментариях будет проявлен интерес к развитию темы работы с API нашего биллинга, мы постараемся описать ее более подробно, с использованием различных языков программирования и программных продуктов для интеграции.



Пример на BASH

#/bin/bash
#
# Данные для авторизации
USER=user
PASS=password

# Заказать 10 виртуальных серверов
for i in {1..10}
do
/usr/bin/curl https://billing.ihor.ru/billmgr?authinfo=$USER:$PASS&addon_1101=20&addon_1103=1&addon_1104=1&addon_1110=1&addon_1791=4&enum_1112=21&enum_1106=25&agree=on&domain=$USER-$i.ru&ostempl= Centos-6.7-x86_64-minimal&period=1210&price=1100&autoprolong=1210&payfrom=neworder&func=vds.order.7&sok=ok"
done




К сожалению, не удалось придумать никакого приличного варианта, кроме как продублировать предыдущий цикл с использованием curl, собранного для работы в Windows. Но если из числа читателей есть искушенные в скриптописательстве/программировании под Windows, то прошу поделиться более рациональными сценариями в комментариях.



Пример на PowerShell, файл curl.exe должен находиться в той же директории, откуда выполняется скрипт



USER=user
PASS=password

for ($i=1; $i -lt 10; $i++) {
.\curl.exe https://billing.ihor.ru/billmgr?authinfo=$USER:$PASS&addon_1101=20&addon_1103=1&addon_1104=1&addon_1110=1&addon_1791=4&enum_1112=21&enum_1106=25&agree=on&domain=$USER-$i.ru&ostempl= Centos-6.7-x86_64-minimal&period=1210&price=1100&autoprolong=1210&payfrom=neworder&func=vds.order.7&sok=ok"
}

Original source: habrahabr.ru.

https://habrahabr.ru/post/305716/?utm_source=habrahabr&utm_medium=rss&utm_campaign=best

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Как подключиться к серверу по RDP c Windows, Mac OS, iPhone, iPad, Android, Ubuntu или Debian (Linux ОС)

Четверг, 14 Июля 2016 г. 15:35 (ссылка)

Все сервера, создаваемые Windows сервера на UltraVDS по умолчанию сразу доступны для подключения по стандартному протоколу RDP (Remote Desktop Protocol) – обычное «Подключение к удалённому рабочему столу» в русскоязычных редакциях Windows.



В данной статье будет описано как подключиться к только что созданному виртуальному серверу на UltraVDS с различных устройств (операционных систем). Если вам требуется какой-либо другой способ подключения (RAdmin, TeamViewer и т.д.) после успешного подключения по RDP, вы сможете его настроить так же, как и любое другое программное обеспечение.



Статья довольно длинная ввиду того, что здесь подробно по шагам расписано как подключаться из каждой наиболее популярной системы, поэтому вынесли вверх горячие ссылки для навигации:







Подключение к виртуальному серверу с десктопной версии Windows (версии XP, 7, 8, 8.1, 10)



При использовании стандартной операционной системы Windows для подключения к серверу необходимо открыть следующий путь:

Пуск -> Программы -> Стандартные -> Подключение к удалённому рабочему столу
Либо просто нажмите комбинацию клавиш Win+R и в открывшемся окне наберите mstsc







В открывшемся окне необходимо указать IP-адрес созданного для вас VDS сервера. Если вы заказали сервер с несколькими IP-адресами, то можете использовать любой из них для подключения.

IP-адрес вашего сервера указан возле вашего сервера в личном кабинете в разделе «Мои сервера».







После ввода IP-адреса сервера нажмите кнопку «Подключить» и вы увидите окно с полями авторизации. Здесь нужно выходить под новым пользователем:







При создании каждого нового сервера система в автоматическом режиме генерирует случайный пароль пользователя Administrator. Этот пароль отображается также в личном кабинете возле вашего сервера:







В некоторых редакциях Windows есть странность: если пароль от сервера скопировать и вставить в поле авторизации перед подключением, то при попытке подключения ничего не произойдёт, и RDP-клиент снова покажет окно авторизации как будто учётные данные были введены некорректно. В таком случае необходимо ввести пароль вручную (большие буквы большими, маленькие – маленькими, в английской раскладке клавиатуры).



Подключение к удалённому рабочему столу – очень удобная вещь, с её помощью можно переносить файлы с компьютера на сервер и обратно просто копируя и вставляя их, тоже самое с текстом в буфере обмена. Также можно с вашего компьютера, передать на сервер любые включенные в него USB-устройства и сетевые принтеры/сканнеры. Для этого при первом подключении к серверу выберите «Показать параметры» в левом нижнем углу.







В открывшемся окне перейдите на вкладку «Локальные ресурсы» и выберите требуемые вам параметры:







При подключении к серверу вы можете увидеть информацию о недоверенном сертификате безопасности. Причина этого заключается в том, что сервер шифрует передаваемые данные SSL-сертификатом, который он сгенерировал сам в автоматическом режиме. Данное уведомление не является свидетельством о проблеме с безопасностью, а только предупреждает вас о том, что соединение зашифровано с использованием сертификата, который не был выдан авторизованным центром.







Отметьте здесь галочкой поле «Больше не выводить запрос о подключениях к этому компьютеру» и нажмите «Да».








Подключение к VDS серверу с Mac OS



Для Mac OS компания Microsoft выпускает официальный RDP-клиент, который стабильно работает при подключении к любым версиям ОС Windows.

Скачать его можно с iTunes здесь: https://itunes.apple.com/gb/app/id715768417



Интерфейс программы простой и интуитивно понятный. Перед началом работы необходимо настроить параметры подключения. Для этого создаём новое:





В окне настроек соединения указываем произвольное название, например, «Сервер на UltraVDS», IP-адрес созданного сервера и данные для авторизации (логин Administrator и назначенный серверу в автоматическом режиме пароль) – эти данные отображаются в вашем личном кабинете.



После выхода из окна настроек всё сохранится автоматически и в списке подключений вы увидите новое созданное:







Кликните на него дважды мышкой, и вы подключитесь к вашему серверу.

При подключении к серверу вы можете увидеть информацию о недоверенном сертификате безопасности. Почему возникает такое уведомление и что оно означает этого описано выше.











Добавив самоподписанный сертификат вашего сервера в доверенные или просто приняв его единожды, вы увидите рабочий стол Windows вашего виртуального сервера.












Подключение к VPS серверу со смартфона или планшета на iOS (с iPhone или iPad)



Перед подключением к серверу необходимо скачать с Apple Store приложение Microsoft Remote Desktop (это официальный RDP-клиент от Microsoft):

https://itunes.apple.com/ru/app/id714464092







Запустите приложение после установки и нажмите на добавление нового подключения:







В окне создания нового подключения необходимо указать IP-адрес вашего виртуального сервера и данные для авторизации, которые отображаются в вашем личном кабинете (подробнее о том, где они указано выше).







При подключении к серверу вы можете увидеть информацию о недоверенном сертификате безопасности. Причина этого описана выше.

Выберите «Больше не спрашивать для этого ПК» и нажмите «Принять».





Если авторизационные данные и IP-адрес сервера были введены без ошибок, вы успешно подключитесь к вашему серверу.












Подключение к виртуальному серверу со смартфона или планшета на Android



Прежде всего вам необходимо скачать с Google Play и установить программу Microsoft Remote Desktop (это официальный RDP-клиент от Microsoft):

https://play.google.com/store/apps/details?id=com.microsoft.rdc.android&hl=ru







Запустите приложение после установки и нажмите на добавление нового подключения







В окне создания нового подключения необходимо указать IP-адрес созданного VDS сервера и данные для авторизации (где их взять описано чуть выше).







При подключении к серверу вы можете увидеть информацию о недоверенном сертификате безопасности. Причина этого описана выше.

Выберите галочкой «Don’t ask me again for connections to this computer» и нажмите «Connect».







Если авторизационные данные и IP-адрес сервера были введены без ошибок, вы успешно подключитесь к вашему серверу.












Подключение к серверу по RDP из Ubuntu



RDP – это закрытый протокол компании Microsoft, она же в свою очередь не выпускает RDP-клиентов для операционных систем семейства Linux.

Однако всё же есть различные рабочие версии от тех или иных производителей.

Мы рекомендуем использовать клиент Remmina



Для пользователей Ubuntu есть специальный репозиторий с различными пакетами приложение, в числе которых есть Remmina и RDP.

Установка производится в 3 простые команды, которые вводятся по очереди в Терминале:



Для установки пакета Remmina
sudo apt-add-repository ppa:remmina-ppa-team/remmina-next


Устанавливаем обновления
sudo apt-get update


Устанавливаем плагин протокола RDP
sudo apt-get install remmina remmina-plugin-rdp libfreerdp-plugins-standard


Если вы до этого уже устанавливали или запускали существующую версию Remmina, то её необходимо перезапустить. Сделать это можно перехагружкой компьютера, либо выполнением следующей команды в том же терминале:

sudo killall remmina
Если процесс запущен не был, то появится сообщение об ошибке: процесс не найден, что тоже нас устраивает.



Открываем меню поиска и находим там свежеустановленный пакет Remmina







Нажимаем на добавление нового подключения и заполняем поля данными для подключения и авторизации к вашему серверу (где находятся данные для подключения к именно вашему серверу описано выше):







После сохранения ваш сервер будет всегда доступен в списке подключений для быстрого доступа. Для подключения к нему дважды кликните мышкой по строчке вашего сервера.







При первом подключении к серверу вы можете увидеть информацию о недоверенном сертификате безопасности. Причина этого описана выше. Просто нажмите «ОК» и вы увидите рабочий стол вашего сервера.
















Подключение к удаленному рабочему столу (RDP) из Debian



RDP (подключение к удалённому рабочему столу) – это закрытый протокол компании Microsoft, они же в свою очередь не выпускает RDP-клиентов для операционных систем семейства Linux.

Но всё же есть различные рабочие версии от тех или иных компаний-разработчиков.

Мы рекомендуем использовать RDP-клиент Remmina



Для установки приложения Remmina и плагина RDP к нему необходимо открыть менеджер установки пакетов:







Здесь в строке поиска вводим «Remmina» и выделяем все результаты для установки:







Установка занимает буквально 3-4 секунды, после чего сразу можно пользоваться приложением.

Находим его в главном меню и запускаем:







Перед началом работы необходимо создать новое подключения для удобства в дальнейшем:







В открывшемся окне необходимо задать корректные параметры RDP подключения и данные для авторизации (указаны в личном кабинете UltraVDS):







После сохранения ваш сервер будет всегда доступен в списке подключений для быстрого доступа. Для подключения к нему просто дважды кликните мышкой по строчке вашего сервера.







При первом подключении к серверу вы можете увидеть информацию о недоверенном сертификате безопасности. Причина этого описана чуть выше. Просто нажмите «ОК» или «Принять» и вы увидите рабочий стол вашего сервера.












Что делать если при попытке подключения с ОС семейства Linux сразу возникает ошибка?



По умолчанию на всех создаваемых на UltraVDS серверах разрешено только подключение по RDP с компьютеров (клиентов), на которых работает проверка подлинности на уровне сети. Некоторые RDP клиенты под Linux эту проверку подлинности могут не поддерживать. В таком случае перед подключением к серверу по RDP необходимо это требование отменить на самом VDS сервере.



На UltraVDS реализована возможность аварийного доступа к серверу в случае если вы не можете к нему подключиться, именно ею мы и воспользуемся для отключения требования обязательной проверки подлинности. Для открытия аварийного режима зайдите в ваш личный кабинет на страницу «Мои сервера» и кликните на скриншот требуемого сервера







В открывшемся окне необходимо активировать возможность авторизации пользователя. Это делается нажатием комбинации клавиш Ctr+Alt+Del, но так как такая комбинация через web передана быть не может, специальная кнопка была вынесена на верхнюю панель окна:







Далее вводим пароль администратора и нажимаем Enter:







Вы увидите стандартный рабочий стол Windows. Здесь нажмите кнопку «Пуск» (Start), найдите там «Мой компьютер» (This PC) и кликните на него правой кнопкой мыши:







Выберите в меню пункт «Свойства» (Properties) для открытия окна информации о системе







В меню слева необходимо найти кнопку управления параметрами удалённого рабочего стола (Remote settings).







Последним шагом снимаем флажок с параметра «Allow connections only from…» и нажимаем «ОК».
Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/305672/

Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Жертва ли Яровой? Первый провайдер покинул Россию

Среда, 13 Июля 2016 г. 20:16 (ссылка)





VPN-провайдер Private Internet Access (PIA) объявил о том, что уходит из Российской Федерации. Компания пояснила, что к такому шагу их вынудило принятие антитеррористического «пакета Яровой. Так же компания указала, что российские власти уже контролируют несколько серверов компании в стране.

«Российское правительство приняло новый закон, который обязывает провайдеров хранить весь российский интернет-трафик сроком до года. Мы уверены, что из-за давления властей, которым окружен новый закон, некоторых из наших российских серверов недавно были захвачены российскими властями, без каких-либо предупреждений и надлежащих процедур», — гласит официальное сообщение.



Представители особо отметили, что никаких логов, личной информации или информации о сессиях на тех серверах, которыми интересуются органы, нет, клиенты могут не волноваться. Компания рассказала, что как только ей стало известно о таком интересе, она закрыла все российские шлюзы и прекратили всякую деятельность в стране.



«Пакет Яровой» — является совокупностью законопроектов, разработанных депутатом Ириной Яровой и сенатором Виктором Озеровым. Несмотря на горячие споры и негативные отзывы профильного сообщества, документ был подписан президентом РФ Владимиром Путиным. Суть документа в том, что теперь провайдеры обязаны хранить логии и метаданные в течение времени, которое должно установить Правительство РФ. Владимир Путин дал время до осени для оценки затрат и оптимального времени хранения данных.Так же, провайдеры, будут обязаны сотрудничать с властями и передавать все данные для дешифровки.



По мнению юристов компании RUVDS «паника на корабле» пока преждевременна и напоминает панику при принятии поправок к ФЗ 152 «О персональных данных».



«Изучив подписанный пакет поправок видно, что на данный момент кардинально нет никаких изменений. Согласно статье 13 настоящего пакета, провайдеры обязаны хранить данные о фактах действий клиентов в течение 3-х лет после указанного факта, а вот сами данные клиента – сроком до 6 месяцев, при том, что максимальный срок хранения неопределен и оставлен на усмотрение Правительства РФ. С учетом негативного отзыва на данный закон Министра связи Никифорова, стоит надеяться на то, что сроки не будут очень длинными, а самой отрасли будет дан запас времени для адаптации.



Если говорить о том, кому может быть выгодна данная паника, стоит обратить внимание на операторов связи, которые постоянно ищут повод для повышения цен на услуги связи. Если вы вспомните, операторы связи были сильно против отмены «мобильного рабства», говоря, что они технически не готовы и это будет дорого стоить, а значит цены надо поднять. Однако с того времени россияне уже привыкли, что оператора легко сменить без потери номера, а цены только падают из-за высокой конкуренции. Да и TELE-2 не дает операторам расслабиться в этом вопросе.



Вот и сейчас налицо передергивание фактов. Закон четко говорит, что предельный срок хранения данных (о фактах операций клиентов) — 180 дней, а минимальный срок — 0 дней. Правительство решает, какой предельный срок хранения самих данных клиента, а в итоге они могут сослаться на СОРМ и СОРМ-2 и ничего не поменять вообще. Зато операторы получили повод повысить цены или хотя бы поговорить об этом.



В целом же и сам законопроект не выглядит столь радикальным, вспоминая о том, как подходят к таким данным на Западе, особенно в США. Эдвард Сноуден в красках это обрисовал, и если принимать его откровения во внимание, получится, что этот закон действительно направлен на усиление безопасности законопослушных граждан.



Потому мы все таки считаем, что паника как минимум преждевременна, а скорее всего попросту необоснованна.»




Приведем так же перевод комментариев забурежных интренет-пользователей, подвергающих сомнению реальную причину ухода PIA из России:



Джейсон:

Вы очень наивны. Вы хотя бы представляете, сколько данных хранится в США и Великобритании? Мы говорим «YOTABYTES» данных. Это за пределами того, что происходит в России. Вы знаете о национальной безопасности в США, которую защищают через тайные суды, и информация о которых не может быть раскрыта без риска лишения свободы? (И как смешно то, что вы жалуетесь на русских хакеры, когда многие западные правительства делают то же самое? Или мы забыли откровения о США, Великобритании и Германии в последние годы?)



Эта безумная Русофобия, сложившаяся в последние 2-3 года действительно сводит меня с ума. Это не предосудительно. Вы, ребята, не готовы к новой Европейской войне



Алекс К.

Это очень сырое решение.

Почему бы просто не сделать специальный «небезопасный» вариант доступа к ресурсам в странах с дурацкими законами?

Я уверен, что много людей используют VPN для быстрого просмотра/загрузки и/или повышения времени отклика и им все равно на записанные данные на отдельные виды ресурсов (учебных, игровых и т. д.)..

Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/305630/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Виртуализация сетевой инфраструктуры и SDN Solution

Среда, 13 Июля 2016 г. 17:02 (ссылка)





Наш сегодняшний доклад стоит немножко особняком в ряде других материалов с форума Облачные технологии в России: часть I, часть II, часть III, часть IV. Говоря об облачных технологиях, все в первую очередь подразумевают, конечно же виртуализацию айтишного оборудования, такого как сервера СХД и тд. Тем не менее сеть передачи данных является тем неотъемлемым связующим элементом, который собственно позволяет нам с одной стороны предоставлять облачные технологии, то есть обеспечивать коннективити, с другой стороны он нам необходим для собственно реализации центров обработки данных, для организации связности между ЦОД-ами, и на самом деле практически в 90% в текущих организациях, именно сеть передачи данных на сегодняшний день становятся тем узким местом, тем бутылочным горлом, которое, собственно затрудняет внедрение новых сервисов, внедрение новых приложений.











Сергей Аксенов, старший менеджер по продукции Datacom, HUAWEI



Коллеги, добрый день еще раз, сегодня Сергей Аксенов, компания Huawei. Компания Huawei имеет новую концепцию, новое решение, которое называется Agile Network. На русский язык слово Agile можно перевести как гибкий, управляемый, быстрый интеллектуальный. Это те ценности, которые закладываются в концепцию сетей следующего поколения. И если так немножко пошире посмотреть в историю, то на протяжении, наверное, последних 10 лет ничего кардинально нового с точки зрения сетевых технологий, сетевых решений не появлялось. Появлялись какие-то улучшения, дополнительные нововведения, но кардинальных изменений, по сути не было. И сейчас мы как раз стоим на пороге сетей нового поколения, так называемых сети SDN, Software Defined Networking, то есть программно-определяемых сетей, и собственно Agile Network и есть та самая программно- определяемая сеть.



Для чего она нужна, как ее использовать, какие преимущества по отношению к традиционным решениям я, собственно, сегодня и постараюсь раскрыть.



Кроме термина SDN, я дам вам сразу чтобы расставить все точки над и, скажу что есть термин NFV – Network Function Virtualization, то есть здесь основной целью этого термина заключается в том что мы по сути уходим от дорогих аппаратных сетевых специализированных устройств и эти функции мы перекладываем на вычислительную инфраструктуру по виртуализации на сервера, об этом мы тоже сейчас немножко поговорим.



Собственно, если посмотреть на актуальные тренды в области информационных технологий, они на этом слайде показаны, ни для кого не секрет, на протяжении последних лет 5- 6 мы о них разговариваем, ежегодный взрывной рост трафика, появление новых стандартов телевидения появления видео ультра высокой четкости UltraHD, взрывной рост количества терминалов: это и технологии мобильности, это и технологии интернета вещей. По оценкам к 2020 году, порядка 5 млрд устройств они уже будут подключены к глобальной сети, при этом порядка 70% всех устройств это устройства связанные с internet of things, то есть с интернетом вещей. Собственно, облачные вычисления и опять же социальные сети, которые создают огромные объемы трафика собственно обмен различным типом контента все вот эти тренды, все эти предпосылки стали отправной точкой для разработки сетей следующего поколения.







Ни для кого не секрет, что в центре обработки данных на сегодняшний день уже наступила эпоха виртуализации, то есть как аппаратные сервера используют все меньше организаций, наверное, совсем смол-бизнес, то есть эпоха виртуализации в ЦОД фактически наступила. Вот этот переход к новой модели ресурсов, с точки зрения серверов и СХД произошел 10 лет назад, с точки зрения сети это изменение происходит сейчас. Сеть становится узким местом для внедрения новых сервисов, для внедрения новых приложений. То есть если рассмотреть туже самую систему виртуализации, то там большинство рутинных задач автоматизированы, то есть если нам требуется развернуть новый виртуальный сервер под какой-то сервис, например, или скопировать этот сервер из одного ЦОДа в другой ЦОД — там все эти операции рутинные можно выполнить за 15 минут, ничего сложного в этом нет для администратора.







При этом сеть передачи данных зачастую требует manual configuration, ручного управления. То есть если мы хотим чтобы виртуальная машина или какая-то новая виртуальная среда у нас мигрировала, чтобы она развернулась там у нас в ЦОДе, для этого нам зачастую требуется вручную сделать все эти изменения, требуется привлекать сетевого администратора, который будет прописывать новые политики маршрутизации, политики коммутации, качество сервиса, безопасности и тем самым у нас затрудняется внедрение новых сервисов, то есть в данном сценарии это займет уже не 15 минут с точки зрения виртуализации вычислительной инфраструктуры, а займет уже до 2 дней.







Следующий негативный момент, который зачастую мы видим во многих организациях в том, что от нас до сих пор не зависимо управление компонентами и сложность в поиске неисправности. Если посмотреть на структуру какой-либо там крупной или средней организации то, как правило, там, в айтишной службе эксплуатации 2 типа инженеров. Первый тип инженеров – инженеры сетевики, которые отвечают именно за сеть передачи данных и собственно второй полк инженеров, это системные администраторы, которые отвечают за сервера, отвечают за СХД. Собственно, на слайдах показано, по сути у нас происходит водораздел. Как с точки зрения эксплуатации с точки зрения планирования, использования ресурсов у нас это разные компоненты так и сточки зрения их взаимодействия. Они до сих пор не смотря на то что взаимодействуют, тем не менее, разрозненные компоненты.







И здесь показан один из кейсов, который за счет разрозненности за счет того, что они плотно не интегрированы не взаимодействуют друг с другом, то есть они не видят, что со стороны одного из компонентов происходит какая-то проблема, на втором это не отражается. Здесь показан прямой кейс, простой, что кратковременная проблема на сетевой инфраструктуре, она влечет то, что все виртуальные машины у нас мигрируют в одной из областей на один из серверов, тем самым мы наблюдают перезагрузку, в то время как другой в это время простаивает. Это сетевая проблема, она была совсем кратковременна, она никоим образом не отразилась бы на качестве работы различных приложений и сервисов.







Все это и стало предпосылками для разработки и перехода к сетям нового поколения, к сетям с программно-определяемой архитектурой. Здесь написаны основные ценности, что сеть должна быть более гибкой и прозрачной для пользователей сервисов и приложений. Она должна стать гибкой, динамичной, быстрой и более интеллектуальной. Agile Network, как я сказал, это Software Defined Networking это программно-определяемая инфраструктура и, по сути, это целая концепция, которая существенно отличается от традиционных принципов построения и внедрения сети передачи данных. Если посмотреть на традиционный подход, на традиционные сети, которые долгое время у нас существовали, то там сетевой администратор оперировал физическими портами, физическими устройствами, топологией, то есть был жестко привязан к физическим устройствам. Говоря про концепцию Agile Network, про программно-определяемую сеть, мы здесь делаем фокус на пользователей сервисов и приложений. Мы определяем профили пользователей, определяем качество работы того или иного сервиса и, по сути, мы можем забыть про нашу топологию, про физические устройства. В традиционных сетях мы наблюдали такую ручную конфигурацию и раздельный подход, то есть какая-то, например, есть инфраструктура, состоящая из 50 сетевых устройств и раздельный подход подразумевал, что каждое из устройств требовало отдельной ручной конфигурации, т.е нужно было зайти на каждую их этих железок, подключиться через вэб-интерфейс или через командную строку и, собственно, в отдельности сконфигурить каждое из этих устройств. Сложность эксплуатации, сложность настройки, сложность управления такой сети она ощутимо сложная. В новой концепции мы приходим к всеобщему взаимодействию и к динамическому управлению всей инфраструктурой, то есть мы не просто настроили инфраструктуру с помощью командной строки, но и например там эта конфигурация живёт, в данном сценарии SDN, у нас все меняется на лету, то есть это не статическая сеть какой мы ее настроили, она, собственно, реагирует на все эти изменения которые происходят, эти изменения могут быть с точки зрения внедрения новых сервисов, появления новых пользователей, либо внедрения каких то новых политик безопасности, то есть это у нас теперь такой живой организм, и сточки зрения интеллектуального управления у нас здесь опять же появляется интеллект, но про это чуть дальше. И собственно здесь появляется такое нововведение как постоянный контроль и управление качеством. Мы не просто на авось конфигурируем нашу сеть, прописываем правила маршрутизации, политики коммутации. Мы в реальном времени теперь можем контролировать, как работает то или иное приложение, как работает тот или иной сервис. То есть, по сути, мы можем задать параметры SLA для работы того или иного приложения и собственно контролировать и обеспечивать выполнение этого SLA внутри нашей инфраструктуры.







Концепция Agile Network подойдет практически любой организации, любому предприятию и состоит она из 4 основных блоков. Первый блок это кампусная сеть, то есть это та корпоративная сеть, которая используется вашей организацией. Даже несмотря на то, что вы будете пользоваться облачными услугами, будете пользоваться услугами сервис провайдеров внешних, ваша внутренняя кампусная сеть необходима для подключения пользователей, их терминалов, теперь эти терминалы могут быть беспроводными, но тем не менее кампусная сеть у вас там присутствуют. Второй компонент — это компонент Agile Network для центров обработки данных. Про ЦОДы будут отдельные слайды, про них я расскажу как там что реализуется. Большинство заказчиков, которые с нами взаимодействуют, например ритейл, у них имеется такая распределенная архитектура, например распределенная сеть магазинов несколько сотен или тысяч объектов и централизованный ЦОД, собственно здесь проблемные задачи точно такие же, это разрозненная архитектура, которая управляется централизованно, собственно решение от Huawei позволяет это реализовать. И наконец, 4 компонент Agile Wan это компонент для управления внешним каналом связи. На сегодняшний день все больше заказчиков заинтересованы в использовании облачных технологий, заинтересованы в том, чтобы иметь несколько ЦОДов географически разнесенных, и как раз управление качеством через внешние каналы, через каналы сервис провайдеров, это тоже видите такой актуализатор актуальной проблемы. ну давайте по порядку, сначала поговорим про кампусные сети.







Ядром и сердцем кампусной инфраструктуры является 2 компонента в решении Agile Network. Первый компонент – специализированное программное обеспечение называемое SDN контролллер, у нас называется Agile campus controller, собственно это программное обеспечение которое позволяет централизованно управлять политиками, профилями подключения пользователей, позволяет управлять конфигурациями сетевых элементов и собственно управлять путями передачи трафика, теперь мы по сути переходим к такой модели что не 50 разрозненных устройств, а 50 устройств которые занимаются просто подключением, то есть занимаются передачей данных и одна точка то есть это централизованный интеллект, мозг системы который управляет за абсолютно всю логику по передаче трафика, по политике безопасности, по качествам сервиса. И собственно второй компонент это сеть передачи данных, здесь необходим специализированный коммутатор нового поколения, они уже называются Agile коммутаторы, то есть это сетевые элементы которые могут взаимодействовать с централизованным интеллектом, с централизованным SDN контроллером и собственно по протоколу OpenFlow, или про протоколам NETCONF, они понимают каким образом передавать трафик, каким образом подключать того или иного пользователя, каким образом реагировать на ту или иную угрозу, то есть теперь это такие по сути управляемые устройства. Кроме управляемости с помощью централизованного интеллекта здесь появляется еще 5 нововведений, о которых говорит Huawei, это конвергенция проводных и беспроводных элементов сети. Под конвергенцией здесь понимается, что мы приводим нашу сеть к единому знаменателю. Зачастую сеть Wi-Fi в организациях рассматривалась как дополнительная к проводной, потому что Wi-Fi долгое время не мог обеспечить ни достаточного качества, ни достаточной пропускной способности, сегодня с появлением стандартной 802.11ac с гигабитами пропускной способности через радио интерфейсы с полноценной реализацией кос мы можем говорить о том, что беспроводная сеть у нас становится частью нашей проводной сети. По сути это действительно единый знаменатель, нам необходимо централизованно управлять обоими компонентами нашей инфраструктуры. Второе нововведение это абсолютная мобильность, контроль управления качеством, единая безопасность и программируемость. На каждом элементе мы сейчас остановимся подробнее, проговорим в деталях.







Конвергенция проводных и беспроводных элементов сети. Многие центры обработки данных долгое время использовали архитектуру, когда стоит какой-то главный коммутатор, стоят top-of-rack коммутаторы для непосредственного подключения серверов и, собственно, вот эти top-of-rack коммутаторы выступают как фабрики коммутации, как выносные линейные карты, какой бы у нас не был ЦОД, сколько бы у нас там не было коммутаторов доступа, для подключения серверов, всем этим можно было управлять централизованно с помощью этих больших виртуальных коммутаторов. Собственно говоря, про решение Agile Campus мы приходим ровно к той же самой модели, вся наша сетевая инфраструктура состоящая ранее их 50 элементов, приходит к модели что это по сути один большой виртуальный коммутатор, который состоит из 50 виртуальных плат, т.е из одной точки с помощью единого унифицированного централизованного управления мы можем управлять всей нашей сетевой инфраструктурой. Здесь собственно это и нарисовано. Тут у нас была какая-то кампусная инфраструктура, состоящая из уровней ядра, теперь все это превращается в единый виртуальный коммутатор, в котором появляется N-ое количество виртуальных плат. При этом точки доступа Wi-Fi которые у нас там все время выглядели как такой отдельный элемент, требовали установки специализированного контроллера BLDC, теперь все это опять же сводится к одной точке, то есть точки доступа у нас будут выглядеть как порты доступа.







Второе. Долгое время беспроводная сеть рассматривалась наложенной на проводную и требовала отдельного управления. Мы строили специализированную беспроводную сеть, мы там строили CAPWAP туннели, ставили беспроводные контроллеры, нам надо было задуматься каким образом сделать аутентификацию и подключение пользователей, с помощью пароля или через эктив директори их авторизовывать или там все-таки радиус сервер, с другой стороны у нас была вторая часть инфраструктуры, проводная в которой там были свои правила политики безопасности, свои правила аутентификации пользователя. Собственно, в решении Agile Network мы приходим к тому что независимо от того где и каким образом подключен пользователь мы можем его в единой точке аутентифицировать и подгружать его профиль. Например, у нас сидит бухгалтер в каком-то учреждении на 2 этаже, в какой-то момент вся бухгалтерия переезжает на 4 этаж. В традиционном подходе это требовало бы от сетевых инженеров чтобы те настройки, которые были на коммутаторе 2 этажа, они там собственно все удалили, и перенесли на коммутатор доступа на 4 этаже. То есть здесь должность такого перегруза 1-2 дня заняло бы. В сценарии Agile Network поскольку у нас появляется здесь единый интеллект, который сохранит все профили пользователей вне зависимости от того на каком они этаже, подключаются они с помощью ноутбука либо подключаются с помощью вайфая, мы просто подгружаем их профиль с помощью механизма идентификации, будь это радиус, будь это веб портал с каким-то логином и паролем и собственно все эти политики все эти правила загружаются на порты доступа. То есть здесь у нас сложность по эксплуатации сети резко снижается.







То же самое происходит с точки зрения технологии абсолютной мобильности, на сегодня рамки рабочего времени они, наверное, уже стерты практически, мы работаем не только с 9 до 6 как привыкли раньше, теперь у нас у всех есть смартфон, есть планшет, есть возможность удаленного доступа, я за собой зачастую наблюдаю, что я в офисе провожу намного меньше времени, чем собственно в командировках, на мероприятиях, и возможность получения единого пользовательского опыта она очень важна. Вне зависимости от того откуда и каким образом подключен пользователь, он везде получит свою пропускную способность, получит свои правила и политики безопасности. При этом мы можем в нескольких плоскостях управлять этими политиками, для того чтобы обеспечить внутреннюю информационную безопасность. Опять же пример. Например, я прихожу в офис и со своего ноутбука подключаюсь к корпоративной сети со своим логином и паролем. Собственно, я получаю доступ к абсолютно всем внутренним ресурсам, почтовый сервер, система ERP система CRM, то есть у меня здесь никаких ограничений нету. При этом работодатель хочет, чтобы, например, когда я вечером работаю из дома я не мог любую информацию скопировать, чтобы я имел доступ только к корпоративной почте. Собственно, я прихожу домой, ввожу тот-же логин и пароль и теперь система определяет, что это мой профиль, но мое местоположение вне офиса. Собственно, автоматически загружаются новые политики, которые не позволят мне теперь получить доступ к внутренним ресурсам. Тоже самое можно делать, привязываясь к типу терминала. Например, в офисе со своим ноутбуком, со своим логином и паролем я получаю опять же доступ ко всем внутренним корпоративным ресурсам из того же офиса со своим смартфоном или айпэдом, вводя ровно тот же самый логин и пароль я получаю доступ только к интернету, то есть мы теперь в нескольких плоскостях можем и аутентифицировать пользователя, идентифицировать его принадлежность по типу терминала, по признаку сетевому, мак адресу, айпи адресу, по времени доступа, его местоположению, мы теперь весьма гибко можем управлять и нагружать политики безопасности. При этом с точки зрения сетевого администратора не требуется делать ничего, один раз настроить сетевые политики, и они просто соблюдаются. Здесь мы получаем опережено-личное управление сетью.







Еще она концепция та которая уже, тем не менее, работает — это идентифицированная безопасность. С точки зрения корпоративной сети либо центра обработки данных всегда рассматривалось какое-то сетевое устройство, как правило, фаерволл, который стоял по периметру сети и собственно он обеспечивал фильтрацию трафика. Фильтрация могла быть по access control листам или какой-то DPI, мы глубоко разбирали этот трафик, понимали какое приложение работает, что за уязвимость там может быть, есть ли там вирусы и так далее. Но это подход статический. Мы один раз настроили и надеемся на то что ничего там не произойдет, что те настроенные один раз политики они будут эффективны, будут защищать нашу сетевую инфраструктуру. Но на самом деле если изменится тип угрозы, появится какой-то новый тип угрозы, то можно просто не отследить этот момент. Поэтому собственно в реализации Huawei каждый сетевой элемент может собирать и передавать информацию обо всем проходящем через него трафике, и передавать это в единую точку в центр обеспечения безопасности. То есть теперь мы в реальном времени на реальных потоках трафика можем собирать информацию абсолютно обо всех событиях, которые происходят внутри сетевой инфраструктуры, и если в какой-то момент там происходят изменения, происходит какой-то резкий всплеск трафика, то мы в реальном времени можем отследить ситуацию, уведомить администратора, и система автоматически примет действие для защиты от различных типов атак даже новых, которые только появляются.







Собственно, технология iPCA для контроля и управления качеством. Здесь опять же проще на примере, что у нас есть какая-то инфраструктура, пусть это кампусная инфраструктура будет, инфраструктура ЦОДа, и если нам требовалось проверить как работает наша сеть, с каким качеством будет работать то или иное приложение, то для этого требуется стимулировать дополнительный поток трафика из точки А в точку Б и по прохождению этого трафика могли сравнить, понять какая задержка какая потеря, и собственно определяли, как может работать наша сеть, то или иное приложение. Опять же для этого требовалось создавать дополнительную нагрузку на сети, аккумулировать потоки трафика и по сути реальную картину мы не получали. Собственно, технология iPCA это технология сквозного контроля и обеспечения качества, она позволяет на реальных потоках трафика, не создавая никакую нагрузку определять SLA, заданный параметр качества и соблюдать. Если в какой-то момент заданные параметры начинают ухудшаться, то система автоматически позволяет перестроить пути передачи трафика таким образом, чтобы SLA выполнялся.







Собственно, в заключение про кампусное решение, оно тоже называется SDN, программно-определяемая инфраструктура, но с точки зрения Huawei переход к сетям следующего поколения не должен быть революционным, который требует полной замены всех сетевых элементов, он должен быть эволюционным. То есть те сетевые решения, приложения, сервисы, которые уже работали на инфраструктуре у заказчика они должны сохраниться, они должны продолжить работать так как и работают. Та сетевая инфраструктура, которая была построена, она тоже должна продолжать работать. Но при этом наши коммутаторы могут параллельно работать как в программно-определяемой инфраструктуре, так в уже устаревающих на сегодняшний день традиционных сетях с коммутацией, с маршрутизацией. С точки зрения аппаратной реализации, по сути на сегодняшний день это уже 5 поколение коммутаторов, которые выпускают Huawei, начиная с 1989 года, когда были выпущены первые хабы, они так еще назывались, потом у нас появлялись коммутаторы, которые умеют делать маршрутизацию, после этого 4 поколение это были специализированные построенные уже на ASIC, специализированных сетевых процессорах, которые были жестко привязаны к обработке тех или иных алгоритмов.







Теперь мы говорим о 5 поколении коммутаторов, в которых используются новые чипсеты, это не традиционные ASIC, которые жестко привязаны к обработке по определенному алгоритму, различных протоколов. ENP процессоры они полностью программируемые. Если у нас появляется какой-то новый протокол, какой-то нестандартный сервис, который требует какие-то изменения в протоколе то ENP процессоры позволяют довольно гибко реагировать на эту проблему, достаточно изменить прошивку этого микропроцессора и он так же на лету сможет обрабатывать новые типы трафика. Для чего это нужно? Поскольку SDN на сегодняшний день де факто не стандартизирован, существует протокол OpenFlow в разных версиях, но он до сих пор дорабатывается, у многих вендеров у многих производителей существуют свои какие-то проприетарные вещи, свои доработки. Заказчик на сегодняшний день покупает это оборудование, предназначенное для сетей следующего поколения, он хочет быть уверен, что купленное оборудование оно будет актуально и через 5-6 лет, когда SDN будет окончательно стандартизирован. Собственно, гибкие программируемые сетевые процессоры позволяют решить эту задачу.







На сегодняшний день у нас уже выпущено несколько моделей гибких коммутаторов, первым таким флагманом это была линейка S12700, собственно традиционные там модульные коммутаторы, которые допустим на 8, на 12 интерфейсных платах ну ничего удивительного, то есть оборудование которое можно использовать на уровне ядра сети и на уровне агрегации, но они уже построены на этой гибкой архитектуре с ENP процессором.



У нас уже реализовано N-ое количество различных проектов, и глобальный проект, по сути архитектура Agile Network это концепция, она присутствует 1,5 года на рынке, но уже удалось реализовать много разных проектов. В том числе в России в прошлом году у нас были уже первые ласточки, вот интересный проект мы сделали в МГПУ (Московский государственный педагогический университет), но в вузах в России сейчас проходит реструктуризация, т.е выбирается главный вуз и вузы поменьше, колледжи, они цепляются к этой головной организации, головному вузу. И там собственно такая же проблема была, там была внутренняя инфраструктура сетевая МГПУ плюс там цеплялись вузы поменьше, цеплялись колледжи, при чем там абсолютно разрозненность наблюдалась, то есть у кого-то свежее оборудование Cisco было у кого-то Huawei стояло, у кого-то стояли оборудования D-Link, MikroTik, и всем этим было трудно управлять, абсолютно разрозненная инфраструктура, разный синтаксис, разные сетевые инженеры с разной квалификацией и так далее. Собственно, решение Agile Network позволяет привести все это к единому знаменателю, мы можем поставить централизованный контроллер, абсолютно все оборудование нам не требуется менять, нам требуется заменить лишь некоторые узлы и мы с помощью единой системы мониторинга, с помощью единой системы управления можем за всей этой инфраструктурой наблюдать. Можем вносить изменения, получать информацию о каких-то проблемах, неисправностях, строить отчеты и так далее.







Второй компонент- это решение Agile Branch, которое когда у нас инфраструктура не просто замкнутая, кампусная, наша корпоративная сеть, а когда у нас собственно разрозненная инфраструктура, то есть у нас есть несколько удаленных офисов, есть какая-то центральная точка, и опять бы мы хотели чтобы мы централизованно из этой точки могли управлять абсолютно разными политиками. Для этого Huawei выпускает новую линейку маршрутизаторов, они называются у нас Agile Gateways, гибкие шлюзы можем перевести, и раньше такие устройства по сути были, это были такие мультисервисные маршрутизаторы все в одном, они обеспечивали доступ в интернет примерно, проводку голоса, имели встроенный фаерволл и встроенную точку доступа.



Теперь говоря про мультисервисные маршрутизаторы, они стали еще более мультисервисными, еще более гибкими, если так можно сказать.



Теперь они построены по архитектуре X86, по сути, это такой мини сервер, там есть встроенный SSD накопитель, куда можно поставить полноценную операционную систему: Windows. Linux. Android, то есть абсолютно все, что угодно. Это дает нам возможность предлагать не просто традиционные коммуникационные решения, когда нам требуется объединить несколько точек, это дает возможность создавать абсолютно новые бизнес приложения. Как пример, с одним из системных интеграторов мы сейчас прорабатываем решения, они хотят в общественном транспорте, в торговых центрах поставить экраны, телевизоры, в которых встроена веб-камера и есть выход HDMI. Туда ставятся наши интеллектуальные маршрутизаторы с операционной системой на Windows и написанное приложение. Человек подходит к этому экрану, встроенная веб-камера позволяет проанализировать, кто подошел: мужчина/женщина, и какого возраста: ребенок или пенсионер. После того, как мы определили принадлежность половозрастную этого человека, мы можем показывать ему таргетированную рекламу. Ребенку показывают рекламу подгузников, чупа-чупсов, пенсионеру показывать рекламу лекарств или подгузников. Тоже актуально.

Теперь у нас появляется дополнительная гибкость, мы не просто строим коммуникационную сеть, мы строим сеть, на которую можно разворачивать такие value-added services. Зачем там нужны маршрутизаторы? В принципе это все можно было реализовать с помощью обычных серверов, с помощью каких-то PC, подключить те же самые экраны. Маршрутизаторы тут нужны с той точки зрения, что на всех тех объектах надо обеспечить коннективити, где-то это проводное подключение, где-то DSL, где-то 3G, где-то 4G. Нам надо управлять информационной безопасностью, нам надо управлять политикой подключения, политикой обновления этих устройств. Раньше если эта разрозненная инфраструктура была представлена – 100 магазинов + головной ЦОД, то теперь это 10 тыс. экранов + 1 главный ЦОД. То есть этими 10 тыс. устройств надо так же централизованно управлять. Наше решение Agile Network нацелено на решение этой задачи в том числе.







Еще один кейс, что когда у нас существует такая разрозненная инфраструктура, состоящая из сотен, тысяч удаленных точек, большой проблемой является внедрение и развертывание новых объектов. Для этого нам в эти 10 тыс. точек надо отправить инженера, какого-то специализированного, который понимает и имеет достаточную квалификацию для настройки этого устройства. Это проблемно, это затруднительно. Поэтому в концепции Agile Network мы полностью от этого уходим, мы просто отправляем эту коробку на объект, обеспечиваем для нее подключение к интернету, USB-свисток вставляем LTE-шный, все, после этого устройство автоматически подгружает конфигурацию, подгружает все свои настройки с помощью централизованного SDN-контроллера. То есть развертывание этой инфраструктуры, развертывание объектов получается очень простой и доступный для большинства заказчиков.







Ну и, с точки зрения аппаратных моделей, здесь у нас есть большая продуктовая линейка: для стационарного использования, для мобильного использования, для использования в сценариях интернет вещей, когда нам надо подключить n-ое количество смарт-сенсоров, каких-то датчиков, все это можно реализовать в подобных шлюзах. Еще одна вещь – виртуализация и облака присутствуют и здесь. На вот этом обычном маленьком маршрутизаторе можно сделать виртуализацию, там есть KVM, то есть на одну виртуальную среду вы можете поставить Linux, на другую Windows или еще что-то. Виртуализация дошла до совсем простых коробок, абонентских устройств, абонентских девайсов.







Третий компонент решения Agile Network, он наиболее близкий к тематике сегодняшнего мероприятия, это Cloud Network, это решение Agile Network для облачной инфраструктуры, для инфраструктуры центров обработки данных. С одной стороны, здесь главными требованиями является, во-первых, эластичность. Эластичность – под ней понимается и производительность аппаратная устройств, эластичность с точки зрения функционала, эти устройства должны обеспечивать нам связность между разными ЦОДами, либо должны обеспечивать связность внутри нашего ЦОДа. Вторая основная ценность для сетевого оборудования ЦОДа – это открытость. В ЦОДах не должна быть моновендерная инфраструктура, зачастую она мультивендерная, мы должны обеспечивать взаимодействие, мы должны обеспечивать API для взаимодействия различных компонентов, для их плотной интеграции.

Третий Кит – это виртуализация. С одной стороны, для вычислительных ресурсов, с другой стороны для сетевых элементов в том числе.







Здесь у нас тоже выделена линейка оборудования, коммутаторы из серии Cloud Engine, они представлены в фойе, можно подробнее ознакомиться, и с модульными решениями – 12800 и с top-of-rack коммутаторами. Широкая линейка оборудования, они предлагают с одной стороны уникальную, с точки зрения производительности архитектуры, если посмотреть на те значения емкости коммутации, пропускной способности, плотности портов, то Huawei уверенно опережает всех производителей по тем же даташитам можно убедиться в технологичности нашего оборудования. С другой стороны, здесь присутствует полный пул технологий, для виртуализации.

Если кратко по ним пройтись, первая технология у нас называется Virtual Switch (VS). Представьте, что существует какой-то крупный коммерческий ЦОД и несколько арендаторов. При этом каждый из арендаторов хочет самостоятельно управлять не только вычислительной инфраструктурой, серверами и сервисами, но хочет управлять и сетевой инфраструктурой, самостоятельно прописывать политику маршрутизации, политику качества сервиса, политику безопасности. Технология VS позволяет нам один физический коммутатор представить в виде 16 виртуальных. Мы можем сказать, что у нас стоит такой большой коммутатор, интерфейсная плата первая, порты с 1-7, 23, 25 – это арендатор №1, интерфейсная плата 7, порты с 17 по 25 – это арендатор №2. Мы закрепляем за ними вычислительные ресурсы, и после этого эти арендаторы работают независимо друг от друга. На одного из арендаторов может начаться DDOS-атака, на другом это никоим образом не отразится. Они будут работать абсолютно изолированно друг от друга.



Следующая технология: SVF – Super Virtual Fabric, Виртуальная фабрика. Может быть сколь угодно большой центр обработки данных, состоящий из 100 стоек, при это мы можем централизованно из одной точки, с помощью единого коммутатора управлять абсолютно всей нашей сетевой инфраструктурой. Все эти 40, 50, 100 стоек будут выглядеть просто как дополнительные виртуальные платы, дополнительные выносы этого нашего головного коммутатора. И еще одной актуальной проблемой, актуальным трендом для центров обработки данных является обеспечение связности между несколькими ЦОДами. Так называемое решение disaster recovery, решение active-active. Когда у нас есть несколько ЦОДов, географически разнесенные. Если там в какой-то момент наблюдаются программные или аппаратные сбои в одном из ЦОДов, то для сервисов, для приложений, для пользователей это должно быть абсолютно незаметным. Все должно работать безшовно. В этом случае нам требуется такая плавная миграция виртуальных машин из одного ЦОДа в другой ЦОД. Для этого надо обеспечить так называемую L2 связность. Для этого у нас тоже существует целый ряд технологий, есть проприетарная технология, которая называется EVN, то, что у CISCO называется OTV. Но на сегодняшний день все вендеры приходят к единому знаменателю, технология EVPN, которая позволит работать разным вендерам, позволит взаимодействовать им между собой и обеспечивать L2-связность. Наше оборудование уже поддерживает такую мейнтстримную технологию, то есть все это заложено.



Говоря про ЦОДы, еще одной актуальной задачей и проблемой является увеличение количества VLAN, то есть увеличение количества пользователей сетевых ресурсов, которые мы предоставляем. Для этого наше оборудование поддерживает такую мейнстримную технологию, которая называется VXLAN, и он позволяет нам с 4000 VLAN увеличить это количество до 16 миллионов VLAN. Оборудование Huawei на линейке Cloud Engine это все тоже заложено.







Опять же оборудование ЦОДовское, оно конвергентное, там может быть не только ethernet, там может быть FCoE, это может быть просто fiber channel, различные варианты реализации сетевой инфраструктуры у нас тоже присутствуют. И тот компонент, про который мы уже говорили, Agile Controller, то есть централизованный интеллект, с точки зрения ЦОДа нам приносит тоже много value. С одной стороны, он будет иметь южный интерфейс к системе виртуализации, в настоящий момент система виртуализации может быть виртуализация от Huawei, которая называется Fusion Sphere, наш гипервизор. Это может быть широко используемый VMware, опять же это может быть виртуализация от Microsoft (HYPER-V). С другой стороны, контроллер имеет интерфейс для взаимодействия с низшим уровнем, то есть с уровнем сетевых элементов, сетевых устройств. То есть теперь все те изменения, которые происходят в вычислительной инфраструктуре, они не проходят незаметно для сетевой части инфраструктуры, она реагирует на все те изменения, которые произошли, соответствующим образом.







И мы приходим к модели всеобщего взаимодействия, мы получаем возможность быстрого внедрения сервисов. Теперь те задачи по рутинному разворачиванию каких-то образов, по рутинному разворачиванию новых сервисов, виртуальных машин, мы можем реализовать благодаря сетевой инфраструктуре. Теперь у нас service provisioning model, теперь нам не надо привлекать отдельно айтишного администратора, не надо привлекать сетевого администратора, теперь просто человек, которому требуется развертывание нового сервиса, он заказывает это в портале самообслуживания, и система там автоматически разворачивает виртуальные машины, и автоматически производит необходимые изменения в сетевой инфраструктуре.



На этом все. Вот те основные ценности, которые я хотел вам рассказать про Agile Network. С одной стороны, с точки зрения ЦОДов, у нас есть технологии, которые обеспечивают связность, обеспечивают решения active-active. С другой стороны, мы обеспечиваем работу кампусных сетей, которые приводим к единому знаменателю. Мы можем управлять профилями пользователей, политиками безопасности, политиками качества сервиса, конфигурациями устройств с помощью единой точки, то есть мы уходим от раздельного статического подхода. И если нам требуется построить такую распределенную инфраструктуру, состоящую из n-го количества элементов, то здесь мы можем все это привести к единой точке и централизованно управлять всей сетью.



Вопрос из зала: Если используется в одном месте коммутатор от Cisco, в другом Huawei или еще какая-то другая фирма, то cloud engine способен конфигурировать их, для того, чтобы вносить изменения?

— На самом деле все производители сей к этому идут, open flow как раз и создан этот протокол взаимодействия, он создан для того, чтобы SDN контроллер централизованный был от одного вендера, устройство от какого-то другого вендера, и все это прекрасно взаимодействовало. И на сегодняшний день такого нет. Все-таки step by step мы к этому идем, мы идем к стандартизации. Все эти красивости и плюшки можно реализовать только на нашем оборудовании в полном объеме.



Вопрос из зала: То есть нельзя подружить iOS и что-то ваше?

— Здесь вопрос в том, что надо дружить и какую задачу мы решаем. На сегодня 90% заказчиков интересует насколько возможно интегрировать оборудование Huawei, Cisco, при том, что у Cisco энное количество своих проприетарных закрытых технологий. Huawei это прекрасно понимает. У 95% заказчиков инфраструктура уже построена, то есть мы приходим на все готовое. И если мы хотим, чтобы наше оборудование у заказчика заработало, то мы должны обеспечить полную совместимость. Мы должны обеспечить сохранение тех сетевых сервисов, которые у него были в полном объеме. Если говорить про традиционные решения, не SDN-овские, то там мы можем обеспечить полноценную интеграцию. Cisco с Huawei прекрасно будут работать. Но с точки зрения SDN с контроллером, пока у всех производителей это пока проприетарно. Это уже не просто концепция на будущее, это реально работающий сценарий, но пока полной интеграции, к сожалению, нет.








Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/305610/

Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Скрытые опасности электронной коммерции и правильные SSL-сертификаты

Среда, 13 Июля 2016 г. 14:26 (ссылка)

Для того, чтобы вести бизнес в интернете, потребителям и предприятиям необходим надежный способ обмена номерами кредитных карт, паролями и другой личной информацией. Мы в Cloud4Y предоставляем SSL-сертификаты некоторых производителей, и поэтому мы решили дать небольшую справку и несколько интересных фактов по типам сертификатов, их достоинствам и подводным камням.



SSL — это технология, которая защищает большую часть интернета и по сути делает возможной электронную коммерцию. Пользователи могут определить его по символу замка в браузере, что значит следующее: все отправленные получателю данные шифруются таким способом, который никто больше не может расшифровать. Есть одна загвоздка: шифрование полезно только тогда, когда вы при отправке данных уверены, что получатель — не мошенник, а доверенное лицо, которое может их расшифровать.



SSL-сертификаты: транзакционная безопасность



Чтобы включить шифрование веб-сайты используют цифровые сертификаты, выдаваемые центрами сертификации (например, Symantec).Центр сертификации — это третья сторона, которая проверяет сведения о претенденте, используя различные базы данных, телефонные звонки и другие средства. Обратите внимание, что центр сертификации не проверяет надежность бизнеса, его роль заключается в том, чтобы убедиться, что бизнес существует и выдать учетные данные (цифровые сертификаты).

В настоящее время существует три типа сертификатов SSL: подтверждения домена (domain validated — DV), подтверждения организации (organizationally validated — OV) и сертификаты расширенной проверки (extended validation certificates — EV).



Не так давно был доступен только сертификат вида OV. С этим типом сертификата центр сертификации мог подтвердить соответствие определенной бизнес-информации имени домена, гарантируя таким образом, что претендент является именно тем, за кого себя выдает. Например, для приобретения сертификата для www.amazon.com компания Amazon должна была бы отправить в центр сертификации определенную информацию с сервера, подтверждающую, что это реальная компания.



Затем в 2000-х появились сертификаты типа DV. Такой сертификат давался в кратчайшие сроки, поскольку требовал от претендента только подтвердить свое право на использование доменного имени — и никакого подтверждения другой бизнес-информации. Например, если кто-то приобретал домен www.myfavоritestore.cоm, он мог получить сертификат типа DV, просто запросив его в центре сертификации и ответив на e-mail из него. Как только центр сертификации получал ответ, сразу выпускался сертификат, что позволяло мгновенно создать интернет-магазин MyFavoriteStore.com и начать принимать кредитные карты. Очевидно, что никакого подтверждения легитимности бизнеса при этом нет, и никто не может гарантировать, что этот интернет- магазин принадлежит не мошенникам.



Рисунок ниже позволяет сравнить вид окна браузера при использовании сертификатов этих двух типов для amazon.com:

image

Как видно на рисунке, сертификат типа DV не дает никакой информации, кроме имени домена (carbon2cobalt.com). Нет информации о том, откуда ведется этот бизнес и кто его владелец. Сертификат же типа OV certificate для amazon.com показывает и название компании, и ее локацию. В окне браузера сертификаты выглядят одинаково:

image

SSL расширенного типа



Следующий появившийся тип сертификата — сертификат расширенной проверки (Extended Validation — EV). В этом случае ЦС выполняет расширенные проверки заявителя для повышения уровня доверия в бизнесе. Ниже представлен пример сертификата расширенной проверки:

В этом примере понятно, что сертификат (и сайт) принадлежат Банку Америки в Чикаго, Иллинойс. Эта информация была подтверждена центром сертификации в рамках процесса проверки, который включал изучение корпоративных документов, проверку личности заявителя и проверку информации по базе данных центра сертификации.

image

Во всех браузерах при использовании этого сертификата горит визуальный индикатор, обычно зеленый замок в адресной строке. Это дает потребителю понять, что данные вебсайта тщательно проверены. Все браузеры отображают название организации слева или справа от URL. На рисунке ниже показано, как EV сертификаты отображаются в популярных браузерах. Расширенная проверка делает EV сертификаты более сложными для получения:

image

Сертификаты EV помогают установить законность бизнеса и предоставить инструмент, который может быть использован для оказания помощи в решении проблем, связанных с фишингом, вредоносным ПО и другими видами онлайн-мошенничества. EV сертификаты имеют следующие преимущества:



1. Затрудняют осуществление фишинга и других видов онлайн-мошенничества;

2. Помогают компаниям, которые могут стать объектами фишинга и онлайн-мошенничества, предоставляя им инструмент, позволяющий лучше идентифицировать себя в глазах пользователей;

3. Содействуют правоохранительным органам в расследовании фишинга и других видов онлайн-мошенничества.



Чем плохи базовые сертификаты?



Это просто: сайт MyFavoriteStore.com из уже рассмотренного нами примера не является реальным бизнесом. Это сайт, созданный для фишинга. Как это происходит?



1. Мошенник покупает домен у регистратора домена, используя поддельную информацию и данные украденной кредитной карты. Регистратор оформляет домен myfavoritestore.com на мошенника.

2. Получив права на домен, мошенник обращается в центр сертификации за сертификатом базового уровня (подтверждения домена). Центр сертификации требует только ответа заявителя по электронной почте, получив который, выдает сертификат.

3. Мошенник создает веб-страницы, которые рекламируют популярные товары, делает страницы ввода данных кредитных карт.

4. Покупателей привлекают на сайт через почтовую рассылку и ложную рекламу.

5. Когда потребитель видит замочек в строке бразуера, он спокойно вводит данные своей кредитной карты, чтобы сделать покупку.

6. Мошенник крадет данные кредитных карт, а потребитель теряет деньги и не получает свой товар. При просмотре сертификата SSL он не находит ничего, кроме доменного имени. Нет подтвержденного адреса и никакой другой информации.



Последнее исследование, проведенное компанией Symantec, показало, что более 1/3 из всех компаний электронной коммерции защищают сайты с помощью DV сертификатов. Это не удивительно, учитывая относительную легкость, скорость и низкие затраты на получение такого сертификата. Хотя все центры сертификации и должны выполнить базовую проверку на мошенничество, мошенники легко адаптируют свои методы, чтобы обойти эти проверки. Например, название PayPal является распространенным объектом мошенничества и, следовательно, центр сертификации будет проводить автоматизированную проверку похожих названий, таких как pay-pal, securepaypal, p@уpal и т. д. Но не так давно был зарегистрирован случай выдачи сертификата домену paypol-france.com, который затем был использован для фишинговых атак и кражи учетных данных пользователей. Получить сертификаты типа OV и EV с таким названием сайта мошенникам было бы гораздо сложнее.



Сравните два сертификата ниже. Слева — сертификат для сайта bookairfare.com, справа — для сайта ebookers.com. Потребитель, который ищет дешевые авиабилеты через поисковик, может быть направлен на оба эти сайта, но как ему понять, что бизнес проверен? Изучив сертификат слева, пользователь не увидит никакой деловой информации, то есть, перед ним сертификат типа DV. Сертификат справа, в отличие от левого, содержит проверенные бизнес-данные.

image

Преступники часто создают поддельные веб-сайты в целях хищения идентификационных данных и мошеннических. Чтобы добавить легитимности на сайт, они добавляют подробные графики, чтобы имитировать реальный сайт и получить SSL-сертификат, который дает пользователю визуальный индикатор безопасности. Как было сказано ранее, сертификат доменной проверки относительно легко получить. На рисунке ниже показан пример фишинга через ссылку в электронном письме:

image

На сайте есть убедительные веб-страницы и показан значок безопасности:

image

Тем не менее, проверка показывает, что перед нами — сертификат типа DV:

image

Вместо заключения



Как говорится, в интернете никто точно не знает, кто ты: image

Тем не менее, в последние пару лет покупатели в сети интернет стали гораздо более опытными, начав уделять больше внимания вопросам безопасности. Сертификаты базового уровня постепенно отходят на второй план, поскольку многие пользователи больше не доверяют сайтам с такими сертификатами, предпочитая отдавать свои личные данные только проверенным компаниям.
Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/305590/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_rss_hh_new

Гипер-конвергентное решение – FusionCube и FusionSphere Openstack для провайдера облачной услуги

Понедельник, 11 Июля 2016 г. 18:40 (ссылка)





Продолжаем публиковать материалы форума Облачные технологии в России, который наша компания вместе с технологическим партнером HUAWEI провели 23 июня в LOTTE HOTEL MOSCOW. Первые три части вы можете прочитать здесь: часть I, часть II, часть III. Сегодня представляем читателям интересный доклад Дениса Дубинина на тему современных инструментов создания облачных решений.











Денис Дубинин, менеджер по продуктам ИТ, сервера, СХД, виртуализация, HUAWEI



Добрый день! Зовут меня Денис Дубинин, я продакт-менеджер компании HUAWEI по продуктам, серверам СХД и системам виртуализации. Сегодняшняя тема моего доклада называется FusionCube, FusionSphere, инструменты для создания облаков. Кто-нибудь пользовался уже нашим ПО, облачным, скажем так, направлением? FusionSphere, какими-то другими вещами? FusionStorage? То есть вообще никто не сталкивался? Ну сегодня попытаюсь приоткрыть тайну, висящую над этими продуктами, что же они из себя представляют. Начну я сейчас с решения FusionCube, что это такое.







Пару слов о компании HUAWEI. Компания HUAWEI — международный лидер по производству телеком-оборудования для различных операторов связи — сотовой связи, фиксированной связи, магистральных каких-то линий. Вот слышал, тут сегодня были разговоры про оптику Владивосток, Сахалин и прочее, прочее. Собственно, этими вопросами тоже HUAWEI занимается. В принципе, здесь коротко наше портфолио, чем же занимается HUAWEI в направлении энтерпрайз — облачные решения, про которые мы сегодня поговорим, серверы, системы хранения данных, сетевое оборудование, достаточно широкого профиля от, еще раз, магистральной оптики, заканчивая вай-фаем, коммутаторами для центра обработки данных, стандартных кампусных решений. Есть решения по сетевой безопасности, анти-DDOS решения, антивирусные файерволы и прочее, прочее, прочее…спектры трафика и так далее. И инженерная инфраструктура для ЦОД, т.е. HUAWEI также производит бесперебойные источники питания, кондиционеры, модульные ЦОДы, контейнерные ЦОДы и все, что с этим связано.







Про решение FusionCube, что же это такое. FusionCube – это гиперконвергентное решение, которое, скажем так, позволяет заказчику сэкономить время, сэкономить ресурсы для того, чтобы развернуть IT-ландшафт для какой-то своей задачи. Почему не просто конвергентное, а именно гиперконвергентное – потому что в едином корпусе, в едином шасси все три компонента, собственно, сервера, сетевое оборудование и система хранения данных. Причем, система хранения данных это не отдельные аппаратные выделенные элементы, а для системы хранения данных используются ресурсы самих серверов, т.е. устанавливается определенный софт, получаем software defined storage, и этот software defined storage презентуем собственно сереверам, которые вращаются на этой же аппаратной платформе. В текущий момент у нас, скажем так, две модели – FusionCube 9000 и FusionCube 6000.







Параметры их здесь приблизительно видны. Значит, старшая модель позволяет в одном шасси получить до 32 процессоров, 12 терабайт оперативной памяти, 172 терабайта под систему хранения данных. FusionCube 6000 – решение полегче, попроще, поменьше – здесь до 8 процессоров, до 2 терабайт оперативной памяти на такой модуль и до 280 терабайт хранения. В принципе, тут уже указаны для младшей модели общие направления, для чего стоит применять, скажем, вот это решение, то есть до виртуализации 60 каких-то серверов, до 280 рабочих мест виртуализированных. Если вам нужно больше параметры, то, наверное, стоит уже рассматривать решение 9000-е.







По поводу применения FusionCube. FusionCube — это не равно облако. FusionCube — это не равно виртуализация. FusionCube, скажем так, это равно некая универсальная структура, некий универсальный IT-ландшафт, который вы вольны распределять, использовать на свое усмотрение.

Для 9000-х систем существуют уже апплайенсы протестированные, готовые, сертифицированные для решений с УБД, баз данных, такие как SAP HANA, ORACLE и прочие. Есть решения гибридные, когда часть нод используется под виртуализацию, часть НОД используется под базы данных, допустим, часть нод используется для узлов SAP HANA.

Для 6000-й системы, как для более младшей системы, все-таки в большем приоритете виртуализация, причем виртуализация достаточно широкого профиля — VDI, облака, серверная виртуализация и так далее.







По поводу, из чего же состоит FusionCube и почему мы FusionCube называем определенный набор решений, а не просто любой наш сервер обзываем FusionCube. По решениям, первое – конвергентное. В этом решении отсутствует выделенное СХД. Если мы поставили несколько серверов в один ряд, прикрепили к ним СХД аппаратную, то это уже не FusionCube. Это просто какой-то кластер. Упрощенно, управление вот этим FusionCube происходит из одного окна, то есть менеджмент и управление аппаратным железом, софтверными вещами, которые на нем установлены, производится из одной консоли операторской. Ну и решение достаточно мощное, потому что используется, опять же, распределенное СХД и ряд элементов, которые повышают производительность. Это передача данных по InfiniBand и использование наших SSD PCI-экспрессных карт для хранения данных и для кэширования данных.







Следующий момент – открытость решения, то есть, еще раз говорю, мы не заставляем заказчика или нашего партнера, вот вы приобретаете наш FusionCube, и дальше используется в одном каком-то, не знаю, направлении, в одном сценарии. Вы можете, в принципе, создать этот сценарий сами, т.е. от нас вы получаете вот это железо, от нас вы получаете виртуальную СХД, получаете, допустим, модели управления, ПУ управлением, но всю последующую набивку, как в операционных системах, приложениях, баз данных и так далее остается на ваш выбор.







Про сравнение с классической архитектурой, преимущества: меньше занимает места в несколько раз, энергоэффективность, зеленые технологии и так далее.







Про еще один плюс этого решения – оно позволяет сократить время на развертывание, то есть вам не нужно получать оборудование от разных вендоров, потом его интегрировать, потом получать ПО от третьего вендора, его тоже интегрировать, запускать все в работу, сдавать заказчику, потом бороться с багами, скажем так, от всех вместе взятых. Наше решение всегда поставляется с единым саппортом, с единой точкой входа, под единое конкретное решение.







По поводу быстрого развертывания – для тех, скажем так, протестированных сценариев, которые предлагаем мы с использованием FusionCube, уже готовые есть инструменты, которые позволяют быстро развернуть этот FusionCube под конкретную задачу. Есть ПО, называет FusionCube Builder – это installation tool, т.е. вы его запускаете на своем лэптопе, по сети подключаете к FusionCube, как в визарде делаете – next, next, next, в итоге получаете тот ландшафт, который вы заказывали. И FusionCube Center – это, собственно, менеджмент платформа, которая позволяет интегрировано этим всем, ну не скажу чтобы до конца управлять, но, по крайне мере, мониторить точно на 100%.







Следующий момент – линейный рост. Поскольку нет выделенной СХД, при увеличении количества серверов, линейно растет, как производительность самих серверов, так и производительность СХД, то есть как бы вы количество пользователей, VDI у вас ни росло, ни росло количество серверов, используемых в решении, производительность остается на том же уровне. Повышение количества пользователей не вызовет у вас какого-то уменьшения производительности работы этих пользователей, имеющихся.







Из преимуществ, про software defined storage будет еще дальше рассказано, но собственно, чем оно отличается от классической архитектуры. В классической СХД присутствуют – сеть передачи данных, san сеть, либо 10 Гбит, либо 8 Гбит файбер ченнел, либо 16 Гбит файбер ченнел, дальше стоит контроллер, в классических системах 2-контроллерные машины, сейчас идет развитие мульти-контроллерных систем, но, как правило, количество контроллеров в СХД ограничено. Я, допустим, не знаю ни одной СХД, в которой контроллеров больше восьми. Скажем так, можем повысить эту цифру – больше 16 контроллеров точно нет у СХД. И, собственно, количество дисков, которое может обслужить этот контроллер. Мы все при использовании классической архитектуры СХД можем в любой момент времени упереться в один из этих ограничивающих факторов. Либо san сеть у нас начинает тормозить, не хватает производительности, либо контроллер в СХД, имеющийся, начинает тормозить, не хватает производительности, либо количество дисков – мы дошли до того предела, что дальше диски ставить просто некуда. От всех этих проблем на избавляет, собственно, распределенное хранилище, где каждый сервер, во-первых, является узлом хранения, поэтому при увеличении нагрузки у вас, естественно, растет количество серверов, которое должно переваривать эту нагрузку и автоматически растет количество узлов в виртуальной СХД. Таким образом, мы избавляемся от узкого места по поводу жестких дисков. Больше серверов, больше дисков, если нужно еще больше дисков, мы просто добавляем сервера в нашу инфраструктуру, практически ничем не ограничены.

Передача данных между узлами, служебная информация, я имею в виду, происходит по протоколу InfiniBand с минимальными задержками, с минимальной латентностью, со скоростью 56 Гбит в секунду. Наружу это может отдаваться по гигабитному эзернету, по 10-гигабитному эзернету, ну или, если у вас специфические задачи по тому же InfiniBand-у может отдаваться. Количество кэша, количество портов ввода-вывода, количество процессоров в виртуальном контроллере СХД так же пропорционально количеству узлов. Поэтому при использовании распределенной системы, Вы, в принципе, уткнуться при текущих реалиях в производительность не должны.







Вернусь немножко назад, я говорил, что Fusion Cube – это не значит облако, даже частное, это не значит 100% виртуализация, это значит – какой-то универсальный IT-ландшафт, причем он уже может быть протестирован и существовать рекомендации, сертификации, о том, как этот ландшафт использовать. Вы его можете использовать под Oracle, под IBM DB2, Sybase, под решения SAP HANA, если с такими работаете, под FusionSphere, опять же приложениями sub и под, в принципе, просто виртуализацию на базе VmWare, в принципе можно использовать и с нашей FusionSphere, надо было добавить, наверное, еще седьмую строчку, как бы самый очевидный вариант.







Про распределенное хранилище – распределенные хранилища на рынке предлагаем не только мы. В общем-то есть и другие вендоры, которые только софтверной частью, скажем, занимаются этого вопроса, есть вендоры, которые предлагают одновременно и софтверные и аппаратные решения, но, как правило, все эти решения выполнены по следующей структуре: есть хранилище данных или объектовое хранилище и есть хранилище метаданных. Как правило, узким местом является хранилище метаданных, т.е. это те сервера или выделенные СХД небольшого объема, но достаточно производительное, на которых лежат, грубо говоря, данные о том, где лежат все остальные данные, некоторая такая, если перевести к файловым системам, fat-таблица, т.е. вот этот сервер знает, где лежат все остальные данные. И, в принципе, вот этот вот узел, сервер метаданных, является узким местом.



Почему он не является узким местом для нашего решения – потому что мы не храним метаданные в явном виде, мы храним только хэш-суммы, т.е. когда сервер отсылает запрос за каким-то блоком данных, он не отсылает его в явном виде, т.е. блок такой-то, цилиндр такой-то файл такой-то и т.д., встроенный драйвер, который инсталлирован в систему, высчитывает хэш-сумму от данного запроса и отправляет в сторону нашей виртуальной СХД только вот этот вот запрос, состоящий из хэш-суммы. Запрос этот минимальный, в принципе, объем хэш-таблицы у нас 232, я не знаю сколько это миллиардов, олимпиардов является в десятичном виде, и, в принципе, вся эта таблица занимает 6Мбайт, и каждый узел, участвующий в системе хранения данных, хранит копию вот этой таблицы. Она у нас называется, правда, не таблица, а кольцо, но смысл, что это функционально, что это таблица. То есть весь этот объем 6Мбайт всегда хранится у узла в оперативной памяти, даже скажу больше, он часто хранится в кэше процессора, т.е. в самом быстродействующем месте, и, в принципе, он распределен равномерно между всеми узлами, которые участвуют в хранении. Поэтому за счет этого обращения по хэш-сумме, т.е. сервер обращается «где мои данные», драйвер обрабатывает запрос, говорит «вот по адресу этого хэша», хэш отсылается к хранилке, хранилка обрабатывает этот кэш, говорит «вот этому хэшу соответствует вот тот-то узел хранения», приходит запрос на узел хранения, и уже вот это запрос разбирает узел хранения и он уже знает, где у него что лежит по полочкам. То есть за счет вот этого уменьшения передаваемых данных по адресации и распараллеливание этих запросов, что можно хэш-сумму высчитывать параллельно на нескольких машинах и так далее, и так далее, получается более высокая производительность.







Что еще у нас используется из позитивного – это распределенный кэш. Между узлами хранения кэш может распределяться, т.е. отсутствуют выделенные острова кэша, когда отдельный узел обладает своим кэшем и про этот кэш никто не знает. Можно использовать следующий механизм работы, когда кэш вот этого узла будет частично реплицироваться с кэшем другого узла. И когда будет происходить запрос другому узлу, вот эти данные уже будут находиться в горячем кэше, что, в свою очередь, тоже повышает быстродействие.







По поводу управления скоростью, тоже уязвимое место для данных систем, но в наших системах встроен, скажем так, вальюти оф сервис интеллектуальный, который, в зависимости от того, какая задача используется, находится ли система в процессе ребилдинга или она в состоянии стабильной работы находится, меняет приоритеты для второстепенных или первоочередных задач.







Про алгоритм ребалансировки — казалось бы, очевидная вещь, но почему-то мне часто задают вопрос: «а если вот у нас было 10 узлов в системе хранения, мы добавили еще 20 узлов, перераспределение это для повышения производительности будет происходить?» Да, повышение перераспределения данных по узам происходить будет, собственно, ради этого все и затеялось. Есть отдельный механизм, который занимается этим вопросом.







По поводу надежности, отказоустойчивости — у потребителя есть два варианта той защиты, которую он может получить – он может ограничиться двойным дублированием данных, когда есть основная копия данных и ее резервная, которая обязательно должна находиться на другом узле или в режиме повышенной надежности, когда хранится не одна копия, а еще две копии. Такая надежность в количестве девяток получает семь девяток, т.е. если заказчик готов пожертвовать объемом в два раза больше, чем занимает просто информация для повышения надежности, то он может этим воспользоваться. С учетом того, что в серверах используются более дешевые диски, чем в СХД, в принципе, зачастую такая затрата, скажем так, является оправданной. Использование PCI-ного SSD-кэша, в принципе, это не то чтобы наше ноу-хау, эти карты производят многие вендоры, но вот мы их используем, в том числе, для кэширования оптимизации работы нашей виртуальной СХД.







По поводу восстановления данных – за счет того, что отсутствует единый контроллер, через который происходит восстановление, за счет того, что данные все распределены между узлами, как правило, равномерно более менее, процесс ребилдинга в данных системах достаточно быстр, т.е. вам не нужно ждать, вот внизу приведены примеры, за 30 минут ребилдится один терабайт данных, т.е. если у вас рухнул сервак, на котором у вас лежало 4Тбайт данных, то система вернется в исходное устойчивое состояние меньше, чем за два часа. Если вспомнить классические СХД, то они могут неделями восстанавливаться после падения 4-терабайтных систем, 4-терабайтных дисков. Собственно, показывается, демонстрируется, как происходит ребилд. В принципе, ничего космического, непонятного, странного, все то же самое, просто идет это в несколько потоков, параллельно, поэтому этот процесс идет значительно быстрее.







Снэпшоты для данной системы есть, опять же, с учетом архитектуры, это меньше влияет на производительность, как в сравнении с классическими системами. По поводу интеграции с приложениями и прочим, в принципе, на данный момент, пока что открытый, т.е. консистентность снэпшота требует выяснения и не для всех пока приложений она доступна.







Существование ресурсных пулов – мы заказчика не заставляем все узлы объединить в единый пул, и всю его политику по безопасности, политику по хранению, по доступности определять сразу на весь пул. Вы можете ваш большой пул разделить на кусочки и в каждом кусочке будет своя политика безопасности, политика отказа устойчивости, политика репликации, политика по снэпшотам и так далее, и так далее. Ну я не знаю, при сетевых технологиях такие домены коллизий, т.е. что происходит в этом сегменте, меня не волнует, поскольку вот я автономен по отношению к другим сегментам.

В принципе, по софтверной СХД на этом все. Почему она стоит как бы особняком. Дальше буду рассказывать про FusionSphere, она там тоже есть, но, в принципе, там еще раз я рассказывать про нее не буду. Вот Fusion Storage можно приобретать отдельно без нашей виртуализации, это отдельный продукт, маркетинговый, со своим ценником, который можно поставить, в принципе, на любой сервер, любого вендора. Он не жестко привязан к нашему железу, вы можете имеющиеся у вас сервера, если они удовлетворяют требованиям, в общем-то, использовать под вот эту вот систему.







По поводу аппаратной части, из чего же состоят наши FusionCube, что это такое: собственно, 9000-й состоит из нашего блейд-шасси, собственно вот сама корзина, вид спереди, можно поставить 16 половинчатых серверов, либо 8 4-процессорных серверов, либо серверов с системами хранения с жесткими дисками, не системами хранения данных еще раз, с обратной стороны – блоки питания, вентиляция, сетевой интерконнект и модули управления самим шасси, через которые происходит управление аппаратными узлами этого агрегата.







Так, по узлам – это не все узлы, которые у нас есть для наших блейдов, их список значительно шире, больше, есть специфические модели, компактные, когда в один слот вставляется два двух-процессорных сервера, скажем так, популярное решение для high performance компьютинга. Но вот самая типовая набивка именно для FusionCube – двух-процессорный сервер, 24 планки памяти, 2 процессора Xeon Е5, в принципе, поколение Е4, E3 доступно, сервер 222-й в правой части, он аналогичен вот этому серверу, просто у него есть пристежная корзина на 15 жестких дисков, это вот узел хранения, который будет использоваться в Fusion Storage. Здесь есть выделенный RAID контроллер аппаратный от LSI, но как правило, он используется в режиме рейда первого, нулевого, когда все диски доступны индивидуально. Скажу сейчас, что в следующем месяце появляется новый узел, в котором, правда, не 15 дисков, а 12 дисков, и они уже подключены по протоколу NVМe, т.е. они через PCI-express подключаются с минимальными задержками, латентностями и так далее. Есть еще 226-й узел под 3-дюймовые диски, т.е. если нужен узел для медленного хранения 8-10 терабайтников, то он тоже есть для блейдов. 220-я модель –блейд сервера c 6-ю pci-ными слотами, внутрь можно поставить PCI-карточки обычные, причем, две из них можно выкинуть порты наружу, в них включить либо специфические карточки сетевые, которые пробрасывают трафик через себя в выключенном состоянии, либо NVIDIA Cuda поставить, как они там, Intel Fixion и прочие специфические вещи. Из особенностей, кстати, попрошу прощения, вернусь к 121-му узлу – туда можно поставить внутрь блейд-сервера одну PCI-экспрессную карту, обычную с лезвийным разъемом, т.е. не мезонинный, не какой-то проприетарного протокола, а обычного, обычный PCI-express, это может быть наша SSD-шная карточка, это может быть, я не знаю, ключи для 1С юсбишные, это может быть какая-то криптография кастовая, это может быть ограничение доступа к серверу и так далее, т.е. в обычный узел двух-процессорный можно смонтировать такую карту. Ну и, собственно, 242 узел – это 4-процессорник, 1 Тбайт оперативной памяти, 4 процессора Xeon Е7.

Сетевая коммутация, которая используется в FusionCube. 310-й – это 10-гигабитный коммутатор, CX611 – это InfiniBand коммутатор. В принципе, у нас сейчас доступны 40-гигабитные коммутаторы уже как год, даже больше, уже второй год, как доступны для блейдов 40Гбит и в сентябре будет доступен 100Гбит InfiniBand, т.е. если вы боитесь, что упретесь в производительность сетевого интерконнекта, можете не бояться, еще очень нескоро в него упретесь.







Младшее решение FusionCube 6000, здесь, кстати, ошибка, ну не ошибка, а цветом подсветили неправильно, 6000-я – 4-юнитное шасси, в которое можно поставить до 8 процессорных серверов. Здесь изображено 4 узла, покажу, что дальше за узлы… Сетевой интерконнект доступен с лицевой части, сзади 4 блока питания общие, которые питают всю конструкцию, и система охлаждения, которая также охлаждает всю конструкцию. Сзади есть pci-слоты, которые проброшены прям по каждому серверу в эти сектора.







Про сервер – сервер, опять же, есть в достаточном ассортименте, есть сервера с жесткими дисками, подключаемые по sas-протоколу, есть по pnvme-протоколу, есть, вот здесь изображено, два процессора и 12 трех-дюймовых жестких диска, а внутри салазок трех-дюймовых могут стоять двух-дюймовые жесткие диски. Есть вариант с подключением по sas, есть вариант по NVМe, есть вариант с PCI-express, т.е. стоят pci-экспрессные разъемы, туда можно поставить либо видеокарты NVIDIA Cuda и прочее, либо, допустим, наши PCI-экспрессные карты.







Ну и, собственно, наши PCI-экспрессные карты – внезапно, скажем так, историческая справка: компания HUAWEI является той компанией, которая первая выпустила вот эти вот карты вообще в мире, т.е. они существуют сейчас у многих вендоров, в широком ассортименте, какие-то карты лучше наших, скажем так, больше нравятся заказчикам, какие-то карты мы считаем, что лучше, чем другие, но тем не менее, вот этим вот вопросом, создание PCI-экспрессных SSD-карт HUAWEI начал заниматься достаточно давно и выпустил в промышленную эксплуатацию эти карты одними из первых. Это SSD накопитель, который втыкается в PCI-ный разъем, за счет отсутствия этих sas-протоколов, за счет отсутствия sas-овских RAID контроллеров и пр. его латентность 9 микросекунд, не миллисекунд, а микросекунд, то что, в общем-то, на 1000 порядков меньше, чем параметры классических СХД или классических жестких дисков. Параметры по производительности по IOPS-ам, собственно видите, 770 в пике и до 230 в стабильном режиме. В общем-то инсталляция этих карточек внутрь узлов хранения позволяет нам не беспокоиться о производительность нашей софтверной СХД. Несмотря на то, что там могут использоваться обычные SAS-диски, SATA-шные диски, при наличии вот этих вот карточек, за счет кэширования данных на них, производительность достаточно велика.







По поводу управления – в принципе, я уже коротко сказал, есть FusionCube Builder, ставите на лэптоп, подключаете FusionCube, делаете next, next, next, к сожалению, слайд на китайском языке. Сразу скажу, это доступно для ограниченного набора ПО, т.е. вы не можете там…визарда для создания лотус нотуса нет, или для 1С, к сожалению, нет пока. Есть для ландшафта FusionSphere или для ландшафта Vmware ESXi. Делаете next, next, next, за один час разворачиваете до 8 узлов, собственно, готовых, сконфигурированных.







Затем мониторинг. Мониторите сразу через единое окошко физические сервера, физические сетевые компоненты, Fusion Storage, хотел сказать физическую хранилку, но не физическую, а виртуальную и пулы ресурсов виртуальных машин, либо на данный момент доступна FusionSphere и VmWare продукт.







Как выглядит интерфейс – он, на самом деле, на английском языке, пугаться не надо, есть там, конечно, режим переключения, какой язык использовать. Русского языка, сразу говорю, нет. Есть английский, достаточно понятный, достаточно прозрачный, мониторинг выглядит вот следующим образом, никаких там страшных иероглифов больше не попадается, ну и единое логирование данных, что происходит с системой также доступно через этот интерфейс.

Повожу небольшое резюме: FusionCube это аппаратное решение с виртуальной СХД, с software defined storage. Как вы будете использовать в дальнейшем FusionCube, в общем-то, зависит от ваших задач, которые вы собираетесь решать. Еще раз повторюсь, FusionCube это не равно виртуализация, да, это один из вариантов применения, но не обязательно 100%.







Перехожу к FusionSphere. FusionSphere – называется она у нас облачной операционной системой, развивается она в соответствии со стандартами, не знаю, как это сказать, OpenStack.







Компания HUAWEI участвует в данном мероприятии, вклад в OpenStack Community оценивается следующими параметрами: 23 новшества было привнесено компанией, 63 бага, вот красным цветом это показывает место, которое занимает HUAWEI по величине вклада, программного кода и т.д. В принципе, тут должна быть такая небольшая похвальба, что мы вот участвуем в OpenStack Community, у нас там статус золотой, в общем-то, мы с вами, из этой серии.







Все-таки из чего же состоит программный продукт, где заканчивается HUAWEI и начинается OpenStack. Собственно, вот про этого героя я вам уже все практически рассказал. FusionStorage является компонентом FusionSphere, но он может покупаться, приобретаться, использоваться отдельно.

Fusion Compute – это серверная виртуализация, это гипервизор и сервер, который управляет гипервизорами. У нас он называется Virtual Resource Manager или VRM сокращенно, это аналог VmWare-вского V-center. Вы через вот этот вот VRM управляете нашими гипервизорами, нашими виртуальными машинами и так далее. И, в том числе, есть там закладка для FusionStorage.

Следующий компонент – FusionNetwork. На данный момент он представляет, пока что уверенно можно говорить только про одну инстанцию – это виртуальный свитч, распределенный между гипервизорами, остальные элементы SDN-контроллеры, они пока что таким пунктиром выделены, т.е. они пока что в разработке и для коммерческого использования не доступны. Ключевое слово «для коммерческого». Далее через плагины, через драйвера, это дело интегрируется с контроллерами OpenStack, который сверху управляется, опять же, через наш портал управления, который называется ManageOne, т.е. в комплекте с нашим решением есть еще и портал самообслуживание и административный портал, они на одном сервере крутятся, просто под разные задачи. Здесь можно определить, где заканчивается HUAWEI и начинает OpenStack. Да, за развитие собственных гипервизоров, за развитие СХД, за развитие сети, отвечает компания HUAWEI. За интеграцию с OpenStack отвечают все вместе.









По поводу параметров FusionSphere, параметров виртуализации – хвалиться особо нечем, параметры на самом деле, такие же, как и у всех – 128 виртуальных процессоров на одну виртуальную машину, до 4 Тбайт оперативной памяти, 64 Тбайт максимальный размер жесткого диска, 60 дисков на одну виртуальную машину, 12 сетевых интерфейсов виртуальных на одну виртуалку, количество физических ядер на сервере до 480, оперативной памяти физической, на которой развернута Fusion сфера, до 12 Тбайт, одновременное количество включенных виртуальных машин 1000 на одном кластере. Эти параметры тоже озвучивать не буду, кому-то нравится, кому-то не нравится, в принципе, параметры средние по больнице, средние по отрасли, т.е. у Hyper-V или у ESXi Vmware примерно то же самое.







По поводу портала – портал, я сказал, что портал – это отдельное решение, называется ManageOne, ставится на отдельную виртуальную машину, физическую машину и через него происходит обслуживание, администрирование вот этого облачного решения.







По поводу безопасности пользователей — для каждого пула ресурсов существует свой сисадмин, т.е. у нас нет единого супер-админа, супер-рута, который может настраивать сразу все, и физическое оборудование, и пулы ресурсов, и приложениями, и инфраструктурой виртуальной, нет, это 4 разные инстанции и они должны между собой согласовывать свои действия. В принципе, с вопросом безопасности сюда же отправляю вопрос по ФСТЭКу. В данный момент система находится в процессе обследования, соответственно одобрения, сертификат в ФСТЭК будет получен где-то в сентябре-октябре на данный продукт. Данный продукт на данный момент сертификацией не обладает.







По поводу катастрофоустойчивости и отказоустойчивости – это решается силами самой платформы на базе. Значит, отказоустойчивость внутри ЦОД высокая доступность, full tolerance доступны, создание актив-активных дата-центров, актив-пассивных дата-центров, репликации, политики, прочее доступны и гео-распределенные, гео-удаленные ЦОДы тоже можно решать эти задачи на уровне данного приложения. В принципе, уже удаленные, распределенные географически ландшафты, наверное, лучше получаются, когда используется, в том числе, и наше оборудование сетевое, и системы хранения данных, где происходит аппликация данных не софтверным путем, а за счет аппаратных ресурсов систем хранения данных, например.







Из преимуществ – инсталляция с графического интерфейса, т.е. с командной строкой ковыряться не нужно, не знаю, насколько это является преимуществом для того или иного заказчика или партнера, но тем не менее инсталляция происходит из графического интерфейса.







Поддержка операционных систем гостевых – поддерживается достаточно широкий ассортимент, начиная с Windows-систем, заканчивая совершенно экзотическими внутри-китайскими, скажем так, линуксами, которые, в общем-то, никого не интересуют за пределами Поднебесной, но тем не менее, они также поддерживаются. Есть еще волшебный вот такой вот сегмент – кастом, т.е. если вам нужна интеграция с нашей Fusion сферой, вам нужны какие-то виртуальные драйвера, обращайтесь, если что наш R&D готов решить и эту задачу.







Про реализованные проекты. Про FusionSphere я закончил, совсем коротко получается, я по времени ограничен, перехожу про те моменты, которые уже реализованы на данный момент.

Наверное, первый облачный, ну не первый, наверное, начну с облаков. Аргентина Телеком понятно, что достаточно далеко от нас, другой континент, но все, если я назову ядро сети виртуализовано, то я не уверен, что правильно поймете, ядро сети сотового оператора полностью виртуализовано, т.е. это не сетевой коммутатор, который в дата-центре основным там считается, виртуализировано, а именно все сервисы, все услуги, которые передает и использует данный оператор, они выполняются теперь на виртуальной платформе и эта виртуальная платформа FusionSphere.







Отечественный заказчик – компания Антарес, специфический у него выбран сегмент бизнеса – это voice over lte, voice over wi-fi, то есть это сотовый оператор связи, но он пользуется либо lte, либо wi-fi для передачи голосового трафика, т.е. он не пользуется ни 2G, ни 3G сетями, как таковыми. Вот у них тоже ядро сети оператора сотовой связи полностью реализовано на нашем решении, в том числе на наших блейдах. В принципе, можно сказать, что это FusionCube с FusionSphere для реализации вот этих задач.







Следующий вариант – китайское публичное облако для использования самим государством. Ну не знаю, хвалиться этим, наверное, в наших широтах бессмысленно, но в целом, само китайское государство пользуется этой платформой OpenStack совместимой, разработанной HUAWEI, для своих государственных нужд, и не испытывает при этом никаких больших проблем.







Еще внезапные потребители вот этого ПО – сама компания HUAWEI. Зачастую бывает, что компании, которые производят тот или иной продукт, ими стараются не пользоваться. Здесь ситуация обратная, все наше R&D сидит на VDI, на виртуальных рабочих столах, все эти виртуальные рабочие столы развернуты в облаке, т.е. у сотрудников нет ни ноутбуков, ни лэптопов никаких, ничего нет, они сидят полностью на этой облачной инфраструктуре. Я не говорю про продавцов, я не говорю про менеджеров, я говорю про R&D, про инженеров, которые занимаются разработкой.







И, собственно, наверное, самый интересный проект – это Deutsche Telecom, T Systems. К вопросу об импортозамещении и хранении личных данных это забава не наших правителей российских, это международная забава вообще. В Германии в один прекрасный момент поняли, что большинство их компаний китайских пользуются ресурсами Amazon, кому принадлежит Amazon – вопрос достаточно темный, он точно не подвластен немецкому правительству, вопрос, кому же он принадлежит, Ирландии или США, в какой юрисдикции находится, остается в воздухе. Этот момент не устроил немецкое правительство, и был выбран отечественный немецкий оператор, прошу прощения, не оператор, а телеком-компания Deutsche Telecom для реализации отечественного облака, чтобы оно находилось на территории Германии, чтобы там хранились все данные, которые принадлежат компаниям, юрисдикция которых попадает под немецкое законодательство, и, собственно, это работало отказо-устойчиво, безотказно, 24/7, с гибкими сервисами, и вообще это был немецкий Amazon, в общем-то, в двух словах. И этот вопрос был успешно закрыт компанией HUAWEI в 2016 году на CeBIT была презентация этого решения, что оно теперь доступно.







В этом решении были вложены не только, решены вопросы софтверные какие-то, облака, безопасность, ресурсы и прочее, в том числе, выполнялась еще постройка нового дата-центра, модульного, на базе продукции компании HUAWEI, новый дата-центр создавался контейнерный на границе между Германией и Голландией, т.е. был такой совместный консорциум, не только Германия участвовала в этом мероприятии, и резервный ЦОД, на котором не хранятся данные, а хранятся вспомогательные вещи, находится в Ирландии. Вот этот вот единый пул из трех дата-центров был закрыт единым ПО FusionSphere.







Вот как выглядит схема нового дата-центра контейнерного, вот это 4 контейнера, один из них обитаемый. Это контейнер под климатическое оборудование, чиллеры, это контейнер под ИБП, это контейнер под IT-оборудование. В принципе, видно, что его можно линейно масштабировать это решение до нужных вам объемов, т.е. это не конечное решение.







Ну и самое интересное, я думаю, и вам будет самое приятное, что облако уже публично доступно, вы можете в любой момент туда залогиниться вот по этой ссылке, создать бесплатно тестовую машину и, в принципе, уже сейчас посмотреть, что такое FusionSphere, т.е. вам не нужно ее инсталлировать, вам не нужно где-то железо, ресурсы искать, вот Deutsche Telecom развернул FusionSphere на собственных аппаратных, интеллектуальных ресурсах. Понятно, что это был проект большой, и поддержка со стороны HUAWEI была значительной, тем не менее, это уже готовый ресурс, на котором вы можете потренироваться. Понятно, что может быть в продакшн запускать в соответствие с нашими законодательствами сразу не получится, но по крайней мере, технологические какие-то вопросы разрешить, этот ресурс вам поможет.








Original source: habrahabr.ru (comments, light).

https://habrahabr.ru/post/305430/

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество

Следующие 30  »

<хостинг - Самое интересное в блогах

Страницы: [1] 2 3 ..
.. 10

LiveInternet.Ru Ссылки: на главную|почта|знакомства|одноклассники|фото|открытки|тесты|чат
О проекте: помощь|контакты|разместить рекламу|версия для pda