Трёхуровневая модель сети и технологии VLAN, DHCP, OSPF, STP, SNMP, ACL, NTP на Cisco и D-Link |
Статья поможет новичкам понять как настраивать оборудование Cisco и D-Link в трёхуровневой модели сети. Конфигурация, представленная тут, не является эталонной или базовой — она для примера и понимания сути вещей, т.к. для каждого сетевого решения применяются свои параметры и технологии.
Рассмотрим следующую схему трёхуровневой иерархической модели, которая используется во многих решениях построения сетей:
Распределение объектов сети по уровням происходит согласно функционалу, который выполняет каждый объект, это помогает анализировать каждый уровень независимо от других, т.е. распределение идёт в основном не по физическим понятиям, а по логическим.
На уровне ядра необходима скоростная и отказоустойчивая пересылка большого объема трафика без появления задержек. Тут необходимо учитывать, что ACL и неоптимальная маршрутизация между сетями может замедлить трафик.
Обычно при появлении проблем с производительностью уровня ядра приходиться не расширять, а модернизировать оборудование, и иногда целиком менять на более производительное. Поэтому лучше сразу использовать максимально лучшее оборудование не забывая о наличии высокоскоростных интерфейсов с запасом на будущее. Если применяется несколько узлов, то рекомендуется объединять их в кольцо для обеспечения резерва.
На этом уровне применяют маршрутизаторы с принципом настройки — VLAN (один или несколько) на один узел уровня Distribution.
Тут происходит маршрутизация пользовательского трафика между сетями VLAN’ов и его фильтрация на основе ACL. На этом уровне описывается политика сети для конечных пользователей, формируются домены broadcast и multicast рассылок. Также на этом уровне иногда используются статические маршруты для изменения в маршрутизации на основе динамических протоколов. Часто применяют оборудование с большой ёмкостью портов SFP. Большое количество портов обеспечит возможность подключения множества узлов уровня доступа, а интерфейс SFP предоставит выбор в использовании электрических или оптических связей на нижестоящий уровень. Также рекомендуется объедение нескольких узлов в кольцо.
Часто применяются коммутаторы с функциями маршрутизации (L2/3) и с принципом настройки: VLAN каждого сервиса на один узел уровня Access.
К уровню доступа непосредственно физически присоединяются сами пользователи.
Часто на этом уровне трафик с пользовательских портов маркируется нужными метками DSCP.
Тут применяются коммутаторы L2 (иногда L2/3+) с принципом настройки: VLAN услуги на порт пользователя + управляющий VLAN на устройство доступа.
При рассмотрении следующих технологий используется оборудование уровня ядра и распределения Cisco Catalyst, а для уровня доступа — D-Link DES. На практике такое разделение брендов часто встречается из-за разницы в цене, т.к. на уровень доступа в основном необходимо ставить большое количество коммутаторов, наращивая ёмкость портов, и не все могут себе позволить, чтобы эти коммутаторы были Cisco.
Соберём следующую схему:
Схема упрощена для понимания практики: каждое ядро включает в себя только по одному узлу уровня распределения, и на каждый такой узел приходится по одному узлу уровня доступа.
На практике при больших масштабах сети смысл подобной структуры в том, что трафик пользователей с множества коммутаторов уровня доступа агрегируется на родительском узле распределения, маршрутизируется или коммутируется по необходимости на вышестоящее ядро, на соседний узел распределения или непосредственно между самими пользователями с разных узлов доступа. А каждое ядро маршрутизирует или коммутирует трафик между несколькими узлами распределения, которые непосредственно включены в него, или между соседними ядрами.
|
Установка, настройка и оптимизация Windows Vista - Часть I |
Читать продолжение подробнее >>>
http://stss.3dn.ru/publ/ustanovka_nastrojka_i_optimizacija_windows_vista_chast_i/1-1-0-251
|
Enterprise RAID дома от нечего делать |
И немножко слов про более мелкие массивы...
Однажды потеряв информацию на жестком диске не по собственной глупости или легкомыслию, а из-за причин форс-мажорных я стал параноиком. Уже много лет в корпусе моего ПК нет ни одного диска, который бы не был частью массива и ни одного массива, который не имел бы резервирования.
Сначала данное правило, написанное потом и слезами обходилось достаточно дёшево - небольшие по объёму диски, массивы без контроля четности, интегрированные или простенькие дискретные контроллеры... но с недавних пор стало откровенно не интересно апгрейдить процессор или видеокарту т.к. старых хватает для моих повседневных нужд и выходить из строя основа системы не собирается, а покупать новые железки исключительно из спортивного интереса уже просто спортивно не интересно... да и все домашние уже обеспечены моими "обносками". Старшее поколение играет в казуальные игры на разогнанном Opteron 185 с водяным охлаждением и парой 8800GTS в SLI, жена "донашивает" плоды увлечения маленькими HTPC, а младшее поколение прониклось плодами моего увлечения бесшумными ПК.
Решение проблемы оказалось на поверхности. Устраивают качественные характеристики - нужно увеличить количественные и поработать над формой.
Первым в ряду работы над формой и количеством стал монитор. Хороший матовый монитор диагональю 24" и с соотношением сторон 16х10 - вымирающий вид, но меня устраивает.
Потом был корпус, который выбирался с оглядкой на то, что дисков в нем будет много. В итоге нашлась модель с доступной ценой, компактными размерами и девятью отсеками под устройства размера 5,25". Сразу к корпусу были куплены три корзины, пара занимающих 3 отсека 5,25" и вмещающих по 5 устройств SATA/SAS 3,5" и одна занимающая 2 отсека 5,25" и вмещающая 3 устройства SATA/SAS 3,5". Итого, корпус достаточно стандартных размеров (E-ATX, но не Full Tower) позволил вместить и нормально охладить тринадцать жестких дисков и один оптический привод. Вкупе с блоком питания денег на данное решение было потрачено достаточно много, а значит и удовлетворение было большое! А тот факт, что корпус пришлось дорабатывать (спиливать ограничительные выступы между отсеками 5,25") только добавил радости.
Потратить около полутысячи долларов на нормальный аппаратный RAID контроллер с КЭШем, батарейкой и прочими пропеллерами долго не представлялось случая – либо жаба давила, либо контроллеры были так или иначе спорными. Но в один прекрасный момент стало понятно, что все мои дешевые и предсказуемые Promise TX4650/4660 массивы с контролем четности тянут откровенно плохо, а объём массива RAID10 упирается в смешную по моему мнению цифру четыре терабипа (или как их там зовут?) или в православные три целых и шестьдесят две сотых терабайта. А это во-первых мало, во-вторых, в случае наличия нескольких массивов требует обеспечения большой скорости передачи данных между ними для комфортной работы и в третьих, у меня же тринадцать дырочек под диски, это сколько ж десятых рейдов то надо? Да и не делится тринадцать на четыре..
Пробовал решать данную проблему посредством доступного, достойного и редкого в наших краях контроллера Areca ARC 1220 (на европейском и отечественном рынке доступен под брендом Tekram) в пользу которого говорят и стандартные провода и цена и компактные размеры и приличная производительность в RAID6, но с BBU под него есть некоторые проблемы, да и SAS он не умеет. Так что, этот контроллер рассматривался исключительно как запасной вариант наряду с некоторыми почти HBA контроллерами от Promise (TX8660 и пр.) и контроллерами на чипах LSI, а все аппаратные контроллеры на восемь и более портов с XOR процессором, КЭШем и BBU стоили куда дороже психологически страшной суммы 500 долларов. Именно этот факт и останавливал от покупки большого числа ёмких дисков для построения большого массива. Диски кстати тоже стоят не дёшево – прикиньте сколько стоит быстрый диск на 2 терабайта, а потом помножьте цену на 6, на 8, на 10…
Решение пришло как обычно откуда не ждали – один интернет-магазин, называть который я не считаю нужным т.к. он, во-первых и так рекламируется на данном ресурсе, а во-вторых там такого всё равно больше нет, предлагал своим посетителям купить диковинную позицию «RAID-контроллер IBM ServeRAID 8s» за смешные три с половиной тысячи рублей. Не долго думая я сделал заказ. Как потом оказалось, этот контроллер оказался перемаркированным Adaptec ASR4805SAS в варианте с объемом КЭШа 256 мегабайт. Кабелей в комплекте не было, официальным адаптеком контроллер формально не поддерживался. Серия 4ххх контроллеров вообще стала пробой пера компании в создании SAS контроллеров – относительно дорогие, относительно не быстрые, безотносительно не перекрывающие рынок (нет дешевых и многопортовых моделей) и пр. Но за сотню-то баксов и 8s – контроллер!
Провода были куплены в другом интернет магазине по цене около пятидесяти долларов за пару – приехали вместе с контроллером в одном синеньком фольфцвагене с надписью EMS на боку.
Проблема покупки жестких дисков оказалась проблемой. Брать дешевые и медленные WD Caviar Green не хотелось т.к. брендовый пожилой контроллер мог и не знать об их особенностях. Дорогие WD Caviar Black хотелось еще меньше, т.к. было решено купить разом восемь штук номер к номеру. Seagate подорвал к себе доверие известной проблемой, именуемой «Муха CC» как в одиннадцатой, так и в двенадцатой серии. Samsung тоже не рассматривался.
Теоретически отсавалось два варианта. Один, очень дорогой - Hitachi Deskstar A7K2000 был отметен сразу. Второй – доступный по цене Hitachi Deskstar 7K2000 (HDS722020ALA330) оказалось просто невозможно купить перед новым годом. Все поставщики пеняли на таможню, дилеров и др. и пр. Но в итоге буквально перед новым годом десять одинаковых дескстаров лежали у меня на столе. Вообще, было куплено двенадцать дисков… Спросите нафига? Новогодняя премия, тринадцатая зарплата, возврат НДФЛ, желание порадовать себя любимого и природное транжирство… да и вапще, прикольно же! Но два из них имели другую версию прошивки.
Какой именно RAID строить и как расположить диски по корзинам было решено давно и быстренько был построен RAID массив шестого уровня из восьми двухтерабайтных дисков, форматированная емкость которого составила чуть менее одиннадцати терабайт. Два диска из восьми используются для сохранения контрольных сумм. Массив сохранит работоспособность при выходе из строя двух дисков. Spare диска нет по причине того что во-первых закончились внутренние порты контроллера. А во-вторых корпус не резиновый. Два запечатанных диска из той же коробки что и участники массива лежат в сейфе… на всякий случай. Не зря я в начале говорил о паранойе.
Жить без BBU было в принципе можно, к тому же контроллер позволял активировать кэш записи даже без батарейки, что при наличии у меня UPS было не так рисковано, но решение проблемы опять пришло откуда не ждали! Один Русский интернет-магазин с Гонконгскими корнями, торгующий аккумуляторами для ноутбуков, телефонов, фотоаппаратов и пр. имел в разделе «Аккумуляторы для телефонов» устройство с длинным названием «Аккумулятор для adaptec 2218300-R, 4800SAS, 4805SAS, ABM-600, Serial Attached SCSI RAID Controllers» и ценой около двадцати долларов с доставкой… через неделю данное устройство лежало передо мной на столе и после имплантации его в контроллер оказалось что хоть его и не возможно закрепить в штатные отверстия, контроллер батарею видит, заряжает, а батарея держит КЭШ как минимум 4 часа. Дольше не проверял, но драйвер говорит о пяти сутках. BBU подвязал к плате на капроновые стяжки.
Когда уже казалось что больше хотеть некуда – серьезный контроллер, серьёзный массив, контроль двухбайтовых ошибок, батарея… мне стало неуютно держать системный раздел на HBA контроллере и… через один известный иностранный аукцион был куплен… второй экземпляр контроллера IBM ServeRAID 8s, да не простой, а с оригинальной батареей! Хочу заметить что и первый и второй контроллеры и оригинальная батарея были новыми в оригинальной упаковке. Цена второго контроллера почти в полтора раза превышала цену первого, но поскольку продавец оказался Россиянином, то с доставкой не было никаких проблем. Кстати, у него такие контроллеры еще есть… просто зайдите на сайт самого известного иностранного интернет аукциона, введите в поиск марку контроллера и ищите продавца – земляка наших двух последних президентов. Никакой рекламы!
В итоге хочу сказать что, проявив некоторую сноровку можно (и нужно!) обновить прошивку контроллера до последней версии с сайта IBM, драйвер тоже лучше использовать от IBM, а не от Adaptec, а вот вместо менеджера от IBM желательно использовать ASM последней версии от Adaptec.
Из отрицательных эмоций от использования данной системы хочется отметить три момента:
Продолжение можно прочитать тут:
http://stss.3dn.ru/publ/enterprise_raid_doma_ot_nechego_delat/1-1-0-250
Метки: ibm контроллер массив raid sas двухтерабайтный bbu корпус проблемы решение adaptec доллар диск |
В каталог добавлены продукты HP StorageWorks |
Каталог продуктов пополнился системами хранения данных HP StorageWorks.
Каталог пополнился продуктами HP StorageWorks:
HP StorageWorks 1/8 G2 Tape Autoloader - ленточный автозагрузчик с возможностью загрузки до 8-и кассет LTO 1-4
HP StorageWorks 2000 Modular Smart Array - дисковая система хранения с возможностью масштабирования до 48-и жестких дисков
Подробнее на нашем сайте:
Метки: hp storageworks |
Рабочая станция имеет непревзойденную производительность 32-х (!!!) ядер |
В связи с получением поддержки четырехядерных процессоров AMD Opteron 8347 на базе ядра Barcelona, сервер STSS Flagman QD820 и профессиональная рабочая станция STSS Flagman WD820 имеет теперь непревзойденную производительность 32-х (!!!) ядер.
Всего несколько лет назад только суперкомпьютеры стоимостью сотни тысяч и даже миллионы долларов могли похвастаться сравнимой производительностью. Теперь вычислительная мощь 32-х ядерного сервера стала доступна. Сервер STSS Flagman QD820 и рабочая станция STSS Flagman WS820 поддерживают до 256Гб оперативной памяти.
Это новость с нашего сайта http://www.stss.ru/
Метки: вычислительная мощь рабочая станция |
Дневник stssru |
|
Страницы: [1] Календарь |