Новая гипермасштабируемая система хранения Fujitsu ETERNUS CD10000 решает проблему управления объемами данных пета-масштаба
27 октября 2014 года – Обработка больших данных при пересечении рубежа 1 петабайт является серьезной проблемой, поэтому сегодня компания Fujitsu представляет первую в мире систему хранения, способную неограниченно масштабироваться и работать так долго, как это требуется для онлайн-данных, хранящихся в ней. Fujitsu ETERNUS CD10000 помогает организациям исключить основные проблемы, связанные с экспоненциальным ростом данных, благодаря созданию экосистемы хранения с неограниченной емкостью и неограниченным сроком службы.
Увеличение глобальных объемов генерируемых и доступных в режиме онлайн данных ставит перед организациями три ключевые проблемы: растущая потребность в масштабируемости, повышение сложности и стоимости, а также физические ограничения, которые не позволят в будущем обеспечить реальную миграцию данных между системами хранения без серьезных сбоев в обслуживании. Учитывая эти факторы, компании вынуждены искать новые подходы к традиционным системам хранения, поскольку в новую эру требуется обеспечивать оперативный доступ к десяткам петабайт (ПБ) данных, причем ко всем одновременно. Это огромный объем данных, для наглядности – один петабайт эквивалентен примерно 100 000 часов видео в формате Full HD 1080p.
Архитектура новой распределенной горизонтально масштабируемой экосистемы гипермасштаба предусматривает штатное добавление, замену и модернизацию отдельных узлов без простоев, поэтому вся система – и данные – будет функционировать бесконечно долго. Обратная совместимость означает, что новые узлы смогут работать совместно с более старыми, что гарантирует защиту инвестиций в новую систему ETERNUS.
Поистине безграничная масштабируемость: новая эра неограниченной емкости систем хранения данных
Новая система ETERNUS CD10000 знаменует новую эру решений с экстремально высокой емкостью, предназначенных для повседневного хранения данных, а также для управления. На момент выпуска система поддерживает емкость до 56 ПБ (56 000 ТБ) онлайн-данных за счет агрегации до 224 узлов хранения. В следующем году компания Fujitsu представит обновления, обеспечивающие значительно более высокую масштабируемость.
Fujitsu создает совершенно новую экономику для компаний, управляющих наборами онлайн-данных объемом 250 ТБ и более (поставщики облачных и телекоммуникационных услуг, финансовые организации, средства массовой информации и компании, специализирующиеся в области бизнес-аналитики и др.), а также для любых компаний из тех сегментов, где объемы онлайн-данных растут очень быстро.
В основе новой системы хранения Fujitsu корпоративного уровня лежит ПО Inktank Ceph Enterprise с открытым исходным кодом от компании Red Hat, а также дополнительные функциональные усовершенствования, призванные обеспечить всестороннее управление всей системой из единого окна. Благодаря полному всестороннему набору сервисов обслуживания и поддержки мирового уровня заказчики систем хранения на базе ПО с открытым исходным кодом впервые смогут получить обслуживание действительно корпоративного класса. Система ETERNUS CD10000 предлагает уникальное единое представление блоков, объектов и файлов в одном распределенном кластере хранения данных, что позволяет снизить сложность и затраты на управление хранением данных, а также оптимизировать пространство на физических дисках для хранения данных.
■ Цитаты
Хироаки Кондо (Hiroaki Kondo), старший вице-президент, руководитель бизнес-подразделения систем хранения данных, компания Fujitsu
«Система ETERNUS CD10000 кардинальным образом меняет подход организаций к работе с постоянно растущими объемами онлайн-данных. Fujitsu – первый глобальный поставщик массовых технологий хранения, предлагающий платформу СХД гипермасштаба на основе ПО с открытым исходным кодом для оперативного хранения данных, которая позволит организациям устранить появление «узких мест» в будущем и восстановить контроль над затратами».
Ларс Гёбель (Lars Göbel), директор по решениям для ЦОД/ИТ-сервисам, центр обработки данных, г. Дармштадт, Германия
«Вычислительный центр в Дармштадте – это совершенно новый центр обработки данных, созданный в соответствии с наивысшими стандартами, которые позволяют обеспечить онлайн-поддержку критически важных сред, таких как Deutsche Börse Cloud Exchange (DBCE), независимая биржа облачных ресурсов. Мы постоянно работаем над тем, чтобы поддерживать конкурентоспособность за счет эффективности затрат и при этом предоставлять критически важные уровни производительности для облачных онлайн-данных. Fujitsu ETERNUS CD10000 – идеальное решение, благодаря которому DBCE способна предложить превосходное сочетание в высшей степени конкурентной цены и гарантии постоянной работоспособности системы».
Ранга Рангачари (Ranga Rangachari), вице-президент и генеральный менеджер, подразделение систем хранения и больших данных, компания Red Hat
«Компания Red Hat старается предоставить корпоративным заказчикам всеобъемлющий, открытый портфель программно-определяемых приложений, охватывающий физические, виртуальные и облачные среды. Альянс с ведущими ИТ-поставщиками отрасли, такими как Fujitsu, позволяет Red Hat поставлять предприятиям, управляющим данными пета-масштаба, проверенные решения для хранения данных. Объединив ПО Inktank Ceph Enterprise компании Red Hat для систем хранения данных с новой СХД Fujitsu ETERNUS CD10000 гипермасштаба, мы смогли предложить заказчикам скорость и гибкость, необходимую для того, чтобы реализовать возможности сред гипермасштаба нового поколения».
Уве Грёнинг (Uwe Groening), консультант/глава команды облачных компетенций, компания PROFI Engineering Systems AG
«Компания PROFI AG как один из важнейших поставщиков ИТ-решений в Германии и участник-основатель инициативы Fujitsu SELECT Circle по выпуску систем с расширенными функциями, таких как новые системы ETERNUS CD10000, занимает отличную позицию, позволяющую предложить заказчикам пионерское решение для сред хранения данных гипермасштаба».
2 марта 2007 года. Hitachi Data Systems сделала важный стратегический шаг, способный придать новый импульс рынку систем хранения для высокопроизводительных вычислений (HPC), объявив о значительных усовершенствованиях Hitachi High-performance NAS Platform, оснащенной технологией BlueArc, которые еще больше увеличат преимущество этой платформы над конкурирующими решениями. На основе достигнутого на практике уровня производительности и продемонстрированной почти линейной масштабируемости Hitachi High-performance NAS Platform сегодня обеспечивает более 1 миллиона IOPs (операций ввода/вывода в секунду) в новой конфигурации 4-узлового кластера.
Сегодняшний анонс является развитием заключенного в декабре прошлого года OEM-соглашения Hitachi Data Systems с BlueArc, которое создало идеальные условия для создания высокотехнологичных решений для виртуализации на уровне файлов, расширяющих возможности Hitachi Data Systems по завоеванию глобального рынка систем хранения для высокопроизводительных вычислений (HPC).
Комментируя сегодняшний анонс, вице-президент Hitachi Data Systems по направлению Product Management Джон Менсфилд (John Mansfield), заявил: “Мы вывели технологии NAS на следующий уровень за счет перехода на 4-узловой кластер и существенно повысили уровень производительности, которую получают клиенты от Hitachi High-performance NAS Platform. Наша уникальная архитектура обеспечивает высокую эффективность использования ресурсов кластера и значительно опережает по этому показателю конкурентов. Благодаря повышению производительности уменьшаются расходы и затраты ресурсов на хранение, управление и, что важнее всего, обеспечение доступа к данным. Наша усовершенствованная платформа NAS идеально подходит как для корпоративных клиентов, которые внедряют крупномасштабную консолидацию, так и для сектора суперкомпьютерных вычислений, связанных с обработкой больших объемов данных, например, исследований в области науки о жизни, для Internet-провайдеров и индустрии развлечений, которым требуется максимум производительности и масштабируемости”.
"Масштабируемость – это обязательное требование к системам хранения high-end, - отметил Тони Эйсаро (Tony Asaro), старший аналитик Enterprise Strategy Group. – NAS-системы класса High-end часто не масштабируются выше двухузловой архитектуры и относительно небольшой файловой системы. Высокопроизводительное решение NAS от Hitachi может масштабироваться до 4 узлов и 512-терабайтного пространства имен и обеспечивает высокую производительность для всех типов данных, в том числе транзакционных и потокового ввода/вывода. У Hitachi есть прекрасный шанс стать лидером рынка high-end NAS, в том числе для центров обработки данных и суперкомпьютерных вычислений. Эта компания – ведущий производитель систем хранения, хорошо понимающий вопросы поддержки критически-важных приложений, которым нужна максимальная производительность, защита данных, надежность и масштабируемость".
■ Усовершенствованная защита данных - идеальное решение для высокопроизводительных вычислений
Возможность объединить в кластер active/active с поддержкой failover до 4 узлов не только повысит производительность Hitachi High-performance NAS Platform, но также улучшит ее показатели доступности и надежности, что делает платформу идеальным решением для консолидации в масштабе крупного предприятия и компаний, которым требуется интенсивная обработка файлов. Новая High-performance NAS Platform ускоряет производственный цикл, увеличивает число одновременно работающих пользователей и в итоге расширяет возможности совместного доступа к информации для работы в группах и обеспечивает легкое масштабирование нагрузок и емкости. Эти улучшенные возможности защиты данных превращают Hitachi High-performance NAS Platform в оптимально настроенное решение для защиты важных данных, которые генерируются и обрабатываются при выполнении высокопроизводительных вычислений.
Кроме удвоения производительности своей High-performance NAS Platform, Hitachi теперь предлагает максимум 32 виртуальных сервера Virtual Server на один узел или кластер, новую функцию Cluster Read Caching и новый модуль FSX. Функция Cluster Read Caching предназначена для улучшения производительности интенсивно обрабатывающих данные приложений вертикальных рынков в среде NFS. Модуль FSX более чем в два раза улучшает производительность CIFS, что делает его идеальным решение для обслуживания интенсивно использующих данные приложений в среде Microsoft Windows.
16 мая 2007 года Hitachi Data Systems Corporation, поставщик решений Services Oriented Storage Solutions, открыла новую эру производительности и масштабируемости корпоративных систем хранения, представив Hitachi Universal Storage Platform V – принципиально новую платформу интеллектуальных сервисов хранения, значительно превосходящую по мощности любую другую систему хранения за счет рекордной максимальной производительности 3.5 миллионов IOPS (операций ввода/вывода в секунду) и использующие новое поколение крупномасштабной гетерогенной виртуализации и архитектурные инновации Hitachi, за счет чего производительность виртуальных портов для внешних систем хранения выросла на 500 процентов по сравнению с предыдущим поколением.
Hitachi также представила первый в мире backplane-коммутатор 4 Gb/s Fibre Channel Switch (FSW), используемый в платформе хранения корпоративного класса. Hitachi – это единственная компания, использующая как внутреннюю коммутируемую архитектуру, так и уникальную технологию коммутации на уровне backplane, предоставляя клиентам самый быстрый и эффективный по затратам способ обработки и передачи данных с помощью контроллера системы хранения вместе с мгновенным доступом к критически-важным данным.
Hitachi USP V реализует синергию широкого спектра систем хранения корпоративного класса, midrange и начального уровня, реализуя универсальные мощные сервисы хранения, охватывающие многомерную виртуализацию, распределение емкости (provisioning), организацию логических разделов и репликацию, и значительно улучшающие эффективность развернутой у клиента инфраструктуры хранения.
“Одно из замечательных свойств новой Hitachi USP V – это трехмерная виртуализация хранения, - отметил Тони Эйсаро (Tony Asaro), старший аналитик Enterprise Strategy Group. – Первое измерение – это внутренняя виртуализация, включающая точное предоставление необходимой емкости (thin provisioning), большие логические пулы хранения, широкую «нарезку» (wide striping), виртуальные разделы и качество сервиса (quality-of-service). Второе измерение виртуализации USP V охватывает программное обеспечение виртуализации внешнего хранения, управляющее гетерогенными системами хранения и способное обеспечить функции платформы high-end с лучшими в своем классе производительностью, масштабируемостью и надежностью. Третье измерение виртуализации – это расширение интеллектуальности и функциональности USP V на системы хранения любого класса, имеющиеся в центре обработки данных. Флагманская система хранения Hitachi обеспечивает все три измерения виртуализации, внедряя инновации там, где они больше всего востребованы, и на практике применяя концепцию, которая дает реальный выигрыш конечному пользователю”.
“Среди целой серии новых возможностей, которые Hitachi первой применила на практике, стоит выделить USP V – первую полностью законченную и интегрированную платформу Services Oriented Storage, масштабируемую до петибайтов емкости и в то же время гарантирующую стабильную и контролируемую работу в течение всего жизненного цикла продукта, - отметил Джон Вебстер (John Webster), ведущий IT-консультант, Illuminata. - USP V также помогает еще больше консолидировать разные платформы хранения и уменьшить число вендоров, оборудование которых должен обслуживать IT-персонал”.
■ Самая масштабируемая платформа хранения на рынке: максимальная производительность 3.5 миллионов IOPS
Использующая усовершенствованное четвертое поколение архитектуры массивно-параллельного crossbar-коммутатора Hitachi Universal Star Network™ V, сверхмасштабируемая Universal Storage Platform V обеспечивает производительность 3.5 миллионов IOPS, что на 75-500 процентов лучше, чем у любой другой системы хранения корпоративного класса и на 40 процентов больше, чем у текущей модели Hitachi Universal Storage Platform, поэтому новая платформа предоставляет пользователю сервисы хранения с практически неограниченными возможностями.
Hitachi Universal Star Network V по-прежнему остается единственной архитектурой в индустрии хранения, где использует crossbar-коммутатор на базе ASIC и выделенные внутренние сети для передачи данных и управляющей информации (метаданных), что позволяет платформе предоставлять такие совершенные сервисы хранения, как универсальная репликация в гетерогенной среде, крупномасштабная виртуализация, логические разделы и только что анонсированные Hitachi Dynamic Provisioning Software, Large Logical Storage Pools и Wide Striping (они описаны в отдельном пресс-релизе).
“Проведенное нами в мае 2006 года исследование показало, что для больших конфигураций Hitachi Universal Storage Platform сокращает совокупную стоимость хранения и затраты на управление хранением более чем на 50 процентов по сравнению с конкурирующими решениями. Можно было ожидать, что за 12 месяцев отрыв от конкурентов постепенно сократится, но этого не произошло, - отметил Дэвид Флойер (David Floyer), директор по технологиям и один из основателей ITCentrix, ведущей консалтинговой компании, обслуживающей CIO. – Наше последнее исследование показало, что для аналогичных конфигураций у новой Hitachi Universal Storage Platform V преимущество над конкурентами по совокупной стоимости владения (TCO) выросло до более 60 процентов”.
■ Hitachi начинает «озеленение» хранения
Вопросы охраны окружающей среды выходят на первый план при обсуждении бюджетов, проектировании центров обработки данных, выработке корпоративных правил и государственных стандартов, и находятся в центре дискуссий в обществе. Непрерывно повышается важность проектирования и внедрения правильных политик управления энергопотреблением и поэтому Hitachi привержена разработке решений, который защищают экологию.
“Hitachi предлагает особый подход к экологическим параметрам благодаря своей уникальной способности разделить контроллер от дисков back-end, в то время как другие производители рассматривают контроллеры и диски как единое целое, - заявил Том Трейнер (Tom Trainer), старший аналитик Evaluator Group. – Кроме того, универсальный контроллер хранения Hitachi может управлять тысячами терабайтов с даже с сотнями энергосберегающих процессоров, но в то же время обеспечивает больше емкости на процессор, чем предложения конкурентов, что позволяет клиентам экономить энергию и место, а также расходы на охлаждение. Hitachi USP V поддерживает 247 петабайт — в то время как конкуренты поддерживают не более одного петабайта. С точки зрения энергопотребления разница примерно такая же, как между мороженным и капучино”.
Интеллектуальные виртуализирующие контроллеры Hitachi разделяют носители класса commodity (диски) от интеллектуального контроллера, который нужен для предоставления сервисов хранения, управления данными и контентом, что даёт IT-подразделениям полную гибкость операций. Вместе с программным обеспечением Hitachi Tiered Storage Manager новая Hitachi USP V удовлетворяет меняющиеся требования приложений, позволяя часто мигрировать данные между уровнями хранения для обеспечения оптимального хранения и гарантируя клиентам, что их данные всегда будут находиться на дисках с оптимальным энергопотреблением”.
Кроме того, с помощью нового программного обеспечения Hitachi Dynamic Provisioning клиенты могут сократить расходы на администрирование и оптимизировать использование, что уменьшает энергопотребление и улучшает доступность приложения. Программное обеспечение Hitachi Dynamic Provisioning помогает клиенту экономить электричество и деньги и сделать его центр обработки данных более экологичным.
■ Второе дыхание для имеющихся систем хранения: пятикратное увеличение производительности виртуализированных портов для внешнего хранения
Технология обработки внутреннего трафика в архитектуре Universal Star Network V вышла на новый уровень по сравнению с предыдущем поколением, который недостижим для конкурентов, используя усовершенствованный алгоритм и новый механизм распределения нагрузки между процессорами. Эта мощная массивно-параллельная архитектура улучшает последовательность выполнения архитектуры, устанавливая новые стандарты производительности и масштабируемости.
Архитектура Universal Star Network V улучшает производительность внешне подключенных устройств хранения за счет пятикратного увеличения производительности внешних портов - теперь клиенты могут улучшить быстродействие своих внешне подключенных дисковых массивов с помощью алгоритма кэширования и мощи новейшей флагманской платформы сервисов хранения Hitachi.
“Быстрый рост и постоянное усложнение информационных ресурсов являются одной из главных проблем, с которыми сталкиваются менеджеры ЦОДов – они должны обеспечить быстрое реагирование на изменения, производительность и емкость, но при этом не выйти за пределы выделенного бюджета,- подчеркнул Ричард Вилларс (Richard Villars), вице-президент IDC по исследованиям систем хранения. – Такие решения, как новая Hitachi USP V с новым поколением виртуализирующих контроллеров хранения и мощными сервисами хранения позволяют дать вторую жизнь установленным в ЦОде системам хранения, независимо от их типа, цены и функциональности”.
Радикальное улучшение производительности одного порта: улучшение времени реагирования и доступности приложений
Благодаря усовершенствованиям многопроцессорной архитектуры Universal Star Network V значительно улучшилась производительность в расчете на один порт, что существенно ускорило выполнение запросов такими критически-важными приложениями, как SAP R3, Oracle Financials и Microsoft SQL Server.
“Эти усовершенствования позволили Hitachi предоставить своим клиентам стабильную и эффективную по затратам производительность и масштабируемость,- сказал Бриан Гарретт (Brian Garrett), технический директор Enterprise Strategy Group Lab. – Проведенные ESG Lab тесты Hitachi USP V подтвердили, что улучшение по сравнению с USP первого поколения производительности портов, увеличение объема памяти и полосы пропускания обеспечило стабильное масштабирование производительности для различных приложений”.
Основные усовершенствования производительности одного порта USP V по сравнению с предшественником включают повышение на 520 процентов производительности записи на диски и на 210 процентов чтения с диска. Hitachi сегодня также объявила, что производительность программного обеспечения журналирования групп Hitachi Universal Replicator выросло на 130 процентов, а скорость каналов TrueCopy Synchronous – на 200 процентов.
Это означает, что для такие важные для бизнеса функции, как сервисы репликации и копирования, и приложения, интенсивно расходующие ресурсы (например, базы данных и приложения резервного копирования) будут работать лучше за счет повышения производительности, улучшения ее стабильности и управляемости. Улучшение производительности также упрощает применение многоуровневого хранения и такие файловые сервисы, как архивирование и высокопроизводительные NAS.
■ Новая архитектура Hitachi Universal Star Network V – множество усовершенствований контроллера
“Hitachi снова доказала, что используя технологические ресурсы компании можно создать уникальную платформу сервисов хранения, - заявил Ху Йошида (Hu Yoshida), директор по технологиям Hitachi Data Systems. – Способность Hitachi создать массивно-параллельную архитектуру crossbar-коммутатора и разделить сети, обслуживающие кэш данных и управляющую память, стали основой инноваций компании. Ни одна другая архитектура хранения не способна достичь этого уровня оптимизации, производительности или предоставить мощные сервисы хранения для тысяч внешне подключенных устройств хранения. Кроме того, Hitachi встроила безопасность в ядро своих контроллеров хранения, разделив управляющую информацию и данные, в то время как другие вендоры рассматривают безопасность как довесок к системам хранения. Выпустив USP V, Hitachi вышла на высоты, о которых ее конкуренты даже не мечтают, и усилила свои лидирующие позиции в секторе корпоративных систем хранения high-end”.
В четвертом поколении массивно-параллельной архитектуры crossbar-коммутатора Hitachi используется соединение Fibre Channel 4 Гигабит/сек (4 Gb/s), связывающее «директоров» front-end с дисками back-end, включая первый в мире 4 Gb/s Fibre Channel Switch backplane в платформе хранения корпоративного класса, в то время как ее конкуренты в своих устаревшей архитектуре для доступа к дисками back-end по-прежнему применяют петли arbitrated loops.
Hitachi сегодня также объявила, что ее архитектура Universal Star Network V способна одновременно обрабатывать 320 обращений к внутренней памяти – в девять раз больше, чем продукты конкурентов. Для расширения возможностей мощных сервисов хранения Hitachi USP V для внутренних и внешних ресурсов память контроллера увеличилась с 16 до 32 Гбайт, а число выделенных каналов передачи команд - на 33 процента до 256. Также выделенная полоса пропускания для управляющей информации (метаданных) выросла на 138 процентов до 38 гигабайт в секунду (GB/s), что значительно улучшило производительность приложений. Общая внутренняя полоса пропускания (включая уникальные выделенные сети передачи данных и команд Universal Star Network V) увеличилась на 31 процент до 106 гигабайт в секунду, что на 560 процентов больше реальной полосы пропускания любой другой системы.
Пока конкуренты по-прежнему предлагают не более 64 портов front-end Fibre Channel, новая USP V предлагает клиента 224 портов front-end 4 Gb/s Fibre Channel (преимущество — 250 процентов), устраняя узкие места, которые присущи устаревшим монолитным корпоративным системам. Подтверждая приверженность Hitachi сохраняющему свое значение рынку мэйнфреймов, USP V поддерживает 112 портов 4Gb/s FICON и 112 портов ESCON, что на 130 и 75 процентов (соответственно) лучше, чем у конкурентов. Кроме того, USP V поддерживает 64 000 томов открытых систем – втрое больше, чем ее предшественник.
Высота плат контроллера в Universal Storage Platform V вдвое уменьшилась по сравнению с предшественником, что обеспечивает значительно более плотное размещение, поэтому облегчается обслуживание, сокращаются связанные с ним нарушения работы системы и обеспечивается больше гибкости конфигурирования.
“Нет сомнений, что Hitachi Universal Storage Platform V – сегодня самое мощное из доступных на рынке решений, - сказал Дейв Веллант (Dave Vellante), CEO компании ITCentrix. – Но это еще не всё. Сегодня при использовании таких функций high-end хранения, как удаленная репликация, возникают проблемы с производительностью. Эта архитектура обеспечивает предоставление таких сервисов хранения, как Dynamic “Thin” Provisioning без снижения производительности и избавляет от необходимости для устранения проблемы устанавливать дополнительные контроллеры. В результате на два порядка сокращается стоимость владения и на три порядка улучшается экономический эффект, связанный с лучшим реагированием и уменьшением рисков”.
Система хранения данных NetApp E5400 отвечает самым строгим требованиям заказчиков к высокопроизводительным средам. Система хранения данных E5400, протестированная на совместимость с файловой системой Lustre, расширяет функциональные возможности.
Саннивейл, Калифорния, 25 июня 2011 – Приложения для высокопроизводительных вычислений (High Performance Computing, HPC) создают невероятную нагрузку на ИТ-инфраструктуру организации вследствие необходимости хранить, обрабатывать и управлять огромным объемом данных и информации. Решение данной проблемы - задача не из легких и требует использования систем хранения данных, которые могут обеспечить достаточную производительность, высокую надежность и эффективность, необходимую клиентам для достижения успеха в сверхконкурентной среде современного бизнеса.
В мае NetApp представила систему хранения данных NetApp® E5400, доступную для производителей комплектного оборудования (OEM) в составе платформы E-Series, способную помочь заказчикам управлять огромным объемом данных, обусловленным использованием высокопроизводительных и высокоэффективных приложений. Для удовлетворения растущих потребностей заказчиков в высокопроизводительных средах, компания NetApp (NASDAQ: NTAP) сегодня объявила, что система E5400 была протестирована для использования с файловой системой Lustre, высокопроизводительной файловой системой с открытым исходным кодом, которая используется большинством организаций, входящих в список обладателей 500 мощнейших суперкомпьютеров мира.
■ Система E5400 протестирована для использования в ведущих высокопроизводительных средах
NetApp совместно с компанией Whamcloud недавно протестировала систему хранения данных E5400 на совместимость с файловой системой Lustre на испытательном стенде Hyperion в Ливерморской национальной лаборатории им. Э. Лоуренса. В системе хранения данных 4U компании Whamcloud удалось добиться скорости чтения в 5 Гб/с, и скорости записи в 3,5 Гб/с для системы E5400. Такое сочетание позволяет клиентам, использующим стойки 40U, достичь скорости чтения до 50 Гб/с в расчете на стойку. Этот тест, наряду с поддержкой файловой системы Lustre продуктами компаний NetApp и Whamcloud, предоставляет клиентам, развертывающим конфигурации на основе системы E5400, возможность успешного использования своих сред хранения данных в файловой системе Lustre в реальных приложениях.
«Совместная работа с NetApp, направленная на предоставление расширенных возможностей поддержки сред с файловой системой Lustre, дает явное преимущество нашим HPC-клиентам», - говорит Брент Горда, генеральный директор компании Whamcloud. «Мы очень довольны результатами тестирования системы хранения данных E5400 на испытательном стенде Hyperion в Ливерморской национальной лаборатории им.Э. Лоуренса на совместимость с файловой системой Lustre. Файловая система Lustre приобретает все большее значение для HPC-сообщества. Тесное сотрудничество с NetApp позволяет двум нашим компаниям предоставлять первоклассные услуги поддержки и гарантировать нашим клиентам максимальную отдачу от их сред Lustre».
■ Подробнее о новом решении
• Система хранения данных E5400 обладает повышенной модульной гибкостью. Она поддерживает три типа корпусов для установки жестких дисков (форм-фактор 4U на 60 дисков, 2U на 24 диска и 2U на 12 дисков), несколько дисковых технологий (SSD, SAS 15K, 10K SAS, NL-SAS) и предоставляет возможность наращивания до 600 дисков на каждую стойку форм-фактора 40U. Эти новые возможности позволяют клиентам оптимизировать мощность и функциональные характеристики, что обеспечивает повышение общей производительности, помогая при этом снизить расходы и повысить общую эффективность.
• Новый интерфейс InfiniBand с пропускной способностью в 40Гб/с позволяет легко интегрировать систему E5400 в IB-инфраструктуру и обеспечить максимальную гибкость для любых высокопроизводительных сетей хранения данных.
• Обладающая высочайшим уровнем надежности и доступности, система E5400 обеспечивает непрерывную доставку данных, помогая клиентам повысить вычислительную эффективность.
■ Система E5400 - основа для высокопроизводительных OEM-решений для хранения данных
Компания Bull, глобальный поставщик OEM-решений, расположенная в Европе, является первым OEM-партнером компании NetApp по созданию и развертыванию HPC-решений для хранения данных на E5400, а также использует эту систему при создании продуктов для своих клиентов совместно с CEA, французской технологической исследовательской организацией, финансируемой правительством. OEM-партнерами NetApp планируется выпуск новых HPC-решений для хранения данных, основанных на системе E5400. Они позволят производителям комплектного оборудования расширить охват рынка и увеличить число клиентов, которые смогут воспользоваться преимуществами решений на базе системы E5400.
«Высокопроизводительные вычислительные приложения являются основой наших научных исследований, требующих обработки и управления огромными объемами данных и информации в режиме реального времени», - говорит Жак-Шарль Лафукриер, глава подразделения компании CEA. «Технология NetApp дает нам возможность удовлетворить наши увеличивающиеся потребности в обработке данных с нулевым временем простоя, что позволяет нам сосредоточить усилия на наших исследованиях».
«Мы очень рады возможности работать с NetApp. Система E5400 свидетельствует о приверженности компании NetApp тесному сотрудничеству со своими OEM-партнерами в сфере предоставления платформ и технологии хранения данных, необходимых для современных ресурсоемких HPC-сред», - говорит Паскаль Барболоси, вице-президент подразделения Extreme Computing компании Bull. «Мы собираемся укреплять наше партнерств и сотрудничество для предоставления наиболее полной и мощной линейки решений Extreme Computing на рынке».
«Менее двух месяцев назад мы заявляли о нашей приверженности к предоставлению продуктов и технологических инноваций, необходимых для содействия успеху наших OEM-партнеров путем удовлетворения растущих требований клиентов в области высокопроизводительных и высокоэффективных приложений», - говорит Рик Скерфилд, вице-президент и генеральный директор OEM-направления компании NetApp. «Сегодняшнее заявление является неоспоримым доказательством того, что компания NetApp серьезно относится к обслуживанию рынка высокопроизводительных вычислений и это только первая ступень для предоставления многих других OEM-решений, которые будут построены на платформе E-Series компании NetApp».
SYBASE – ЛИДЕР «МАГИЧЕСКОГО КВАДРАНТА В ОБЛАСТИ СОЗДАНИЯ СУБД ДЛЯ ХРАНИЛИЩ ДАННЫХ»
SAP NEWSBYTE, 6 марта 2012 г. Компания SAP AG объявляет о том, что, проведя оценку программного обеспечения Sybase IQ1, исследовательская компания Gartner Inc. поместила Sybase в число лидеров «Магического квадранта в области создания систем управления базами данных (СУБД) для хранилищ данных».
Sybase IQ — ведущая в мире СУБД для хранилищ корпоративных данных, реализованная на архитектуре поколоночного хранения данных. Этот продукт применяют свыше 2100 клиентов, он используется в более чем 4000 проектах по всему миру. Sybase IQ ускоряет получение и повышает точность результатов для важнейших областей бизнес-аналитики, хранения данных, аналитического прогнозирования и решений по созданию отчетов. При этом используются стандартные для отрасли устройства и операционные системы, установленные на предприятиях в разных странах мира. Сочетание технологии бизнес-аналитики SAP и СУБД Sybase IQ обеспечивает целостную платформу для хранения и управления данными, которая полностью удовлетворяет потребности клиентов.
Согласно отчету Gartner, в квадранте лидеров «находятся разработчики, чьи продукты обеспечивают максимальную поддержку в управлении хранилищами данных самых разных размеров, которыми одновременно пользуется множество людей и где необходимо управлять смешанными типами данных. Такие разработчики удерживают передовые позиции благодаря наиболее полному удовлетворению ожиданий клиентов, надежной поддержке, а также обширному опыту работы на рынке СУБД для хранилищ данных. С ведущими компаниями связан наименьший риск при внедрении хранилищ данных применительно к таким, например, аспектам, как обработка смешанных типов данных, размер базы данных и возрастание сложности. Кроме того, современный развитой рынок требует, чтобы лидирующие компании сохраняли четкое видение основных тенденций прошлого года, а именно высокое качество обслуживания конечных пользователей при управлении гетерогенными данными и большими массивами информации».
«Компания Sybase продолжает удерживать позицию сильного лидера, обслуживая наиболее успешных клиентов на рынке хранилищ данных,— сказал Дэн Лал (Dan Lahl), старший управляющий департамента маркетинга продукта в Sybase (компания в составе SAP).— В 2011 г. Sybase IQ стал революционным продуктом в области аналитики Big Data, а с включением в СУБД возможностей MapReduce и средств подключения к Hadoop в Sybase IQ 15.4 стало возможным проведение анализа всех корпоративных данных на единой платформе СУБД. Мы надеемся, что наше ведущее положение, подтвержденное в данном отчете, позволит и в будущем воспринимать Sybase как главную опору при создании хранилищ данных на передовых предприятиях. Дальнейшее развитие продуктов Sybase и SAP в области хранения данных приведет к созданию решений следующего поколения, которые смогут удовлетворить растущие потребности в применении полного спектра аналитических методов, начиная от обработки в режиме реального времени до обработки данных Big Data».
О «Магическом квадранте». Включение какого-либо разработчика, продукта или услуги в публикации об исследованиях, проводимых компанией Gartner, не является выражением их поддержки со стороны компании Gartner и не служит рекомендацией пользователям технологий для выбора только тех поставщиков, которые имеют наивысшие рейтинги. В публикациях с результатами исследований Gartner представлены мнения исследовательских подразделений этой компании, и их не следует считать безусловной констатацией факта. Компания Gartner не берет на себя никаких гарантийных обязательств, прямых или косвенных, по отношению к данному исследованию, включая обязательства относительно пригодности или соответствия продукта определенной цели.
1 Гартнер, «Магический квадрант в области создания систем управления базами данных (СУБД) для хранилищ данных» (Magic Quadrant for Data Warehouse (DW) Database Management System (DBMS)), Дональд Фейнберг (Donald Feinberg), Марк А. Бейер (Mark A. Beyer), Мэри Адриан (Merv Adrian) и Роксана Эджлали (Roxane Edjlali), февраль 2012 г.
Ускорение анализа информации, рабочих процессов и работы с большими объемами данных благодаря расширенным возможностям платформы хранения NetApp E-Series. К новым функциям настраиваемой платформы с поддержкой оптимизации производительности относится использование SSD накопителей в качестве кэша, сетевых технологий и средств защиты данных, благодаря чему упрощается обработка рабочих нагрузок, связанных с большими объемами данных.
САННИВЕЙЛ, Калифорния, 14 ноября 2012 г. Сегодня компания NetApp (NASDAQ: NTAP) представила новые возможности платформы NetApp® E-Series, предназначенной для работы с высокопроизводительными приложениями и рабочими процессами с большими объемами данных. Обновленная платформа E-Series — это надежная основа для обработки прикладных рабочих процессов, обладающих следующими качествами: высокая готовность, высокая емкость и поддержка оптимизации производительности. Эти качества особенно важны для рынков с вертикальной структурой (в частности для сфер здравоохранения, обеспечения безопасности, СМИ и развлечений), а также для отраслей, где высокопроизводительные вычислительные системы играют решающую роль — нефтегазовая промышленность, производство и государственный сектор.
В последнюю версию ПО для управления хранением данных NetApp SANtricity® для E-Series включена поддержка использования твердотельных накопителей в качестве кэша, расширено число поддерживаемых сетевых интерфейсов и добавлены новые службы зеркалирования и репликации. Вышеперечисленные функции способствуют улучшению производительности, расширяют возможности подключения нескольких серверов, повышают гибкость среды и позволяют лучше защитить данные. Расширенная платформа — это надежный фундамент для NetApp и партнеров-изготовителей комплектного оборудования (OEM), на котором можно развернуть инновационные системы хранения данных, отличающиеся высоким уровнем производительности даже в условиях самых интенсивных рабочих нагрузок.
«Платформы E-Series от NetApp используются в самых ресурсоемких средах с большими объемами данных, — утверждает Брендан Хоув (Brendon Howe), вице-президент подразделения по маркетингу продуктов и решений компании NetApp. — Подобным средам со специализированными рабочими нагрузками требуется надежная и гибкая СХД, способная обеспечить высокую производительность и масштабирование без значительных затрат. Такие функции платформы E-Series, как поддержка твердотельного кэша, возможность масштабирования до петабайтного уровня и улучшенная защита данных, помогут организациям быстрее внедрять инновации и реализовывать потенциал новых инфраструктур».
■ SSD-кэш помогает улучшить производительность, сократить затраты на хранение данных и ускорить внедрение инноваций
Новые возможности, которые предоставляет платформа NetApp E-Series с поддержкой SSD-кэш, помогут организациям, часто сталкивающимся с большими и сложными наборами данных, ускорить выполнение рабочих процессов. Благодаря использованию этой технологии, заказчики могут сохранять блоки «горячих» данных на SSD накопителях и быстро получать доступ к ним, за счет чего улучшается производительность приложений. В соответствии с требованиями к дисковому пространству или сохранению данных редко используемые данные будут сохраняться на недорогих жестких дисках большей емкости. Использование SSD в качестве кэша обеспечивает интеллектуальное разделение уровней хранения, быстрый доступ к важным данным приложений и высокую плотность размещения для долгосрочного хранения данных. Практически мгновенный доступ к нужному накопителю в нужное время — благодаря этой возможности изготовители комплектного оборудования могут использовать платформу E-Series в качестве основы для экономичных решений высокой емкости с поддержкой оптимизации производительности, которые способны ускорить внедрение инноваций, анализ данных и рабочие процессы и удовлетворить запросы даже самых требовательных заказчиков.
■ Поддержка нескольких интерфейсов — возможность создания гибких ИТ-систем
Гибкая инфраструктура помогает организациям быстро адаптироваться к изменениям. С новыми версиями E-Series заказчики и ОЕМ-партнеры получили возможность встраивать в профессиональные продукты E-Series новые сетевые интерфейсы 10Gb/s iSCSI и 6Gb/s SAS на системах NetApp E5400, тем самым предоставляя широчайший спектр сетевых интерфейсов для решений, рассчитанных на специализированные рабочие нагрузки. Эти интерфейсы оптимизируют среду заказчика и позволяют соединять различные узлы и расширять возможности репликации между системами E-Series.
■ Расширенные функции защиты данных гарантируют эффективность и надежность выполнения операций
Благодаря расширенным функциям защиты данных заказчики сред E-Series и OEM-партнеры могут использовать специализированную инфраструктуру высокой готовности для работы с конкретными приложениями. Обновления включают в себя дополнительную функцию зеркалирования, технологии службы Copy Service и динамические дисковые пулы для защиты данных. Такая технология обеспечения безопасности позволяет заказчикам, работающим с большими объемами данных, поддерживать стабильность выполнения бизнес-операций и сокращать затраты на СХД. Дублирующие компоненты E-Series, автоматическое аварийное переключение каналов и администрирование системы в реальном времени поддерживают работоспособность организации.
Эд Уайт (Ed White), генеральный менеджер компании Teradata Appliances: «По мере роста объемов информации заказчики обращаются в компанию Teradata в поисках решений по управлению данными, которые могут улучшить производительность системы и включают в себя новые функции, например, поддержку атомарной записи. Основой для высокопроизводительных программно-аппаратных комплексов Teradata, которые считаются одними из лучших в отрасли, по-прежнему служит гибкая и очень надежная платформа E-Series».
Данному объявлению о специализированных инфраструктурах для работы с конкретными приложениями предшествовало сообщение о выпуске систем FAS3220 и FAS3250 (ранее на этой неделе). Серия FAS3200 разработана для виртуализированных разделяемых инфраструктур, выступающих в качестве основы для создания гибкой инфраструктуры хранения данных со следующими качествами — интеллектуальность, вечность и бесконечная масштабируемость. C ПО SANtricity для специализированных инфраструктур с кластерным ПО Data ONTAP® для разделяемых виртуальных инфраструктур решения компании NetApp могут удовлетворить различные требования к системам хранения данных — от СХД, рассчитанных на специализированные рабочие нагрузки, до виртуализированных ЦОД.
■ Цитаты клиентов
• Evergreen Films, Inc.
«Обладание инфраструктурой для хранения данных, позволяющей производить качественные фильмы за минимальный в истории период, является огромным конкурентным преимуществом для СМИ и индустрии развлечений и позволяет экономить бюджет, - сказал Пэт Девлин, директор стадии постпродакшена в Evergreen Films, Inc. - Данное преимущество обеспечивается технологиями хранения данных, для которых характерны не только высокая пропускная способность и емкость, но и масштабируемость и гибкость, которые так важны для оптимальной адаптации системы к каждому новому проекту. Платформа NetApp E-Series с новым сетевым интерфейсом и поддержкой SSD-кэша позволит нам повысить эффективность производства фильмов и уменьшит риски задержек производства».
• Halliburton
«Обработка сейсмических данных – это работа с огромным массивом информации, - сказал Ларри Финк, менеджер по продуктам в области обработки сейсмических данных компании Halliburton, Landmark Software and Services. – Мы задействовали в работе продукты Quantum и NetApp. При этом, мы убедились в способности платформы E-Series поддерживать работу специализированной инфраструктуры, обеспечивая высокую производительность при использовании приложений для обработки сейсмических данных. Новые более надежные версии E-Series с улучшенными сетевыми интерфейсами позволят нам значительно повысить эффективность обработки сейсмических данных».
Huawei представила первые в отрасли решения хранения данных с поддержкой интерфейсов Fibre Channel 16 Гбит/с и SAS 12 Гбит/с
Шэньчжэнь, Китай, 23 января 2013: Компания Huawei, мировой лидер в области разработки ИКТ-решений, объявила о выпуске не имеющих аналогов в отрасли решений хранения данных OceanStor T с поддержкой интерфейсов 16 Гбит/с Fibre Channel и 12 Гбит/с SAS. Создавая ориентированные на потребности заказчиков и простые в эксплуатации конвергентные решения хранения данных, Huawei стремится помочь корпоративным клиентам достичь более высокой эффективности производства при сокращении общей стоимости владения.
В решениях OceanStor T впервые в отрасли реализована поддержка интерфейсов 16 Гбит/с Fibre Channel и 12 Гбит/с SAS. Это позволит удвоить пропускную способность каждого канала между серверами и устройствами хранения, а также между контроллерами устройств хранения и дисковыми массивами. Кроме того, продукты серии OceanStor T обладают модульной архитектурой, поддерживают горячую замену, межмодульное резервирование и распределение нагрузки. Сочетание этих технологий позволяет создать инфраструктуру хранения, гарантирующую высокую производительность, большую масштабируемость и исключительную надежность — все, что необходимо в условиях роста спроса на ресурсы хранилищ данных в процессе постоянного развития приложений, сетей и хранилищ данных. Новое решение позволит обеспечить максимальную окупаемость.
"Поддержка интерфейсов 16 Гбит/с Fibre Channel и 12 Гбит/с SAS является важной вехой в развитии технологий хранения данных при строительстве центров обработки данных для предприятий с высокоскоростными хранилищами. Удвоение производительности продуктов хранения данных Huawei и применение новых технологий позволили обеспечить в продуктах серии OceanStor T улучшенную поддержку централизованной виртуализации и облачных вычислений", — отметил Фань Жуйци (Fan Ruiqi), президент направления решений хранения данных Huawei.
Результаты тестов производительности SPC-1™ подтверждают неизменное лидерство Hitachi Data Systems в сфере корпоративных систем хранения. Конфигурация Hitachi Virtual Storage Platform, реализованная полностью на основе флэш-памяти, обеспечивает для заказчиков компании увеличение продуктивности работы, более высокую эффективность и лучшее соотношение цена/производительность.
6 августа, 2013 Корпорация Hitachi Data Systems объявила о том, что отмеченная наградами платформа Hitachi Virtual Storage Platform (VSP) в конфигурации, полностью реализованной на основе флэш-памяти, в тестах Совета по производительности СХД Storage Performance Council (SPC-1™) продемонстрировала самый высокий результат среди систем хранения корпоративного класса. Конфигурация Hitachi VSP на основе только флэш-памяти создана специально для работы в самых требовательных с точки зрения нагрузки производственных средах. Она позволяет организациям обеспечить максимальную окупаемость инвестиций с использованием технологии флэш-памяти и при этом повысить производительность приложений, полностью задействовать возможности виртуализации серверов и ускорить развертывание частных облачных инфраструктур. Это достижение знаменует собой еще один важный этап реализации стратегии HDS по интеграции технологии флэш-памяти и укрепляет лидерство компании в данной области. Об этом свидетельствует и недавний выпуск на рынок систем начального корпоративного уровня модуля хранения Hitachi Accelerated Flash, предназначенного для использования с хранилищем Hitachi Unified Storage VM (HUS VM), полностью реализованным на основе флэш-памяти.
Платформа Hitachi VSP с функцией повышения быстродействия флэш-памяти и модули хранения Hitachi Accelerated Flash продемонстрировали выдающийся результат – 602 019,47 операций ввода-вывода в секунду (SPC-1 IOPS™), а также на 65% более низкую стоимость операции SPC-1 IOPS, чем для систем на базе жестких дисков1. Благодаря минимальному времени отклика при лучшем соотношении цена/производительность по сравнению с системами конкурентов они обеспечивают заказчикам самую высокую производительность, возможную для корпоративных систем хранения. По результатам тестирования в соответствии с методологией SPC-1 масштабируемость Hitachi VSP в конфигурации, полностью реализованной на базе флэш-памяти, оказалась на 33% выше, чем у системы IBM® DS88702, а производительность в расчете на доллар – более чем втрое выше. Архитектура Hitachi VSP продемонстрировала масштабируемость, свойственную настоящей корпоративной системе хранения; при этом ее время отклика в условиях меняющейся нагрузки в 7-18 раз меньше, чем способна обеспечить система HP 3PAR StoreServ 100003.
«Результаты тестов SPC-1, о которых было объявлено сегодня, свидетельствуют о нашем стремлении предоставить заказчикам ведущие в отрасли технологии на базе флэш-памяти, а также о превосходстве архитектуры Hitachi VSP и успехе наших технических разработок в области оптимизации систем хранения для работы с флэш-памятью, – заявил Азим Захир (Asim Zaheer), старший вице-президент по международному маркетингу Hitachi Data Systems. – Заказчики все чаще испытывают необходимость в том, чтобы ускорить виртуализацию серверов и приложений с минимальными перебоями в работе инфраструктур и меньшими рисками. С решением Hitachi VSP мы сможем помочь им сделать первый шаг на пути к созданию частных облачных инфраструктур, обеспечив надежность, унифицированное управление и запас производительности».
■ Преимущества для клиентов
Повышение продуктивности работы. Поддерживается значительно больше бизнес-операций (на 223%), чем в Hitachi VSP в конфигурации на основе только жестких дисков (HDD) SAS со скоростью вращения 15 тыс. об/мин1.
Повышение эффективности и производительности приложений. По сравнению с Hitachi VSP в конфигурации на основе только HDD1 позволяет на 88% снизить время отклика приложений, обеспечивая поддержку большего количества пользователей и задач.
Оптимальное соотношение цена/производительность. Соотношение цена/производительность на 65% ниже по сравнению с Hitachi VSP в конфигурации на основе только HDD1.
■ О решении Hitachi Virtual Storage Platform
Hitachi VSP – первая масштабируемая в трех измерениях платформа хранения, предназначенная для всех типов данных. Это единственная в своем роде архитектура системы хранения корпоративного уровня, способная гибко адаптироваться к требованиям производительности и емкости, и обеспечивающая совместимость с системами различных производителей. В сочетании с управляющим программным обеспечением Hitachi Command Suite она позволяет преобразовать центры обработки данных, обеспечивая для компаний по всему миру возможность простого и эффективного управления данными при одновременном снижении затрат на хранение.
11 ноября 2011 года система хранения Hitachi Virtual Storage Platform показала в тесте SPC-1 IOPSTM следующие совокупные результаты: пропускная способность – 269 506,69 операций ввода-вывода в секунду, соотношение цена/производительность – 8,18 долл. США за операцию SPC-1 IOPSTM , среднее время отклика для всех доступных приложениям блоков хранения (ASU) – 5,85 миллисекунд при 100%-ной загрузке и использовании 1152 жестких дисков со скоростью вращения 15 тыс. об/мин.
23 октября 2012 года система хранения IBM System Storage DS8870 продемонстрировала совокупную пропускную способность в 451 082,27 операций ввода-вывода в секунду (SPC-1 IOPSTM) при 10,81 долл. США за операцию SPC-1 IOPSTM.
317 октября 2011 года система хранения HP P10000 3PAR V800 Storage System продемонстрировала совокупную пропускную способность в 450 212,66 операций ввода-вывода в секунду (SPC-1 IOPSTM) и среднее время отклика для всех доступных приложениям блоков хранения (ASU) в 13,67 миллисекунд при 100%-ной загрузке.
КОМПАНИЯ SAP И ЕЕ ПАРТНЕРЫ УСТАНАВЛИВАЮТ НОВЫЙ РЕКОРД
7 марта 2014 г. — Сегодня компания SAP AG объявила о новом рекорде, установленном совместно с группой партнеров, включая BMMsoft, HP, Intel, NetApp и Red Hat. Размеры крупнейшего хранилища данных, созданного с применением платформы SAP HANA® и технологии SAP® IQ, признаны новым мировым рекордом.
Это хранилище данных размером в 12,1 петабайта, проверенное независимыми экспертами, было занесено в книгу рекордов Гиннеса и оказалось в четыре раза больше предыдущего рекордсмена. Объявление было сделано на пресс-конференции, проведенной 5 марта в Пало-Альто (США).
«Установить новый мировой рекорд с использованием SAP HANA и SAP IQ — такую непростую задачу я поставил перед командой наших инженеров, — рассказывает доктор Вишал Сикка, член правления SAP AG, Products & Innovation. — Мы хотели покорить новую высоту, объединив большие данные с быстрыми, масштабируемыми и специализированными средствами аналитики. Компания SAP продемонстрировала невероятную результативность нашей платформы, ее экономичность и высокую производительность при решении экстремальных задач, связанных с большими данными и аналитикой».
Новый мировой рекорд подтвердил способность SAP HANA и SAP IQ эффективно обслуживать хранилища корпоративных данных самых крупных размеров и выполнять анализ больших данных. Предыдущий мировой рекорд, установленный компанией SAP и ее партнерами, заключался в загрузке и индексировании больших данных со скоростью 34,3 терабайта в час.
2 апреля 2014 г. — Сегодня компания Fujitsu анонсировала новую версию своей системы оперативного хранения данных ETERNUS DX200 S3 на флэш-накопителях. Она устанавливает новый стандарт соотношения цена/производительность при работе с базами данных и бизнес-приложениями, при решении задач бизнес-аналитики, а также в средах виртуализации серверов и рабочих мест, где требуется очень высокая производительность обработки данных.
Система хранения данных Fujitsu ETERNUS DX200 S3 оснащена 24 высокопроизводительными твердотельными накопителями объемом 400 ГБ и имеет огромную емкость (9,6 ТБ), достаточную для того, чтобы в режиме реального времени гарантировать удовлетворение жестких требований приложений. Это позволяет предотвратить появление «узких мест» в подсистеме ввода-вывода, которые могут привести к задержкам в передаче данных или даже к аварийному отказу работающих систем.
Система Fujitsu DX200 S3, показавшая в тесте SPC-1 результат 200 500,95 операции ввода-вывода в секунду (IOPS), способна обеспечить высокую производительность по весьма эффективной цене. Двухконтроллерная система ETERNUS DX200 S3 предлагает уникальное соотношение цена/производительность – 0,77 долл. США/SPC-1 IOPS. Ее время отклика 0,63 мс при 100%-ной загрузке стало самым низким показателем за всю историю теста SPC-1.
В отличие от очень дорогих массивов на флэш-накопителях со специальными архитектурами, система Fujitsu ETERNUS DX200 S3 использует стандартную высокопроизводительную архитектуру, что помогает снизить стоимость приобретения почти на 80%. Кроме того, система Fujitsu не требует сложной и дорогостоящей настройки или конфигурирования, отличается малым временем установки и готова к работе уже через несколько минут – это экономит время и средства.
Систему оперативного хранения данных Fujitsu ETERNUS DX200 S3 на флэш-накопителях можно приобрести уже сейчас. Цены варьируются в зависимости от страны.
Тесты Storage Performance Council (SPC) предназначены для независимой оценки быстродействия систем хранения данных, представленных любыми производителями. Это отраслевые эталонные тесты, оценивающие наиболее важные метрики систем хранения. Организация SPC предоставляет разнообразные возможности для достоверной оценки эффективности.
Тест SPC Benchmark-1 предназначен для моделирования нагрузки, характерной для ответственных бизнес-приложений, выполняющих многочисленные сложные транзакции. Для оценки производительности чтения-записи с произвольным доступом имитировалась обработка транзакций в реальном времени (OLTP), запросы в СУБД и почтовые серверы.
Fujitsu представляет систему хранения данных ETERNUS DX200F типа All-Flash Array
14 мая 2014 года – Сегодня компания Fujitsu анонсировала начало продаж системы хранения данных Fujitsu ETERNUS DX200F типа «all-flash array» с высокой производительностью подсистемы ввода-вывода. В основе нового решения ETERNUS DX200F лежит проверенная, надежная платформа ETERNUS DX S3 – одна из немногих действительно корпоративных платформ среди представленных на рынке. Все основные компоненты системы, в том числе источники питания и контроллеры, избыточны, что гарантирует непрерывность ее функционирования.
ETERNUS DX200F ускоряет пакетную обработку данных и устраняет проблему задержек при обработке данных, вызванную высокой частотой доступа в средах виртуальных серверов или виртуальных рабочих мест. Это открывает перед компаниями новые бизнес-возможности, позволяя проводить анализ больших данных в режиме реального времени или значительно «сглаживать» пиковый веб-трафик, как показали недавние результаты независимого тестирования производительности.
Сочетание твердотельных накопителей и интерфейсов SAS 12 Гбит/с с уникально высокой скоростью обмена данными обеспечивает высокую производительность. Низкие задержки в системе ETERNUS DX200F (менее 0,5 мс) идеально подходят для сред с интенсивным использованием подсистемы ввода-вывода. Архитектура системы оптимизирована для достижения высокой производительности критически важных бизнес-приложений и инфраструктур, таких как базы данных и виртуализованные среды, в которых размер блока данных составляет обычно 8 КБ или больше.
Благодаря функции удаленного копирования в дисковой системе хранения данных Fujitsu ETERNUS серии DX, использующей жесткие диски Nearline, можно легко создать резервную копию данных системы ETERNUS DX200F. Более того, система ETERNUS DX200F стандартно поддерживает тонкое выделение ресурсов, поэтому администраторы могут устанавливать виртуальную емкость независимо от физической емкости твердотельных накопителей. Таким образом, можно добавлять физические диски по мере возрастания потребностей системы хранения данных, не изменяя установленную емкость, что повышает эффективность использования ресурсов хранения данных и помогает оптимизировать инвестиции.
Робот-цветовод занята наукой и ей на всё наплевать, в том числе и на всю нашу науку / The robot - flower grower is engaged in a science and to her on all to spit, including on all our science