Архив рубрики: Без рубрики

X-Ray 2.2

В релиз вышла новая версия нашего открытого теста-бенчмарка гиперконвергентных сред — X-Ray v2.2
Мы планируем выпускать новую версию каждые два месяца, так что следующая запланирована на январь-февраль 2018.

В текущей версии к Nutanix и VSAN добавлен также ScaleIO как платформа, на которой можно запустить наши тесты и проанализировать производительность.
Появилась возможность к предустановленным workloads создавать свои собственные.
Добавлена возможность использовать Linked Clones для тестов VDI.

В будущем мы планируем расширить X-Ray на поддержку наших совместных с IBM платформ на Power8.

Взять новую версию можно как обычно:
QCOW2 (AHV) — http://download.nutanix.com/x-ray/2.2.0/xray-2.2.qcow2
OVA (ESXi) — http://download.nutanix.com/x-ray/2.2.0/xray-2.2.ova

Не забывайте прочитать документацию по настройке и использованию. Хэппи бенчмаркинг!

Nutanix сертифицирован под Cloudera

Cloudera — это коммерческий «дистрибутив» Hadoop, популярный в энтерпрайзе, желающем развернуть big data аналитику. Рынок Big Data Analysis растет во всем мире, растет он и в России. Уже не только крупные telco (известно, например, что одним из пионеров Big Data в России был Beeline), и банки занимаются этим направлением, появлятся внедрения в ритейле, производстве, ряд интернет-компаний (Avito, Ivi).
Forrester Research назвал в прошлом году дистрибутив Cloudera — лучшим коммерческим дистрибутивом Hadoop. Известно из публикаций прессы, что Cloudera Distribution Hadoop (CDH) используют в России Сбербанк и Тинькофф.
На прошлой неделе стало известно о успешном завершении процесса сертификации Nutanix под продукты Cloudera.

Сегодня (оценка 2016 года) рынок Hadoop составляет около 7,69 миллиардов долларов. Это не вся Big Data, в этой области кроме Hadoop есть еще несколько крупных игроков (Teradata, EMC Pivotal, SAS), общий объем рынка по Big Data в целом выше примерно вчетверо.
При этом в пятилетней перспективе аналитики предсказывают рост до 87 миллиардов только по одному Hadoop. Это делает тему Big Data вообще, и рынок коммерческих дистрибутивов Hadoop в частности, одним из самых перспективных и быстрорастущих в IT-мире.

Теперь платформа Nutanix официально признана в Cloudera подходящей для развертывания полномасштабной инфраструктуры CDH на ней.

Итоги года 2017

В США финансовый год заканчивается в июле, поэтому конец августа — время подведения итогов, прежде всего финансовых.
У Nutanix это также горячее время. Закончился наш первый год в статусе публичной компании.
С 31 августа на 1 сентября (31 августа в США) прошел конфколл, посвященный итогам года.
Подробности ищите в специализированной прессе, а пока — краткие результаты из презентации для инвесторов:

Эффективность online compression на Nutanix

Экспериментирую тут с домашней лабой на CE, описанной детально в посте на Хабре.
После обновления стало интересно, как там работает LZ4HC, который мы теперь используем для компрессии.
Включил компрессию на двух томах, на одном — ISO, 14,67GB дистрибутивов, на втором — четыре разных Linux и один Windows 2012R2, общим занятым объемом 42,46GB.
После того, как компрессия отработала, получил вот такой результат. По-моему неплохо.

Надо попробовать увеличить память, выделенную CVM, и включить еще и дедупликацию, ради эксперимента.

.NEXT 2016 Vienna и новые анонсы

У нас сейчас идет большая партнерская конференция .NEXT, на которой делаются важные анонсы и презентации новых фич и продуктов. Большую часть я лично уже знаю, но так как мы, как сотрудники, находимся под «мораторием», рассказывать я могу только когда они, эти новости, объявляются публично.

Вот некоторые из новостей. Уже большинство знает, что у нас выходит вот-вот новая мажорная версия NutanixOS 5.0, со множеством новинок, как и полагается мажорной версии.
Вот только некоторые из них:

Визуализация сети. Когда у вас инфраструктура с десятком хостов, парой десятков VLAN-ов и vSwitch-ей, несколькими сотнями VM на них, становится критически важно иметь инструмент, позволяющий разобраться во всей этой лапше. Теперь средства визуализации сетевой инфраструктуры встроены в Prism GUI.

networkvisual3

Микросегментация сети в AHV. С помощью TCP-based механизмов, на Level 4, мы будем уметь сегментировать сеть внутри Nutanix, создавая что-то похожее на VMware NSX, изолируя VM друг от друга. Релиз ожидается в первом квартале 2017 года, в версии NOS «5.0 +1».

nutanix-prism-stack-b

У нас теперь есть self-service portal. О нем давно и часто просили пользователи. Его можно было сделать и самим, например, с помощью средств нашего RESTful API, но теперь он есть наш собственный.

blog_one-click-004

Наконец, мы официально объявили о поддержке работы Nutanix на серверах Cisco UCS B-series, blade. Ранее, как вы помните, мы уже анонсировали поддержку Cisco UCS C-series, rackmounted. Теперь к ним добавились блейдовые, очень популярные, например, в США, системы. С ними существует специфическая проблема. Blades принципиально ориентированы на работу с минимумом дисков локально, предполагается, что корзина blades будет подключена в внешнему стораджу, по какому-нибудь FCoE, поэтому в конструктиве серверов B-series обычно просто нет места больше чем на 2-4 диска. В результате была придумана любопытная схема. В сервера B-series ставятся SSD, и они делаются all-flash compute nodes, а для объемов хранения к корзине подключаются сервера C-series, служащие storage-only nodes. Несмотря на такое разделение следует акцентировать внимание на том факте, что, как и в NX-системах, наличие AllFlash нод требует использования AllFlash кластера, то есть storage-nodes также должны быть AllFlash. C нашими новыми SSD это позволяет установить в C240-M4 24 штуки 1.6TB SSD, эта величина будет удвоена с началом поддержки 3.2TB SSD на UCS, а в свете существенного падения цен и роста емкости SSD в последние годы, это (all-flash системы) становится все более интересно.
Но как быть с лицензиями на гипервизор, например на VMware? Не обойдутся ли storage-only-ноды слишком дорого с точки зрения лицензирования гипервизора? Тут тоже интересный финт. Storage nodes могут работать под бесплатным AHV, совместно с нодами ESXi на B-series.

blog_b-series-02

blog_b-series-03

Скоро еще :)

Поведение SSD в большой популяции, новое исследование

Я давно слежу за публикациями про поведение жестких дисков, и исследованиями о надежности хранения.
Один из виднейших исследователей этого направления, доктор Bianca Schroeder из университета Торонто, которая многие годы проводит исследования ситуации с поведением и надежностью жестких дисков. Ее группа недавно опубликовала на конференции FAST, материалы которой всегда являются mustread для всех, интересующихся темой хранения данных, работу о том, как ведут себя диски SSD в большой популяции крупного enterprise датацентра (на примере датацентров Google, с которыми у доктора Шредер давние и тесные связи, и которые предоставляют огромное поле для исследований).
Возможно раньше вы встречали ее же исследование, также проведенное совместно с Google, по надежности обычных жестких дисков (http://research.google.com/archive/disk_failures.pdf). Теперь пришла пора посмотреть и на SSD.

Результаты исследования крайне интересны, и, как и в случае исследования HDD, не всегда подтверждают «устоявшиеся убеждения».
Например, стало понятно, что на надежность SSD крайне мало влияет степень их использования (это та самая конечность ресурсов записи у flash, которой все так боятся), но влияет их возраст, впрочем, тот же самый вывод был сделан в 2007-м об обычных HDD, там также вероятность отказов не коррелировала с нагрузкой, но только с их возрастом.
Raw Bit Error Rate (RBER, исправимых в firmware ошибок) на SSD растет медленнее ожидаемого и не коррелирует с Uncorrectable Bit Error Rate (неисправимых диском, видимых пользователю).
В целом можно утверждать, что надежность SSD сравнялась с надежностью HDD. Отказы SSD происходят даже реже, чем у HDD, однако величина UBER несколько выше.

После анализа миллионов «драйво-часов» работы множества экземпляров 10 эксплуатируемых в датацентрах Google моделей SSD, трех разных типов SSD: SLC, MLC и eMLC разных лет выпуска (от 24 до 50nm техпроцесса) стало ясно, что, в подавляющем большинстве случаев, SSD даже в условиях нагруженного датацентра не превышают свой ресурс записи, и их отказы практически не связаны с этим параметром. Ни один из исследованных дисков (самым старшим было около 6 лет) не достиг своего лимита по ресурсу записи.

Также стало очевидно, что (значительно) более дорогие enterprise SLC не имеют более высокого уровня надежности (хотя бы эквивалентного их более высокой стоимости). Уровень надежности оказался сравним для всех участвующих в анализе SSD, вне зависимости от их типа и технологии.

Существование bad blocks — нормальная ситуация для SSD. На от 30 до 80% исследованных SSD (разброс величины для 10 исследованных моделей) возникал хотя бы один bad block за первые 4 года эксплуатации, и на от 2 до 7 процентов — целиком битый чип памяти. Однако возникновение сразу большой группы bad blocks — плохой признак, свидетельствующий о высокой вероятности дальнейшего выхода из строя чипа, или SSD целиком.

Подробнее и со всеми результатами, которые я выпустил за неимением места — в самой работе, ссылка на которую в сборнике материалов FAST’16 приведена выше.
Там же есть и другие интересные работы, например исследование, ясно показывающее (в первый раз это утверждалось в вышепроцитированной работе Шредер и Google о HDD, 2007 года), что высокая температура, вопреки распространенному мнению, сравнительно мало влияет на частоту отказов жестких дисков. А влияет, что интересно — влажность. То есть горячий и «сухой» датацентр по частоте отказов почти не отличался от «классического», холодного и сухого, а вот горячий и «влажный» DC, охлаждающийся с использованием freecooling, обычного уличного воздуха, показывал существенный рост отказов. Впрочем, тоже не катастрофический (AFR, Average Failure Rate дисков вырос в нем до 5,1% с обычных 1,5%).

Еще одно исследование на тему отказов и особенностей работы SSD и Flash, сделанное инженерами Facebook и специалистами Carnegie-Mellon University, и опубликованное в прошлом году, можно найти тут: http://users.ece.cmu.edu/~omutlu/pub/flash-memory-failures-in-the-field-at-facebook_sigmetrics15.pdf

Фото с полей: из HP в Nutanix

На сайте у пользователя то, что обведено синим, кучка серверов HP и хранилок LeftHand, целиком ушло в то, что обведено зеленым — один трехнодовый NX-1365.

BenchmarkFCU_Downsizing

Читать далее

Gartner Magic Quadrant по конвергентным системам 2015

Aналитическая компания Gartner, публикующая оценку рынка в форме своих знаменитых «магических квадраНтов», 11 августа опубликовала обзор «нашего», гипер- и просто конвергентного сегмента рынка. 

В прошлом году, в первом подобном обзоре, выполненном Гартнером, nutanix оказался в «визионерах», и был назван технологическим лидером, его отметка в квадранте была самой далеко сдвинутой вправо. Но так ка все привычно смотоят в этом квадранте в правый верхний угол, нам приходилось объяснять, что, де, пока компания невелика, согласно позиции Гартнера ей сложно взобраться вверх, по оси Y, по которой отмеряется «сделкопригодность», и что мы ждем нового обзора, так как за год произошло много всего, в том числе и существенный рост продаж и объемов. 

И вот — новый квадрант, 2015 года. 

  
Подробный отчет можно почитать тут: http://www.gartner.com/technology/reprints.do?id=1-2IDMVWA&ct=150624&st=sb