Результаты первого полугода «публичности» в Nutanix

Итак, закончился второй квартал, для нас, как для публичной компании, это время (и обязанность) опубликовать отчеты о проделанной работе. Делать Nutanix это будет теперь регулярно. Вот так выглядит текущее состояние компании сегодня:

17q2 nutanix results

О пользе точной настройки перед проведением performance tests на Nutanix

Немного интересного о том, насколько важно для получения хорошего результата правильно и грамотно конфигурировать систему (а не просто поставить ее потыкав Enter и «Далее»), руководствуясь нашими Best Practices.

Нак коллега из Германии поделился своим опытом:

«Доброе утро. Хочу с вами поделиться результатами тестирования, которые хорошо иллюстрируют важность использования наших best practices.

Я запускал бенчмарк на MSSQL с использованием HammerDB. Использовался AOS 5 на AHV на 3x NX-3175-G4. CPU на 2.6 Ghz (2x 10 core) и каждая нода имела 692 GB RAM. Диски: 2x 1.5 TB SSD и 2x 2TB HDDs.

Все VM были созданы из шаблона Windows 2012 R2 x64 со всеми сежими патчами, VM имела 1 сокет и 8 виртуальных ядер, а также 64GB vRAM.

Я создал VM с SQL Server установленным по умолчанию (просто приняты все значения установки по умолчанию, просто жал «next» всегда), и база была поставлена на виртуальный диск, размером 1TB в контейнере по умолчанию.

Я также создал одну VM с SQL установленным и настроенным в соответствии с нашими best practices. Контейнер имел включенную inline compression, для базы созданы несколько виртуальных дисков, настроены параметры SQL Server, установлены trace flags, large pages, database memory allocation, и так далее.

Затем я установил HammerDB и выполнил транзакционный тест (TPC-C) с 40 пользователями и 254 warehouses, что, в общем, довольно невысокое число последних.

Так выглядел запуск теста на неоптимизированном сервере SQL. Мы получили примерно 90K transactions per minute, и уперлись в CPU.

А это тест на оптимизированной VM с SQL. Мы получили тут более миллиона транзакций в минуту, и все еще не уперлись в CPU.

В обоих случаях, OS и базовая конфигурация VM были идентичны, различалась только конфигурация контейнера, были добавлены дополнительные диски в VM, и были сделаны настройки базы данных. Подсистема хранения не была слишком нагружена, она выдавала всего около 4800 IOs или 290 MB/s.

Мне показалось, что вам будет интересно посмотреть на результаты. Возможно это также будет полезно показать пользователям, если заходит разговор о производительности базы данных на Nutanix.»

Итак, просто за счет более правильной настройки VM для работы в Nutanix, получен двенадцатикратный прирост ее производительности.

Nutanix в новостях: ГК Ангара

Я всегда стараюсь отлавливать публикации о внедрениях Nutanix, появляющиеся в российской компьютерной прессе. Увы, на десяток внедрений нам удается едва ли одну компанию уговорить опубликовать новость об этом. И вот — один из примеров публичной новости. В компании Ангара работает кластер из 4 нод модели NX-6155.

http://www.cnews.ru/news/line/2017-02-07_angara_priobrela_giperkonvergentnoe_webscale

www.angaratech.ru

Интеграция Nutanix AHV в vRealize Automation 7.x

Интересное видео, показывающее интеграцию гипервизора Nutanix AHV в среду управления vRealize Automation 7.
Это возможно, и сравнительно несложно, используя наш RESTful API, подробнее — в видео:

Кроме этого следует упомянуть, что у нас есть и свой собственный «портал самообслуживания» (SSP, Self-Service Portal), встроенный в Acropolis.

Новости саппорта Nutanix, январь.

Я уже рассказывал в октябре о том, как обстоят дела с продуктом и его саппортом, основываясь на нашей внутренней информации на этот счет.
Интересно, как обстоят дела «в динамике», в особенности после выхода новой мажорной версии — 5.0.

Число установленных нод и блоков, числящихся на саппорте, продолжает расти, появились первые системы на v5.0

Насколько надежен релиз 5.0 станет понятно в ближайшие месяцы, но с апреля прошлого года уровень Customer-founded defects (CFD) по всем релизам на системах, стоящих на поддержке линейно снижается с заданного нами порогового уровня 2%, и в декабре упал до 0,6% от инсталлированных систем (всего 410 багов было обнаружено на системах пользователей в процессе эксплуатации, и это очень хороший результат, и лучший за всю историю компании на сегодня).

CFD — это любые дефекты и претензии пользователей, заводимые ими через кейсовую систему, от действительно багов кода, до, например, недочетов в GUI. Все такие defects учитываются как CFD. Нет особого смысла смотреть на абсолютное значение на этом графике, смысл имеет только динамика развития значения CFD.

Как настроить и использовать Nutanix SSP

Если вы хотите разобраться как настроить, использовать, и что вообще такое SSP — Nutanix Self-service Portal, то рекомендую вам просмотреть серию из шести статей, написанных в блоге нашего инженера, Магнуса Андерссона: http://vcdx56.com/category/ssp/.
Очень подробно, пошагово, с массой скриншотов рассмотрено как настраивать и использовать SSP. Все настолько детально и подробно, что не требует даже перевода.
SSP — это наш встроенный в Acropolis продукт, позволяющий построить портал самообслуживания для «частного облака» компании на базе AHV и Nutanix. Вы можете создавать лимиты на ресурсы для групп пользователей (которые интегрируются с корпоративным AD/LDAP), создавать заранее подготовленные для развертывания пользователями образы VM, делегировать управление, в общем все то, для чего ранее вам нужно было переходить на VMware и ее vCloud Director, теперь вы это сможете сделать в рамках Acropolis Hypervisor на Nutanix.

Карты 40GBE — на NX-8150-G5

Новость не то чтобы немедленно «в печать», но все же, возможно, кому-то будет интересно. Иногда спрашивают «есть ли жизнь за 10GBE у Nutanix»?
Вот теперь официально — есть, сейчас уже стали доступны карты 40GBE для нашей топовой модели NX-8150-G5, где они более всего нужны, а следующим этапом, возможно — и для других моделей, когда они там понадобятся.

Эффективность online compression на Nutanix

Экспериментирую тут с домашней лабой на CE, описанной детально в посте на Хабре.
После обновления стало интересно, как там работает LZ4HC, который мы теперь используем для компрессии.
Включил компрессию на двух томах, на одном — ISO, 14,67GB дистрибутивов, на втором — четыре разных Linux и один Windows 2012R2, общим занятым объемом 42,46GB.
После того, как компрессия отработала, получил вот такой результат. По-моему неплохо.

Надо попробовать увеличить память, выделенную CVM, и включить еще и дедупликацию, ради эксперимента.

«Они снова сделали это» — disk performance в AOS 5.0

Помните, я рассказывал про историю, как мы в 4.6 значительно улучшили производительность работы на том же самом железе, просто обновлением софта.
Так вот, «мы снова сделали это». На скриншотах ниже результаты обновления версии AOS 4.7.3 на AOS 5.0 на тестовой системе. Просто запустили diagnostics.py, обновили систему на 5.0, и снова его запустили.

Вот результат с последней сабверсией линейки 4.7 — 4.7.3 на 4-нодовой демосистеме NX-3000, стоявшей в этот момент на тестировании у пользователя.

А это результат того же diagnostics.py сразу после обновления на 5.0.

Вот так работает software defined. То же железо, та же задача, а производительность Random Read IOPS стала выше на ~25%, Random Write IOPS — на ~30%, просто обновлением ПО, которое вы получаете бесплатно, пока система находится на поддержке.

Nutanix CE — уже 5.0!

Всякий раз, когда я рассказывал где-нибудь про CE, пользователи пеняли мне на медленное обновление CE относительно «коммерческого Nutanix», что, мол, новая версия «большого» уже вышла, а CE обновляется до него месяца через два только.
Так вот, выложенная версия CE на известном вам портале, сейчас УЖЕ 5.0.

Обновляется без проблем из Prism, надо взять пак «upgrade», а не «baremetal install», и обновить прямо на живом CE.

Также обратите внимание, что в ноябре обновился и Hypervisor, то есть сам AHV. Его обновление качается там же, встает только на новый AOS. То есть сперва обновляете AOS CE до последней (codebase 5.0), как на картинке выше, а потом, вторым действием обновляйте Hypervisor. Он тоже обновляется из Prism с помощью offline bundle (tar.gz + json).