Архив за месяц: Июль 2017

Nutanix для 1-Tier и Business Critical — опыт компании ЦФТ

Недавно мы завершили испытания системы Nutanix в компании ЦФТ — Центр Финансовых Технологий. Под таким незамысловатым названием скрывается компания-разработчик банковских информационных систем, работающая не только в России, но и за рубежом, с численностью более 2000 человек. ЦФТ входит в TOP-5 крупнейших разработчиков ПО, действующих на российском рынке.
Свыше 500 банков РФ и СНГ используют программные продукты и сервисы ЦФТ: Сберегательный банк РФ, Газпромбанк, «Возрождение», банк «РОССИЯ», «Банк Санкт-Петербург», «Еврофинанс Моснарбанк», «Росгосстрах Банк», Банк «УралСиб», банк «Петрокоммерц», Национальный банк «ТРАСТ», «МДМ Банк», Банк «Финансовая Корпорация Открытие», «Связной Банк», «Восточный Экспресс Банк», «Национальный резервный банк», Банк «Финансово-промышленный капитал», «БКС Банк», Банк «РЕСО Кредит», «Нордеа Банк» и многие другие в странах СНГ.

Сотрудники этой компании несколько месяцев назад тщательно и придирчиво тестировали Nutanix под самую Critical Tier-1 нагрузку разрабатываемых ими программных банковских систем. По результатам тестирования был выпущен отчет, который я и предлагаю ниже вашему вниманию: (PDF)

Nutanix for Critical Tier-1 workload - CFT report

Есть интересные цифры, причем это не «синтетика», а настоящие реальные данные финансовой информационной банковской системы, полученные на живом железе.

Кстати, для внимательных: кто найдет что-то необычное и интересное в тестируемой конфигурации? Там есть кое-что о чем мы публично еще не рассказывали, но вот-вот объявим. :)

AHV Turbo mode

Наш сотрудник, Josh Odgers, ведущий свой блог тут: http://www.joshodgers.com, недавно опубликовал интересное описание того, как работает AHV Turbo, особый режим работы ввода-вывода, сокращающий путь от UVM (User VM) к CVM (Controller VM) и непосредственно к «железу» через гипервизор.
Как вы уже знаете, CVM у нас находится в User Space гипервизора, и, в отличие от схемы ввод-вывода, например, VSAN, где он осуществляется в Kernel Space. И VMware это все еще позиционирует как большое преимущество, мотивируя это тем, что, дескать, работа в kernel-space более эффективна и более производительна. С одной стороны это так, конечно. С другой, как показывает Nutanix, разница в производительности в данном случае не так значительна, а, между тем, работа в user-space имеет множество преимуществ с точки зрения защищенности и изолированности, безопасности, простоты обновлений и гипервизоро-независимости. Хорошо спроектированная архитектура для user-space практически нивелирует преимущества в производительности для kernel-space, и при этом у нас еще не закончились фичи, позволяющие нам оптимизировать и улучшать процесс ввода-вывода, в особенности если ниже, под CVM и пользовательскими VM лежит наш собственный гипервизор.
Вот, например, как работает режим AHV Turbo, появившийся в новых версиях AHV, и предназначенный, в первую очередь, для оптимизации работы с новыми устройствами хранения, такими как NVMe и 3D Xpoint. В нем Nutanix сократил и спрямил Data IO path между пользовательской VM и «железом» серверной платформы.

На рисунке ниже показывается, как ввод-вывод пользовательской VM (UVM) проходит через подсистему Frodo (служебное имя для Turbo Mode) которая работает в User Space (не в kernel) и затем идет в Stargate (подсистема ввода-вывода) в Controller VM).

Еще одним преимуществом AHV и Turbo mode является то, что администратору не требуется конфигурировать множество адаптеров PVSCSI и распределять виртуальные диски по контроллерам. При добавлении виртуального диска в VM под AHV, многопоточная и много-очередная архитектура используется автоматически, что повышает производительность ввода-вывода как на запись, так и на чтение.
Много-очередной поток ввода-вывода обслуживается с помощью множественных тредов модуля frodo (Turbo mode) и проходит через stargate.

Как показано на рисунке выше, Nutanix с Turbo mode устраняет узкие места, характерные для традиционных гипервизоров, например — причину, по которой VMFS datastore требуется использовать VAAI Atomic Test and Set (ATS) для устранения проблем с большим количеством VM на датасторе (например более 25). Напомню, в классическом VMFS существует ряд операций, которые блокируют датастор целиком, например это любые изменения в метаданных датастора, вызываемые, например, созданием или включением VM, созданием ее снэпшота, запуск Storage vMotion, и так далее. В случае таких операций, без использования VAAI ATS, будет на определенное время, при выполнении этих операций, блокирован ввод-вывод на датастор целиком, для ВСЕХ VM на нем находящихся. Это не слишком страшно, если у вас всего несколько VM на датасторе, и является существенной проблемой когда этих VM на датасторе много, не только потому, что это «тормозит» гораздо больше приложений, но и потому, что при большом количестве VM операции, связанные с блокировкой VMFS, возникают чаще. В случае AHV при использовании Turbo mode, не только каждый vdisk будет иметь свою собственную очередь команд (вместо одной на датастор или контейнер в «классике») но также добавляется и очередь per-vcpu на уровне виртуальных контроллеров.

Вот какие результаты работы AHV Turbo приводит у себя в блоге Джош:

На четырехнодовом блоке четырехлетней давности NX-3450, стоящей в лабе, с двумя SATA SSD на ноду и с отключенным memory read cache, результаты от включения AHV Turbo:
На 25% ниже загрузка CPU на задаче sequential write, при том, что значение производительности практически не изменилось (2929 MBps vs 2964 MBps)
На 27.5% выше sequential read performance (9512 MBps vs 7207 MBps)
На 62.52% увеличилась производительность random read IOPS (510 121 vs 261 265)
На 33.75% увеличилась производительность random write IOPS (336 326 vs 239 193)

И еще из интересного оттуда же. У нас есть клиент, у которого эксплуатируется под Acropolis Hypervisor 1750 нод!

Итоги Nutanix .NEXT 2017 part 1

Начнем понемногу разбирать результаты и анонсы, сделанные на нашей главной ежегодной конференции Nutanix.NEXT. Новостей там много, поэтому начнем постепенно разбирать и комментировать то, что было объявлено.

Прежде всего, еще за пару дней до ее начала, появилась новость, что Nutanix подписал соглашение с компанией Alphabet о технологическом сотрудничестве. Напомню, что Alphabet — так теперь называется «большой Google». Так как у Google кроме традиционных бизнесов появилось множество разных новых, пару лет, кажется, назад было принято решение создать «зонтичную» управляющую компанию, в которую будут входить все многочисленные разнородные подразделения Google. Там будет место и для поисковика с рекламой, и для беспилотных автомобилей, роботов, Android, науки, гаджетов, в общем — всего. Туда же относится и облачный проект Google — Google Cloud Platform.

google-cloud-platform

Это третий по размерам игрок на рынке публичных облачных провайдеров, сразу за Amazon Web Services и Microsoft Azure. И вот с Google Cloud Platform мы теперь сотрудничаем для создания нашего Enterprise Cloud New Generation.

Это не значит, что мы немедленно перестаем работать с AWS и Azure. По-прежнему из Nutanix можно будет создать инстанс AWS для хранения там бэкапов, кроме того, мы поставляем с Nutanix предустановку Azure CPS Standard.
А с GCP у нас будут стратегические и далеко идущие задумки по интеграции и созданию по настоящему «гибридного облака», в котором часть ресурсов будет располагаться в датацентре пользователя, а часть — в публичном облаке, с интегрированной платформой управления всей инфраструктурой.

Во-первых, мы объявили о том, что мы будем поддерживать технологии GCP, такие как, например, Kubernetes (разработанная в Google опенсорсная система по управлению контейнеризованными приложениями), и это хорошо комбинируется и дополняется нашим Acropolis Container Services, что позволяет, в перспективе, создать гибридное облако контейнеризованных приложений пользователя.

Во-вторых, наконец-то вышла в свет наша собственная система оркестрации, которую мы называем Nutanix CALM (CALM). Это продукт поглощения в прошлом году команды разработчиков calm.io, вошедших в состав Nutanix, и теперь представившей интегрированное решение по облачной оркестрации на платформе Nutanix.
Оркестрация CALM будет, разумеется, интегрирована с GCP и Kubernetes, с бесшовной миграцией приложений между «облаком» кластера Nutanix и облаком Google Cloud. Разумеется, CALM будет работать и внутри Nutanix, так что у нас появляется своя собственная, полноценная, современная и красивая система оркестрации приложений, с блюпринтами, и всем полагающимся современной системе.
О Nutanix CALM я еще подробнее остановлюсь во второй части.

И, наконец, было объявлено о новой технологической инициативе — Nutanix Xi (это читается «Ци», по-китайски ;), ну или «Зай» если по-американски), создания облачного DR, своеобразного DR-As-A-Service, для пользователей Nutanix.
Nutanix-Xi
Nutanix Xi пока будет доступен только американскому рынку, так как развернут в четырех датацентрах в США (по два на Восточном и Западном побережьях), это также будет использовать возможности GCP.

Цены и доступность перечисленного выше ожидается в первом квартале 2018 года.