Архив рубрики: новости

Новости продукта

Объявлены планы EOL для моделей G6

Итак, с появлением нового поколения G7, пришла пора прощаться с моделями G6.
Официально объявлены планы постепенного ухода шестого поколения.
Как вы знаете, «уход» это многостадийная процедура.

Датой EOS — End-of-Sale назначено 31 января 2020 года. В этот день будут проданы последние модели G6, и дальше возможно, только если повезет, перехватить отдельные модели, в определенных конфигурациях, задержавшиеся на складе. Если вам нужно именно G6, например для установки ноды в имеющийся chassis G6 — спрашивайте сейла о доступности. Но в целом следует понимать, что EOS — это все.
Дата последней отгрузки — 28 февраля 2020 года.
Следует также помнить, что узлы Nutanix разных поколений прекрасно смешиваются в одном кластере, ограничения, описанные выше, только на chassis, они иногда у SuperMicro меняются между поколениями.

Далее, как я уже не раз говорил, начинается пять лет срока поддержки после EOS, которые состоят и 4 лет полной поддержки, и последнего года, в который выпускается только security updates.
Дата End-of-Maintenance является 31 июля 2023 года, в этот день прекращается выпуск Maintenance releases и Patch releases для платформы G6.
Последним днем, когда моно обновить сервисный контракт является 31 января 2024 года.
И, наконец, через год, 31 января 2025 года заканчивается поддержка этих моделей вовсе.

Nutanix AOS 5.11 — что нового?

А теперь, раз нас в компании много, тут будут появляться не только мои посты, но и моих коллег.
И для начала — о новинках в вышедшей в конце июля версии AOS 5.11 от Владимира Денеко.

Представлены обновления для следующих продуктов:

— AOS версии 5.11

— Prism Central версии 5.11

— AHV версии 20170830.301 (давно ожидаемое обновление самого ядра гипервизора)

— Calm версии 2.7.1

— Objects версии 1.0 (Бывший Buckets, перешедший в GA статус)

Основной список изменений и улучшений:

Добавлен Storage QoS на уровне виртуальной машины.

То, что просили многие, и что часто мешало нам соответствовать некоторым тендерным требованиям, вот оно доступно. Начиная с релиза 5.11 администратор системы (нужна лицензия уровня AOS Professional и Ultimate), может сам выставлять rate limit на уровне отдельных виртуальных машин.

Ограничения на данный момент:

— Storage QoS не поддерживается для in-place, out-of-place восстановления.

— При клонировании виртуальной машины с заданными параметрами Storage QoS, параметры не передаются и их нужно задавать на клоне отдельно.

— При использовании linked clone для родительского образа нельзя применить Storage QoS.

— Нельзя его применить и к виртуальной машине с подключенной volume group.

— Storage QoS не поддерживается для Metro, синхронной репликации и файловых сервисов AFS.

Увеличен лимит дисковой емкости узла до 120Тб

Начиная с версии 5.11 появилась поддержка емкости узлов в 120TB.

Как известно, все диски узлов физически презентованы CVM. Чтобы обеспечить поддержку увеличенной емкости, необходимо закладывать увеличенные требования по RAM для CVM.

В зависимости от планируемого или используемого функционала, CVM необходимо выделение такого количества ресурсов:

Указанные параметры покрывают использование сразу всего функционала Nutanix (capacity tier deduplication, performance tier deduplication, redundancy factor 3).

Добавлена поддержка сетевой сегментации для траффика iSCSI Volumes

Для уже работающих сервисов необходимо руками перенастроить сети:

nutanix@cvm$ acli vg.detach_external vg_name initiator_network_id=old_vm_IP
nutanix@cvm$ acli vg.attach_external vg_name initiator_network_id=new_vm_IP

Добавлена поддержка DR Runbook для ESXi

DR Runbook появились в версии AOS 5.10 как инструмент автоматизации планов восстановления. Совместная связка категорий и protection policy позволяет просто и удобно защищать связки виртуальных машин по тому или иному типу. Версия 5.10 поддерживала только AHV, в версии 5.11 добавлена поддержка ESXi. Теперь у нас есть свой полноценный Site Recovery Manager с планами восстановлениями, тестированиями, failover и failback.

Про это также напишем отдельную статью.

Добавлена поддержка VMware Site Recovery Manager для NearSync Replication

Теперь можно создавать задания NearSync для репликации SRA. Задания могут сосуществовать с задания на асинхронную репликацию. Поддерживается только SRA 2.5.

Добавлена возможность настройки политик замещения и репликации установочных образов для распределенных систем

Как известно Prism Central позволяет пользователям загружать образы виртуальных машин со своей рабочей станции или удаленного сервера. В случае распределенной инфраструктуры кластеров часто возникает ситуация, что пользователю отдельного филиала нужен установочный образ именного определенного дистрибутива и здорово, чтобы он был “поближе” для использования. Используя категории, которые мы можем повесить на уровень установочных образов, или отмечая, что образ нужен именно в конкретном филиале, мы можем распространить образ на все необходимые кластеры для дальнейшей работы.

Добавлена поддержка UEFI для виртуальных машин на базе AHV

Пользователи давно просили поддержку UEFI в VM.
В данный момент полностью поддерживаются виртуальные машины на базе AHV, частичная поддержка виртуальных машин, которые мигрировали с кластеров Hyper-V.

Добавлен новый функционал X-Play для автоматизации реакций на события

Функционал требует лицензии Prism Pro. X-Play представляет собой простой инструмент автоматизации решения рутинных задач. Для этого пользователь создает Playbook, в котором описывает происходящие события в системе и что делать на выходе. Событием могут быть как alert, так и действия отдельных пользователей. Реакцией на событие могут быть как простые уведомления на почту или в Slack, так и действия над виртуальной машиной, например добавить ей ресурсов, если вдруг перестало хватать.

Так это выглядит в действии

Добавлено множество настроек Flow по экспорту/импорту конфигурации и интеграции со сторонними системами

Теперь можно экспортировать и импортировать security policies, что можно использовать как простой инструмент восстановления рабочей конфигурации в случае критического сбоя или событий информационной безопасности. Так же это способ распространения политик безопасности на типовые конфигурации филиалов в случае использование нескольких независимых инсталляций Prism Central.

Состоялся GA-релиз S3-совместимого хранилища Nutanix Objects

Более подробно о решении мы расскажем позже.

Что интересного уже есть сейчас:

— возможность использования хранилище емкость до 2Тб бесплатно, чего может оказаться достаточно для резервного копирования небольших виртуальных машин или поиграться DevOps.

— поддержка интеграции с решениями производителей резервного копирования таких как Commvault, Veritas NetBackup, Veeam, HYCU и других.

— упрощенная процедура развертывания через Prism.

— поддержка path-style и virtual hosted-style для доступа к корзинам и объектам.

— поддержка доменной аутентификации для пользователей.

— поддержка Object Versioning, Lifecycle Policies, WORM (Write Once Read Many) разделов.

Ограничения на данный момент:

— максимальная емкость узла 120Тб (что и понятно, см выше о максимальной емкости дисков узла).

— функционал не поддерживается для узлов с NVMe дисками.

— перерегистрация Prism Central/Element не поддерживается.

— смена IP адресов CVM, MSP, PC не поддерживается.

Новые релизы AOS и «новая метла»

Раз-два-три-четыре-пять, начинаем возрождать!
С весны ничего не писал в блоге, сперва по объективным причинам, потом просто было лень («угасание блога» — страшная болезнь. Стоит перестать писать регулярно, и — все, «восстановить режим» получается очень тяжело и не у всех). Пришла пора восстановить регулярность.
Сперва краткий отчет «как я провел лето». «Я» — в смысле российский Nutanix, где я работаю. У нас теперь много новых людей (кто следил за вакансиями в linkedin видел кого и сколько мы набрали), и куча новых планов. За лето у нас появилось несколько крупных и ключевых для российского рынка заказчиков (на миллионы в долларах, BTW), а в компании глобально и в продукте произошло много важного.
Начну же я сегодня с того, что проясню вопрос с софтверными релизами.
В прошлом году я рассказывал, что мы решили, вслед за рынком софта, перейти на Time-based Releases, это, по-простому, «как в Ubuntu», ну или в Windows 10+, то есть в определенный момент года входит релиз, привязанный к календарю, а не, как было раньше, к готовности фич. И мы решили, что у нас будет линейка «LTS», выпускаемая раз в год, и линейка STS, выпускаемая раз в квартал. В LTS пойдет весь «stable» и GA, а в STS будет выходит все с пылу с жару, новые фичи и bleeding edge с Tech Preview. А потом они в конце года вольются в очередной LTS. И все выглядело красиво.

Но тот, кто следит за выходом релизов в этом году уже знает, что схема эта у нас в этом году работала как-то странно. Да, в декабре вышел 5.10, LTS, но с STS-ами была беда, и вовремя они не вышли. Хуже того, LTS получился, ну-у.. в общем патчлевел апгрейды на него выходят уже полгода.
Поэтому первый STS в этом году получил номер 5.11, и вышел он только в самом конце июля. Одновременно с этим, было принято решение подготовленный 5.12 не выпускать в паблик, и пропустить 5.13 вовсе, дав возможность разработчикам тщательнее вылизать код. А следующий, 5.14 будет в конце года. А соответствующий LTS 5.15 вероятно смещается на первый квартал 2020 года. Так что «Пьянству (и багам) — бой!» Но все ради качества кода.

Следующим постом я опубликую краткий обзор новинок в 5.11. А пока вот какие изменения в полиси релизов приняты, начиная с этого года.

  • LTS — это не Long-time Stable, это Long-time Support.
  • Термин LTS относится к периоду, в который оказывается поддержка и maintenance (software update), это 15 месяцев Maintenance с момента выхода релиза, и плюс 6 месяцев Support. После чего пользователь должен обновиться на следующий LTS release.
  • LTS будет выпускаться каждый год.
  • STS будет выпускаться 2-4 раза в год.
  • И LTS и STS могут иметь так называемые Maintenance releases, в случае необходимость устранения ошибок, например.
  • LTS Maintenance Release может выпускаться вплоть до момента выхода следующего LTS плюс 3 месяца (см. выше почему так)
  • STS Maintenance Release может выпускаться вплоть до выхода следующего STS release.

Таким образом, мы планируем чуть меньше релизов в этом году, но со значительно улучшенным качеством. Ибо «Лучше меньше — да лучше»!

Nutanix — теперь и на Huawei!

Вчерашняя новость хотя и была известна по внутренней информации, но все равно случилась неожиданной. Huawei объявил, что начинает выпускать OEM-Nutanix на базе своего сервера FusionServer 2288H V5. Не только на нем, но вчера объявили пока доступной только эту модель.

Хорошая новость для «импортозаместителей», и не очень приятная для наших коллег из Lenovo. Ну, что делать, бизнес есть бизнес, а у Lenovo было два года форы. Впрочем, конкуренция для конечного покупателя — это всегда очень хорошо.

Итого, по состоянию на середину марта Nutanix можно купить следующими способами:
* От самого Nutanix, в виде «программно-аппаратного комплекса» (самый простой, прямой и, как правило, самый недорогой вариант), на базе платформы Supermicro, поставляемой SM прямо в Nutanix, и продаваемой им пользователю как готовое решение, с полной поддержкой из «одной точки», как железа, так и софта.

* От DellEMC, как OEM-продукт Dell XC.

* От Lenovo, как OEM-продукт Lenovo ThinkAgile HX.

* От Fujitsu, как OEM-продукт PRIMEFLEX.

* У IBM как IBM CS на платформе Power8.

Это все будут также «программно-аппаратные комплексы»

Далее, можно купить «платформу» и «софт» отдельно. Вот эти варианты:

* У DellEMC как продукт Dell XC core, то есть, фактически, просто сервер Dell Poweredge определенной конфигурации (а затем у партнера Nutanix — лиценизию на эту систему).

* У Lenovo, аналогичный core-продукт.

* Недавно к ним также добавился Intel, на сертифицированные серверные платформы (Intel Data Center Blocks) которого также можно купить и поставить Nutanix, приобретя лицензию у партнера Nutanix.

* Наконец, можно приобрести лицензию Nutanix, и поставить его на некоторые конфигурации HPE ProLiant и Cisco UCS, в соответствии с нашим HFCL (Hardware and Firmware Compatibility List). Это, по факту, самый сложный и, парадоксально, обычно самый дорогой для обычного пользователя вариант.

И вот теперь к этому добавился Huawei. Официальный пресс-релиз об этом тут:
https://www.huawei.com/en/press-events/news/2019/3/huawei-nutanix-hyper-converged-infrastructure

Nutanix Acropolis OS — 5.9

Как вы помните, по новой модели time-based releases, мы выпускаем short-time support releases каждый квартал. В этом квартале вышел релиз 5.9

Сегодня релиз выложен для скачивания, и вот что в нем нового:

• Улучшена работа NearSync DR, это наша асинхронная репликация с циклом 1 минута, я писал о ней ранее в блоге.
Теперь в одном Protection Domain (PD) можно иметь и NearSync, и обычный Async. В PD с NearSync можно делать App-consistent Snapshots, а также one-time snapshots, выполняемые вручную, например для фиксации состояния VM перед изменениями в ней. Так как NearSync использует спциальные, Lightweight Snapshots, отличающиеся от обычных Snapshots, было ограничение на использование последних в PD с Nearsync. Теперь можно. Это, кстати, также означает, что backup решения которые используют наш механизм timestream snapshots, будут работать и на томах, реплицируемых NearSync.

• С этого релиза поддерживается ESXi 6.7

• Rack Fault Tolerance — это расширенный block awareness. Последний, если помните, возможнось раскладывать избыточные блоки не просто на разные ноды, но на ноды в разных блоках. С RFT это будет делаться еще и между рэками, если, например, кластер состоит из более чем одного рэка блоков. Это позволяет, потенциально, повысить отказоустойчивость, если авария затронет целиком рэк нодов.

• Metro Availability Support for Hyper-V 2016. Наконец-то к vSphere добавился Hyper-V. По-прежнему ждем Metro Availability для AHV

• Karbon (бывший Acropolis Container Services 2.0) выходит в статусе Tech Preview, в следующем релизе, 5.10 уже будет prodiuction ready. Karbon — это система, позволяющая развертывать кластер Kubernetes, со своей web-консолью, и Kibana для логгинга и мониторинга.

• Поддерживается NVIDIA Tesla V100 16 GB GPU в AHV

• Поддерживается RDMA для двух NIC на платформах G6: NX-3060-G6, NX-3155G-G6, NX-3170-G6, NX-8035-G6, NX-8155-G6 (не поддерживается на NX-1065-G6).

• Реорганизовано меню Settings в Web Console Prism (то, что раньше открывалось по щелчку по шестеренке справа). Так как настроек становится все больше, стало необходимым его переделать радикально.

В новый год — с новыми именами продуктов Nutanix!

Популярное развлечение маркетингового отдела, взять и попереименовывать все продукты компании (а порой и не один раз), докатилось и до Nutanix.
Нет, я не хочу сказать, что имеющиеся названия продуктов были идеальными. Как раз скорее всего и обычно — нет.
Но вот теперь эпидемия переименований докатилась и до нас. В новый финансовый год (FY2019) — с новыми названиями.

  • Acropolis File Services (AFS) теперь будет Nutanix Files
  • Acropolis Block Services (ABS) теперь будет Nutanix Volumes
  • Object Storage Services теперь будет Nutanix Buckets
  • Xi Cloud DR services, не успев появиться и получить имя, теперь будет Leap
  • Netsil (это недавно купленная компания со своим продуктом, который мы будем предлагать как SaaS service) теперь будет Epoch

Отчасти, конечно, причины переименований понятны. Nutanix все больше занимается и все больше уходит в софтовую сторону, в Enterprise Cloud. Для нас HCI сегодня, пусть все еще самый большой и важный, но уже даже не самый главный продукт. Поэтому когда HCI и Acropolis, как ядро нашего HCI, был во главе угла всей продуктовой линейки, привязывать и называть от него продукт было разумно. Сегодня, когда, например AFS является все чаще для наших клиентов уже самостоятельным и отдельным продуктом, часто продающимся и самим по себе, было бы разумно представить и называть его, в свою очередь, как самостоятельный продукт, а не, допустим, как какую-то «фичу» нашей HCI-платформы.

Позже будут объявлены новые имена для:

  • Acropolis Container Services (ACS)
  • семейства продуктов Xtract
  • Project Sherlock

SAP HANA — официально работает на Nutanix AHV!

Это произошло даже быстрее, чем я ожидал. Еще 15 июня я опубликовал заметку, о том, что мы в Nutanix поддерживаем SAP HANA на AHV, и ждем теперь официального SAP note, и вот он вышел еще до конца лета: SAP note 2686722 – SAP HANA virtualized on Nutanix Acropolis Hypervisor.
Теперь это официально в том числе и со стороны SAP — HANA работает и поддерживается на Nutanix HCI под AHV, причем, отметьте, пока только под AHV. И не просто работает, а поддерживается в Production! Это первый гипервизор, поддерживающий HANA в Production environment (не Test/Dev, такое было). [поправка: не первый, 2393917 — SAP HANA on VMware vSphere 6.5 in production]

Nutanix и SAP технологические партнеры много лет, и пару лет назад мы уже объявляли о поддержке SAP Netweaver, то есть classic решения, а вот теперь пришел черед и для HANA.
Несмотря на то, что в данный момент в нашей собственной линейке платформ нет более чем двухпроцессорных систем с объемом памяти более 1.5TB, они есть у наших OEM-партнеров DellEMC и Lenovo, там есть 4-процессорные системы с 3TB RAM, идеальные для крупных SAP HANA серверов.
В настоящий момент поддерживаются процессоры семейства Skylake, HANA VM может занимать до 2.3 TB RAM и использовать до 168 virtual CPU, пользовательские приложения на HCI могут использовать vCPU не занятые использованием production HANA базами.

Официальная страница по решениям для SAP на сайте Nutanix: https://www.nutanix.com/sap

Veeam Availability for Nutanix AHV

Ну, улита ехала, наконец доехала. :)

Наши коллеги из Veeam наконец выкладывают в public свой продукт Veeam Availability с поддержкой Nutanix AHV.

veeam site screenshot for nutanix ahv

https://www.veeam.com/availability-nutanix-ahv.html

Есть триал на 30 дней без ограничений.

Nutanix AOS 5.8 — новый релиз

Вообще, прошедшая неделя была богата анонсами (к сожалению, из-за рабочей занятости пишу о них спустя почти неделю).
Главная новость, конечно, это выход очередного нашего релиза, носящего номер 5.8.
Как я уже писал, мы в Nutanix перешли на новую модель выпуска релизов, становящуюся все более массовой, так называемые Time-based releases, при которых очередной софтверный релиз выпускается не когда будут закончены все запланированные в него новинки, а когда наступает календарный срок, как в Ubuntu, или как в нынешнем Windows 10.
Поэтому у нас раз в год будет выходить LTS, Long-time supported release, в котором будут все отработанные фичи, и который будет рекомендоваться для компаний, которым нужен stable продукт, подерживающийся максимально долго. Сейчас это версия 5.5. И потом будут три релиза, которые собирают в себе все самое новое, что мы выпустили за год, наш nightly build, для тех, кто хочет «все самое новое» и «передний край» разработки. Это не значит, что STS releases будут менее надежны или полны багов, совсем нет. Но если у вас нет необходимости в постоянных обновлениях, или есть строгие требования по сертифицированности ваших решений (требующих стабильной версии платформы) — выбирайте LTS, она будет поддерживаться максимально долго.
AOS — Acropolis OS, это, напомню, содержимое нашей CVM, Controller VM. Ключевая подсистема решения, то, где собственно и живет Nutanix как таковой. Виртуальная машина, в которой внутри, на базе CentOS Linux 7.x, работаю наши сервисы, обеспечивающие все, что делает Nutanix.

Итак, в версии AOS 5.8:

1. Добавляется GPG подпись для tarball, которые мы используем при обновлении системы. Если раньше для контроля целостности получаемого tar.gz использовался обычный MD5 hash, то теперь, дополнительно, скачиваемое обновление будет снабжаться GPG signature, чтобы быть уверенным, что никакой злонамеренный man-in-the-middle не подменил код, и не внедряет в кластер, под видом обновления, что-то постороннее.

2. В Prism Central, наш расширенный (и бесплатный, кстати) интерфейс управления добавляется механизм SAML аутентификаци, позволяющий использовать такие средства Single Sign-On аутентификации пользователя и Identity Provider, как, например, OKTA

3. SMB Sharing mode checks. Было несколько кейсов у пользователей Hyper-V, когда отдаваемый по SMB контейнер, бывал неправильно обрабатываем, и разные хосты одновреименно вносили в него изменения, что привлодило к его повреждениям. Теперь перед открытием доступа к контейнеру будет дополнительно проводиться проверка режима работы с ним. Эта модификация касается немногих пользователей, испльзующих Nutanix с MS Hyper-V.

4. Мы придумали, как будем лицензировать CALM. CALM — это наш встроенный оркестратор приложений в облаке, частном, на Nutanix, публичном, например AWS или GCP, и, наконец, гибридном, на котором часть приложений размещены на локальном «облаке» на платформе Nutanix, а часть ресурсов арендуется у публичного «облака». CALM встроен в Prism Central, и мы пидумали, как его лицензировать для пользователя. Сразу — хорошая новость, есть Free Tier, на 25 VM, то есть для задач на менее 25 VM вы можете пользоваться им бесплатно. Это немного, сразу скажу, но если вы выросли из 25 VM, значит ваша задача уже серьезная. Тут уже можно и деньги поискать.
Схема будет такая: первые 25 разворачиваемых VM — бесплатные всегда, и покупать на них лицензию CALM не надо. Считаются только активные, concurrent VM. Например, если вы запустили X машин, а потом пяь штук погасили и удалили, то 5 лицензий у вас освободилось, и может быть использованы на 5 других VM. VM считаются по их IP + VM ID, то есть просто выключить недостаточно.
Или еще пример. Пользователь развернул через CALM пять сервисов, по 2 VM каждая. Суммарное число лицензий — 10 (per VM). Потом он остановил и удалил два сервиса (то есть четыре VM). Значит, у него высвободилось на системе 4 лицензии, которые будут назначены следующим сервисам.
Лицензии будут продаваться паками по 25 штук (то есть на 25 VM). Первые 25 — бесплатны, дальше по количеству разворачиваемых VM в сервисах.
Что будет пр превышении — та же схема, что и с нашими обычными лицензиями, будет неблокирующий алерт и баннер в интерфейсе. Это сверхлиберальная политика в отношении лицензирования, и мы рассчитываем, что вы не будете злоупотреблять этим.

5. Фича, которой, напоминаю, нет в российских сборках Nutanix по причине непроходимой для нас процедуры ограничения импорта криптографии. Но так как меня читают не только в России, я пишу о ней все равно. Начиная с версии 5.5 в декабре у нас появилась возможность, кроме использования SED, Self-encrypted disks, использовать software-based encryption данных, записываемых на диски. На современных процессорах с hardware-assisted AES-NI это работает быстро и не создает заметных проблем с производитиельностью. Но если до версии 5.8 для хранения ключей шифрования были нужны внешние, сторонние KMS, Key Management Services, то теперь он у нас появился встроенный.
Само шифрование — AES-256, шифруются все кладущиеся на диски данные, не используются SED, то есть на обычных дисках обычных систем. Не зависит от типа гипервизора, то есть работает уровнем ниже и на любом из поддерживаемых гипервизоров. Идет сертификация FIPS 140-2 Level 1. SED сертифицированы на FIPS 140-2 Level 2. SED и software-based encryption можно использовать вместе, на одной системе, получая двухслойное шифрование (при этом, например, уровень SED будет незвависим от уровня контейнеров, лежащих на нем, и владелец ключа от контейнера А не будет возможности доступа ни к содержимому контейнера B, зашифрованному другим ключом, ни к уровню самих дисков, шифрующихся SED, и это можно использовать для формы multi-tenancy.
External KMS — это Gemalto SafeNet, Vormetric, IBM SKLM, Winmagic, Fornetix. Теперь к ним добавился наш собственный Native KMS, встроенный в Nutanix. Требуется минимум 3 ноды (он распределенный). Будучи включенным один раз, шифрование на кластере уже нельзя выключить без полного уничтожения и пересборки кластера.
Лицензия на Data-at-rest Encryption включена в Ultimate, а для прочих уровней есть Standalone license (но только для G6, Skylake CPU), и ее можно добавить, например, в Pro.

Насчет «недоступна в России» — да, для России собирается отдельная версия, с физически выпиленной фичей, к сожалению, у нас нет достаточно ресурсов и денег, чтобы пройти необходимые для импорта криптографии бюрократические препоны, мы не Cisco.
Предназначена эта фича, прежде всего, не для того, о чем вы сразу подумали, потому что тем, о ком вы сразу подумали, нет проблем изъять всю инфраструктуру, вместе с KMS. Обычно это нужно корпорациям, у которых предусмотрены мозговыносящие процедуры по списанию вышедших из строя или списываемых по старости носителей, хранящих корпоративную информацию. В случае применения шифрования у вас есть гарантия, что пока не взломан (в принципе, как алгоритм) AES-256, ваш данные с этих дисков считать в прочитываемом виде невозможно, и их можно просто выкидывать на помойку, вместо, например, физического уничтожения в шреддере для HDD (есть такие, слабонервным не смотреть).

6. Мы постепенно переводим на multiqueue всю внутреннюю кухню (не нужно думать, что для этого достаточно просто собрать бинарники с включенным ключом компиляции, там много внутренних сложных зависимостей в оригинальном коде Linux KVM). В 5.5 мы добавили AHV Turbo, это многопоточность и multiqueue для канала доступа к дискам, и тогда это дало на быстрых дисках, таких как NVMe и AllFlash почти двукратный прирост по производительности на мелких блоках, за счет распараллеливания ввода-вывода на множество доступных ядер, вместо стандартного — на одном CPU core. Появление у нас новых карт 25G и 40G Ethernet сделало необходимым то же самое проделать и с ними, так что теперь у нас есть две очереди, на два разных CPU core, вместо одной до сих пор. Преимущества от NIC multiqueue увидят главным образом владельцы систем с NVMe, RDMA и большим числом SSD (4+) в AllFlash.

7. Теперь включение Erasure Coding (EC-X) не ломает Block Awareness. Последнее — это поведение системы, когда у вас есть значительное число блоков, то есть групп нодов, собранных в одном физическом корпусе, совместно использующих корпус, бэкплейн и пару блоков питания, то в этом случае, при включении Block Awareness, система будет раскладывать блоки данных по нодам таким образом, чтобы они не собирались вместе на одном таком block, объединяющем несколько нодов. Потенциально, например, чтобы при потере сразу пары PSU, Power supply units, вы не потеряли при этом сразу несколько блоков данных, собравшихся хоть и на разных нодах, но в составе одного block, и отключившихся разом.

8. Наконец, мы планируем ввести Capacity License, особый вид лицензирования, который поможет нам решить одну, очень огорчительную для пользователй проблему, обуславливающую такую высокую стоимость лицензии Software-only Nutanix, приобретаемую на стороннюю платформу, например на HPE ProLiant, а не, например, покупаемую в составе appliance Nutanix NX.
Дело в том, что в составе appliance, состоящего из известного нам набора ядер, дисков и SSD, мы можем определить разумную цену за software часть решения. И стоимость софта на системе с парой процессоров 2620, одним SSD на 800GB и парой дисков SATA HDD сделать, со скидкой, сравнительно невысокой, соответствующей цене железной платформы. А на платформе с топовым процессорами, с большим объемом памяти, с множеством дисков и высокой производительностью (и ценой) — и цена софта может быть выше, и в целом получится сбалансированный по цене продукт.
Но, к сожалению, у нас нет таких механизмов в случае Software-only Nutanix. Мы не знаем, на какой платформе он будет запущен, поэтому вынуждены отпускать его пользователю по дефолтно максимальной цене. Это делает, например, бессмысленным установку SW-only Nutanix на слабые платформы, дешевле будет купить NX Appliance.

И вот, глубоко подумав, мы придумали схему с так называемыми Capacity Licenses, с помощью которых можно гибко формировать цену на Nutanix Software.
И теперь можно сделать так:

И, как результат, получается гибкая цена на Nutanix, в зависимости от мощности и возможности платформы, на которой он исполняется.

В итоге, все будет выглядеть примерно так:

Подобная гибкость позволяет формировать адекватную мощности платформы цену на SW-only Nutanix (а не запузыривать туда полный листпрайс без скидок, за 100% цены), и поможет продажам нашего Software-only Nutanix, то есть продажи его как софта на платформы HPE, Cisco UCS, Dell PowerEdge, а скоро и на платформы еще нескольких популярных вендоров.