Архив метки: release

Nutanix AOS 5.8 — новый релиз

Вообще, прошедшая неделя была богата анонсами (к сожалению, из-за рабочей занятости пишу о них спустя почти неделю).
Главная новость, конечно, это выход очередного нашего релиза, носящего номер 5.8.
Как я уже писал, мы в Nutanix перешли на новую модель выпуска релизов, становящуюся все более массовой, так называемые Time-based releases, при которых очередной софтверный релиз выпускается не когда будут закончены все запланированные в него новинки, а когда наступает календарный срок, как в Ubuntu, или как в нынешнем Windows 10.
Поэтому у нас раз в год будет выходить LTS, Long-time supported release, в котором будут все отработанные фичи, и который будет рекомендоваться для компаний, которым нужен stable продукт, подерживающийся максимально долго. Сейчас это версия 5.5. И потом будут три релиза, которые собирают в себе все самое новое, что мы выпустили за год, наш nightly build, для тех, кто хочет «все самое новое» и «передний край» разработки. Это не значит, что STS releases будут менее надежны или полны багов, совсем нет. Но если у вас нет необходимости в постоянных обновлениях, или есть строгие требования по сертифицированности ваших решений (требующих стабильной версии платформы) — выбирайте LTS, она будет поддерживаться максимально долго.
AOS — Acropolis OS, это, напомню, содержимое нашей CVM, Controller VM. Ключевая подсистема решения, то, где собственно и живет Nutanix как таковой. Виртуальная машина, в которой внутри, на базе CentOS Linux 7.x, работаю наши сервисы, обеспечивающие все, что делает Nutanix.

Итак, в версии AOS 5.8:

1. Добавляется GPG подпись для tarball, которые мы используем при обновлении системы. Если раньше для контроля целостности получаемого tar.gz использовался обычный MD5 hash, то теперь, дополнительно, скачиваемое обновление будет снабжаться GPG signature, чтобы быть уверенным, что никакой злонамеренный man-in-the-middle не подменил код, и не внедряет в кластер, под видом обновления, что-то постороннее.

2. В Prism Central, наш расширенный (и бесплатный, кстати) интерфейс управления добавляется механизм SAML аутентификаци, позволяющий использовать такие средства Single Sign-On аутентификации пользователя и Identity Provider, как, например, OKTA

3. SMB Sharing mode checks. Было несколько кейсов у пользователей Hyper-V, когда отдаваемый по SMB контейнер, бывал неправильно обрабатываем, и разные хосты одновреименно вносили в него изменения, что привлодило к его повреждениям. Теперь перед открытием доступа к контейнеру будет дополнительно проводиться проверка режима работы с ним. Эта модификация касается немногих пользователей, испльзующих Nutanix с MS Hyper-V.

4. Мы придумали, как будем лицензировать CALM. CALM — это наш встроенный оркестратор приложений в облаке, частном, на Nutanix, публичном, например AWS или GCP, и, наконец, гибридном, на котором часть приложений размещены на локальном «облаке» на платформе Nutanix, а часть ресурсов арендуется у публичного «облака». CALM встроен в Prism Central, и мы пидумали, как его лицензировать для пользователя. Сразу — хорошая новость, есть Free Tier, на 25 VM, то есть для задач на менее 25 VM вы можете пользоваться им бесплатно. Это немного, сразу скажу, но если вы выросли из 25 VM, значит ваша задача уже серьезная. Тут уже можно и деньги поискать.
Схема будет такая: первые 25 разворачиваемых VM — бесплатные всегда, и покупать на них лицензию CALM не надо. Считаются только активные, concurrent VM. Например, если вы запустили X машин, а потом пяь штук погасили и удалили, то 5 лицензий у вас освободилось, и может быть использованы на 5 других VM. VM считаются по их IP + VM ID, то есть просто выключить недостаточно.
Или еще пример. Пользователь развернул через CALM пять сервисов, по 2 VM каждая. Суммарное число лицензий — 10 (per VM). Потом он остановил и удалил два сервиса (то есть четыре VM). Значит, у него высвободилось на системе 4 лицензии, которые будут назначены следующим сервисам.
Лицензии будут продаваться паками по 25 штук (то есть на 25 VM). Первые 25 — бесплатны, дальше по количеству разворачиваемых VM в сервисах.
Что будет пр превышении — та же схема, что и с нашими обычными лицензиями, будет неблокирующий алерт и баннер в интерфейсе. Это сверхлиберальная политика в отношении лицензирования, и мы рассчитываем, что вы не будете злоупотреблять этим.

5. Фича, которой, напоминаю, нет в российских сборках Nutanix по причине непроходимой для нас процедуры ограничения импорта криптографии. Но так как меня читают не только в России, я пишу о ней все равно. Начиная с версии 5.5 в декабре у нас появилась возможность, кроме использования SED, Self-encrypted disks, использовать software-based encryption данных, записываемых на диски. На современных процессорах с hardware-assisted AES-NI это работает быстро и не создает заметных проблем с производитиельностью. Но если до версии 5.8 для хранения ключей шифрования были нужны внешние, сторонние KMS, Key Management Services, то теперь он у нас появился встроенный.
Само шифрование — AES-256, шифруются все кладущиеся на диски данные, не используются SED, то есть на обычных дисках обычных систем. Не зависит от типа гипервизора, то есть работает уровнем ниже и на любом из поддерживаемых гипервизоров. Идет сертификация FIPS 140-2 Level 1. SED сертифицированы на FIPS 140-2 Level 2. SED и software-based encryption можно использовать вместе, на одной системе, получая двухслойное шифрование (при этом, например, уровень SED будет незвависим от уровня контейнеров, лежащих на нем, и владелец ключа от контейнера А не будет возможности доступа ни к содержимому контейнера B, зашифрованному другим ключом, ни к уровню самих дисков, шифрующихся SED, и это можно использовать для формы multi-tenancy.
External KMS — это Gemalto SafeNet, Vormetric, IBM SKLM, Winmagic, Fornetix. Теперь к ним добавился наш собственный Native KMS, встроенный в Nutanix. Требуется минимум 3 ноды (он распределенный). Будучи включенным один раз, шифрование на кластере уже нельзя выключить без полного уничтожения и пересборки кластера.
Лицензия на Data-at-rest Encryption включена в Ultimate, а для прочих уровней есть Standalone license (но только для G6, Skylake CPU), и ее можно добавить, например, в Pro.

Насчет «недоступна в России» — да, для России собирается отдельная версия, с физически выпиленной фичей, к сожалению, у нас нет достаточно ресурсов и денег, чтобы пройти необходимые для импорта криптографии бюрократические препоны, мы не Cisco.
Предназначена эта фича, прежде всего, не для того, о чем вы сразу подумали, потому что тем, о ком вы сразу подумали, нет проблем изъять всю инфраструктуру, вместе с KMS. Обычно это нужно корпорациям, у которых предусмотрены мозговыносящие процедуры по списанию вышедших из строя или списываемых по старости носителей, хранящих корпоративную информацию. В случае применения шифрования у вас есть гарантия, что пока не взломан (в принципе, как алгоритм) AES-256, ваш данные с этих дисков считать в прочитываемом виде невозможно, и их можно просто выкидывать на помойку, вместо, например, физического уничтожения в шреддере для HDD (есть такие, слабонервным не смотреть).

6. Мы постепенно переводим на multiqueue всю внутреннюю кухню (не нужно думать, что для этого достаточно просто собрать бинарники с включенным ключом компиляции, там много внутренних сложных зависимостей в оригинальном коде Linux KVM). В 5.5 мы добавили AHV Turbo, это многопоточность и multiqueue для канала доступа к дискам, и тогда это дало на быстрых дисках, таких как NVMe и AllFlash почти двукратный прирост по производительности на мелких блоках, за счет распараллеливания ввода-вывода на множество доступных ядер, вместо стандартного — на одном CPU core. Появление у нас новых карт 25G и 40G Ethernet сделало необходимым то же самое проделать и с ними, так что теперь у нас есть две очереди, на два разных CPU core, вместо одной до сих пор. Преимущества от NIC multiqueue увидят главным образом владельцы систем с NVMe, RDMA и большим числом SSD (4+) в AllFlash.

7. Теперь включение Erasure Coding (EC-X) не ломает Block Awareness. Последнее — это поведение системы, когда у вас есть значительное число блоков, то есть групп нодов, собранных в одном физическом корпусе, совместно использующих корпус, бэкплейн и пару блоков питания, то в этом случае, при включении Block Awareness, система будет раскладывать блоки данных по нодам таким образом, чтобы они не собирались вместе на одном таком block, объединяющем несколько нодов. Потенциально, например, чтобы при потере сразу пары PSU, Power supply units, вы не потеряли при этом сразу несколько блоков данных, собравшихся хоть и на разных нодах, но в составе одного block, и отключившихся разом.

8. Наконец, мы планируем ввести Capacity License, особый вид лицензирования, который поможет нам решить одну, очень огорчительную для пользователй проблему, обуславливающую такую высокую стоимость лицензии Software-only Nutanix, приобретаемую на стороннюю платформу, например на HPE ProLiant, а не, например, покупаемую в составе appliance Nutanix NX.
Дело в том, что в составе appliance, состоящего из известного нам набора ядер, дисков и SSD, мы можем определить разумную цену за software часть решения. И стоимость софта на системе с парой процессоров 2620, одним SSD на 800GB и парой дисков SATA HDD сделать, со скидкой, сравнительно невысокой, соответствующей цене железной платформы. А на платформе с топовым процессорами, с большим объемом памяти, с множеством дисков и высокой производительностью (и ценой) — и цена софта может быть выше, и в целом получится сбалансированный по цене продукт.
Но, к сожалению, у нас нет таких механизмов в случае Software-only Nutanix. Мы не знаем, на какой платформе он будет запущен, поэтому вынуждены отпускать его пользователю по дефолтно максимальной цене. Это делает, например, бессмысленным установку SW-only Nutanix на слабые платформы, дешевле будет купить NX Appliance.

И вот, глубоко подумав, мы придумали схему с так называемыми Capacity Licenses, с помощью которых можно гибко формировать цену на Nutanix Software.
И теперь можно сделать так:

И, как результат, получается гибкая цена на Nutanix, в зависимости от мощности и возможности платформы, на которой он исполняется.

В итоге, все будет выглядеть примерно так:

Подобная гибкость позволяет формировать адекватную мощности платформы цену на SW-only Nutanix (а не запузыривать туда полный листпрайс без скидок, за 100% цены), и поможет продажам нашего Software-only Nutanix, то есть продажи его как софта на платформы HPE, Cisco UCS, Dell PowerEdge, а скоро и на платформы еще нескольких популярных вендоров.

Nutanix OS 5.1 в релизе!

Главная новость недели это, конечно, выход в релиз новой свежей версии Nutanix OS — 5.1.

Nutanix Acropolis OS 5.1

Вот что нового в свежем релизе:

Наконец появилась возможность смешивать All-Flash ноды с Hybrid (SSD+HDD) в одном кластере. Раньше AllFlash можно было делать только в выделенном кластере. Теперь, начиная с двух нодов All Flash, их можно включать в Hybrid-node Cluster.

В AHV появился hot-plug для изменения объема памяти и числа CPU в виртуальной машине.

Для кластеров с лицензиями Pro и Ultimate для создаваемых контейнеров пост-процессная компрессия в них будет включена по умолчанию. Раньше это было только для All-Flash систем, теперь и для гибридных тоже. Starter исключен просто потому, что в нем нет post-process compression в наборе фич.

Поддерживается vSphere 6.5.

Улучшена работа Erasure Coding (EC-X).

Поддерживается гипервизор XenServer 7 для моделей NX-1065-G5, NX-3060-G5, NX-3175-G5. Основная цель поддержки этого гипервизора — работа VDI с 3D GPU NVIDIA Tesla M60
Не поддерживается XenServer на NX-6035C-G5.

Увеличился объем рекомендованного по умолчанию объема памяти CVM до 32GB (для систем с 64GB RAM — 28GB), при этом — хорошая новость: появился 1-Click memory size changer.

AHV сертифициован в Windows 2016 SVVP (Server Virtualization Validation Program).

В качестве Tech Preview(обычно это означает General Available статус в следующей версии):

GPU passthrough в AHV. Это пока не vGPU. Для полной поддержки GPU пока смотрите на XenServer+XenDesktop.

Поддерживается репликация, как синхронная, так и асинхронная между кластерами Nutanix и OEM (Lenovo HX и Dell XC). По-прежнему не поддерживается смешивание в одном кластере нативного Nutanix и OEM-систем.

Также обратите внимание, что теперь система будет требовать изменить при первом логине в CVM пароль админа. Если вы для ваших скриптов зачем-то использовали логин admin в CVM с нашим ранее дефолтным паролем, то это работать не будет. Измененный на одной из нод пароль для логина admin будет синхронизирован на всех нодах кластера. Мы рекомендуем создать для скриптов отдельный логин. Для пользователя admin (с root-правами) больше не будет доступен nCLI (Nutanix CLI, наш командлайновый интерфейс управления), только для «нерутового» пользователя.

Официальный Release Notes тут: https://portal.nutanix.com/#/page/docs/details?targetId=Release-Notes-Acr-v51:Release-Notes-Acr-v51