Архив рубрики: techtalk

Как это работает?

Nutanix AOS 5.11 — что нового?

А теперь, раз нас в компании много, тут будут появляться не только мои посты, но и моих коллег.
И для начала — о новинках в вышедшей в конце июля версии AOS 5.11 от Владимира Денеко.

Представлены обновления для следующих продуктов:

— AOS версии 5.11

— Prism Central версии 5.11

— AHV версии 20170830.301 (давно ожидаемое обновление самого ядра гипервизора)

— Calm версии 2.7.1

— Objects версии 1.0 (Бывший Buckets, перешедший в GA статус)

Основной список изменений и улучшений:

Добавлен Storage QoS на уровне виртуальной машины.

То, что просили многие, и что часто мешало нам соответствовать некоторым тендерным требованиям, вот оно доступно. Начиная с релиза 5.11 администратор системы (нужна лицензия уровня AOS Professional и Ultimate), может сам выставлять rate limit на уровне отдельных виртуальных машин.

Ограничения на данный момент:

— Storage QoS не поддерживается для in-place, out-of-place восстановления.

— При клонировании виртуальной машины с заданными параметрами Storage QoS, параметры не передаются и их нужно задавать на клоне отдельно.

— При использовании linked clone для родительского образа нельзя применить Storage QoS.

— Нельзя его применить и к виртуальной машине с подключенной volume group.

— Storage QoS не поддерживается для Metro, синхронной репликации и файловых сервисов AFS.

Увеличен лимит дисковой емкости узла до 120Тб

Начиная с версии 5.11 появилась поддержка емкости узлов в 120TB.

Как известно, все диски узлов физически презентованы CVM. Чтобы обеспечить поддержку увеличенной емкости, необходимо закладывать увеличенные требования по RAM для CVM.

В зависимости от планируемого или используемого функционала, CVM необходимо выделение такого количества ресурсов:

Указанные параметры покрывают использование сразу всего функционала Nutanix (capacity tier deduplication, performance tier deduplication, redundancy factor 3).

Добавлена поддержка сетевой сегментации для траффика iSCSI Volumes

Для уже работающих сервисов необходимо руками перенастроить сети:

nutanix@cvm$ acli vg.detach_external vg_name initiator_network_id=old_vm_IP
nutanix@cvm$ acli vg.attach_external vg_name initiator_network_id=new_vm_IP

Добавлена поддержка DR Runbook для ESXi

DR Runbook появились в версии AOS 5.10 как инструмент автоматизации планов восстановления. Совместная связка категорий и protection policy позволяет просто и удобно защищать связки виртуальных машин по тому или иному типу. Версия 5.10 поддерживала только AHV, в версии 5.11 добавлена поддержка ESXi. Теперь у нас есть свой полноценный Site Recovery Manager с планами восстановлениями, тестированиями, failover и failback.

Про это также напишем отдельную статью.

Добавлена поддержка VMware Site Recovery Manager для NearSync Replication

Теперь можно создавать задания NearSync для репликации SRA. Задания могут сосуществовать с задания на асинхронную репликацию. Поддерживается только SRA 2.5.

Добавлена возможность настройки политик замещения и репликации установочных образов для распределенных систем

Как известно Prism Central позволяет пользователям загружать образы виртуальных машин со своей рабочей станции или удаленного сервера. В случае распределенной инфраструктуры кластеров часто возникает ситуация, что пользователю отдельного филиала нужен установочный образ именного определенного дистрибутива и здорово, чтобы он был “поближе” для использования. Используя категории, которые мы можем повесить на уровень установочных образов, или отмечая, что образ нужен именно в конкретном филиале, мы можем распространить образ на все необходимые кластеры для дальнейшей работы.

Добавлена поддержка UEFI для виртуальных машин на базе AHV

Пользователи давно просили поддержку UEFI в VM.
В данный момент полностью поддерживаются виртуальные машины на базе AHV, частичная поддержка виртуальных машин, которые мигрировали с кластеров Hyper-V.

Добавлен новый функционал X-Play для автоматизации реакций на события

Функционал требует лицензии Prism Pro. X-Play представляет собой простой инструмент автоматизации решения рутинных задач. Для этого пользователь создает Playbook, в котором описывает происходящие события в системе и что делать на выходе. Событием могут быть как alert, так и действия отдельных пользователей. Реакцией на событие могут быть как простые уведомления на почту или в Slack, так и действия над виртуальной машиной, например добавить ей ресурсов, если вдруг перестало хватать.

Так это выглядит в действии

Добавлено множество настроек Flow по экспорту/импорту конфигурации и интеграции со сторонними системами

Теперь можно экспортировать и импортировать security policies, что можно использовать как простой инструмент восстановления рабочей конфигурации в случае критического сбоя или событий информационной безопасности. Так же это способ распространения политик безопасности на типовые конфигурации филиалов в случае использование нескольких независимых инсталляций Prism Central.

Состоялся GA-релиз S3-совместимого хранилища Nutanix Objects

Более подробно о решении мы расскажем позже.

Что интересного уже есть сейчас:

— возможность использования хранилище емкость до 2Тб бесплатно, чего может оказаться достаточно для резервного копирования небольших виртуальных машин или поиграться DevOps.

— поддержка интеграции с решениями производителей резервного копирования таких как Commvault, Veritas NetBackup, Veeam, HYCU и других.

— упрощенная процедура развертывания через Prism.

— поддержка path-style и virtual hosted-style для доступа к корзинам и объектам.

— поддержка доменной аутентификации для пользователей.

— поддержка Object Versioning, Lifecycle Policies, WORM (Write Once Read Many) разделов.

Ограничения на данный момент:

— максимальная емкость узла 120Тб (что и понятно, см выше о максимальной емкости дисков узла).

— функционал не поддерживается для узлов с NVMe дисками.

— перерегистрация Prism Central/Element не поддерживается.

— смена IP адресов CVM, MSP, PC не поддерживается.

The Nutanix Design Guide

the-nutanix-design-guide-first-edition

Полезное руководство по множеству аспектов реализации архитектуры IT системы с использованием HCI Nutanix.

Nutanix Acropolis OS — 5.9

Как вы помните, по новой модели time-based releases, мы выпускаем short-time support releases каждый квартал. В этом квартале вышел релиз 5.9

Сегодня релиз выложен для скачивания, и вот что в нем нового:

• Улучшена работа NearSync DR, это наша асинхронная репликация с циклом 1 минута, я писал о ней ранее в блоге.
Теперь в одном Protection Domain (PD) можно иметь и NearSync, и обычный Async. В PD с NearSync можно делать App-consistent Snapshots, а также one-time snapshots, выполняемые вручную, например для фиксации состояния VM перед изменениями в ней. Так как NearSync использует спциальные, Lightweight Snapshots, отличающиеся от обычных Snapshots, было ограничение на использование последних в PD с Nearsync. Теперь можно. Это, кстати, также означает, что backup решения которые используют наш механизм timestream snapshots, будут работать и на томах, реплицируемых NearSync.

• С этого релиза поддерживается ESXi 6.7

• Rack Fault Tolerance — это расширенный block awareness. Последний, если помните, возможнось раскладывать избыточные блоки не просто на разные ноды, но на ноды в разных блоках. С RFT это будет делаться еще и между рэками, если, например, кластер состоит из более чем одного рэка блоков. Это позволяет, потенциально, повысить отказоустойчивость, если авария затронет целиком рэк нодов.

• Metro Availability Support for Hyper-V 2016. Наконец-то к vSphere добавился Hyper-V. По-прежнему ждем Metro Availability для AHV

• Karbon (бывший Acropolis Container Services 2.0) выходит в статусе Tech Preview, в следующем релизе, 5.10 уже будет prodiuction ready. Karbon — это система, позволяющая развертывать кластер Kubernetes, со своей web-консолью, и Kibana для логгинга и мониторинга.

• Поддерживается NVIDIA Tesla V100 16 GB GPU в AHV

• Поддерживается RDMA для двух NIC на платформах G6: NX-3060-G6, NX-3155G-G6, NX-3170-G6, NX-8035-G6, NX-8155-G6 (не поддерживается на NX-1065-G6).

• Реорганизовано меню Settings в Web Console Prism (то, что раньше открывалось по щелчку по шестеренке справа). Так как настроек становится все больше, стало необходимым его переделать радикально.

NearSync replication — ограничения

В версии 5.5 у нас, в дополнение к нашей обычной асинхронной реликации с минимальным циклом «раз в час», добавилась еще и новая, которую мы назвали NearSync. Ее минимальный цикл — раз в минуту, и это может быть хорошим вариантом для тех, кому раз в час — редко, а синхронная репликация или не подходит, или слишком тормозит (например из-за расстояний между датацентрами).
Однако, как у любых фич, у NearSync есть ряд ограничений, которые хорошо знать, прежде чем вы начнете ей заниматься, планировать использование и использовать в работе.
Вот какие действующие ограничения есть в последней, на момент написания этого текста, версии AOS 5.8:

  • Поддерживается только репликация один-к-одному. С асинхронной можно разные конфигурации, например один-ко-многим.

  • Минимальное число нодов в кластере — 3, как для источника, так и для получателя. Соответственно, не работает на single-node и dual-node ROBO clusters.

  • В расписании для NearSync возможно указать только диапазон от 1 до 15 минут. Нельзя указать интервал от 16 до 59 минут. Начиная с 60 минут будет использоваться обычная Async.

  • Каждый SSD в кластере, участвующем в репликации, должен быть размером не менее 1.2TB. Оптимальный размер SSD для hybrid system — 2 x 1.9TB, для AllFlash ограничений нет. Не рекомендуется добавлять SSD размером меньше 1.2TB в кластер, который использует NearSync при его расширении.

  • Убедитесь, что в каждом Protection Domain, участвующем в NearSync репликации не более 10 объектов (VM или Volume Groups).

  • Система-получатель репликации должна иметь перед включением репликации свободного места столько же, сколько занимает защищаемый workset на системе-источнике.

  • Не включайте NearSync Replication в кластере, где есть узлы с более чем 40TB емкости хранения (SSD+HDD).

  • Поддерживаются гипервизоры ESXi и AHV на x86, не поддерживается AHV на IBM Power.

  • Поддерживается только гомогенный кластер. Не поддерживаются кластеры с разными гипервизорами (пример: ESXi и AHV на capacity nodes).

  • Linked Clones для VM, участвующих в NearSync replication не поддерживаются.

  • Не поддерживается CBT (Change Block Tracking), его пока нет в Lightweight Snapshots, используемых в NearSync.

  • Контейнеры, участвующие в Metro-репликации и в SRM — не поддерживаются.

  • Self-service Restore для реплицируемых с NearSync виртуальных машин не поддерживается (он есть только для full, а не для LWS снэпшотов). По той же причине не поддерживается интеграция для данных защищаемых NearSync VMs с Commvault, HYCU, Rubrick. Им всем нужны full snapshots, а не LWS.

  • Также для NearSync-protected VMs не поддерживаются AppConsistent Snapshots, они также используют full snapshots, а не LWS.

  • Не поддерживается NearSync репликация для AFS (Acropolis File Services).

  • Не поддерживается кросс-гипервизорная репликация.

Так что, как видите, NearSync подойдет не всем, и не является чем-то, заменяющим обычный Async, «тока быстрее». Для задач, которые требуют минимального RPO/RTO, например какая-то ответственная база данных, или аналогичная система, которой в самом деле надо иметь цикл репликации раз в минуту/в пять минут это должно неплохо подойти и ограничения легко обходятся. Для остального — по прежнем лучше использовать обычный Async.

Nutanix AOS 5.8 — новый релиз

Вообще, прошедшая неделя была богата анонсами (к сожалению, из-за рабочей занятости пишу о них спустя почти неделю).
Главная новость, конечно, это выход очередного нашего релиза, носящего номер 5.8.
Как я уже писал, мы в Nutanix перешли на новую модель выпуска релизов, становящуюся все более массовой, так называемые Time-based releases, при которых очередной софтверный релиз выпускается не когда будут закончены все запланированные в него новинки, а когда наступает календарный срок, как в Ubuntu, или как в нынешнем Windows 10.
Поэтому у нас раз в год будет выходить LTS, Long-time supported release, в котором будут все отработанные фичи, и который будет рекомендоваться для компаний, которым нужен stable продукт, подерживающийся максимально долго. Сейчас это версия 5.5. И потом будут три релиза, которые собирают в себе все самое новое, что мы выпустили за год, наш nightly build, для тех, кто хочет «все самое новое» и «передний край» разработки. Это не значит, что STS releases будут менее надежны или полны багов, совсем нет. Но если у вас нет необходимости в постоянных обновлениях, или есть строгие требования по сертифицированности ваших решений (требующих стабильной версии платформы) — выбирайте LTS, она будет поддерживаться максимально долго.
AOS — Acropolis OS, это, напомню, содержимое нашей CVM, Controller VM. Ключевая подсистема решения, то, где собственно и живет Nutanix как таковой. Виртуальная машина, в которой внутри, на базе CentOS Linux 7.x, работаю наши сервисы, обеспечивающие все, что делает Nutanix.

Итак, в версии AOS 5.8:

1. Добавляется GPG подпись для tarball, которые мы используем при обновлении системы. Если раньше для контроля целостности получаемого tar.gz использовался обычный MD5 hash, то теперь, дополнительно, скачиваемое обновление будет снабжаться GPG signature, чтобы быть уверенным, что никакой злонамеренный man-in-the-middle не подменил код, и не внедряет в кластер, под видом обновления, что-то постороннее.

2. В Prism Central, наш расширенный (и бесплатный, кстати) интерфейс управления добавляется механизм SAML аутентификаци, позволяющий использовать такие средства Single Sign-On аутентификации пользователя и Identity Provider, как, например, OKTA

3. SMB Sharing mode checks. Было несколько кейсов у пользователей Hyper-V, когда отдаваемый по SMB контейнер, бывал неправильно обрабатываем, и разные хосты одновреименно вносили в него изменения, что привлодило к его повреждениям. Теперь перед открытием доступа к контейнеру будет дополнительно проводиться проверка режима работы с ним. Эта модификация касается немногих пользователей, испльзующих Nutanix с MS Hyper-V.

4. Мы придумали, как будем лицензировать CALM. CALM — это наш встроенный оркестратор приложений в облаке, частном, на Nutanix, публичном, например AWS или GCP, и, наконец, гибридном, на котором часть приложений размещены на локальном «облаке» на платформе Nutanix, а часть ресурсов арендуется у публичного «облака». CALM встроен в Prism Central, и мы пидумали, как его лицензировать для пользователя. Сразу — хорошая новость, есть Free Tier, на 25 VM, то есть для задач на менее 25 VM вы можете пользоваться им бесплатно. Это немного, сразу скажу, но если вы выросли из 25 VM, значит ваша задача уже серьезная. Тут уже можно и деньги поискать.
Схема будет такая: первые 25 разворачиваемых VM — бесплатные всегда, и покупать на них лицензию CALM не надо. Считаются только активные, concurrent VM. Например, если вы запустили X машин, а потом пяь штук погасили и удалили, то 5 лицензий у вас освободилось, и может быть использованы на 5 других VM. VM считаются по их IP + VM ID, то есть просто выключить недостаточно.
Или еще пример. Пользователь развернул через CALM пять сервисов, по 2 VM каждая. Суммарное число лицензий — 10 (per VM). Потом он остановил и удалил два сервиса (то есть четыре VM). Значит, у него высвободилось на системе 4 лицензии, которые будут назначены следующим сервисам.
Лицензии будут продаваться паками по 25 штук (то есть на 25 VM). Первые 25 — бесплатны, дальше по количеству разворачиваемых VM в сервисах.
Что будет пр превышении — та же схема, что и с нашими обычными лицензиями, будет неблокирующий алерт и баннер в интерфейсе. Это сверхлиберальная политика в отношении лицензирования, и мы рассчитываем, что вы не будете злоупотреблять этим.

5. Фича, которой, напоминаю, нет в российских сборках Nutanix по причине непроходимой для нас процедуры ограничения импорта криптографии. Но так как меня читают не только в России, я пишу о ней все равно. Начиная с версии 5.5 в декабре у нас появилась возможность, кроме использования SED, Self-encrypted disks, использовать software-based encryption данных, записываемых на диски. На современных процессорах с hardware-assisted AES-NI это работает быстро и не создает заметных проблем с производитиельностью. Но если до версии 5.8 для хранения ключей шифрования были нужны внешние, сторонние KMS, Key Management Services, то теперь он у нас появился встроенный.
Само шифрование — AES-256, шифруются все кладущиеся на диски данные, не используются SED, то есть на обычных дисках обычных систем. Не зависит от типа гипервизора, то есть работает уровнем ниже и на любом из поддерживаемых гипервизоров. Идет сертификация FIPS 140-2 Level 1. SED сертифицированы на FIPS 140-2 Level 2. SED и software-based encryption можно использовать вместе, на одной системе, получая двухслойное шифрование (при этом, например, уровень SED будет незвависим от уровня контейнеров, лежащих на нем, и владелец ключа от контейнера А не будет возможности доступа ни к содержимому контейнера B, зашифрованному другим ключом, ни к уровню самих дисков, шифрующихся SED, и это можно использовать для формы multi-tenancy.
External KMS — это Gemalto SafeNet, Vormetric, IBM SKLM, Winmagic, Fornetix. Теперь к ним добавился наш собственный Native KMS, встроенный в Nutanix. Требуется минимум 3 ноды (он распределенный). Будучи включенным один раз, шифрование на кластере уже нельзя выключить без полного уничтожения и пересборки кластера.
Лицензия на Data-at-rest Encryption включена в Ultimate, а для прочих уровней есть Standalone license (но только для G6, Skylake CPU), и ее можно добавить, например, в Pro.

Насчет «недоступна в России» — да, для России собирается отдельная версия, с физически выпиленной фичей, к сожалению, у нас нет достаточно ресурсов и денег, чтобы пройти необходимые для импорта криптографии бюрократические препоны, мы не Cisco.
Предназначена эта фича, прежде всего, не для того, о чем вы сразу подумали, потому что тем, о ком вы сразу подумали, нет проблем изъять всю инфраструктуру, вместе с KMS. Обычно это нужно корпорациям, у которых предусмотрены мозговыносящие процедуры по списанию вышедших из строя или списываемых по старости носителей, хранящих корпоративную информацию. В случае применения шифрования у вас есть гарантия, что пока не взломан (в принципе, как алгоритм) AES-256, ваш данные с этих дисков считать в прочитываемом виде невозможно, и их можно просто выкидывать на помойку, вместо, например, физического уничтожения в шреддере для HDD (есть такие, слабонервным не смотреть).

6. Мы постепенно переводим на multiqueue всю внутреннюю кухню (не нужно думать, что для этого достаточно просто собрать бинарники с включенным ключом компиляции, там много внутренних сложных зависимостей в оригинальном коде Linux KVM). В 5.5 мы добавили AHV Turbo, это многопоточность и multiqueue для канала доступа к дискам, и тогда это дало на быстрых дисках, таких как NVMe и AllFlash почти двукратный прирост по производительности на мелких блоках, за счет распараллеливания ввода-вывода на множество доступных ядер, вместо стандартного — на одном CPU core. Появление у нас новых карт 25G и 40G Ethernet сделало необходимым то же самое проделать и с ними, так что теперь у нас есть две очереди, на два разных CPU core, вместо одной до сих пор. Преимущества от NIC multiqueue увидят главным образом владельцы систем с NVMe, RDMA и большим числом SSD (4+) в AllFlash.

7. Теперь включение Erasure Coding (EC-X) не ломает Block Awareness. Последнее — это поведение системы, когда у вас есть значительное число блоков, то есть групп нодов, собранных в одном физическом корпусе, совместно использующих корпус, бэкплейн и пару блоков питания, то в этом случае, при включении Block Awareness, система будет раскладывать блоки данных по нодам таким образом, чтобы они не собирались вместе на одном таком block, объединяющем несколько нодов. Потенциально, например, чтобы при потере сразу пары PSU, Power supply units, вы не потеряли при этом сразу несколько блоков данных, собравшихся хоть и на разных нодах, но в составе одного block, и отключившихся разом.

8. Наконец, мы планируем ввести Capacity License, особый вид лицензирования, который поможет нам решить одну, очень огорчительную для пользователй проблему, обуславливающую такую высокую стоимость лицензии Software-only Nutanix, приобретаемую на стороннюю платформу, например на HPE ProLiant, а не, например, покупаемую в составе appliance Nutanix NX.
Дело в том, что в составе appliance, состоящего из известного нам набора ядер, дисков и SSD, мы можем определить разумную цену за software часть решения. И стоимость софта на системе с парой процессоров 2620, одним SSD на 800GB и парой дисков SATA HDD сделать, со скидкой, сравнительно невысокой, соответствующей цене железной платформы. А на платформе с топовым процессорами, с большим объемом памяти, с множеством дисков и высокой производительностью (и ценой) — и цена софта может быть выше, и в целом получится сбалансированный по цене продукт.
Но, к сожалению, у нас нет таких механизмов в случае Software-only Nutanix. Мы не знаем, на какой платформе он будет запущен, поэтому вынуждены отпускать его пользователю по дефолтно максимальной цене. Это делает, например, бессмысленным установку SW-only Nutanix на слабые платформы, дешевле будет купить NX Appliance.

И вот, глубоко подумав, мы придумали схему с так называемыми Capacity Licenses, с помощью которых можно гибко формировать цену на Nutanix Software.
И теперь можно сделать так:

И, как результат, получается гибкая цена на Nutanix, в зависимости от мощности и возможности платформы, на которой он исполняется.

В итоге, все будет выглядеть примерно так:

Подобная гибкость позволяет формировать адекватную мощности платформы цену на SW-only Nutanix (а не запузыривать туда полный листпрайс без скидок, за 100% цены), и поможет продажам нашего Software-only Nutanix, то есть продажи его как софта на платформы HPE, Cisco UCS, Dell PowerEdge, а скоро и на платформы еще нескольких популярных вендоров.

Новости с .NEXT

В эти дни в New Orlean проходит наша большая ежегодная партнерская конференция, на которой, как обычно, представляют новинки и обнародуются планы. На днях там показали несколько новых интересных направлений развития Nutanix. Наверное это именно так надо называть, это не просто набор фич, перечисляемых в release notes, а вот прямо, на мой взгляд, направления развития компании.

Я не буду снова писать про Nutanix Flow, про инструмент сетевой микросегментации, встроенный в платформу Nutanix которая теперь называется Flow, я уже писал ранее, а в майском релизе она вышла в GA. Там добавилось несколько интересных возможностей, в частности с нашим недавним приобретением — Netsil.

С Netsil можно автоматически обнаруживать и анализировать приложения в VM, разбирать их топологию, категоризировать, и получать рекомендации по созданию и назначению им политик безопасности. Интеграция Netsil и Flow объявлена на вторую половину года.

Остановимся детальнее на оставшихся двух вчерашних анонсах.

Nutanix Era — это инструмент так называемого CDM — Copy Data Management, интересный, прежде всего, работающим с базами данных на Nutanix (а таких, напомню, почти половина из множества наши клиентов сегодня). Он поможет администраторам баз данных проводить операции с БД, например делать клонирование, восстановление или обновление баз данных, в том числе сложносвязанных, выполняемых на разных VM и расположенных на множестве томов данных (например отдельно файлы базы, отдельно — логи, отдельно — tempdb, бинарные файлы, локальные резервные копии, и так далее).

С помощью Nutanix Era dba может управлять всеми этими процессами жизненного цикла базы данных начиная от ее провижнинга, включая такие операции, как создание клонов или резервных копий для защиты данных. Например, для организации защиты данных dba может описать и назначить политики резервного копирования, работа с которыми будет интегрирована со сторонними решениями резервного копирования.
Клонирование или обновление данных в базе обычно также непростой процесс. Необходимо идентифицировать нужную копию данных, вместе с соответствующим ей набором логов, разместить эту копию на сервере, восстановить базу данных из копии, применить к ней записи из логов на нужный момент времени, затем, возможно, вовремя и корректно обновлять состояние данных этого клона базы, и так далее.
С десятками и сотнями инстансов современного большого Энтерпрайза все эти сложности возрастают в десятки и сотни раз, растут и шансы на ошибку, которая может стать фатальной для данных.

Инструмент Nutanix Era будет доступен пользователям во второй половине 2018 года.

В него предварительно будут входить такие функции, как One-Click time machine, использующая наши redirect-on-write снэпшоты для создания моментальных копий данных, и One-Click database clone/refresh, для уже описанного выше клонирования и обеспечения актуальности данных, нужного, например, для команд разработчиков.
Объявлено, что в список поддерживаемых баз данных уже попали Oracle DB и PostgreSQL, но этот список будет расширен популярными DB, такими, как MS SQL Server и MySQL (MariaDB).

Nutanix Beam — система мульти-облачного управления, результат интеграции в Nutanix разработчиков недавно приобретенных продуктов Minjar и Botmetric.
Начиная с представления в декабре Nutanix CALM движение компании к SaaS и гибридным облакам стало очевидным, это одно из наших новых направлений, и Nutanix уже не один из десятка разработчиков HCI, вот увидите, черз год-два такое обязательно будет и у VMware с HPE. :)

Nutanix Beam — это инструментарий оптимизации затрат при размещении инфраструктуры в облачных сервисах. Когда мы в Nutanix рассказываем и показываем CALM и Self-Service Portal, почти всегда задают вопросы про биллинг, или, по крайней мере инструменты для его построения. Вот Beam — один из шагов в этом направлении.

Nutanix Beam анализирует и отображает потребление облачных ресурсов как суммарное, так и с разбивкой и детализацией по приложениям, группам и бизнес-юнитам. Такая информация поможет бизнесу, IT-менджменту правильно оценивать и прогнозировать затраты подразделений и компании в целом на облачные сервисы.

Имеющиеся встроенные механизмы оптимизации, анализа затрат и неиспользуемых ресурсов, помогут экономить и правильно распределять ресурсы по облачным платформам.

Часто забытые старые снэпшоты, неиспользуемые больше тома с устаревшими данными, или инстансы RDS могут продолжать поедать ресурсы компании, с использованием Beam вы легко найдете подобные штуки.

Встроенный дашборд финансовой информации поможет проанализировать затраты облачной инфраструктуры и в целом, и с разбивкой по подразделениям, а также отследить тренды.

Важной возможностью Beam является то, что он позволяет оперировать затратами, например оценивая стоимость инстансов как вида on-demand, так и, например Reserve Instance (RI), в облачных инфраструктурах, например у Amazon Web Services (AWS) использование таких advanced методов заказа и покупки инстансов может быть одним из методов экономии немалых затрат.

Nutanix Beam доступен уже сейчас.

Диаграммы соединения сетевых портов для разных гипервизоров в Nutanix

Отличный пост в блоге коллеги, который я не буду копировать сюда, а просто оставлю на него ссылку:
сборник диаграмм сетевых портов Nutanix для разных гипервизоров.
Может основательно помочь в сетевом траблшутинге, настройке правил файрволлов и проброса портов на сетевой подсистеме датацентра, и так далее.

Картинка вам для привлечения внимания, а полный сборник всех диаграмм, для ESXi, Hyper-V, конечно же AHV, и даже для Xen Server — по ссылке:
vmwaremine.com/2014/09/19/nutanix-network-port-diagram/

Как изменить приоритеты или отключить HA для VM в Acropolis Hypervisor?

Как вы знаете, для всех VM в среде AHV включен HA, High Availability, который перезапускает VM в случае, например, выхода из строя хоста, где эта VM работает, и в ряде других случаев. Но что делать, если нужно для каких-то VM эту HA отключить, или, например, изменить приоритеты запуска, когда группа VM перезапускается в условиях ограниченных ресурсов, и мы хотим задать, какие VM должны быть обязательно перезапущены, а какие могут обойтись?

А вот как. На помощь придет командный интерфейс acli. Вы помните, что кроме красивого и визуального Prism, у нас есть еще и командная строка, проще всего доступная из интерфейса непосредственно CVM. Некоторые редкие и мало используемые команды, а также некоторые особо новые, находятся именно там.

Войдем в интерфейс aCLI, например в консоли CVM, просто напишем в командной строке acli и попадем в него, поймем, что мы уже там, по изменившемуся виду подсказки (ну и зелененький он)
nutanix@cvm$ acli
<acropolis> _

Допустим, наша VM называется winxpsp3vmw. Отдадим команду, указав в качестве параметра ha_priority значение -1 (минус один). Это значение отключает работу HA для этой указанной нами VM (и только для нее)

nutanix@cvm$ acli
<acropolis> vm.update winxpsp3vmw ha_priority=-1
winxpsp3vmw: complete

Положительное же значение — включает HA, причем, чем меньше оно, тем выше приоритет HA, то есть VM со значением ha_priority=1 будет иметь выше приоритет выполнения HA, чем VM с ha_priority=2

Вернем нашей VM возможность перезапуска средствами HA

<acropolis> vm.update winxpsp3vmw ha_priority=2
winxpsp3vmw: complete

Наконец, раз уж мы заговорили про HA, стоит упомянуть, что в Nutanix есть возможность резервировать ресурсы в кластере, обеспечивая гарантированный перезапуск VM вышедшего из строя хоста, например. В этом случае, вы можете задать для инфраструктуры лимит, при наличии которого система не даст вам создать больше VM, занимающих ресурсы, чем этих ресурсов есть в системе. Это гарантирует, что все созданные VM будут иметь возможность переехать и запуститься даже при потере заданного числа хостов.
В GUI есть просто соответствующая галка в диалоге. Но вообще-то настройки в системе более гибкие.

HAReserveHosts — один или более физический хост резервируется для выполнения VMHA.
HAReserveSegmentsресурсы (одного или более хоста) резервируются на кластере в целом.

Например:

<acropolis> ha.update reservation_type=kAcropolisHAReserveSegments

В данном случае мы переключили режим резервации на резервирование ресурсов по всему кластеру в целом.

Обновление до G6 получают новые линейки платформ Nutanix

Я уже писал ранее про то, что Nutanix (или, правильнее сказать, Supermicro, наш поставщик платформ) в несколько этапов проводит обновление платформы на Generation 6, с поддержкой Intel Skylake, и прочих интересных штук. Ранее обновилась линейка NX-3000, а теперь пришло время и для других платформ. Уже опубликованы спеки для 1000-й серии, и я бы хотел остановиться на них подробнее.
Обычно мы привыкли, что «новая коллекция» это всегда лучше, мощнее, совершеннее, но в случае Nutanix G6 важно понимать, что «не все так однозначно»(tm). Давайте взглянем на спеки на https://www.nutanix.com/products/hardware-platforms/.

Мы пока сохранили, как и в случае NX-3000-G6, в продаже также и модели G5, и вот почему.
Надо сказать, что NX-1000-G5 получилась весьма удачной. Их и продается очень много у нас по всем миру, и, объективно говоря, получилась «вишенка».
Смотрите сами: два доступных процессора для этой, недорогой системы подобраны как E5-2620 [16 cores / 2.1 GHz] и E5-2640v4 [20 cores / 2.4 GHz]. То есть и ядер ОК, и гигагерцы, например в 2640, вполне ничего себе. Это не 3.4, но тоже, для «энтрилевела», очень неплохо.
А для G6 у нас для NX-1000 пойдут также два процессора, но это: Silver 4108 [8 cores / 1.8 GHz] и Silver 4114 [10 cores / 2.2 GHz]. Как видите, тут и частота меньше, и ядер меньше (спасибо за поправку в комментах, ошибочно у нас на сайте в спеке для G5 указано число ядер для пары CPU, а для G6 — на один CPU). Да, SkyLake. Но если вам нужны именно pCPU cores или частоты, тут есть над чем подумать.

Второе: система NX-1000-G6 будет доступна только в «гибридном» виде, а G5 можно было заказать в AllFlash (причем были доступны даже SSD на 3.84TB), и это была бомба для entry-level, с нашими эффективными и быстрыми SSD такой AllFlash рвал все подряд. Для такой конфигурации это дает нам 41TB usable space на 4 нодах и при компрессии 2:1

Кроме этого, в «гибридном» для G5 были доступны диски 8TB, а для G6 максимум — это 6TB. Это, в свою очередь, 62.28TB гибридной емкости на тех же 4 нодах.

Наконец, в третьих, для G6 будет доступна максимальная память — 384GB RAM, а для G5 были возможны объемы и 512, и даже 1TB на ноду.

В общем, по всему видно, что в G6 наши инженеры попробовали сделать серию NX-1000 более «энтрилевелной», чтобы не каннибализировать «мидрендж» NX-3000, потому что, очевидно, многие смотрели на линейку G5, и всерьез зависали над тем, нужно ли им взять NX-1000 в топовой набивке, например, или allflash для скорости, или с дисками 8TB для емкости, да еще и с таким богатством по RAM, или идти в 3000-ю, которая может получиться заметно дороже просто потому что это более старшая платформа. Если не нужны CPU выше 2640, то тут есть на чем зависнуть.

Из хорошего, ну, конечно, кроме новых CPU, в новых платформах G6 будет пара 10G портов «в базе», на модуле SIOM, и, в принципе, это позволяет не добавлять порты на add-on card. Но можно добавить еще пару или аж четыре 10G, так что с 6 портами 10G это будет довольно упакованная сетевыми интерфейсами система.

В общем, выводы мои такие: если вы раздумывали, нужно ли вам NX-1000-G5, или стоит дождаться G6, то, как мне кажется, есть немало случаев, когда купить сейчас G5 будет выгоднее. Хотя, конечно, если вы глядите на конфигурацию, не превышающую лимиты G6, то такая может выйти и дешевле, чем G5.
Так что думайте, но не слишком долго, не для того мы выпускали G6, чтобы продолжать продажи G5. Распродадим имеющиеся платформы, и — ага.

Кстати, чтобы два раза не вставать: обратили ли вы внимание, что в линейке Dell появилась 4-процессорная модель XC940?
У нас такой модели пока нет, и хотя на сайте DellEMC теперь нужно постараться, чтобы найти модели XC (у меня такое ощущение, что человек не знающий о существовании этой линейки просто так их вообще не найдет, в особенности на русскоязычном сайте), она есть и продается.
Это Nutanix на платформе R940, с ЧЕТЫРЬМЯ процессорами SkyLake, вплоть до Platinum 8180, с 24 местами под 2.5″ диски, с поддержкой NVMe up to 3.2TB, до 60TB на ноду дисковой емкости, и до 4TB (!) RAM. Офигенная молотилка для сверхмощных баз данных, в особенности memory-based.

А в следующем посте я расскажу вам про нашу новую инициативу, которую мы вместе с Dell назвали DellEMC XC core.

UPD: В ближайшее время все же будет доступна конфигурация с 512GB RAM на ноду, модулями по 32GB.

Обновляете vSphere на v6.5? Проверьте HCL!

Я не раз встречаю пользователей, которые «засиделись» на 5.5, и вынуждены мигрировать на 6.х, откладывая это до последнего. «Последнее» начинает пригорать. vSphere 5.5 прекращает поддерживаться уже в сентябре, так что если осенью вы не хотите оказаться с неподдерживаемой системой — пора начинать бегать по потолку готовить процесс миграции на актуальные версии.
И тут я хотел бы в очередной раз напомнить о штуке, про которую, как я заметил, вспоминают всегда в последнюю очередь. Дело в том, что VMware с выходом каждой новой версии и Updates «чистит» свой HCL, не только добавляя новые, но и удаляя из него старые модели серверов. И в этом есть некоторая засада, так как вы вполне можете столкнуться с ситуацией, когда хорошие, еще не старые серверы, выполняющие свою задачу, на которых работает и поддерживается, скажем, vSphere 5.5, после обновления на 6.5 будут считаться неподдерживаемыми, и вы, в процессе апгрейда, получите инфраструктуру, которой будет отказано в вендорской поддержке, хотя, казалось бы, обновлялись, «чтобы было как лучше».

Так, например, на сайте HPE есть специальная страница, в которой вы можете обнаружить, что, например, популярные серверы HPE DL320e Gen8, ML350e Gen8, DL360e Gen8, и уж, понятное дело, DL360 Gen7 — не поддерживаются для ESXi 6.5 и новее.
Аналогичный список есть и у Cisco, и у других вендоров. А у самой VMware он расположен тут: VMware Compatibility Guide.

Так что, надеюсь, вы обойдетесь без сюрпризов в процессе обновления и миграции.
Ну и, как принято говорить, «чтобы два раза не вставать», хочу напомнить, что на платформах Nutanix вы можете также использовать vSphere, причем в одном кластере даже разные версии, например 5.5 и 6.0 или 6.5, что может быть хорошим вариантом для плавной и постепенной миграции инфраструктуры «сервер за сервером». Ну и, наконец, у нас есть «однокнопочная» конвертация кластера vSphere в кластер AHV, решающая окончательно проблему с апгрейдом на новую vSphere с ее веб-клиентом, и прочим админским геморроем.