Архив за месяц: Май 2017

Опубликованы результаты Q3FY2017

Опубликованы результаты Nutanix для Q3FY2017, то есть третьего квартала финансового года 2017 (у нас, как это принято в Америке, финансовый год начинается в сентябре).

Скучные подробности про GAAP ищите на соответствующих сайтах, а пока — традиционная уже картинка:

Наш новый партнер — IBM!

Как вы знаете, существенная часть продаж Nutanix — это наши продажи через OEM-партнеров. Поэтому ничего удивительного в том, что мы продолжаем активно развивать наш OEM-бизнес на рынке. До сегодняшнего дня у нас было, официально, два OEM. Это Dell, и его модельная линейка гиперконвергентных систем Dell XC (фактически — сервера PowerEdge и Nutanix как софт на них, продаваемые через канал Dell), и Lenovo (как Lenovo HX, на тех же условиях). Да, у нас есть эксперименты с установкой Nutanix на платформы Cisco UCS C и UCS B, и даже, с недавних пор, на HP ProLiant DL (мы пока не предлагаем это в России, но они есть), но это не OEM, официальных «настоящих» OEM у нас было два.

И вот к этим двум добавился еще один — IBM! Особое соглашение, под названием multi-year agreement было заключено между Nutanix и IBM.

ibm logo

«Погодите,» — скажете вы, «Но ведь у IBM больше нет серверов x86, они все теперь у Lenovo! У IBM остались только системы серверной архитектуры Power8, так это что ж значит?..»

Да! Nutanix AHV портирован на Power, и IBM будет поставлять Nutanix AHV на своих 1U- и 2U-серверах платформы Power как готовый appliance!

power8 logo

Основная цель для подобных систем — Linux-приложения на платформе Power, опернсорсные базы данных Cassandra и MongoDB, приложения на Java в WebSphere, BigData и AI (Artificial Intelligence).

Официальный анонс соглашения — сегодня, анонс первых продуктов, спецификации и цены — 28 июня, на .NEXT, нашей главной партнерской технологической конференции.

Чтобы соблюсти юридические формальности: Партнерство IBM и Nutanix официально не называется «OEM» (но, фактически является схожим с ним по сути), IBM будет поставлять свое оборудование, под своим именем, но с нашим софтом внутри. Фактически условия эти аналогичные OEM, например с Dell. Но при этом мы договорились, что это не будет называться так. Это, официально, зовется multi-year agreement. Давайте его так и будем называть.

Официальный пресс-релиз — тут: https://www.nutanix.com/press-releases/2017/05/16/ibm-nutanix-launch-hyperconverged-initiative-bring-enterprises-cognitive-era/

Пароль для admin в новом Nutanix OS 5.1

Я чуть ранее упоминал о нововведении в свежей версии Nutanix OS. Из соображений безопасности мы теперь будем требовать обязательного изменения/установки пароля админа на служебные сервисы Nutanix. Конечно, по-хорошему, доступ к CVM должен быть ограничен VLAN-ом админов, но пользователь ленив, и если есть возможность что-то усложняющее жизнь не делать — он и не сделает. Поэтому теперь рутовый-админский доступ будет закрыт паролем, который пользователь должен будет устанвить сам при запуске системы.
Мы несколько ранее сделали такое для доступа в Prism, но теперь это будет и для CVM тоже. Выглядит это так:

Прежде чем вводить пароль и тыкать кнопку, прочтите и осознайте внимательно примечание, написанное под полем пароля.

Конечно, мне тоже кажется, что со строгостью password policy у нас все же несколько перестарались, сгоряча :)
Тем не менее, теперь будет вот так.
Обратите внимание, что первые пользователи уже столкнулись с несколькими тонкими моментами.
В качестве спецсимволов новые политики не принимают, например, популярные в качестве special characters: ! @ $ /. Дефис подходит.

Пароль админа после введения на одном из нодов, синхронизируется по всему кластеру.

Как задействовать на ноде Nutanix под трафик VM более одного порта 10G?

Стандартная конфигурация сети ноды Nutanix — это два порта 10G в конфигурации active-passive, при котором один работает и передает данные как межкластерного соединения, так и обеспечивает внешнюю сеть для VM, а второй стоит на случай отказа первого или его коммутатора. И поэтому у многих сисадминов чешутся руки и второй также задействовать для передачи данных, сделав на них какой-нибудь «LACP».
Это возможно. Но прежде чем мы пустимся дальше — несколько слов напутствия. Вариант с active-passive выбран нами как вариант по умолчанию не зря. Наш опыт конфигуирования систем Nutanix показывает, что для подавляющего большинства систем один хост не исчерпывает своим трафиком возможности одного порта 10G, поэтому расширение полосы пропускания в неиспользуемой части ее не увеличит быстродействие вашей системы. К тому же любой сетевик скажет вам, что active-passive это наименее проблемная конфигурация с точки зрения глюков, и самая простая в настройке. А раз так — то зачем нам приключения?
Но если так оказалось, что вы в самом деле уперлись на вашей системе Nutanix в трафик порта (такое может случиться с высоконагруженными системами производительного семейства NX-8000, например), то одним из вариантов будет задействовать два (или даже больше) порта для одновременной передачи данных по ним.
И вот как это возможно.

Первый, приходящий в голову способ будет у вас, я думаю, задействовать LACP. Это возможно, и прежде всего для этого надо переключить значение bond_mode на OpenvSwitch в Acropolis для OVS-бонда с active-passive на balance-tcp.
Однако это, хотя и позволит нам задействовать LACP, не решит проблему с одной высоконагруженной VM. Дело в том, что такая VM, обладая всего одним source IP, не сможет в случае балансировки LACP задействовать более одного порта, так как балансировка в этом режиме идет по парам source-target IP. Начав передавать трафик по одному интерфейсу, она и будет продолжать по нему передавать, даже в случае, если объем трафика превысит его полосу пропускания. Другая VM, с другим source IP пакета, конечно, сможет использовать для своего трафика второй eth, но только таким образом.

Чтобы избежать такой ситуации, мы попробуем другой режим балансировки, в OVS он называется balance-slb.
Вот как его включить.

Допустим, у нас конфигурация сетевого бонда на ноде вот такого типа:

Здесь, как вы видите, оба порта 10G объединены в сетевой бонд с именем bond0 и включены в бридж по имени br0.

Команда:
hostssh ovs-appctl bond/show bond0
покажет нам конфигурацию OVS на всех хостах кластера. Выглядит это примерно так:

Как вы видите, значение bond-mode у нас всюду active-backup.

Дадим команду:
hostssh ovs-vsctl set port bond0 bond_mode=balance-slb

и она переключит нам режимы бондов с именем bond0 для ВСЕХ хостов на balance-slb

[Если вам необходимо сделать это только для одного конкретного хоста, то тогда из консоли CVM этого хоста дайте команду:

ssh root@192.168.5.1 ovs-vsctl set port bond0 bond_mode=balance-slb]

В результате вы получите такое:

Теперь действующий режим бонда стал balance-slb.

Обратите внимание на обведенное зеленой рамкой. Это указывает время перебалансировки портов. Значение по умолчанию для перебалансировки — 10 секунд, но Nutanix рекомендует устанавливать значение перебалансировки на 60 секунд, чтобы минимизировать «скачки» VM и ее трафика с порта на порт.

Команда:
hostssh ovs-vsctl set port bond0 other_config:bond-rebalance-interval=60000
установит это значение.

Данный метод работает для AHV 20160925.43 и AOS 5.0.2

Больше про балансировку и особенности работы сети в AHV — в статье: https://next.nutanix.com/t5/Nutanix-Connect-Blog/Network-Load-Balancing-with-Acropolis-Hypervisor/ba-p/6463

Nutanix OS 5.1 в релизе!

Главная новость недели это, конечно, выход в релиз новой свежей версии Nutanix OS — 5.1.

Nutanix Acropolis OS 5.1

Вот что нового в свежем релизе:

Наконец появилась возможность смешивать All-Flash ноды с Hybrid (SSD+HDD) в одном кластере. Раньше AllFlash можно было делать только в выделенном кластере. Теперь, начиная с двух нодов All Flash, их можно включать в Hybrid-node Cluster.

В AHV появился hot-plug для изменения объема памяти и числа CPU в виртуальной машине.

Для кластеров с лицензиями Pro и Ultimate для создаваемых контейнеров пост-процессная компрессия в них будет включена по умолчанию. Раньше это было только для All-Flash систем, теперь и для гибридных тоже. Starter исключен просто потому, что в нем нет post-process compression в наборе фич.

Поддерживается vSphere 6.5.

Улучшена работа Erasure Coding (EC-X).

Поддерживается гипервизор XenServer 7 для моделей NX-1065-G5, NX-3060-G5, NX-3175-G5. Основная цель поддержки этого гипервизора — работа VDI с 3D GPU NVIDIA Tesla M60
Не поддерживается XenServer на NX-6035C-G5.

Увеличился объем рекомендованного по умолчанию объема памяти CVM до 32GB (для систем с 64GB RAM — 28GB), при этом — хорошая новость: появился 1-Click memory size changer.

AHV сертифициован в Windows 2016 SVVP (Server Virtualization Validation Program).

В качестве Tech Preview(обычно это означает General Available статус в следующей версии):

GPU passthrough в AHV. Это пока не vGPU. Для полной поддержки GPU пока смотрите на XenServer+XenDesktop.

Поддерживается репликация, как синхронная, так и асинхронная между кластерами Nutanix и OEM (Lenovo HX и Dell XC). По-прежнему не поддерживается смешивание в одном кластере нативного Nutanix и OEM-систем.

Также обратите внимание, что теперь система будет требовать изменить при первом логине в CVM пароль админа. Если вы для ваших скриптов зачем-то использовали логин admin в CVM с нашим ранее дефолтным паролем, то это работать не будет. Измененный на одной из нод пароль для логина admin будет синхронизирован на всех нодах кластера. Мы рекомендуем создать для скриптов отдельный логин. Для пользователя admin (с root-правами) больше не будет доступен nCLI (Nutanix CLI, наш командлайновый интерфейс управления), только для «нерутового» пользователя.

Официальный Release Notes тут: https://portal.nutanix.com/#/page/docs/details?targetId=Release-Notes-Acr-v51:Release-Notes-Acr-v51