Архив метки: NOS

Пароль для admin в новом Nutanix OS 5.1

Я чуть ранее упоминал о нововведении в свежей версии Nutanix OS. Из соображений безопасности мы теперь будем требовать обязательного изменения/установки пароля админа на служебные сервисы Nutanix. Конечно, по-хорошему, доступ к CVM должен быть ограничен VLAN-ом админов, но пользователь ленив, и если есть возможность что-то усложняющее жизнь не делать — он и не сделает. Поэтому теперь рутовый-админский доступ будет закрыт паролем, который пользователь должен будет устанвить сам при запуске системы.
Мы несколько ранее сделали такое для доступа в Prism, но теперь это будет и для CVM тоже. Выглядит это так:

Прежде чем вводить пароль и тыкать кнопку, прочтите и осознайте внимательно примечание, написанное под полем пароля.

Конечно, мне тоже кажется, что со строгостью password policy у нас все же несколько перестарались, сгоряча :)
Тем не менее, теперь будет вот так.
Обратите внимание, что первые пользователи уже столкнулись с несколькими тонкими моментами.
В качестве спецсимволов новые политики не принимают, например, популярные в качестве special characters: ! @ $ /. Дефис подходит.

Пароль админа после введения на одном из нодов, синхронизируется по всему кластеру.

Nutanix OS 5.1 в релизе!

Главная новость недели это, конечно, выход в релиз новой свежей версии Nutanix OS — 5.1.

Nutanix Acropolis OS 5.1

Вот что нового в свежем релизе:

Наконец появилась возможность смешивать All-Flash ноды с Hybrid (SSD+HDD) в одном кластере. Раньше AllFlash можно было делать только в выделенном кластере. Теперь, начиная с двух нодов All Flash, их можно включать в Hybrid-node Cluster.

В AHV появился hot-plug для изменения объема памяти и числа CPU в виртуальной машине.

Для кластеров с лицензиями Pro и Ultimate для создаваемых контейнеров пост-процессная компрессия в них будет включена по умолчанию. Раньше это было только для All-Flash систем, теперь и для гибридных тоже. Starter исключен просто потому, что в нем нет post-process compression в наборе фич.

Поддерживается vSphere 6.5.

Улучшена работа Erasure Coding (EC-X).

Поддерживается гипервизор XenServer 7 для моделей NX-1065-G5, NX-3060-G5, NX-3175-G5. Основная цель поддержки этого гипервизора — работа VDI с 3D GPU NVIDIA Tesla M60
Не поддерживается XenServer на NX-6035C-G5.

Увеличился объем рекомендованного по умолчанию объема памяти CVM до 32GB (для систем с 64GB RAM — 28GB), при этом — хорошая новость: появился 1-Clich memory size changer.

AHV сертифициован в Windows 2016 SVVP (Server Virtualization Validation Program).

В качестве Tech Preview(обычно это означает General Available статус в следующей версии):

GPU passthrough в AHV. Это пока не vGPU. Для полной поддержки GPU пока смотрите на XenServer+XenDesktop.

Поддерживается репликация, как синхронная, так и асинхронная между кластерами Nutanix и OEM (Lenovo HX и Dell XC). По-прежнему не поддерживается смешивание в одном кластере нативного Nutanix и OEM-систем.

Также обратите внимание, что теперь система будет требовать изменить при первом логине в CVM пароль админа. Если вы для ваших скриптов зачем-то использовали логин admin в CVM с нашим ранее дефолтным паролем, то это работать не будет. Измененный на одной из нод пароль для логина admin будет синхронизирован на всех нодах кластера. Мы рекомендуем создать для скриптов отдельный логин. Для пользователя admin (с root-правами) больше не будет доступен nCLI (Nutanix CLI, наш командлайновый интерфейс управления), только для «нерутового» пользователя.

Официальный Release Notes тут: https://portal.nutanix.com/#/page/docs/details?targetId=Release-Notes-Acr-v51:Release-Notes-Acr-v51

«Чистый» тест производительности при обновлении NOS 4.5 -> 4.6

Еще один тест производительности на одной и той же системе, до и после обновления на NOS 4.6
Это топовая NX-3460-G4, с 2x SSD 1,2TB, 4x SATA 2TB, 512GB RAM, 2x E5-2680v3 на каждой из 4 ее нод.
На ней был установлен Acropolis Hypervisor (AHV) и затем NOS 4.5.1.2 обновлена на NOS 4.6, тест diagnostics.py был запущен до и после 1-Click обновления.

Было (AHV NOS 4.5.1.2):

Waiting for the hot cache to flush …………. done.
2016-02-24_05-36-02: Running test «Sequential write bandwidth» …
1653 MBps , latency(msec): min=9, max=1667, median=268
Average CPU: 10.1.16.212: 36% 10.1.16.209: 48% 10.1.16.211: 38% 10.1.16.210: 39%
Duration fio_seq_write : 33 secs
*******************************************************************************

Waiting for the hot cache to flush ……. done.
2016-02-24_05-37-15: Running test «Sequential read bandwidth» …
3954 MBps , latency(msec): min=0, max=474, median=115
Average CPU: 10.1.16.212: 35% 10.1.16.209: 39% 10.1.16.211: 30% 10.1.16.210: 31%
Duration fio_seq_read : 15 secs
*******************************************************************************

Waiting for the hot cache to flush ……… done.
2016-02-24_05-38-22: Running test «Random read IOPS» …
115703 IOPS , latency(msec): min=0, max=456, median=4
Average CPU: 10.1.16.212: 73% 10.1.16.209: 75% 10.1.16.211: 74% 10.1.16.210: 73%
Duration fio_rand_read : 102 secs
*******************************************************************************

Waiting for the hot cache to flush ……. done.
2016-02-24_05-40-44: Running test «Random write IOPS» …
113106 IOPS , latency(msec): min=0, max=3, median=2
Average CPU: 10.1.16.212: 64% 10.1.16.209: 65% 10.1.16.211: 65% 10.1.16.210: 63%
Duration fio_rand_write : 102 secs
*******************************************************************************

Стало после обновления (AHV NOS 4.6):

Waiting for the hot cache to flush …………. done.
2016-03-11_03-50-03: Running test «Sequential write bandwidth» …
1634 MBps , latency(msec): min=11, max=1270, median=281
Average CPU: 10.1.16.212: 39% 10.1.16.209: 46% 10.1.16.211: 42% 10.1.16.210: 47%
Duration fio_seq_write : 33 secs
*******************************************************************************

Waiting for the hot cache to flush …….. done.
2016-03-11_03-51-13: Running test «Sequential read bandwidth» …
3754 MBps , latency(msec): min=0, max=496, median=124
Average CPU: 10.1.16.212: 22% 10.1.16.209: 37% 10.1.16.211: 23% 10.1.16.210: 28%
Duration fio_seq_read : 15 secs
*******************************************************************************

Waiting for the hot cache to flush ……….. done.
2016-03-11_03-52-24: Running test «Random read IOPS» …
218362 IOPS , latency(msec): min=0, max=34, median=2
Average CPU: 10.1.16.212: 80% 10.1.16.209: 91% 10.1.16.211: 80% 10.1.16.210: 82%
Duration fio_rand_read : 102 secs
*******************************************************************************

Waiting for the hot cache to flush …….. done.
2016-03-11_03-54-43: Running test «Random write IOPS» …
156843 IOPS , latency(msec): min=0, max=303, median=2
Average CPU: 10.1.16.212: 69% 10.1.16.209: 72% 10.1.16.211: 64% 10.1.16.210: 74%
Duration fio_rand_write : 102 secs
*******************************************************************************

Производительность NX-3460-G4 с NOS v4.6

Вывод diagnostics.py под Acropolis вчерашней инсталляции NX-3460-G4, 4 ноды, 2x480GB SSD, 4x2TB SATA на ноду, 256GB RAM, 2x E5-2660v3 CPU
Результаты — для всех 4 нод суммарно. Для производительности одной VM на одной ноде — делить на 4.

nutanix@NTNX-15SM60210062-A-CVM:10.9.20.160:~$ diagnostics/diagnostics.py --display_latency_stats --run_iperf run
Cleaning up node 10.9.20.156 ... done.
Cleaning up node 10.9.20.157 ... done.
Cleaning up node 10.9.20.158 ... done.
Cleaning up node 10.9.20.159 ... done.
Cleaning up the container and the storage pool ... done.
Running Iperf Test between CVMs
bandwidth between 10.9.20.160 and 10.9.20.161 is: 8.65 Gbits
bandwidth between 10.9.20.160 and 10.9.20.162 is: 8.77 Gbits
bandwidth between 10.9.20.160 and 10.9.20.163 is: 8.51 Gbits
Checking if an existing storage pool can be used ...
Using storage pool default-storage-pool-28308 for the tests.
Checking if the diagnostics container exists ... Container with desired replication factor exists.
Preparing the UVM on host 10.9.20.156 ...

Transferring diagnostics image to NDFS ... done.
Deploying the UVM on host 10.9.20.156 ... done.
Adding disks ... done.
Preparing the UVM on host 10.9.20.157 ...

Deploying the UVM on host 10.9.20.157 ... done.
Adding disks ... done.
Preparing the UVM on host 10.9.20.158 ...

Deploying the UVM on host 10.9.20.158 ... done.
Adding disks ... done.
Preparing the UVM on host 10.9.20.159 ...

Deploying the UVM on host 10.9.20.159 ... done.
Adding disks ... done.
VM on host 10.9.20.156 has booted. 3 remaining.
VM on host 10.9.20.157 has booted. 2 remaining.
VM on host 10.9.20.158 has booted. 1 remaining.
VM on host 10.9.20.159 has booted. 0 remaining.
2016-02-29_05-13-22: Running setup "Prepare disks" ...
done.
Average CPU: 10.9.20.162: 45% 10.9.20.163: 40% 10.9.20.160: 39% 10.9.20.161: 47%
Duration prepare_disks : 44 secs
*******************************************************************************

Waiting for the hot cache to flush ............. done.
2016-02-29_05-15-14: Running test "Sequential write bandwidth" ...
1291 MBps , latency(msec): min=8, max=1758, median=344
Average CPU: 10.9.20.162: 35% 10.9.20.163: 31% 10.9.20.160: 32% 10.9.20.161: 36%
Duration fio_seq_write : 41 secs
*******************************************************************************

Waiting for the hot cache to flush ............. done.
2016-02-29_05-17-00: Running test "Sequential read bandwidth" ...
3884 MBps , latency(msec): min=0, max=564, median=118
Average CPU: 10.9.20.162: 29% 10.9.20.163: 23% 10.9.20.160: 26% 10.9.20.161: 30%
Duration fio_seq_read : 15 secs
*******************************************************************************

Waiting for the hot cache to flush ........... done.
2016-02-29_05-18-11: Running test "Random read IOPS" ...
223506 IOPS , latency(msec): min=0, max=19, median=2
Average CPU: 10.9.20.162: 79% 10.9.20.163: 80% 10.9.20.160: 81% 10.9.20.161: 80%
Duration fio_rand_read : 102 secs
*******************************************************************************

Waiting for the hot cache to flush ........ done.
2016-02-29_05-20-30: Running test "Random write IOPS" ...
149141 IOPS , latency(msec): min=0, max=207, median=2
Average CPU: 10.9.20.162: 69% 10.9.20.163: 63% 10.9.20.160: 67% 10.9.20.161: 63%
Duration fio_rand_write : 102 secs
*******************************************************************************

Tests done.
Results archived in /home/nutanix/diagnostics/results/2016-02-29_05-10-56
nutanix@NTNX-15SM60210062-A-CVM:10.9.20.160:~$

До установки NOS 4.6 там была 4.5.1 и где-то ~120000 IOPS на random read.

Вышла в релиз версия NOS 4.6: что нового?

Наша долгожданная версия Nutanix OS 4.6, с таким объемом новых фич, которые у кое-кого стали бы поводом назвать ее «5.0», поэтому в этой и нескольких последующих статьях я расскажу, что у нас теперь появилось нового.
Прежде всего, остановимся на очень большой оптимизации кода, работы по которому велись весь прошлый год, в результате чего Nutanix удалось достичь очень существенного прироста в производительности. Причем это происходит и на уже существующих системах. Все что вам нужно — обновиться, причем без остановки работы, с помощью 1-Click Upgrade.
Вот вам картинка для привлечения внимания:

4.6-perf-update

Да, около 2,5 раз прирост на рандомном чтении мелкими блоками, около 1,8 раз на рандомной записи, по сравнению с предыдущей версией! Улучшились также, почти двукратно, показатели по вводу/выводу для одного vDisk.

Основными методами, приведшими к такому резкому приросту разработчики назвали:

  • Уменьшение числа dynamic memory allocations
  • Снижение locking overhead
  • Снижение оверхеда на переключении контекстов
  • Использование новых языковых фич и оптимизаций компилятора C++ v11
  • Более грануляное вычисление чексумм
  • Более быстрая категоризация ввода-вывода для его дальнейшей оптимизации
  • Улучшенное кэширование метаданных
  • Улучшенные алгоритмы кэширования записи.

Еще больше прирост показывают наши allflash системы, причем в скором времени грядет очень важное изменение в структуре предложений наших линеек продуктов, связанных с allflash.

В общем, если у вас система Nutanix подключена к интернету и получает обновления с наших серверов обновлений — ищите в PrismUI Upgrade Software новую версию. Для остальных — offline update bundle можно будет скачать с portal.nutanix.com, думаю, что в ближайшие сутки новая версия и там и там появится.

Кроме этого, просто как placeholders, перечислю через запятую, и распишу все эти новые фичи в следующих постах:

Встроенный в Nutanix распределеный scale-out файловый сервис SMB 2.1 Project Minerva, опубликован в статусе Technology Preview.
Volume Groups, появившиеся в 4.5 и конфигурировавшиеся в CLI, теперь управляются из PrismUI. Volume Groups — это тома с блочным доступом по iSCSI, доступные VM, в том случае, если вам нужно отдать в VM раздел с блочным доступом. Примеры таких приложений это Microsoft Exchange на ESXi, Windows 2008 Guest Clustering, Microsoft SQL 2008 Clustering и Oracle RAC.

Обновление 1-Click Upgrade теперь работает в том числе и для BMC и BIOS платформы. Без остановки работы вы можете обновить BIOS серверной платформы.
Также обновляется и встроенный теперь в Nutanix наш сервис прошивки и заливки образов гипервизора и CVM — Foundation.

Metro Availability получил долгожданную возможность не перезагружать VM после миграции на DR-сайт. Раньше это требовалось из-за необходимости переключить NFS-дескрипторы на новый сайт и его хранилище (сами данные синхронно реплицировались), теперь VM работают через NFS proxy, и могут мигрировать «наживую».

Еще одна долгожданная функция — Self-Service Restore. Теперь пользователь VM может самостоятельно восстановить данные, сохраненные в снэпшоте. Для этого в VM устанавливается так называемый Nutanix Guest Tool, и с его помощью VM коммуницирует с Nutanix, позволяя смонтировать снэпшот как отдельный диск внутри VM, откуда простым копированием можно извлечь данные снэпшота.

Появилась интеграция с OpenStack, новые драйвера для Nova, Cinder, Glance и Neutron. Интеграция работает через специальную Server VM (SVM), образ которой доступен для скачивания и установки в Nutanix. Таким образом, Nutanix видится из Open Stack как hypervisor.

Репликация между кластерами теперь возможна и между разными гипервизорами. Например, продакшновый кластер под ESXi может реплицировать свои данные на кластер в резервном датацентре, под Acropolis Hypervisor.

В статусе Tech Preview опубликован Project Dial — 1-click in-place hypervisor conversion, миграция всего кластера с ESXi на AHV. Автоматически конвертируются гипервизоры кластера, его CVM, а также VM пользователя. Разумеется, все это будет проделываться без остановки работы системы и приложений в VM. Релиз GA в ближайших версиях NOS.

Acropolis in da house!

Acropolis, наш инструментарий для создания и управления виртуальными машинами для среды гипервизора Linux KVM непосредственно из Nutanix Prism UI, получил свой GUI и REST API.
Релиз состоится вместе с выходом NOS 4.1.1, 28 января, завтра.
Велкам пробовать!

Создаем VM с нужными параметрами прямо из Prism UI:

Screenshot 2015-01-24 21.45.02

Управляем миграцией VM по хостам кластера:

Screenshot 2015-01-24 21.50.05

Screenshot 2015-01-24 21.50.27

REST API:

Screenshot 2015-01-24 21.52.44