Архив метки: acropolis

Nutanix Acropolis Hypervisor best practices — на русском

Мы закончили перевод одного из наших документов серии Best Practices:
Nutanix Acropolis Hypervisor Best Practices (BP-2029) по самой свежей версии AHV, v5.0
Извольте знакомиться и пользоваться в работе.

Nutanix AHV Best Practices BP-2029 v.3 RUS

Nutanix Acropolis AHV BP v3.0 RUS

Уже 18% систем Nutanix работает на Acropolis Hypervisor

Внутренние данные, которые озвучили сотрудники техподдержки. Уже 18% всех систем Nutanix, из тех, которые посылают репорты в нашей системе Pulse, работают с использованием нашего гипервизора AHV — Acropolis Hypervisor.
Очень неплохой результат, с учетом того, что гипервизор этот появился публично всего полтора года назад.
Полагаю, подавляющая часть этих 18% оттянута у vSphere. Впрочем, доля vSphere все еще остается очень большой. Доля Hyper-V составляет «менее 10%».

ABS: Acropolis Block Service

ABSoverview[1]

На идущей сейчас в Лас Вегасе большой конференции Nutanix .NEXT объявляют много новинок, которые будут выкачены в самом ближайщем будущем. Например, в версии 4.7 которая выйдет в релиз буквально через неделю-две, мы выпускаем новую очень важную фичу, о которой мне бы хотелось рассказать подробнее.
Итак, Acropolis Block Storage Service позволяет подключать к дисковому пространству кластера нодов Nutanix внешних потребителей не только по файловым протоколам, как это вы уже, возможно, видели в нашем Project Meduza, распределенном файловом «NAS», но теперь и как к блочному стораджу, по протоколу iSCSI.

Acropolis Block Service это расширение нашей In-Guest iSCSI service, который появился год назад. С его помощью можно было использовать блочный доступ в пользовательских VM, например для того, чтобы подключить хранилище к MS Exchange (с некоторых пор подключение по NFS в MS Exchange не поддерживается в MS), кластеры SQL, кворумные диски MS Cluster Service но, конечно, есть много других причин использовать подключение iSCSI внутри Guest OS.

Вот на базе этого механизма, только не для находящихся «внутри» кластера VM, а для внешних хостов с iSCSI Initiator-ами будет работать ABS.

Интересно, что доступ по iSCSI осуществляется непосредственно через CVM, фактически минуя гипервизор, то есть CVM в данном случае играет роль iSCSI Target для клиентского Initiator.
Для того, чтобы понять почему это так, давайте вспомним схему устройства и путей к данным в Nutanix.

.2016-06-23_13-13-52

На физический сервер-платформу устанавливается baremetal hypervisor, в случае VMware это обычный ESXi, в случае Acropolis Hypervisor это CentOS с нашей версией KVM, вернее кода, разработанного на его основе, и которую мы называем Acropolis Hypervisor. Он видит и владеет всем железом платформы, ее CPU, памятью, сетевыми интерфейсами. Всем, кроме жестких дисков. Контроллер SAS HBA, к которому подключены HDD и SSD, с помощью технологии PCIe Passthrough отдан в исключительное владение OS, находящейся в CVM, Controller VM. Он уже видит все диски как физические устройства, работает с ними напрямую, создает на них нашу NDFS (Nutanix Distributed File System, или, как мы сейчас переименовали «Acropolis Distributed Storage Fabric»). Затем, получившуюся файловую систему со всеми нашими сервисами поверх он презентует гипервизору как готовый датастор по протоколу NFS (в случае ESXi), SMB3 или iSCSI в случае Hyper-V или AHV соответственно. То есть, для CVM нет ничего невозможного отдавать наш «датастор», как какой-то фрагмент нашего хранилища, в том виде, в котором нужно, например в виде блочного хранилища внешним потребителям по протоколу iSCSI, фактически минуя при этом Hypervisor, не получая дополнительного оверхеда от двойной «виртуализации».

Вот так и получился ABS — Acropolis Block Service, естественным образом дополнивший уже вышедший и развивающийся AFS, Acropolis File Service, распределенный, многоузловой NAS-сервис Medusa.

К достоинствам ABS также следует отнести то, что на клиентской системе не нужны средства MPIO и ALUA, а при добавлении новых нод в кластер Nutanix не требуется никаких перенастроек на стороне клиента. В случае, если клиент теряет CVM, через который получал доступ к блочному диску по iSCSI, initiator на его стороне производит повторный «логин» сессии в Nutanix, и начинает работать со своими дисками через любой доступный другой CVM. Этот процесс происходит быстрее, чем таймаут SCSI, поэтому процесс работы с данными диска он не прерывает. Таким образом, количество «контроллеров» такой «системы хранения» получается равной числу нодов кластера. При этом каждый CVM может обслуживать множество iSCSI Target-ов.

ABSCVMfailure[1]

Зачем нам делать из гиперконвергентной платформы Nutanix конкурента классическим дисковым сетевым системам хранения? Ответ достаточно прост. Есть задачи, в которых не обойтись без «классического» NAS или «классического» блочного стораджа для «внешних» хостов (для «внутренних» VM у нас давно уже есть Volume Groups, если вы о них забыли). Пример такой задачи для NAS это VDI, где нужно хранить пользовательские профили и «домашние папки». Это в чистом виде задача для файлового стораджа. Раньше, строя VDI на Nutanix, нашим клиентам приходилось для хранения профилей где-то поднимать NAS на какой-то сторонней СХД. Теперь это можно сделать в рамках одного нашего решения.

Примерно та же задача произвела на свет ABS. Допустим, у пользователя есть Nutanix, и его все устраивает, и он мигрировал внутрь Nutanix свои задачи и приложения. Но у него есть legacy база данных, например Oracle, работающая на паре «тяжелых» физических серверов, может быть даже и не x86. На каком-нибудь Oracle SPARC, купленных тогда, когда сейлы Oracle очень живописно продавливали клиентам SPARC как лучшую платформу для Oracle. Может, кстати, это и так. Факт тот, что у пользователя есть физический, невиртуализованный Oracle и лицензии на него, и, как вы знаете, лицензирование Oracle в виртуальной среде штука очень хитрая. Так что пользователь может бы и хотел выкинуть уже SPARC (или там Power6/AIX/DB2/AS400), но не может. Или не хочет. Тоже имеет право.
Вот тут как раз хорошим выходом для него будет ABS. Он может не отказываться от своих физических хостов под приложения, а отказаться только от устаревшей СХД, чтобы свои данные хранить на Nutanix в ABS, со всеми плюсами этого решения.

Таким образом, ни ABS, ни AFS не означает, что Nutanix теперь отказывается от гиперконвергентности, и начинает играть как простая SDS СХД. Вовсе нет. Но в тех нишах, тех узких областях, где раньше Nutanix «не проходил», он теперь может сыграть, дополнив свою HCI-часть еще и некоторыми более традиционными сервисами для внешних потребителей.

Большое обновление у Nutanix.

Nutanix-Logo

Как-то летом спад активности повлиял на блог, а наступивший следом сентябрь и свалившаяся с ним оффлайновая активность не давали писать. Но, нет, мы не сдохли, и не надейтесь. :) Но так получилось, что в июле, на нашем ежегодном собрании (в Америке финансовый год заканчивается в июле) рассказали столько всего нового, и нас так ощутимо бьют за утечки сейчас, что было просто непонятно, как теперь не проговориться про все наши новости. :)
Но — вот, наконец, стало можно.
Итак, что мы для вас готовили все лето.
Читать далее

Nutanix Acopolis: как работает High Availability (HA)?

Несмотря на то, что, строго говоря, Nutanix Acropolis, наша встроенная управлялка, «vCenter for KVM», стал доступен пользователям еще в январе, его официальное объявление было задержано, в первую очередь потому, что мы хотели отладить и добавить несколько важных функций, без которых современная подобная система немыслима. Одна из них — функциональность High Availability (HA) для VM на KVM.
Теперь она у нас есть, и вот как это работает.
Сперва — для чего этот HA вообще нужен?

Читать далее

Nutanix Acropolis: клонируем и запускаем виртуалки с помощью скрипта через RESTful API

В блоге Dwayne Lessner-а показывается, как можно за секунды склонировать сотню VM через вызов REST API, и запустить их командой Acropolis CLI.

Nutanix OS 4.1.3 — что нового

На прошлой неделе я уже мельком упомянул, в посте про Erasure Coding, о том, что выходит в релиз новая версия Nutanix OS (NOS) версии 4.1.3
Вот что в ней заметного из новостей:

Ну, во-первых, это вот он, Erasure Code. Это есть, работает, можно использовать там, где это нужно, но помните, рекомендации Nutanix пока указывают однозначно: это не для production data. Официальный статус фичи — Tech Preview. Это не означает, что это ненадежно или сломано. Нет, это работает, просто для критичных, продакшн данных мы по прежнему рекомендуем использовать для защиты данных Redundancy Factor (RF), то есть хранение копии (одной — RF=2 или двух — RF=3) блока данных. Erasure Code при выходе из строя диска, может вызывать повышенную нагрузку на CPU, как при любом восстановлении из кода избыточности, а это может негативно сказаться на работающем критичном приложении. Увеличивается время восстановления и нагружается процессор.
Однако отметьте, что при обычной работе Erasure Code не приводит, судя по нашим данным, к существенному влиянию на скорость доступа. Вышесказанное, про повышенную нагрузку, относится только к процессу восстановления.
Erasure Coding можно произволно назначать для контейнера, причем можно будет переключать между RF и EC «на ходу».

Появилась синхронная репликация для гипервизора Hyper-V. Теперь можно использовать это для создания катастрофоусточивых структур контейнеров «растянутых» по площадкам между разными кластерами Nutanix.
Однако обратите внимание, при использовании Syncronous Replication под Hyper-V пока не поддерживается работа VSS.

Теперь в Nutanix OS 4.1.3 поддерживается VMware vSphere 6.0

В Acropolis встроен Image Service, который поможет при миграции из vSphere в KVM, о котором я писал в посте на прошлой неделе. В 4.1.3 все становится еще чуть проще и «однокнопочнее» :)

acro-image-service

В KVM Acropolis появился полноценный HA (High Availability), теперь VM на остановившейся ноде автоматически перезапустится на живой. У HA есь два режима работы, это режимы «Best Effort» и «Reserve Space». Эти режимы призваны решить ситуацию, когда у нас на работающих нодах просто нет места для запуска на них VM с остановившейся ноды (например, у нас есть три ноды с 80% загрузкой, и одна нода встает. На оставшизся просто нет места для всех VM отказавшей, как быть?). Подробный рассказ о этих режимах стоит отдельной заметки, пока только упомяну, что они есть. Статус HA пока — Tech Preview.

В Acropolis теперь есть свой Volume Manager. Эта фича пока также в Tech Preview и не рекомендуется к применению в продакшн.

Пофиксены текушие security vulnerabilities и баги там и сям.

Наконец-то дошли руки сделать возможность отключения разлогинивания консоли PrismUI после 15 минут неактивности в ней. %)

Как перенести VM из VMware ESXi в Nutanix KVM?

Я уже упоминал про то, что мы, в Nutanix, можем легко мигрировать виртуальные машины из VMware vSphere в среду KVM, без необходимости заново создавать их. Просто переносом файла виртуального диска этой виртуальной машины и запуском новой, с использованием содержимого этого виртуального диска, но уже из KVM. Такая простая процедура может помочь при миграции из платного VMware в бесплатный и свободный KVM, так как нет необходимости заново создавать виртуальную машину, инсталлировать OS, переносить приложения, и так далее. В результате миграция занимает минуты, вместо часов, и может даже быть автоматизирована.

Я даже писал тут краткий гайд по такому переносу. Однако гайд получился уж совсем краткий. И сегодня я публикую перевод подготовленного в Nutanix подробного пошагового плана процесса переноса виртуальных машин из vSphere в KVM, на примере VM с Windows.
Читать далее

Acropolis: KVM Management tool

Подробнее про Acropolis, или, как оно будет называться официально в маркетинговых материалах: KVM management tool.

Для все пропустивших, в нескольких словах. Acropolis (KVM MT) — это сервис, внутри кластера Nutanix, в Nutanix OS (NOS), вышедший в релиз в ее версии 4.1.1, который позволяет распределенно создавать и управлять виртуальными машинами в среде гипервизора KVM. У этого инструмента, который теперь будет встроен во все системы Nutanix, есть удобюный GUI, а также CLI и REST API. С его помощью можно организовать управление виртуальными машинами в среде быстрого, свободного и встроенного в ядро Linux (CentOS) гипервизора виртуализации KVM.
До сих пор KVM был исключительно ядерным компонентом Linux, и страдал от отсутствия простых и удобных инструментов работы с ним, и проект Acropolis, созданный внутри Nutanix, поставил целью создать такой инструмент для использования внтури нашей платформы.

К гипервизору KVM сейчас наблюдается повышенный интерес. Кого-то он привлекает производительностью, кто-то ищет недорогую альтернативу VMware vSphere, с возможностями большими, чем у бесплатного ESXi (VMware Hypervisor), а кто-то переоценивает ситуацию на IT-рынке гипервизоров в свете сложностей, с которыми столкнулись некоторые предприятия в прошедшем году в отношении некоторых зарубежных вендоров, и ищет более открытое решение.

Тут в одном из прошлых постов меня просили скриншоты. Вот вам они.
Надеюсь на них видно все самое важное.
Читать далее

Acropolis in da house!

Acropolis, наш инструментарий для создания и управления виртуальными машинами для среды гипервизора Linux KVM непосредственно из Nutanix Prism UI, получил свой GUI и REST API.
Релиз состоится вместе с выходом NOS 4.1.1, 28 января, завтра.
Велкам пробовать!

Создаем VM с нужными параметрами прямо из Prism UI:

Screenshot 2015-01-24 21.45.02

Управляем миграцией VM по хостам кластера:

Screenshot 2015-01-24 21.50.05

Screenshot 2015-01-24 21.50.27

REST API:

Screenshot 2015-01-24 21.52.44