Архив за месяц: Май 2014

Что есть что в Nutanix: Основные сервисы

Как для любой новой области, понимание того, как устроен и как работает система внутри кластера Nutanix усложнено тем, что многое в нем устроено иначе и работает иным, непривычным образом.
Поэтому в серии постов «Что есть что?» я постараюсь рассказать об основных элементах и принципах работы всей «кухни» Nutanix. А сегодня начнем с базовых, так называемых core-сервисов системы.

MapReduce Tiering: интеллектуальное распределенное многоуровневое хранение данных

Flash-хранилище используется как для кэширования, так и для постоянного хранения данных, как уровень хранения (tier). Данные интеллектуально размещаются на оптимальном уровне хранилища, на flash или HDD, для обеспечения наилучшей производительности работы с ними. Технология MapReduce tiering обеспечивает, чтобы наиболее часто используемые данные считывались с SSD или из кэша. По мере того, как данные «остывают», они переносятся на уровень HDD с высокой емкостью. За счет этого достигается ситуация, при которой SSD и кэш используется только для «горячих» данных.

Inline Compression

Nutanix использует мощный алгоритм компрессии под названием Snappy, который увеличивает эффективность использования емкости системы до четырех раз. В отличие от традиционных решений хранения, которые производят сжатие целиком LUN-ов или дисков, Nutanix ваполняет сжатие на субблочном уровне, что увеличивает эффективность и упрощает работу. Размер сжимаемого блока (chunk size) достигает 128 KB, что позволяет достичь очень высокой степени сжатия.
Подробнее о выгодах сжатия смотрите в документе Compression Solution Benefits.

MapReduce Compression: распределенная постпроцессная компрессия

Администраторы системы могут устанавливать политики по запуску компресии Nutanix в постпроцессном режиме, чтобы устранить возможное влияние этой нагрузки на производительность системы в случае, если бы она выполнялась «на лету» при записи данных. Процесс MapReduce Compression может быть распространен для выполнения на все узлы кластера и производительность его масштабируется по мере роста его размеров.

Elastic Deduplication: онлайн и постпроцессная дедупликация

Nutanix предлагает два возможных варианта дедупликаци данных, технологии эти носят название Elastic Deduplication – Inline Performance Deduplication на содержимом content cache (SSD и памяти) уменьшает объемы занятого рабочими данными кэша, что значительно улучшает производительность приложений, тогда как постпроцессный MapReduce Deduplication на SATA-уровне увеличивает эффективность использования емкости в кластере.

С данных берется «цифовой отпечаток» (fingerprint) их содержимого, с помошью хэш-функции SHA-1, котороый затем хранится вместе с метаданными. Операция дедупликации реализована программно, и использует некоторые предоставляемые аппаратно функции, например реализованные в чипсете Intel методы быстрого вычисления SHA-1.

Для приложений с большими объемами совместно используемых рабочих данных, например в средах virtual desktop infrastructure (VDI), inline-дедупликация, производимая «на лету», увеличивает эффективность использования flash и ресурсов памяти до 10x раз, и обеспечивает почти моментальный отклик для приложения. MapReduce Deduplication действует на систему в целом, и распростряется на все узлв кластера, эффективно храня данные на дисках кластера и за счет своей постпроцессности сводя к минимуму влияние на производительность системы.

Подробнее о дедупликации Elastic Deduplication смотрите в руководстве Tech Guide: Nutanix Elastic Deduplication Engine.

Гетерогенные кластеры: как можно смешивать узлы Nutanix Appliance

Пользователи могут смешивать различные модели Nutanix Appliance в одном кластере. Это позволяет им эффективно масштабировать вычислительную производительность и емкость системы в кластере, в соответствии с их потребностями.

Thin Provisioning

Пространство хранилища для виртуальных машин экономно распределяется с исползованием методов thin provisioning. Администраторы могут задавать необходимую емкость vDisk, но физическая емкость занимается только по мере возникновения в ней необходимости. Администраторы могут также устанавливать параметр минимального уровня резервирования, который гарантирует определенный объем хранения для набора vDisk-ов. Это обеспечивает меньший overprovisioning хранилища и более гранулярный контроль со стороны администратора.

Гибкий размер блока для повышения производительности и эффективности метаданных

Гибкий размер операционного блока обеспечивает широкий диапазон ввода-вывода блоками от 512 байт до 1 MB, что обеспечивает оптимальну производиельность в широком диапазоне рабочих нагрузок и обеспечивает хоошо подстраивающуюся под требования приложений эфективность работы с метаданными. В отличие от традиционных систем хранения, которые обрабатывают большие порции блоков ввода-вывода, разбивая их на фрагменты по 4KB, Nutanix может эффективно работать с переменными длинами блоков ввода-вывода на всем их пути до дисков.

Shadow Clones: распределенное кэширование данных VM для повышения производительности

Shadow Clones позволяет использовать распределенное кэширование даных VM в случае сценария с можеством читающих клиентов. В типовых системах VDI часто встречаются конфигурации, когда так называемые linked clones считываются вместе с центральным мастер-образом (base VM). В случае использования VMware View, это называется replica disk и с него читают все linked clones. Сходным образом у Citrix XenDesktop это называется MCS Master VM. Shadow Clones улучшают производительность для почти любого сценария с множеством читающих клиентов (это могут быть, например сервера развертывания инфраструктуры, репозитории, и так далее).

При использовании Shadow Clones, Nutanix наблюдает за характером доступа к vDisk. Если запросы к нему происходят от более чем двух удаленных CVM, одновременно с доступом через локальый CVM, и все эти образения являются операциями чтения, то vDisk будет помечен как immutable. После того, как диск становится immutable, vDisk кэшируется локально для каждого CVM, чтобы операции чтения шли с локальной копии данных.
Подробнее о Shadow Clones читайте в руководства Nutanix Shadow Clones.

Промышленный шпионаж, и как он помогает узнавать новости раньше официальных анонсов

В свежеопубликованной на сайте Nutanix сервисной документации появились следы, указываюшие на интересные новые продукты. По-видимому документация уже подготовлена, а сам продукт пока публично не объявлен. Такое бывает, и острый взор неленящегося внимательно смотреть на выдачу Гугла может разглядеть много интересного.
В частности, мы можем увидеть в приведенном PDF (а также вот по этому адресу) внешний вид новой модели Nutanix — NX-1020. Судя по наименованию, это будет самая младшая модель в линейке. Это однозачно новая модель, так как в ранее опубликованной документации, ранее апреля 2014, эта модель не встречается.

node_naming_front_nx1020

Что мы, как промышленные шпионы, можем извлечь из этих скромных крох, разглядывая картинки?
Ну, во-первых, в глаза бросается иной (чем для известной уже 3050, например) конструктив, идентичный, как ни странно, конструктиву NX-6000, самых старших и емких, capacity-oriented моделей линейки. Только вместо четырех тут у NX-1020, в chassis у NX-6000 помещено две мощных ноды двойной высоты.
С «морды» мы видим, что, в отличие от 6000 c 6 дискам на ноду (итого 8 дисков SATA 4TB в конструктиве, плюс по два SSD на ноду), в NX-1020 будет 4 ноды в chassis, и по три диска на ноду. Один, во всей видимости, SSD, и два — SATA.
Также следует обратить внимание, что если у уже существующих моделей один из SSD помечен как boot/metadata, а второй — как data SSD, то на рисунке 1020 не только нет второго SSD, и есть только boot/metadata, но и не указано однозначо, что это — SSD. По-видимому грядет какое-то изменение в механизме использования SSD, и, видимо, на 1020 не будет традиционной для Nutanix схемы кэширования данных на SSD (он останется только под метаданные?), или она будет существенно изменена (для удешевления и сегментации?).
Таким образом, дисков на ноду будет суммарно три (1xSSD + 2xSATA). Это существенно меньше, чем у 3050 или 1050, что, по видимому, сразу позиционирует систему в нижний сегмент. Вполне возможно, что это будет долгожданная недорогая (или «относительно недорогая») модель для так называемого ROBO-сегмента, то есть Remote Office/Branch Office. А также, возможно, для DR-сайтов. Почему не для основного сайта как младший член кластера? Давайте посмотрим на заднюю часть.

node_naming_back_nx1020

Во-вторых, разглядывая фото задней панели, мы должны заметить, что нигде не фигурируют порты 10G Ethernet. На самой ноде устаовлена пара Gigabit Ethernet, и помечено, что в боковой слот расширения, справа, может быть установлено еще два порта. И они — тоже НЕ 10G, это указано однозначно.
Таким образом, 1020 не сможет быть включена в кластер, допустим, 1050, 3050, 6000 или 7000, как его член, так как они предусматривают для кластерного соединения chassis-ов только интерфейсы 10G.
Однако она может быть использована как изолированный кластер, например в филиале, или для ненагруженных задач, например в небольших офисах, где хватить и гигабита. Также такую систему можно использовать для репликации даных на маломощный, резервный DR-сайт.

В третьих, внимательно следящие за новостями уже знают о грядущем обновлении Nutanix Prism UI, выходит Prism UI 4.0. Он еще не доступен, и появится в публичном доступе этим летом, но уже довольно много про него пишется блоггерами, имеющими доступ к пререлизу и бетам.
Очередным подтверждением того, что в ближайших планах Nutanix разработка и поддержка многокластерной инфраструктуры, в том числе для ROBO и DR, стали сведения, что с 4.0 появится также так называемый Prism Central, единый интерфейс управления несколькими, в том числе разнесенными кластерами Nutanix.

Вот что мы можем извлечь из доступного нам на данный момент. Так что ждем в ближайшее время анонс новой модели?

Как установить на ноду Nutanix выбранный гипервизор?

До недавних пор ноды Nutanix приходили с выбранным при заказе гипервизором, и готовые к немедленому включению. Например, если вы намеревались использовать VMware ESXi, то такуюноду и заказывали. Однако с добавлением к поддерживаемым гипервизорам еще и KVM и Hyper-V, все это стало раздувать конфигуратор. Считайте, что сейчас имеется четыре поставляемых модели (1050, 3050, 6000 и 7000), каждая может быть в варианте с одним из трех гипервизоров, и так далее. Сложно.
Выход был найден в разработке специального инструмента, который позволит пользователю самому заливать на ноду тот гипервизор, какой он сочтет нужным, уже непосредственно in field. По умолчанию ноды теперь будут поставляться со свободным KVM, который можно будет заменить на нужный вам, если вы используете «коммерческие» решения. Это делает чуть сложнее начальный запуск, но для минимально подготовленного админского персонала это не будет проблемой.
Для «перешивки» нод Nutanix разработал два инструмента: Orchestrator, для процедуры re-imaging ноды, и Phoenix (Nutanix Installer ISO).
Процедура re-imaging довольно хорошо и детально описана, тем не менее, проходившие ее специально отмечают несколько тонкостей, на которые стоит обратить внимание:

  1. На десктопе или ноутбуке, с которого вы будете производить эту процедуру, должен работать протокол IPv6. Он сегодня обычно включен по умолчанию, например на OS Windows 7 и старше, проследите, чтобы он был не отключен, так как он используется в процессе инициализации кластера.
  2. Если вы пытаетесь перепрошить сразу много нодов, то делайте это группами не более 4 нод за раз. Сообщается, что при большом количестве разом перешиваемых нод установщик ведет себя не вполне адекватно.
  3. Держите ESXi VMkernel и CVM в одной подсети. Это так и рекомендуется, но, после попытки у кастомера, в целях большей секурности, разнести их в разные VLAN, были проблемы с правильным функционированием auto-pathing.

В целом процедура перешивки восьми нод с нуля заняла у пользователя менее часа.

Nutanix и Veeam Backup & Replication v7.x

Очень многие, работающие с виртуальными серверными инфраструктурами знают продукты компании Veeam для резервного копирования виртуальных машин. Сейчас, заслуженно, продукты Veeam считаются «номером один» в данном сегменте. Они, разумеется, не лишены недостатков, но, тем не менее, применяются крайне широко для бэкапа виртуальных инфраструктур. И если для работы с традиционно построенными фермами виртуализации все обстоит в целом понятно и знакомо, то после перехода на кластер нод Nutanix возникает много вопросов про то, как тут лучше всего конфигурировать Veeam Backup & Replication v7.x (VBR7).
Недавно, специалисты Nutanix и Veeam подготовили совместное руководство «наилучших практик» по применению их продуктов совместно, в среде VMware vSphere 5.x. В руководстве рассматриваются применения технологий VMware VADP, CBT, и Microsoft VSS. Также приводится чеклист для следования всем приведенным рекомендациям.

Первой рекомендацией является рекомендация использовать для бэкап-системы отдельный кластер Nutanix, который, как известно, состоит конструктивно из трех нодов. В этом кластере будет располагаться сервер Veeam Backup & Replication вместе со своии репозиторием. В случае, если проблемы произойдут в продакшн-кластере Nutanix, вспомогательная система, кластер бэкапа, останется полностью работоспособной. В зависимости от объемов резервного копирования и политик ротации, вы можете захотеть использовать такую же, или иную модель Nutanix, как в вашем кластере для продакшна. Например вы можете захотеть использовать в качестве бэкап-кластера систему серии 6000, ориентированную на большие объемы хранения. На рисунке ниже изображена схема работы такой двухкластерной схемы.

NutanixVeeam1

Как вы видите, VBR7 Server, обеспечивающий запись резервных копий, расположен в Secondary Cluster, а в продакшн-кластере располагаются VBR7 Proxy в каждой из нодов. Каждая нода обслуживается своим CVM (Controller VM), обслуживающим ввод-вывод VM этого физического хоста.
Несмотря на то, что на рисунке изображены только 3 ноды, помните, что минимальная конфигурация кластера Nutanix составляет три ноды, значит в двух кластерах необходимо иметь, соответственно, шесть нод, по три их в каждом.

Следующая рекомендация, родившаяся в ходе интенсивного тестирования, состоит в том, чтобы использовать так называемый бэкап в «Network mode», и не использовать «Hot-add» (известный также как «Virtual Appliance mode»). В результате тестирования удалось сделать вывод, что для инсталляций большого размера это повышает надежность работы и выполнения бэкапа. При использовании 10G NIC в Nutanix, достижимы достаточные показатели производительности даже в «Network mode».

«Network mode» использует подключение к каждому хосту ESXi через интерфейс «VMkernel management interface», поэтому третья рекомендация вытекает из второй: обязательно убедитесь, что ваш Management Interface в ESXi использует именно 10Gb NIC, а не какой-то из имеющихся 1Gb NIC. Скриншот ниже показывает одну из нескольких возможных конфигураций NIC. Здесь показаны активные адаптеры 10Gb NIC, и 1Gb NIC в качестве standby. Даная конфигурация не является обязательной, и приводится просто в качестве примера одного из допустимы вариантов. Если вы используете лицензию «Enterprise plus», то вы можете использовать «Load Based teaming».

NICS

Следующая рекомендация состоит в использовании для Veeam repository server выделенных для этой задачи VMDK, подключенных через контроллер PVSCSI. Контроллер типа PVSCSI эффективнее использует CPU на высоких уровнях IOPS. Также рекомендуется использовать vSphere 5.5, где один VMDK может превышать размер в 2TB. Это позволяет иметь репозитории бэкапов большого размера, необходимые для больших инфраструктур.

В результате экспериментов было установлено, что пользователям Veeam BR7 на кластере Nutanix доступны все имеющиеся для Veeam BR возможности, без дополнительных ухищрений. Так, вы можете использовать для восстановления данных Veeam vPower NFS, instant VM recovery, восстановление на пофайловом уровне и U-AIR. Nutanix также поддерживает все опции консистентности данных, предлагаемые Veeam его пользователям. Это значит, что вы можете безопасно бэкапить данные Exchange, SQL, SharePoint, Active Directory, и других приложений в логически-консистентном их состоянии.

Подробно все описанные, и ряд других полезных рекомендаций, вы можете посмотреть в полном руководстве
Veeam Backup & Replication v7
vSphere Best Practices
April 2014
Luca Dell’Oca, Veeam
Derek Seaman, Nutanix

Вскоре будет готов перевод на русский, а пока же вы можете получить документ на английском на сайте Nutanix/Resources

Чеклист по установке Nutanix Appliance

Этот чеклист поможет вам правильно, быстро и без ошибок установить новую систему Nutanix.

Этап I — предварительный сбор даных.

Перед началом установки убедитесь, что имеете на руках следующие данные, IP-адреса и иные сетевые параметры инфраструктуры:

• Адреса для портов 10 Gbps Ethernet [NX-3000, NX-3050, NX-6000: 2 на ноду/8 на блок] [NX-2000: 1 на ноду/4 на блок]

• (опционально) Адреса для портов 1 Gbps Ethernet [1-2 на ноду/4-8 на блок]

• Адреса для портов 10/100 Mbps Ethernet [1 на ноду/4 на блок]

• Значение шлюза по умолчанию

• Значение маски подсети

• (опционально) VLAN ID

• Адреса серверов NTP

• Значение домена DNS

• Адреса серверов DNS

• Адрес IP хост-серверов для remote console [1 на ноду/4 на блок]

• Адрес IP хост-серверов для управления гипервизором [1 на ноду/4 на блок]

• Адрес IP для Nutanix Controller VM [1 на ноду/4 на блок]

• Reverse SSH port (исходящее соединение на nsc01.nutanix.net или nsc02.nutanix.net) [по умолчанию 8443]

• (опционально) HTTP proxy для reverse SSH port

Собрав все эти даные, вы можете начинать распаковку и физическую установку системы в датацентре.

Этап II — распаковка, физическая установка и подключение

• Распакуйте и установите блок Nutanix в стойку в датацентре

• Физически подключите кабели питания и кабели в нужные сетевые порты

Этап III — включение и базовая настройка

• Проводим первое включение, согласно инстрвукции Quick Start Guide

• Назначаем IP-адреса для всех нодов кластера

• Конфигурируем хранилище в кластере

• Добавляем хосты в соответствующие инструменты управления виртуальной инфраструктуры: vSphere vCenter или Hyper-V SCVMM

• Устанавливаем правильную Timezone в кластере

• Делаем все дополнительные настройки и дополнения в конфигурации

• Проводим диагностику системы в целом

• Настраиваем и проверяем работу email alerts

• Запускаем кластер в работу.