Архив метки: ahv

Конфигурация сети в Nutanix Acropolis Hypervisor — на русском

В конце апреля мы публиковали перевод на русский документа Nutanix Acropolis Hypervisor best practices, а сегодня я рад представить новый перевод:
Конфигурация сети в Nutanix Acropolis Hypervisor BP-2071 v.1 RUS.

По ссылке вы найдете PDF с подробным описанием того, как конфигурируется и организуется сетевая подсистема в AHV, как настроить балансировку нагрузки по портам, как организовать VLAN-ы, как настроить работу по множественным сетевым портам и виртуальным интерфейсам OpenvSwitch. Конечно, в большинстве случаев вы вполне можете оставить вашу систему в конфигурации по умолчанию, но если у вас есть специальные требования к сетевой подсистеме — этот документ для вас.
Знакомьтесь, если есть замечания по переводу, то можно оставлять в комментариях.

Наш новый партнер — IBM!

Как вы знаете, существенная часть продаж Nutanix — это наши продажи через OEM-партнеров. Поэтому ничего удивительного в том, что мы продолжаем активно развивать наш OEM-бизнес на рынке. До сегодняшнего дня у нас было, официально, два OEM. Это Dell, и его модельная линейка гиперконвергентных систем Dell XC (фактически — сервера PowerEdge и Nutanix как софт на них, продаваемые через канал Dell), и Lenovo (как Lenovo HX, на тех же условиях). Да, у нас есть эксперименты с установкой Nutanix на платформы Cisco UCS C и UCS B, и даже, с недавних пор, на HP ProLiant DL (мы пока не предлагаем это в России, но они есть), но это не OEM, официальных «настоящих» OEM у нас было два.

И вот к этим двум добавился еще один — IBM! Особое соглашение, под названием multi-year agreement было заключено между Nutanix и IBM.

ibm logo

«Погодите,» — скажете вы, «Но ведь у IBM больше нет серверов x86, они все теперь у Lenovo! У IBM остались только системы серверной архитектуры Power8, так это что ж значит?..»

Да! Nutanix AHV портирован на Power, и IBM будет поставлять Nutanix AHV на своих 1U- и 2U-серверах платформы Power как готовый appliance!

power8 logo

Основная цель для подобных систем — Linux-приложения на платформе Power, опернсорсные базы данных Cassandra и MongoDB, приложения на Java в WebSphere, BigData и AI (Artificial Intelligence).

Официальный анонс соглашения — сегодня, анонс первых продуктов, спецификации и цены — 28 июня, на .NEXT, нашей главной партнерской технологической конференции.

Чтобы соблюсти юридические формальности: Партнерство IBM и Nutanix официально не называется «OEM» (но, фактически является схожим с ним по сути), IBM будет поставлять свое оборудование, под своим именем, но с нашим софтом внутри. Фактически условия эти аналогичные OEM, например с Dell. Но при этом мы договорились, что это не будет называться так. Это, официально, зовется multi-year agreement. Давайте его так и будем называть.

Официальный пресс-релиз — тут: https://www.nutanix.com/press-releases/2017/05/16/ibm-nutanix-launch-hyperconverged-initiative-bring-enterprises-cognitive-era/

Nutanix Acropolis Hypervisor best practices — на русском

Мы закончили перевод одного из наших документов серии Best Practices:
Nutanix Acropolis Hypervisor Best Practices (BP-2029) по самой свежей версии AHV, v5.0
Извольте знакомиться и пользоваться в работе.

Nutanix AHV Best Practices BP-2029 v.3 RUS

Nutanix Acropolis AHV BP v3.0 RUS

Интеграция Nutanix AHV в vRealize Automation 7.x

Интересное видео, показывающее интеграцию гипервизора Nutanix AHV в среду управления vRealize Automation 7.
Это возможно, и сравнительно несложно, используя наш RESTful API, подробнее — в видео:

Кроме этого следует упомянуть, что у нас есть и свой собственный «портал самообслуживания» (SSP, Self-Service Portal), встроенный в Acropolis.

Nutanix CE — уже 5.0!

Всякий раз, когда я рассказывал где-нибудь про CE, пользователи пеняли мне на медленное обновление CE относительно «коммерческого Nutanix», что, мол, новая версия «большого» уже вышла, а CE обновляется до него месяца через два только.
Так вот, выложенная версия CE на известном вам портале, сейчас УЖЕ 5.0.

Обновляется без проблем из Prism, надо взять пак «upgrade», а не «baremetal install», и обновить прямо на живом CE.

Также обратите внимание, что в ноябре обновился и Hypervisor, то есть сам AHV. Его обновление качается там же, встает только на новый AOS. То есть сперва обновляете AOS CE до последней (codebase 5.0), как на картинке выше, а потом, вторым действием обновляйте Hypervisor. Он тоже обновляется из Prism с помощью offline bundle (tar.gz + json).

Nutanix AOS 5.0 — что нового в мажорном релизе? Ч.1.

Итак, после небольшого перерыва в блоге, вызванного новогодними праздниками, возвращаемся к регулярности. А главное событие у нас — выход «мажорного» релиза Nutanix Acropolis OS — 5.0. Релиз этот был собран еще в конце прошлого года, его «мучили» в QA, и выпустили в релиз в последние дни декабря, так что все же можно сказать, что в прошедшем, 2016 году мы выдали «на гора» три больших релиза: 4.6 весной, 4.7 осенью, и 5.0 в декабре. Все они были большие, но, конечно, замена «первой цифры» в номере версии всегда привлекает много внимания, поэтому остановимся на этом релизе особенно.
Релиз этот во внутренней документации носил внутреннее имя Asterix, следующий, Asterix.1, с некоторыми новыми фичами, подоспеет видимо весной.

Self-Service Portal

Начнем обзор с темы, которая была предметом просьб наших пользователей весь прошедший год. Это — Self-service portal, SSP. Портал — отдельный веб-интерфейс, который позволяет с использованием гипервизора AHV создать своеобразный «Acropolis Cloud Director», то есть отдельный веб-интерфейс для конечного пользователя, на котором он может, без доступа к «большому» Prism, и всем админским функциям его, создавать, модифицировать и разносторонне управлять своими VM в большой инфраструктуре. Представьте, что вы — админ большой виртуальной инфраструктуры с сотнями пользователей, и тысячами их VM. Раньше вам, как админу, приходилось в Prism вручную рулить всем этим стадом, потому что не было возможности дать конечному пользователю простой «трехкнопочный» интерфейс для создания VM из шаблонов и управления ими. Теперь он есть. Пользователь, аутентифицированный в AD, получает доступ через SSP к своему набору VM и пулу ресурсов, и может управлять им самостоятельно, как через своеобразный Cloud Director.

Лично для меня загадка, отчего, при наличии нашего RESTful API, пользователи, в первую очередь сервис-провайдеры, которым нужен этот инструмент, не писали его сами. Объективно, паре программистов со знанием какого-нибудь Python или Go, написать такое — неделя работы максимум, с перекурами, да вдобавок еще и с заточкой под конкретные нужды этого провайдера, тем более, что примеры есть. Однако ж просили постоянно. Просили — получите.
SSP получился довольно богатый возможностями, и еще будет развиваться.
Подробно о его настройке и возможностях смотрите в серии постов вот в этом блоге, например: http://vcdx56.com/category/ssp/

RESTful API 2.0

Раз уж мы затронули тему RESTful API, то стоит сразу сказать, что в этом релизе вышла новая, доработанная и причесанная его версия. Напомню, что почти всем что есть в Nutanix можно управлять не только из GUI PRISM, и не только из командной строки nCLI, но и через наш API.
Если вы разработчик, или хотите разрабатывать какие-то свои сервисы на базе Nutanix, то первая ваша «точка входа» — портал developer.nutanix.com. Там вы найдете документацию, примеры кода на GitHub, и так далее.

Affinity и Anti-Affinity

Эта фича тоже часто спрашивалась пользователями. Вкратце, это правила, с помощью которых можно было определить то, как будут мигрировать во хостам определенные VM. Например, если нам надо, чтобы определенные VM всегда располагались вместе, даже при переезде по хостам, например, если это связанные сервисы, или же определенные VM всегда работали на определенных хостах, на которых есть для них нужные им аппаратные средства, то это VM affinity. Если, напротив, определенные VM никогда не должны оказываться на одном хосте, например по требованиям безопасности или отказоустойчивости, то это — Anti-Affinity. Это было в vSphere. Теперь возможность задать такие правила есть и в AHV.

Acropolis Dynamic Resource Scheduling

Отчасти связанная с предыдущим пунктом тема — Dynamic Resource Scheduling. Тут мы тоже нагнали vSphere, теперь такая фича есть и у нас, пользуйтесь. Теперь, например, при создании VM и размещении ее на хост, или миграции между хостами, будет учитываться степень загрузки этого хоста по памяти, CPU и дискам.

Network Visualization

Появися новый удобный инструмент для визуализации ваших сетевых соединений в кластере. Когда число VM за много сотен, когда хостов и VLAN-ов — десятки, бывает непросто разобраться что с чем и где соединено. Теперь это станет проще.

Несмотря на то, что HCI сегодня в «датацентре 4.0» оставляет «вне себя», отдельно, только Top-of-the-Rack коммутаторы, Nutanix может автоматически собрать информацию о их конфигурациях через LLDP и SNMP, проанализировать и визуализировать топологию сети, и показать ее пользователю в своем интерфейсе. Это существенно сократит для него время на траблшутинг и разбирательство в «сетевой лапше» соединений крупного виртуального датацентра.

Acropolis File Services goes GA

Наш продукт, встроенный в AOS, Acropolis File Services, позволяющий запустить на Nutanix файловый сервис SMB 2.1 дорос до статуса GA, General Available, пригодный в продакшн для всех. Первоначально он разрабатывался как средство, позволяющее на инфраструктуре Nutanix хранить файлы пользователей в больших VDI, но сейчас может использоваться на множестве разных применений, требующих высокопроизводительного распределенного NAS c single namespace. Так, например, всего три ноды кластера Nutanix могут держать на себе до 60 миллионов файлов/директорий.

AFS, напомню, реализован в виде специальной VM, аналогичной CVM, что довольно практично, если пользователю не нужен этот, довольно тяжелый, сервис, он его не устанавливает и не разворачивает, и не тратит на него память и CPU. Нужен — устанавливает VM и использует. Лицензия на AFS включена в лицензионный блок Ultimate, либо может быть приобретена отдельно, на любой сет лицензий, например на Pro.

В AFS теперь поддерживается нативная Async репликация, имеющаяся у Nutanix. Поддерживаются квоты на место для пользователей, а также Access-based Enumeration.

Для обеспечения хорошей производительности сервис будет давать рекомендации по перебалансировке данных между нодами.

Acropolis Block Services

Это, как вы помните, блочная, iSCSI «SDS» на Nutanix. Она также как AFS распределенная, многопутевая, «многоконтроллерная». В новой версии к поддерживаемым ранее OS добавился VMware ESXi (раньше не работал с ABS), это позволяет использовать Nutanix со сторонними хостами, например если клиент по каким-то причинам не хочет отказываться от уже существующих у него хостов ESXi. Это также поможет при миграции и вообще постепенном внедрении Nutanix в большой системе.

Поддерживается CHAP аутентификация, dynamic load balancing, online LUN resize, IP based initiator whitelisting, Flash mode для volume groups.

И много-много других, менее значительных, но все же важных улучшений и новинок.

Nutanix официально объявил о том, что AHV теперь сертифицирован на работу Oracle VM и Oracle Linux с ABS, и поддерживает работу стека SAP Netweaver на AHV.

В Metro Availability появился собственный witness, это VM на «третьей» стороне, контролирующий двух участников синхронной репликации датасторов ESXi, и принимающий решение в случае разрыва репликации, чтобы избежать split brain. Это VM, разворачивающаяся из OVF на каком-то третьем сайте, это может быть, например, сервер в стороннем датацентре, имеющий связь по IP с двумя защищаемыми датацентрами.

Улучшена настройка и работа того, что называлось Flash Pinning. Это возможность закрепить виртуальные диски VM на уровне SSD, и сделать AllFlash для отдельных VM.

Теперь это называется VM Flash Mode.

Появился еще один self-service portal, на это раз для самостоятельного восстановления пользователем своих данных в VM из снэпшота. Раньше это было возможно только админу из PRISM GUI, отчасти это было возможно через Nutanix Guest Tool, а теперь для этого появился отдельный веб-интерфейс.

В статусе Tech Preview поддерживается Citrix Xen Server 7, под VDI инфраструктуры с GPU. Раньше для этого требовался платный vSphere, сейчас GPU у нас работает и под бесплатным Xen Server.

Расширяется поддержка серверов Cisco UCS, теперь к Cisco UCS С220/240 M4 (рэковым) добавились Cisco UCS B200-M4 (блейд). Там есть некоторая засада, связанная с тем, что в blade-сервера можно поставить только 2 диска. Это означает, во-первых, что требуется storage-node на базе UCS C240-M4SX, и, во-вторых, так как диски в blade будут SSD, это делает систему all-flash (как вы помните, мы не умеем пока смешивать all-flash и hybrid в одном кластере).
В общем получается что-то такое:

Появилась разнообразная What-if и prediction аналитика.

Она помогает ответить на вопросы и промоделировать разнообразные ситуации:

  1. Сколько VM определенного типа потянет этот кластер?
  2. Через месяц мне нужно будет развернуть еще один SQL сервер, хватит ли мне ресурсов на кластере?
  3. Если у меня вырастет нагрузка, то сколько я еще продержусь с имеющейся системой?
  4. Если у меня вот такая вот нагрузка, то если я перенесу ее на отдельный кластер, то какой он должен быть?

Теперь у вас есть куда эти вопросы задать и откуда получить ответ.

Ну и, наконец, чтобы уж чем-то закончить заметным, потому что множество еще более мелких фишечек осталось неосмотренными:
Появилась конфигурация Single Node Backup. То есть, например, вы маленькая компания, эксплуатирующая недорогую NX-1365-G5, и хотите с нее делать репликацию в бэкап. Раньше вам нужно было на резервном сайте только для бэкапов держать еще три ноды, так как это был минимум. Теперь вы можете поставить туда для бэкапов одну ноду. Ведь не секрет, что Nutanix может, без отказоустойчивости, но может работать с одной нодой, как это делает CE. Ну, вот, скорее всего без отказоустойчивости для хранения бэкапа можно обойтись в таких недорогих системах, и теперт у нас поддерживается в продуктиве, на «большом» Nutanix, но только для получателя бэкап-репликации, single node системы.

Ну, на этом, чтобы не раздувать бесконечно этот пост, поставим брейкпойнт, и продолжение с некоторыми любопытными фичами, достойными упоминания, напишу в начале следующей недели.

Обновление для действующих систем поступило на сервера обновления 3 января, можете начинать скачивать и ставить.

.NEXT 2016 Vienna и новые анонсы

У нас сейчас идет большая партнерская конференция .NEXT, на которой делаются важные анонсы и презентации новых фич и продуктов. Большую часть я лично уже знаю, но так как мы, как сотрудники, находимся под «мораторием», рассказывать я могу только когда они, эти новости, объявляются публично.

Вот некоторые из новостей. Уже большинство знает, что у нас выходит вот-вот новая мажорная версия NutanixOS 5.0, со множеством новинок, как и полагается мажорной версии.
Вот только некоторые из них:

Визуализация сети. Когда у вас инфраструктура с десятком хостов, парой десятков VLAN-ов и vSwitch-ей, несколькими сотнями VM на них, становится критически важно иметь инструмент, позволяющий разобраться во всей этой лапше. Теперь средства визуализации сетевой инфраструктуры встроены в Prism GUI.

networkvisual3

Микросегментация сети в AHV. С помощью TCP-based механизмов, на Level 4, мы будем уметь сегментировать сеть внутри Nutanix, создавая что-то похожее на VMware NSX, изолируя VM друг от друга. Релиз ожидается в первом квартале 2017 года, в версии NOS «5.0 +1».

nutanix-prism-stack-b

У нас теперь есть self-service portal. О нем давно и часто просили пользователи. Его можно было сделать и самим, например, с помощью средств нашего RESTful API, но теперь он есть наш собственный.

blog_one-click-004

Наконец, мы официально объявили о поддержке работы Nutanix на серверах Cisco UCS B-series, blade. Ранее, как вы помните, мы уже анонсировали поддержку Cisco UCS C-series, rackmounted. Теперь к ним добавились блейдовые, очень популярные, например, в США, системы. С ними существует специфическая проблема. Blades принципиально ориентированы на работу с минимумом дисков локально, предполагается, что корзина blades будет подключена в внешнему стораджу, по какому-нибудь FCoE, поэтому в конструктиве серверов B-series обычно просто нет места больше чем на 2-4 диска. В результате была придумана любопытная схема. В сервера B-series ставятся SSD, и они делаются all-flash compute nodes, а для объемов хранения к корзине подключаются сервера C-series, служащие storage-only nodes. Несмотря на такое разделение следует акцентировать внимание на том факте, что, как и в NX-системах, наличие AllFlash нод требует использования AllFlash кластера, то есть storage-nodes также должны быть AllFlash. C нашими новыми SSD это позволяет установить в C240-M4 24 штуки 1.6TB SSD, эта величина будет удвоена с началом поддержки 3.2TB SSD на UCS, а в свете существенного падения цен и роста емкости SSD в последние годы, это (all-flash системы) становится все более интересно.
Но как быть с лицензиями на гипервизор, например на VMware? Не обойдутся ли storage-only-ноды слишком дорого с точки зрения лицензирования гипервизора? Тут тоже интересный финт. Storage nodes могут работать под бесплатным AHV, совместно с нодами ESXi на B-series.

blog_b-series-02

blog_b-series-03

Скоро еще :)

Уже 18% систем Nutanix работает на Acropolis Hypervisor

Внутренние данные, которые озвучили сотрудники техподдержки. Уже 18% всех систем Nutanix, из тех, которые посылают репорты в нашей системе Pulse, работают с использованием нашего гипервизора AHV — Acropolis Hypervisor.
Очень неплохой результат, с учетом того, что гипервизор этот появился публично всего полтора года назад.
Полагаю, подавляющая часть этих 18% оттянута у vSphere. Впрочем, доля vSphere все еще остается очень большой. Доля Hyper-V составляет «менее 10%».

Большое обновление у Nutanix.

Nutanix-Logo

Как-то летом спад активности повлиял на блог, а наступивший следом сентябрь и свалившаяся с ним оффлайновая активность не давали писать. Но, нет, мы не сдохли, и не надейтесь. :) Но так получилось, что в июле, на нашем ежегодном собрании (в Америке финансовый год заканчивается в июле) рассказали столько всего нового, и нас так ощутимо бьют за утечки сейчас, что было просто непонятно, как теперь не проговориться про все наши новости. :)
Но — вот, наконец, стало можно.
Итак, что мы для вас готовили все лето.
Читать далее