Архив рубрики: whoiswho

Кто есть кто в компании и продуктовой линейке

Что такое Гиперконвергентные (HCI) Инфраструктуры?

Текст, идущий ниже, был написан как своеобразное интервью, взятое у меня для блога KorP. Текста получилось много, почти статья, он показался мне интересным и сам по себе, а не только как ответы на вопросы, большая часть которых моим читателям уже известны. Поэтому я уговорился с автором интервью, что я также опубликую его у себя.

Изначальная идея была в том, что вопросы для интервью будут открыто предложены для всех работающих в России игроков, и каждый из конкурентов сможет ответить на них так, как эти ответы видит тот или иной вендор. При этом я, со своей стороны, написал свою часть еще в ноябре. К сожалению, «за неявкой соперников победа присуждается…», никто из конкурентов за три месяца так и не осмелился выступить в открытой дискуссии, поэтому ждать больше смысла нет. Вот наш текст, написанный, впрочем, еще до версии 5.5.
Удобно будет давать на него ссылку, если понадобится быстро ввести в курс дела человека, с HCI только начинающего знакомство с темой.

1. Что такое гиперконвергентные (HCI) инфраструктуры?

«Гиперконвергентными» называют инфраструктуры, в которых объединение серверов, SAN и СХД сделано на архитектурном уровне, объединяя их в единое неразрывное целое, в единую сущность «хранения-и-обработки информации», «кирпичик LEGO» современного датацентра. Модуль обработки и хранения информации.

2. Чем они отличаются от конвергентных и от классических инфраструктур?

Собственно, само название «гипер-» потребовалось, чтобы отличаться от появившихся на несколько лет ранее так называемых «конвергентных» систем (VCE vBlock, Cisco-NetApp FlexPod), которые, на наш взгляд, вообще никакой конвергенции не имели, а были просто способом продать клиенту предынсталлированную инфраструктуру из серверов, SAN и СХД и по одному Purchase Order-у, в одном шкафу, ничего не меняя в архитектуре системы по сути. Это по-прежнему оставались СХД и серверы, без какой-либо конвергенции между ними (если не считать таковой процесс продажи).
«Гипер» (а, по сути, и просто «конвергентность», как диктует сам термин) это именно слияние и образование единой сущности, чем и являются современные HCI.

3. В чем преимущества HCI инфраструктур?

Основные преимущества HCI это плавность и практическая неограниченность масштабирования, возможность строить интегрированную инфраструктуру под разные задачи, объединяя их в рамках единого «квази-облачного» инфраструктурного решения, без необходимости выделять «ресурсные острова» и дробить единое решение, при этом обеспечивая крайне высокую производительность решения.
Это существенная экономия на эксплуатационных расходах (TCO). Так, например, компания IDC в своем отчете, сделанном по результатам опроса десятков клиентов Nutanix в enterprise, утверждает, что срок окупаемости для Nutanix HCI составляет около полугода, а ROI на пятилетнем интервале составляет более 500%.
Наконец, это быстрота развертывания (и масштабирования в дальнейшем) решения, сокращающая Time-to-Market для продуктов компании. Тот самый «agile», о котором сегодня в России широко заговорили примерно полтора года назад.

4. Каковы недостатки HCI инфраструктур?

Наши клиенты обычно называют в качестве основных причин, по которым они пока не могут или не хотят перейти на HCI, настороженность в отношении вендор-лока (HCI обычно являются продуктом одной компании, так, в нашем случае, Nutanix поставляет и аппаратную платформу, и software-defined продукт на ней работающий, и, в случае использования AHV, гипервизор). Есть определенная настороженность к новому продукту, который, по сути, появился на рынке России всего лишь три года назад (для России это совсем недавно), и относительно невелик пока опыт его использования в российских компаниях (с этим сталкивается последовательно, каждый новый вендор, приходящий на российский рынок). Я также вижу определенную настороженность к самой по себе идее фиксированного объема хранения на каждом узле кластера HCI, так как в «классической» инфраструктуре нам много десятилетий возможность независимого расширения емкости хранения на SAN СХД от серверов обработки, а также идея «консолидации данных» на выделенном дисковом массиве, называлась одним из главных преимуществ современной IT-инфраструктуры.

5. Как они могут дополнять друг друга?

Сегодня мы, в Nutanix, всегда рассматриваем возможности сосуществования с «классической» инфраструктурой. Как хороший пример могу привести вариант использования HCI с системой SAP HANA. В настоящий момент сервер HANA поддерживается SAP только на физическом «железе», без виртуализации. Однако кроме сервера самой HANA, значительную часть решения обычно составляют многочисленные серверы приложений, использующих in-memory HANA DB, а также среда разработки, QA и так далее. И в нашем случае компании часто устанавливают под сервер HANA DB физический сервер, что полностью поддерживается SAP, а затем развертывают множество клиентов, серверов приложений, на HCI-узлах, и это тоже поддерживаемый вариант.

6. Каковы основные варианты использования?

Часто пользователи вынуждены продолжать эксплуатировать старое legacy оборудование и ПО, которое они не могут немедленно заменить на современное, по разным причинам. Проблемы лицензирования, совместимости с каким-то сторонним оборудованием, или просто нехватка ресурсов на миграцию и значительные инвестиции, сделанные компанией в прошлом, могут препятствовать немедленному переходу. Сейчас, например, в случае Nutanix, можно использовать кластер Nutanix, по крайней мере какую-то его часть, как своеобразную SDS СХД, подключая его как блочное хранилище к внешним серверам, и, таким образом, сосуществуя с ними и продляя их жизнь, защищая сделанные инвестиции.
Мы также предоставляем возможности использовать Nutanix как высокопроизводительное файловое хранилище (NAS) для внешних клиентов. Это могут быть как VDI-клиенты, так и, например, специализированные медицинские системы хранения цифровых рентгеновских снимков, с поддержкой отраслевого стандарта DICOM.
Так что возможности сосуществования с уже имеющейся инфраструктурой у HCI Nutanix довольно широки, и это, часто, открывает двери для новых технологий в «традиционных» IT-инфраструктурах.

7. Могут ли они интегрироваться или сосуществовать с имеющими инфраструктурами заказчиков?

Безусловно да. Мы трезво понимаем, что, как бы мы ни видели потенциальное превосходство HCI над «классикой», впереди у нас многие годы сосуществования с ней в датацентрах enterprise-компаний. Большие инвестиции, сделанные в SAN, в СХД, в большинстве компаниий расточительно, да и просто невозможно одномоментно «выбросить». Разумеется, остаются и области, ниши, в которых «классическая» инфраструктура хорошо себя чувствует, и будет чувствовать многие годы. Как телевизор не убил книги, так и, допустим, жесткие диски не уничтожили магнитные ленты, но вытеснили их в ниши, где они (для лент, например, это архивное «отчуждаемое» offline-хранилище) существуют и будут существовать очень долго. Но, как мне кажется, сейчас все большему числу IT-специалистов видно, что мы стоим на пороге больших перемен в инфраструктуре. И как когда-то жесткие диски вытеснили магнитные ленты во времена мэйнфреймов, как в 90-е годы дисковые массивы SAN постепенно заполнили датацентры, вытеснив DAS, как в 2000-е появившаяся серверная виртуализация пробила себе путь в подавляющее число корпоративных датацентров, так и HCI сегодня, потенциально, является следующим эволюционным шагом для инфраструктуры датацентров.

8. Какие преимущества получит заказчик при переходе от традиционной к HCI инфраструктуре?

Это, на мой взгляд, большая гибкость, упрощение (и как следствие – снижение стоимости и числа ошибок) администрирования, повышение надежности, увеличение производительности, экономия на эксплуатационных расходах, большая динамичность IT, позволяющая быстрее откликаться на требования бизнеса, повышая его конкурентоспособность.
Не стоит забывать, что все, что мы делаем в IT-инфраструктуре, в конечном счете должно повышать отдачу и конкурентоспособность бизнеса, ей обслуживаемого, и одна из стратегических задач HCI состоит как раз в этом.

9. Что вызвало рост HCI?

Безусловно, определяющим толчком для HCI послужило широкое принятие рынком технологии виртуализации, так как без гипервизора не работает ни одна из HCI-систем, представленных на рынке. Сегодня подавляющее большинство приложений или уже работает, или может работать в среде гипервизора, тем самым открыт путь к широкому использованию HCI. Кроме того, важным этапом был возникший, за последние три-пять лет, существенный интерес к Software-defined продуктам, не только Storage (SDS), но и всем другим компонентам, которые могут быть реализованы дешевле и с существенно более быстрым циклом разработки, в виде программного кода на CPU общего применения. Сегодня, как показывает практика, производительность массовых CPU архитектуры x86 общего применения, достаточна для подавляющего большинства задач, которые раньше реализовывались дорогими в производстве и разработке специализированными hardware-системами.
Кроме этого, постоянный рост производительности ввода-вывода, обусловленной приходом твердотельной памяти, начал диктовать необходимость размещать хранилище максимально близко к CPU обработки данных, в идеале – локально на шине CPU и RAM.
Ответом на эти потребности, вызванные развитием технологий, и стали HCI, системы, где данные хранятся локально, там, где они обрабатываются, которые реализованы полностью программно, на процессорах общего применения и commodity-серверах, работающих под управлением baremetal-гипервизора. Первоначально разработанные как часть проперитарных решений построения инфраструктуры в компаниях интернет-гигантах, таких как, например, Google и Facebook, они «коммодитизровались» и вышли на массовый рынок в виде доступного «коробочного» продукта.

10. Какие проблемы несет устаревшая инфраструктура?

Основные проблемы, присущие «классическому» методу построения инфраструктуры, это негибкость, проблемы с масштабируемостью, высокая стоимость владения, сложность и дороговизна поддержки многокомпонентных мультивендорных решений, сложность и, как следствие, высокая цена администрирования.

11. Какие проблемы пытаются решить клиенты?

Для Nutanix типичные области использования это разнообразные enterprise-приложения, такие как базы данных, включая тяжелые и требовательные к объемам RAM. Это инфраструктуры VDI, для которых характерны задачи быстрого масштабирования в случае добавления новых рабочих мест и низкая latency дисковых операций. Это разнообразные инфраструктуры частных и гибридных «облаков». Существенной и растущей долей является направление Big Data Analysis, интерес к которой сейчас растет во всем мире. Важной частью также являются «распределенные» инфраструктуры, ROBO, филиальные сети, DR-центры, и так далее.
Отчасти проблемы, решаемые клиентами это сокращение эксплуатационных затрат и увеличение гибкости уже существующих систем, мигрируемых с «классики» на Nutanix, отчасти это совершенно новые области, такие как, например, Big Data исследования или построение Private Cloud в компании.

12. С каким проблемами чаще всегда сталкиваются заказчики при внедрении и использовании HCI решений?

На мой взгляд, основной проблемой при переходе на HCI, является инертность мышления. «Когда в руке молоток – все вокруг выглядит как гвозди». Существует годами выработанная методика решения IT-задач. И одномоментно вдруг увидеть, что кругом не только гвозди, которые можно только забивать, но и множество других способов обращаться с предметами и решать задачи, часто бывает довольно тяжело воспринимаемой, особенно для IT-шников старшего поколения, привыкших жить в парадигме «сервер-SAN-СХД», рожденной еще в 90-е. Когда «бэкап – это непременно ленточная библиотека», «Fibre Channel – высочайшее достижение инженерной мысли и единственно пригодное для наших задач», «нужно запустить приложение – ставим под нее выделенный сервер». Сегодня в мире довольно быстро развивается совершенно новая IT-парадигма дискретизации и распределенных приложений, микросервисов, контейнеризации, web-scale. К сожалению, мимо крупного энтерпрайза (в особенности, и прежде всего в России) этот тренд все еще проходит мимо, он все еще мыслит, например, категорией «одно приложение – один сервер». И HCI в таком случае применить и использовать довольно сложно, он не позволит проявить HCI свои лучшие и наиболее сильные преимущества.

13. Является ли снижение совокупной стоимости владения ключевым фактором перехода к HCI?

Глобально, в мире, безусловно – да. В России, к сожалению, стоимость владения все еще не является, обычно, решающим фактором при выборе решения и расчете его стоимости. Отчасти это связано с отсутствием общепринятой методики расчета TCO в России (а общемировые, часто, плохо подходят для российских условий), отчасти просто от общей недооценки стоимости владения в общей стоимости решения. По моим наблюдениям, вопросы «а сколько это стоит» в российском IT (а широко — и в бизнесе вообще) это какое-то «небарское дело» («…копейки все эти считать, прикажем — заплатят!»), признаком успешного бизнеса у нас являются масштабы трат, шикарность офисов и автомобилей «топов» а не эффекивность использования бюджетов. Совместить такой менталитет с пониманием, что деньги могут быть потрачены с бОльшей или мЕньшей отдачей, достаточно непросто.

14. Развитие каких технологий может увеличить спрос на HCI системы?

На мой взгляд, широкое распространение быстрой персистентной (то есть не теряющей данные при выключении питания, например, как магнитные диски) памяти, такой как NVMe flash и 3DXpoint насущно требует сокращения пути доступа к хранимым данным. Большие величины latency, характерные для внешней памяти, с доступом через SAN, уничтожают значительную часть преимуществ по скорости и производительности таких типов памяти и не дают ей показать все, на что она физически способна. Подобная память должна располагаться максимально близко к процессорной части системы, в идеале прямо на шине взаимодействия процессора с памятью. И здесь гиперконвергенция, сливающая хранение и обработку воедино, и размещающая ее локально для CPU, имеет огромный потенциал для роста производительности систем и использования всего скоростного потенциала новых типов быстрого хранилища.

15. Кто является основными игроками на этом рынке? На кого вы смотрите и ориентируетесь из конкурентов?

Пожалуй, наиболее активным и значимым нашим конкурентом среди гиперковергентных систем являются DellEMC VxRAIL (и VMware VSAN). Вероятно, после окончания процесса интеграции в продуктовую линейку HPE и решения ряда проблем с развитием архитектуры, определенный импульс к развитию получит и SimpliVity. В целом на рынке сейчас существует масса гиперконвергентных решений, однако общая беда почти всех – в отсутствии хорошего vision, того, куда эта область будет развиваться в ближайшие 3-5 лет. Позиция Nutanix, которая с одной стороны – превопроходец, а с другой – пробивающая общую инертность рынка собой, имеет и свою силу, и свою слабость. Сила, безусловно, в задании тренда, в соответствии с которым будут вынуждены идти и повторять вслед за лидером компании, идущие за ним следом. Слабость, возможно, в том, что повторить успех обычно стоит гораздо дешевле с точки зрения затрат на R&D. Пока Nutanix вышеперечисленное удается.
Но, говоря о конкурентах Nutanix важно понимать, что главный конкурент Nutanix не VSAN, не SimpliVity и не традиционные инфраструктуры. Важно понимать, что для всего перечисленного главный конкурент – AWS и Azure, «публичные облака». И пока «инфраструктурщики» спорят о том, кто является «лидером рынка», бизнес тем временем все дальше и быстрее уходит к облачным провайдерам (например, только за 2017 год, и только AWS достиг в выручке 20 миллиардов $, и растет на 40% в год. И это только один AWS, без учета не менее успешных MS Azure, Google Cloud Platform, RackSpace, Softlayer) На мой взгляд, именно они сегодня – главный конкурент и для HCI, и для «классики» вместе взятых.

16. На ваш взгляд — чем выделяется ваше решение среди конкурентов?

Основные преимущества Nutanix перед конкурентами это принципиальная hypervisor-agnostic модель решения, не навязывающая выбор сопутствующего гипервизора. Это широкая поддержка сторонних платформ и OEM-партнеров, обусловленная использованием чистого software-defined в решении, которое легко перенести и установить на стороннее commodity hardware. Это широта и полнота вИдения пути дальнейшего развития продукта и отрасли и функциональное богатство решения, его готовность к «Tier1 workload». Его зрелость, широкое принятие рынком, большой накопленный опыт реализации проектов пользователей самого разного масштаба.

17. Чем обусловлен выбор гипервизора, с которым работает ваша система?

Около 65% наших клиентов используют в качестве гипервизора разные версии VMware vSphere. Однако кроме поддержки сторонних гипервизоров, которая будет продолжаться и развиваться, у нас есть и свой собственный – Acropolis Hypervisor, AHV, разработанный на базе открытого исходного кода Linux KVM. Наша цель в разработке этого гипервизора была, во-первых, достичь большей независимости и свободы от одного поставщика гипервизора (к тому же напрямую конкурирующего с нами с продуктом VSAN/VxRAIL), использовать открытый код, со всеми присущими этому шагу плюсами, и, наконец, получить гипервизор, в котором мы можем реализовывать передовые технологические возможности платформы, независимо от стороннего поставщика гипервизора, своими силами.

18. Какие перспективы вашей системы в ближайшем будущем?

В недавнем обновлении мы выпустили инструмент, который будет доступен для всех наших пользователей – наш облачный оркестратор Nutanix Calm, который позволит строить на базе кластеров Nutanix гибко и просто разворачиваемую пользователем облачную платформу, с использованием технологий Docker и Kubernetes, а также нашего собственного «магазина приложений». Мы намерены развивать начавшееся в этом году технологическое сотрудничество с Google Cloud Platform по построению гибридных облачных решений, и более активно предлагать рынку Nutanix в форме программного продукта для сторонних аппаратных серверных платформ, таких как HP ProLiant и Cisco UCS. Мы также расширяем круг наших OEM-партнеров, уже сейчас добавив к ним такого мощного в Европе и Германии игрока как Fujitsu, а также планируем продолжать сотрудничество с IBM по продвижению гиперконвергентности на платформе IBM Power8.

19. Почему некоторые заказчики, задачи которых отлично укладываются в HCI остаются приверженцами традиционной архитектуры? Боязнь, что HCI это временный «хайп»? Сталкивались вы с такими заказчиками и удавалось ли их переубедить?

Когда-то у IBM была серия рекламы со слоганом «еще никого не уволили за покупку IBM», и это был слоган, бьющий в самое сердце любого CIO. Никто не ищет возможности «поменять», если можно не менять. Никто не хочет быть уволенным за эксперименты над инфраструктурой, это объяснимо и понятно.
Если у вас не «болит», то никто и никогда не будет что-то менять, что уже работает. Что позволяет спокойно спать ночами, ходить в отпуск, не держа рядом с кроватью включенный телефон, и вовремя получать годовые бонусы.
Но вот когда настает момент, когда «надо менять», а текущая инфраструктура достигла своего предела. Когда бизнес требует срочного снижения Time-to-Market, а у вас три месяца занимает только запуск новой инфраструктурной единицы в датацентре, считая от подачи заявки подразделением. Если ваш KPI как CIO владельцы бизнеса напрямую связали с резким снижением TCO IT-инфраструктуры, а бюджеты IT-отдела урезаются год от года, вот тогда вы, поневоле, будете искать что-то новое, что поможет вам эти задачи выполнить.
Наконец, на мой взгляд, общая консервативность IT в Российском энтерпрайзе, связана с тем, что мы, к сожалению, в значительной мере оторваны от мирового IT-мэйнстрима. Например, из-за плохого владения английским языком, значительная часть российских айтишников вынуждена узнавать о новостях и трендах в IT «в переводе», с существенной задержкой на то, когда соответствующая технология будет «переведена» и привезена на локальную выставку или конференцию в Россию (и конкретнее – в Москву). А крупные IT-события, на которых можно увидеть какие-то прорывные технологии, когда они появились, а не спустя два года, обычно происходят «там», и чтобы туда поехать нужно время, средства, визы, мотивация, и так далее.
Все это делает российское IT более консервативным, чем оно могло бы быть. Но есть и хорошая новость. Самые передовые и создающиеся «здесь и сейчас» бизнесы, не обремененные наследием legacy, пусть это и не масштаб «Silicon Valley», часто хотят стартовать «с отрывом» и вынуждены «рисковать» и выбирать самое передовое. Зачастую, это также отличный «внутренний драйвер» и мотивация для проекта в компании.

20. Расскажите о наиболее интересном, с технической точки зрения проекте по строительству гиперконвергентной инфраструктуры, которую вы выполняли для ваших заказчиков.

Сложно рассказывать о проектах, которые не были официально объявлены публичными. И у нас в России, и, в целом, в мире, не любой интересный проект является таким, о котором можно рассказать. Это так у любого вендора. Я стараюсь вылавливать и рассказывать о том, о чем рассказывать можно, в блоге. Лично для меня одними из самых впечатляющих кажутся истории, когда в результате модернизации и переводе «классики» на HCI удается существенно сократить расходы и footprint решения. Так, например, недавнее внедрение в Казахтелекоме, перевело семь стоек оборудования «классики» во всего 10U, причем с существенным ростом производительности и перспективами на рост. В Азербайджане мы, совместно с нашим OEM-партнером Lenovo запустили IT-инфраструктуру в свежепостроенной клинике высочайшего класса Bona Dea Hospital Baku, и в этом случае мы также оставили большую часть заказанных на этапе строительства стоек в больничном датацентре незаполненными (их заказывали под «классику») просто потому, что свыше 70 медицинских IT-сервисов в катастрофоустойчивой инфраструктуре хранения и обработки, в том числе рентгеновская и MRT-томография, защищенное хранение медицинских документов пациентов, и прочие IT-нужды современного медицинского комплкса, с запасом уложились в две стойки оборудования.
Ничего подобного «классические» IT-инфраструктуры, дошедшие сегодня практически до своего предела, не могут предложить даже близко.
Очень интересным мне показалось проведение тестирования (и публикация результатов) компанией Центр Финансовых Технологий, ведущего российского разработчика банковского ПО Tier-1 class, на котором работают сотни банков как в России, так и в некоторых странах СНГ и Восточной Европы. Тестирование показало высочайшую производительность и надежность, открывающие двери HCI в крайне консервативную и требовательную область банковского ПО.
Особенно стоит отметить, что HCI применяется и используется сегодня в широчайшем спектре и диапазоне задач и бюджетов, от «супермега»-международных корпораций (более 60 компаний из списка Forbes Global 100 сегодня — наши клиенты) до, порой, почти SMB-клиентов. и это — еще одно важное преимущество гиперконвергентных инфраструктур.

Software-only Nutanix

В связи с тем, что некоторое время назад Nutanix начал шире продавать себя как Software-only вариант, например на платформы HPE ProLiant и Cisco UCS, я решил собрать краткий пост ответов на незаданные (пока) вопросы пользователей, который, я надеюсь, ответит и развеет ряд моментов непонимания для чего это все и зачем, а также насколько это подходит вам.

Практически каждый первый мой собеседник, узнав, что Nutanix это software company и мы продаем наши NX-appliances, взяв готовую x86 платформу, задает вопрос: «А можно купить Nutanix просто как софт?».
Есть короткий ответ на этот вопрос теперь: «Да, можно»
Но, как почти всегда, короткий ответ верен, но неполон. И требует более развернутого пояснения.
А начать стоит с того, что, как это часто бывает, человек, задавая этот вопрос, хочет спросить что-то совсем другое, но, по каким-то причинам, свой вопрос изменяет. На самом деле этот человек хочет спросить, также более длинно:
«Если я куплю только софт, и не буду покупать «железо», то обойдется ли мне это дешевле, смогу ли я тут сэкономить, если поставлю ваш Нутаникс на пыльный Proliant G5, который мы уже хотели совсем выкинуть, но все жалко на него потраченных в 2003-м году денег? Все же знают, что денег стоит только железо, а софт он или совсем дешевый, или бесплатный, на крайняк можно просто его скачать с торрентов, и значит должно быть круто дешевле, да?»
Вот тут, как вы понимаете, ответ на вопрос несколько удлиняется. :)

Во-первых, и прежде всего, стоит остановиться и ответить на вопрос, какую долю от целиком решения составляет в случае Nutanix стоимость его софта. К сожалению еще очень многие люди воспринимают софт как нечто «условно бесплатное», и, например, Microsoft в массовом рынке им в этом часто подыгрывает. Ну, сами судите, мы покупаем ноутбук за 1000 долларов, и на нем Windows, стоимостью 2500 рублей. Очевидно, что если нам нужен только Windows, то избавившись от ноутбука за 1000 долларов, мы круто сэкономим. Да и вообще, мы походим по базару и найдем не макбук, а что-нибудь попроще, а то может купим его с рук, за полцены, на ебэе. А то знаем мы вас, заряжаете, поди, три цены.

Ну, пойдем с конца. Утопией было бы думать, что вы сможете купить ту же платформу Supermicro дешевле, чем мы покупаем ее в Nutanix в Америке, с нашими объемами, долгосрочными контрактами, отношениями с ODM, и положенными всему этому скидками. Да, Nutanix, в целом, как весь appliance — недешев. Но стоимость железа в стоимости решения совсем не так велика, как представляется. Скорее наоборот. В определенных конфигурациях, например, в младших моделях, мы практически отдаем «железо» нашего appliance даром, подавляющую долю цены решения составляет стоимость софта и его поддержки.

То есть, отказавшись от нашего «железа» в составе appliance вы, потенциально, получаете некую (эфемерную, на мой взгляд) «бОльшую гибкость» (допустить ваших собственных ошибок при конфигурировании платформы, например), но, вместе с этим, вполне конкретную проблему с поддержкой, совместимостью всех компонентов решения, с его lifecycle, с уровнем надежности, и так далее. Стоит ли это того? На мой взгляд — нет. Тем не менее, мы, на определенных условиях, пошли навстречу пользователям, и теперь у нас появилась возможность продавать Nutanix как софт на строго определенные платформы в строго определенных конфигурациях. И это будет поддерживаться нашей техподдержкой.

  • У нас появились в партнерском прайсе строчки вида SW-PRO-PRD-3YR. Это и есть Software-only Nutanix.
  • Эта строчка одна на любую платформу.
  • Виды этих строчек – тип лицензии (PRO, ULT), а также вид и длительность поддержки.
  • Сам софт независим от платформы (то есть его можно ставить на UCS, на ProLiant, и так далее, на любую поддерживаемую платформу). Лишь бы платформа была поддерживаемой и соответствовала нашему Compatibility List.
  • Платформа должна в ТОЧНОСТИ соответствовать описанной в HFCL – Hardware AND Firmware Compatibility List. Любые отклонения вида «ой, а у нас SSD тут не такой, а почти такой, просто другого вендора, но он хорошо работает, это ничо?» не поддерживаются. Обычно это означает, что на имеющееся у вас серверное железо это, по крайней мере в поддерживаемом виде, не поставить. Вряд ли оно в точности соответствует нашему HFCL. Как правило это означает, что вы покупаете у вашего поставщика платформу, заказанную в точности в соответствии с HFCL, а потом у партнера Nutanix на него лицензию Software-only Nutanix, и с нашей помощью все это собираете и ставите.
  • Стоимость лицензии не зависит от стоимости платформы (то есть не как у Nutanix appliance сейчас, если это NX-1000, то стоимость лицензии существенно (в разы) ниже, чем, например, у NX-8000, за тот же набор фич), в результате, стоимость лицензии Software-only довольно высока сама по себе, что лишает смысла ставить ее на сравнительно слабые сервера (ну, например, за стоимость SW- можно иногда взять NX-3060, например, ВМЕСТЕ с софтом, плюс еще и железо, получается типа бесплатно). Это делает бессмысленным для пользователя покупку Software-only варианта на сравнительно слабые серверы.
  • Лицензия понодовая. Как и раньше, весь кластер должен иметь один уровень Software license, то есть PRO — то весь PRO. Если ULT — то весь ULT.
  • Лицензия не привязана к платформе, ее можно переносить на другой сервер и даже другую платформу (например год поработало на UCS, и перенесли на ProLiant).
  • Поддержка – это поддержка И обновления. После окончания поддержки перестает оказываться поддержка И предлагаться обновления. Софт продолжает работать так, как работал.
  • «Смеси» (из платформ разных вендоров) в одном кластере не поддерживаются ни с Nutanix, ни с OEM.
  • «Не поддерживаются» означает именно это.

Итак, у нас есть Software-only Nutanix License, спрашивайте у партнеров, но помните про перечисленные выше тонкости и не расчитывайте, что это «ЭсЭмБи», скорее наоборот. Это скорее интересно для крупных компаний и сервис-провайдеров/облачных провайдеров, впрочем, для их объемов мы и раньше продавали Nutanix как софт, просто не особенно это публично афишируя.

VSAN: facts to know

В этом блоге я так или иначе постоянно поднимаю тему сравнения с конкурирующими продуктами, и, разумеется, пишу о некоторых фактах, которые, как я замечаю, вызывают вопросы. Они, зачастую, вызывали бы вопрос не только у меня, вовлеченного в тему competitive по долгу службы, но и у пользователей, но, довольно часто, поьзователи не лазят глубоко в доки, а сотрудники вендора часто говорят о некоторых особенностях своего продукта нехотя и вскользь. Поэтому случается, что о некоторых особенностях пользователи узнают уже постфактум, на купленной и развернутой системе. Вот о таких «детальках» я обычно тут и пишу.

Ранее, в публикациях про VSAN я уже упоминал тот факт, что, согласно документации VMware, объем кэша записи (спасибо за важную поправку Nikolay из комментов) дисковой группы для ноды в VSAN ограничен емкостью в 600GB, что, явно, выглядит недостаточным даже для современных емких SSD, таких, как наши 3.8TB, и уж точно мал для ожидаемых в будушем году Самсунгов на 16TB. С этим в комментах к предыдущим постам как-то вяло пытались спорить, но я так и не понял как предлагается это ограничение обходить в жизни, и почему оно, по поводу критиков моей позиции «не важно» (пояснение почему это так — в комментариях). Ограничение это оставалось и в v6.2, если верить официальному гайду:

http://www.vmware.com/files/pdf/products/vsan/virtual-san-6.2-design-and-sizing-guide.pdf

С учетом того, что там же, в документе, ниже, указывается, что основное правило в сайзинге кэша — кэш составляет 10% от хранимой usable (не raw) емкости (cache:capacity ratio) — что означает, что конфигурации размером более 6TB на ноду на дисковую группу будут, вероятно, испытывать недостаток пространства кэширования. (также смотри в комментарии о деталях)

Изменилось ли что-то тут в VSAN 6.5? Похоже, что нет:

http://pubs.vmware.com/Release_Notes/en/vsan/65/vmware-virtual-san-65-release-notes.html

VSAN все еще требует Multicast.

http://www.vmware.com/files/pdf/products/vsan/virtual-san-6.2-design-and-sizing-guide.pdf

Поменялось ли это? Нет, multicast по-прежнему нужен в VSAN 6.5

http://pubs.vmware.com/Release_Notes/en/vsan/65/vmware-virtual-san-65-release-notes.html

Готова ли у вас сеть к использованию в ней Multicast? Умеете его настраивать, отлаживать странности, понимает ли работу с ним ваши роутеры и иное оборудование в сети?

Дедупликация И компрессия. Я не зря ставлю тут «И», потому что в VSAN они включаются ТОЛЬКО ВМЕСТЕ, и на ВЕСЬ КЛАСТЕР целиком. И по-прежнему ТОЛЬКО на AllFlash.
Если у вас есть в кластере задачи, которые плохо переносят дедупликацию или компрессию, то вам придется выключить эти фичи для всего кластера целиком, даже если какие-то задачи и нуждаются в них.

Это соханилось в VSAN 6.5:

http://pubs.vmware.com/vsphere-65/topic/com.vmware.vsphere.virtualsan.doc/GUID-2285B446-46BF-429C-A1E7-BEE276ED40F7.html

Обоатите внимание также на warning, показываемый при включении deduplication & compression.

Документация подтверждает:

http://pubs.vmware.com/vsphere-65/index.jsp?topic=%2Fcom.vmware.vsphere.virtualsan.doc%2FGUID-5A01D0C3-8E6B-44A7-9B0C-5539698774CC.html

Про Data Locality.
Даже несмотря на то, что у VMware даже есть специальный документ по этому поводу: http://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/products/vsan/vmware-virtual-san-data-locality.pdf
просто взгляда на картинку со схемой размещения данных виртуальной машины достаточно, чтобы понять, что data locality в том смысле, в котором его понимает Nutanix, в VSAN нет.

Поэтому ничего удивительного в том, что в приведенном выше документе термин Data Locality VMware трактует иначе, и достаточно своеобразно:

Поддержка и обновления.
Поправьте меня, если я что-то понимаю не так, но из вот этой картинки следует, что обновления ПО у VxRail доступны только для Premium support:

Ну и, чтоб уж, как говорится, два раза не вставать, надо помнить, что, с точки зрения DellEMC покупатель VxRail НЕ МОЖЕТ смешивать их в одном кластере с «самосборными» нодами. То есть купили VxRail с поддержкой — продолжайте покупать их для расширения системы дальше. Но подключать в кластер из VSAN/VxRail самосборные ноды VSAN вы технически — можете, но поддерживаться эта конструкция на стороне DellEMC не будет. Помните об этом.

Как и раньше, комментарии от более знающих обсуждаемый предмет приветствуются. Возражения со ссылками на подтверждающие документы приветствуются особо.

UPD: В комментах развернулась дискуссия, где обсуждается много интересных моментов, не пропустите.

Nutanix vs. SimpliVity: полтора года спустя. Что нового?

Быстро летит время. Я уже писал обзор особенностей продукта SimpliVity в 2014 году, пришло время обновить материал.
Так сложилось, что в США продукты SimpliVity для нас самый важный конкурент. Вопреки сложившемуся в России положению, VSAN «там» как-то мало кто знает, продается он не очень. Наоборот, до недавнего времени SimpliVity не продавался в России. Но теперь он появился здесь, давайте более внимательно посмотрим на то, что это и как он соотносится с продуктами Nutanix.

omnicube

Итак, что произошло у SimpliVity за прошедшее с прошлого разбора время.
К уже имеющемуся у SimpliVity продукту OmniCube, представляющему собой свою собственную x86-платформу, добавились совместные продукты с Cisco, на базе их C240 M4, и с Lenovo (на x3650M5), которые компания называет Omnistack, схема, сходная с нашими OEM-проектами с Dell и тем же Lenovo. Как вы заметили, Nutanix довольно часто пересекается в OEM с конкурентами, так, в Dell мы пересекаемся с EMC VxRail, а в Lenovo — с Omnistack. Таковы реалии рынка, никто не монополист.

Что же произошло с продуктом за прошедшие с прошлого разбора полтора года? Ничто так полно не рассказывает о продукте, как динамика его развития.

15 сентября 2014 года я писал: «Уже год как в SimpliVity обещают сделать поддержку Hyper-V, но пока в релиз это не выпущено.» Ситуация на сегодня, июнь 2016, полтора года спустя, прежняя. “SimpliVity has focused on vSphere first, in part for its market share and in part for its excellent breadth of capability. We are also working on expanding our coverage. KVM support has been announced, and Hyper-V is on our roadmap for GA.”
«Сеня, жарьте рыбу, рыба будет»(с). Интересно, дождутся первые купившие OmniCube поддержки Hyper-V, которая «is in our roadmap for GA», прежде чем у них кончится саппорт на купленную систему? Принимаю ставки :)

По-прежнему никак не движется ситуация у компании с ограниченностью расширяемости решения. По-прежнему только 4 ноды на кластер (или, вернее, на vCenter Datacenter), и не более 32 год на federation. Я писал, что в решении налицо серьезные архитектурные просчеты, которые помешают что-то сделать с этим в будущем. И, таки да, ничего за полтора года тут и не произошло. Четыре ноды, плюс одна для HA — это лимит сверху для кластера. Нужно больше емкости или нод, например при увеличении объемов нагрузки или числа мест для VDI — берите еще 4+1 ноды для нового кластера. Дробите дисковое пространство и увеличивайте число точек администрирования инфраструктуры. ОК, сегодня у вас на предприятии 200 VDI и вы их положили на 4-нодовую SimpliVity Omnicube. Через полгода у вас решили расширить проект до 2000 мест. Вы себе представляете администрирование десяти отдельных кластеров/датацентров vCenter? Вот то-то и оно. :(

По-прежнему нет, и, более того, неясны перспективы с All-Flash предложением. Его нет даже в roadmap. Сегодня, когда вся индустрия стремительно переходит на SSD, емкость которых резко растет, а цена — падает, такая неясность и неготовность выглядит странно.

Все также управление сделано через плагин к vCenter. Все ОК если vCenter — «ваше все». Но такой подход с привязкой к интерфейсам одного вендора в управлении чревато проблемой при попытке «отвязаться» от этого вендора, см. выше про проблемы с поддержкой Hyper-V.

Очень сомнительным, на мой взгляд, явилось решение продолжать использовать их собственную «железку», плату Omnicube Accelerator. Фактически, это «сердце» решения, полагаю, он был первоначальным стартап-продуктом, а уж hyperconvergence приложилась. Увы, сегодня «железка» есть наиболее очевидный лимитирующий элемент решения. Еще в прошлом посте про SimpliVity я задавался вопросом: Что будет с системой в целом, с ее функциональностью и с ее данными, если эта карта выходит из строя?

Еще сомнительнее выгляди то, что SimpliVity активно педалирует высокий data reduction rate своих систем с OAC (OmniCube Accelerator Card). Мой опыт говорит, что все методы повышения data storage efficiency на этапе сайзинга надо рассматривать исключительно как бонус. Данные сжимаются и дедуплицируются непредсказуемо. Нельзя сказать «А, ну у вас там 200TB, но у нас дедупликация и компрессия, так что вам надо взять всего на 100TB дисков, и все будет ОК!». Не факт. Есть данные, которые не сжимаются и не дедуплицируются, даже «волшебной платой» SimpliVity. К сожалению, пресейлы SimpliVity часто чересчур свободно обещают результаты дедупликации с помощью OAC, используя этот rate в сайзинге решения. Это может (впрочем, может и не) быть неприятным сюрпризом, если фактический результат работы data efficiency окажется хуже ожидаемого.

Следует также учитывать, что дедупликация — процесс by design очень сильно потребляющий память. Необходимость хранить в памяти и проводить проверку и сравнение по базе fingerprint-ов блоков в процессе проведения дедупликации есть очень RAM-емкая процедура. Даже у Nutanix, при включении компрессии и дедупликации, которая у нас емкость RAM, резервируемой CVM рекомендуется увеличить вплоть до 32GB. Пользователям рассказывают на презентации SimpliVity про волшебную «аппаратную» плату дедупликации OAC, и они представляют себе, что, в общем, это такой «черный ящик», куда на вход подается поток данных, а на выходе он выходит волшебным образом дедуплицированный, в 10 раз меньше, не загружая этим систему, и все. Однако обескураживающим является то, что, на самом деле, «разгружается» только CPU, память системы для работа дедупликации занимается. И еще огого как занимается, на младших системах может быть занято до 57GB (!), а на старших вплоть до 100GB (!!) памяти платформы, и это только лишь на поддержку работы OAC. Эта память, естественно, отнимается от ваших VM, от общего пространства, доступного гипервизору. И это в разы больше, чем занимает наш Nutanix CVM, за что его часто критикуют (и иногда даже справедливо). Такая вот «аппаратная плата дедупликации», съедающая 100GB RAM платформы при работе. При прочих равных это заставит вас купить на хосты SimpliVity больше памяти. Гораздо больше.

Столь же вводящим в заблуждение является предложение «2-node» конфигурации. Напомню, что у Nutanix минимально — 3 ноды, и это активно используется против нас в SMB-сегменте. Рассказ, почему мы не можем сделать менее 3 нод в кластере выходит за рамки поста. Однако стоит заметить, что и в «2-node» предложении SimpliVity эти «2 ноды» довольно лукавые. То есть, да, от самой SimpliVity нужно действительно 2 ноды. Но еще один сервер нужен для размещения Arbiter Service и vCenter. То есть две ноды плавно превращаются в три сервера. К слову, мы в Nutanix тоже рассматривали такую конструкцию, разрабатывая Xpress, но, в результате, решили, что такое не годится.

Все также нельзя смешивать в один кластер/vCenter datacenter разные модели. Набор моделей довольно узок, по-прежнему нет моделей all-flash, storage-only nodes, а GPU для тяжелых GPU-powered VDI может быть установлена только на выделенную ноду. Все это показывает, что SimpliVity все еще не вышла за пределы VDI-only решения для 200-300 рабочих мест.

Очевидно, и это вновь осталось неизменным за полтора года, решение SimpliVity нацелено на SMB-сегмент, и там, вероятно, вполне неплохо смотрится. Но любая попытка выйти из него немедленно натыкается на «зашитые» архитектурные проблемы. Повторю уже написанное полтора года назад, оно, на удивление, не изменилось. Если вам годятся ограничения SMB, если вас не пугают архитектурные ограничения, присущие решению, и не настораживает фактическое отсутствие развития за полтора года и «долгострой» в Roadmap, то SimpliVity может рассматриваться как вариант. Но меня бы, будь я клиент, такое бы напрягло. На фоне столь быстрого развития HCI (Hyper-converged Infrastructure) как направления, такая пробуксовка лично для меня показывает проблемы в управлении и явную нехватку сил для движения вперед в компании.

Просто для сравнения, за эти же полтора году у Nutanix появился:

  • Свой бесплатный для пользователя гипервизор Acropolis.
  • Nutanix Xpress Edition для рынка SMB
  • Распределенный файловый сервис Meduza, работающий в среде нашего кластера
  • Volume Groups для «блочного» iSCSI хранилища для VMs
  • Erasure coding
  • В два с половиной раза увеличилась производительность простым обновлением ПО
  • Появилась конфигурация All-Flash
  • Пройдена сертификация под SAP Netweaver
  • Сделана Metro Availability для vSphere
  • Написан плагин для интеграции XenDesktop с AHV
  • Сделан One-Click Upgrade
  • Вышел Prism Pro
  • Выпущена бесплатная версия Nutanix Community Edition

Что бы вы хотели знать о VSAN и EMC VxRail (но не догадывались спросить;)

9cff0216a1cc4461ab6f6de87b15af37[1]

В связи с выходом новых продуктов на VSAN — EMC VxRail, маркетинговая машина EMC запустилась, и начала свою работу по продвижению нового продукта семейства EVO:Rail. Новостей о «новом революционном продукте от изобретателей гиперконвергенции» будет много по всем каналам, как у EMC и заведено. Тем не менее для нас, технарей, важно сохранять трезвый взгляд, и знать не только о достоинствах, но и недостатках продукта, в конце концов CIO отрапортуют на chairman’s board о внедрении и пойдут пить свои коктейли, а нам с этим всем жить.
Поэтому я бы хотел остановиться на некоторых моментах VSAN/VxRail, о которых как-то не слишком говорят в презентации продукта.
Поэтому я и написал нижеследующий пост.

Я уже упоминал это, но обратил внимание, что часто этот факт как-то минует сознание многих.
Есть VSAN 1.0, который работает на vSphere 5.5. Он имеет кучу недостатков, о которых я писал раньше в этом блоге. VMware провела большую работу над ошибками, и выпустила следующую версию, которая стала сразу называться «VSAN 6.0». Однако так как VSAN это модуль ядра, то VSAN 6.0 нельзя поставить на vSphere 5.5. Вам придется обновиться на vSphere 6.0. Все бы ничего, но, к сожалению, качество релиза vSphere 6 «оставляет желать». Многие компании продолжают сидеть на 5.5 + Updates, в ожидании, пока 6.0 стабилизируется. Но если вы не готовы мириться с многочисленными проблемами vSphere 6.0, и при этом нуждаетесь в VSAN, то единственный выход для вас — VSAN 1.0, со всеми ее проблемами.

Если в вашей системе VSAN выходит из строя SSD, то это ведет к прекращению работы всей дисковой группы, в которую входит этот SSD.

Добавить еще SSD в систему можно только в создаваемую новую disk group.

Если disk latency для HDD вырастает, по каким-то причинам, до 50ms, то этот диск выводится из дисковой группы, так как считается неисправным. Если по каким-то причинам для операций ввода-вывода на SSD также вырастает latency до 50ms, то он также выводится из дисковой группы, но при этом, см. выше, прекращает работу вся дисковая группа! Это поправлено в VSAN 6.2, но, например, EMC VxRail — это сейчас VSAN 6.1!

В VSAN отсутствует поддержка VCAI (View Composer API for Array Integration), что может стать проблемой с производительностью при развертывании большого числа VDI-десктопов разом.

Соотношение 70/30 для Read/Write операций в VSAN Cache не изменяемо. Это также может быть проблемой для ряда нагрузок, отличающихся от типичных (пример — VDI, где в типичной среде записей происходит больше, чем чтений).

Максимальный размер Write buffer — 600GB. Остальное место, если оно есть на SSD (сегодня есть SSD уже и 1,2TB), как я понимаю, просто не используется?

По-прежнему используется крайне спорное решение, когда при выходе из строя ноды кластера VSAN система ожидает его возвращения в строй 60 минут (целый час!), и только потом начинает процедуры ребилда информации и состояния системы. Если в течение этого часа для системы с FTT=1 происходит отказ в еще одной ноде, то, как я понимаю, все становится очень плохо.

Дедупликация, компрессия, а также Erasure coding доступно ТОЛЬКО на All-Flash системах, и недоступны на Hybrid-конфигурациях (SSD+HDD).

Официально поддержка SAP Core появилась только в VSAN 6.2, см выше про VxRail, а Oracle RAC и Windows Clustering — только с VSAN 6.1.

Я стараюсь писать это в каждом competitive-посте, напишу и тут: Я не являюсь глубоким специалистом в продуктах VMware. Если вы видите тут какое-то утверждение, которое не соответствует действительности, и готовы со ссылками на документацию указать мне на это, то напишите в комментариях, я откорректирую пост. Я стремлюсь к тому, чтобы вся информация в этом блоге была максимально достоверной и качественной.

UPD: Заходите в комментарии, там тоже есть много интересного. Я рад, что мое замечание о намерении избежать FUD-а и оперировать фактами было замечено, очень часто комментарии к подобным статьям не менее важны и содержательны, чем сам пост. Как только я разберусь с приведенными контраргументами, я обновлю пост там, где это он заслуживает.

Nutanix и ceph

ceph-logo

…Другой частый вопрос, который мне задают, когда я рассказываю про Nutanix это: «Ну есть же ceph? Он бесплатный и делает почти то же самое. Мы возьмем его, скачаем, соберем, и сделаем себе свой нутаникс с б.дж. и ш.»
Что я могу сказать на это.

Недавно, на выставке РИТ++, мне довелось поговорить со специалистом из компании, которая работает на рынке облачного хостинга под брендом flops.ru. Эта компания известна тем, что использует как раз ceph и построила на нем платформу публичного облачного хостинга. Интересные ребята, кстати, энтузиасты и большие молодцы, серьезно. Я воспользовался случаем узнать «из первых рук» их компетентное мнение о том, насколько реально «скачать ceph и сделать все то же самое на нем». Ответ был однозначен: «Это утопия».
Так, в частности, он рассказал, что они в flops потратили на доводку, допиливание и вычищение багов примерно полтора года труда их команды разработчиков. Они взяли довольно старую версию (v 0.67 «Dumpling») и «пилили» ее. И в итоге действительно допилили ее до продакшна. Текущая же версия, в том виде, в котором она выложена в паблик, несмотря на major и stable в названии, в продакшн непригодна.
«Помните историю cloudmouse, который, в результате слова бага и сбоя в марте этого года потерял данные 22 тысяч виртуальных машин (включая их бэкапы, а перед этим они теряли данные в феврале) и, в результате, ушел из бизнеса? Ребята взяли текущую версию ceph, и сделали свою систему на ней. Результат — вот такой.»
Собственно мне больше нечего добавить к этому ответу на вопрос, «можно ли скачать ceph и сделать бесплатно то же самое, что у вас за деньги?».
Можно. Но не сразу, не быстро, и, по факту, не бесплатно.

А сам flops.ru, повторюсь, молодцы, и хорошо поработали. Но есть ли у вас полтора года и достаточно компетенции, чтобы пройти их путь? Вам отвечать на это.

X vs. Y: VSAN 6.0. Что нового?

Я уже писал в этом блоге подробный разбор того, чем Nutanix отличается от VSAN (EVO:RAIL), однако там речь шла о VSAN 5.0. В версии 6.0 было многое поправлено и изменено, но все ли? Этим мы сегодня и займемся.
Читать далее

SQL серверы на Nutanix

Мне часто, в процессе общения с клиентами, приходится слышать мнение, что, мол, Nutanix — не для SQL-задач. Что, дескать, вот веб-задачи, хостинг, VDI, вот это — да, а SQL там, ERP, и прочее такое — не подходит.
Стоит признаться, что год назад и я сам (еще до того, как присоединился к Nutanix) такого же мнения придерживался. :)

Тем не менее, вынужден признать, что, при грамотно спроектированной архитектуре, задача SQL-серверов вполне решается на кластере Nutanix.

Вот такой скриншот показал нам один наш клиент в России:

Screenshot-2015-01-20-20_52_01

Около 20 VM с задачами SQL-серверов из более чем 500 VM всего крутящихся на этом 28-нодовом кластере.

Отчет IDC по гиперконвергентному рынку 2014

Аналитическая компания IDC опубликовала краткий анализ рынка гиперконвергентных систем. Скачать его можно заполнив свои данные в форме и получив на указанную почту, но, в принципе, он небольшой, и самую главную картинку я из него вынесу в пост:

IDC chart 2014

Такой красный помидор на Nutanix это сама IDC нарисовала, это не я выделил :)
Да, конкурентов по именам пока еще немного, но среди них есть и довольно именитые. Впрочем, кто наши конкуренты, и чем мы от них отличаемся вы можете в этом же блоге, в моей рубрике «X vs.Y», в которой я сравниваю Nutanix с продуктами-конкурентами.

Acropolis in da house!

Acropolis, наш инструментарий для создания и управления виртуальными машинами для среды гипервизора Linux KVM непосредственно из Nutanix Prism UI, получил свой GUI и REST API.
Релиз состоится вместе с выходом NOS 4.1.1, 28 января, завтра.
Велкам пробовать!

Создаем VM с нужными параметрами прямо из Prism UI:

Screenshot 2015-01-24 21.45.02

Управляем миграцией VM по хостам кластера:

Screenshot 2015-01-24 21.50.05

Screenshot 2015-01-24 21.50.27

REST API:

Screenshot 2015-01-24 21.52.44