Архив рубрики: обзоры

Обзоры продуктов

Что нового в релизе AHV 5.6?

19 апреля компания выпустила новый релиз AHV, который стал называться 5.6. Кроме обычного whatsnew я бы хотел остановиться на одном важном изменении в политике релизов, которое мы запускаем в этом году.

Предыдущий, 5.5, выпущенный в конце декабря, шел медленно и тяжело, так как мы в нем запланировали много «стратегических» фич. Это, как минимум, из видимого пользователю, CALM, Microsegmentation/Flow, AHV Turbo, Nearline Replication/Lightweight Snapshots и много более мелких, но не менее значительных. Релиз несколько раз задерживался, так как все запланированные в него фичи не успевали вовремя, это, в общем, обычная ситуация для любой софтверной разработки.
В этом году, однако, мы решили пересмотреть модель выпуска релизов, и, начиная с 5.6, они будут выходить по новой схеме.

Схема эта знакома тем, кто использует Ubuntu, например, это так называемые time-based releases. Раз в квартал (у убунту это — два раза в год) мы будем выпускать релиз AHV. Фичи пойдут в режиме автобусной остановки. Что успевает быть подготовленным к включению в релиз — попадает в него, что нет — ждет следующего релиза-«автобуса», релизы не будут задерживаться, и выходить в назначенные даты.
Мы переходим к также хорошо знакомой модели Long и Short-time Support релизов. Раз в год будет выходить один LTS-релиз, в котором будут все важные и отлаженные фичи для продакшна, а затем, раз в квартал, будут выходить STS, «bleeding edge», для пользователей, которым хочется попробовать «все самое новое». Затем, в LTS соответствующего года, они будут «закрепляться».
Ближайшие релизы запланированы на май, август и ноябрь.

Версия 5.6 — это первый STS, выходящий после LTS — 5.5.

И вот что в нем появилось нового:

Acropolis File Services — 3.0.

  • К уже реализованным SMB 2.1 и 3.0 добавляется NFS v4.
  • Для целей бэкапа данных в Backup API реализован CFT — Change File Tracking, обеспечиваюший возможность инкрементального бэкапа файлов.
  • В партнерстве с Peer Software интегрирован их продукт Peer Link, позволяющий реализовать Active-Active систему, в которой два (и более) разнесенных AFS в разных кластерах и с разными namespaces будут двунаправленно синхронизировать свое содержимое по сети.
  • Добавились новые средства файлового аудита. С помощью внешнего syslog вы можете ловить события доступа к файлам, мы рассчитываем, что с использованием новых средств наши партнеры по экосистеме разработают полноценную систему файлового аудита, использующую новые возможности.

Микросегментация (Nutanix Flow) готова в GA. Я писал о ней ранее, после выхода v5.5. Теперь Tech Preview переходит в релиз General Available.

Volume Group Load Balancer.
Майкл Вебстер уже показывал, какие возможности несет с собой возможность распараллелить ввод-вывод на множество Volume Groups даже на одной VM, продемонстрировав миллион IOPS в одной VM на такой конфигурации. Volume Groups, напомню, это наши внутренние «блочные» тома, которые можно монтировать как LUNы в VM.
Теперь их использование еще упрощается. Между множественными VG трафик задачи будет автоматически балансироваться внутренними средствами.

Two-node cluster
Я уже писал в этом блоге про «однонодовый кластер» Nutanix для ROBO задач, и обещал, что в ближайшем релизе «однонодовая» конфигурация будет дополнена «двухнодовой». Подробнее — в посте ранее, а вкратце — это отличная возможность поставить Nutanix, со всеми его возможностями, в небольшие офисы и филиалы, с централизованным управлением из «головы». Напомню, это НЕ SMB, это ROBO (Remote Office Branch Office)! «Поштучно» мы их не продаем.

Scale-Out Prism Central.
Наша система управления большими и распределенными системами кластеров, Prism Central, стал распределенным тоже. Раньше этьо была одна VM, теперь его можно развернуть на группе нодов, защитив его от отказов и позволив лучше масштабироваться. Prism Central, напомню, бесплатен, и в него мы добавляем фичи, которые нужны тяжелому ынтерпрайзу. Но так как в «базе» он бесплатен — это повод попробовать, если, например, еще не видели.

RESTful API v3
Постепенно развивается и наш API. По мере того, как в систему добавляются новые возможности, расширяется и API управления. Если вы программируете, или планируете интегрировать Nutanix в сторонние системы, рекомендую посмотреть его. Лучший способ начать знакомство — сайт developer.nutanix.com. Для V3 нужен Prism Central, и в него включена интеграция с Self-Service Portal и Microsegmentation.

80TB per node limit
Мы постепенно наращиваем доступную на ноду емкость, по мере появления емких дисков и прохождения ими сертификации лимит на емкость повышается. Теперь максимальное значение — 80TB на ноду.

Guest OS shutdown
Появилась возможность корректно «дергать» операцию Shutdown в Guest OS, в том числе и из API.

Erasure Coding (EC-X) performance
Постепенно допиливаем до совершенства алгоритмы EC-X, в 5.6 существенно увеличилась производительность EC-X, в ом числе и на таких сложных для него операциях, как rewrite block.

Итак, новый STS release выкачен, если что-то из описанного вам необходимо — обновляйтесь, если нет — можно оставаться в рамках LTS линейки.

Что такое Гиперконвергентные (HCI) Инфраструктуры?

Текст, идущий ниже, был написан как своеобразное интервью, взятое у меня для блога KorP. Текста получилось много, почти статья, он показался мне интересным и сам по себе, а не только как ответы на вопросы, большая часть которых моим читателям уже известны. Поэтому я уговорился с автором интервью, что я также опубликую его у себя.

Изначальная идея была в том, что вопросы для интервью будут открыто предложены для всех работающих в России игроков, и каждый из конкурентов сможет ответить на них так, как эти ответы видит тот или иной вендор. При этом я, со своей стороны, написал свою часть еще в ноябре. К сожалению, «за неявкой соперников победа присуждается…», никто из конкурентов за три месяца так и не осмелился выступить в открытой дискуссии, поэтому ждать больше смысла нет. Вот наш текст, написанный, впрочем, еще до версии 5.5.
Удобно будет давать на него ссылку, если понадобится быстро ввести в курс дела человека, с HCI только начинающего знакомство с темой.

1. Что такое гиперконвергентные (HCI) инфраструктуры?

«Гиперконвергентными» называют инфраструктуры, в которых объединение серверов, SAN и СХД сделано на архитектурном уровне, объединяя их в единое неразрывное целое, в единую сущность «хранения-и-обработки информации», «кирпичик LEGO» современного датацентра. Модуль обработки и хранения информации.

2. Чем они отличаются от конвергентных и от классических инфраструктур?

Собственно, само название «гипер-» потребовалось, чтобы отличаться от появившихся на несколько лет ранее так называемых «конвергентных» систем (VCE vBlock, Cisco-NetApp FlexPod), которые, на наш взгляд, вообще никакой конвергенции не имели, а были просто способом продать клиенту предынсталлированную инфраструктуру из серверов, SAN и СХД и по одному Purchase Order-у, в одном шкафу, ничего не меняя в архитектуре системы по сути. Это по-прежнему оставались СХД и серверы, без какой-либо конвергенции между ними (если не считать таковой процесс продажи).
«Гипер» (а, по сути, и просто «конвергентность», как диктует сам термин) это именно слияние и образование единой сущности, чем и являются современные HCI.

3. В чем преимущества HCI инфраструктур?

Основные преимущества HCI это плавность и практическая неограниченность масштабирования, возможность строить интегрированную инфраструктуру под разные задачи, объединяя их в рамках единого «квази-облачного» инфраструктурного решения, без необходимости выделять «ресурсные острова» и дробить единое решение, при этом обеспечивая крайне высокую производительность решения.
Это существенная экономия на эксплуатационных расходах (TCO). Так, например, компания IDC в своем отчете, сделанном по результатам опроса десятков клиентов Nutanix в enterprise, утверждает, что срок окупаемости для Nutanix HCI составляет около полугода, а ROI на пятилетнем интервале составляет более 500%.
Наконец, это быстрота развертывания (и масштабирования в дальнейшем) решения, сокращающая Time-to-Market для продуктов компании. Тот самый «agile», о котором сегодня в России широко заговорили примерно полтора года назад.

4. Каковы недостатки HCI инфраструктур?

Наши клиенты обычно называют в качестве основных причин, по которым они пока не могут или не хотят перейти на HCI, настороженность в отношении вендор-лока (HCI обычно являются продуктом одной компании, так, в нашем случае, Nutanix поставляет и аппаратную платформу, и software-defined продукт на ней работающий, и, в случае использования AHV, гипервизор). Есть определенная настороженность к новому продукту, который, по сути, появился на рынке России всего лишь три года назад (для России это совсем недавно), и относительно невелик пока опыт его использования в российских компаниях (с этим сталкивается последовательно, каждый новый вендор, приходящий на российский рынок). Я также вижу определенную настороженность к самой по себе идее фиксированного объема хранения на каждом узле кластера HCI, так как в «классической» инфраструктуре нам много десятилетий возможность независимого расширения емкости хранения на SAN СХД от серверов обработки, а также идея «консолидации данных» на выделенном дисковом массиве, называлась одним из главных преимуществ современной IT-инфраструктуры.

5. Как они могут дополнять друг друга?

Сегодня мы, в Nutanix, всегда рассматриваем возможности сосуществования с «классической» инфраструктурой. Как хороший пример могу привести вариант использования HCI с системой SAP HANA. В настоящий момент сервер HANA поддерживается SAP только на физическом «железе», без виртуализации. Однако кроме сервера самой HANA, значительную часть решения обычно составляют многочисленные серверы приложений, использующих in-memory HANA DB, а также среда разработки, QA и так далее. И в нашем случае компании часто устанавливают под сервер HANA DB физический сервер, что полностью поддерживается SAP, а затем развертывают множество клиентов, серверов приложений, на HCI-узлах, и это тоже поддерживаемый вариант.

6. Каковы основные варианты использования?

Часто пользователи вынуждены продолжать эксплуатировать старое legacy оборудование и ПО, которое они не могут немедленно заменить на современное, по разным причинам. Проблемы лицензирования, совместимости с каким-то сторонним оборудованием, или просто нехватка ресурсов на миграцию и значительные инвестиции, сделанные компанией в прошлом, могут препятствовать немедленному переходу. Сейчас, например, в случае Nutanix, можно использовать кластер Nutanix, по крайней мере какую-то его часть, как своеобразную SDS СХД, подключая его как блочное хранилище к внешним серверам, и, таким образом, сосуществуя с ними и продляя их жизнь, защищая сделанные инвестиции.
Мы также предоставляем возможности использовать Nutanix как высокопроизводительное файловое хранилище (NAS) для внешних клиентов. Это могут быть как VDI-клиенты, так и, например, специализированные медицинские системы хранения цифровых рентгеновских снимков, с поддержкой отраслевого стандарта DICOM.
Так что возможности сосуществования с уже имеющейся инфраструктурой у HCI Nutanix довольно широки, и это, часто, открывает двери для новых технологий в «традиционных» IT-инфраструктурах.

7. Могут ли они интегрироваться или сосуществовать с имеющими инфраструктурами заказчиков?

Безусловно да. Мы трезво понимаем, что, как бы мы ни видели потенциальное превосходство HCI над «классикой», впереди у нас многие годы сосуществования с ней в датацентрах enterprise-компаний. Большие инвестиции, сделанные в SAN, в СХД, в большинстве компаниий расточительно, да и просто невозможно одномоментно «выбросить». Разумеется, остаются и области, ниши, в которых «классическая» инфраструктура хорошо себя чувствует, и будет чувствовать многие годы. Как телевизор не убил книги, так и, допустим, жесткие диски не уничтожили магнитные ленты, но вытеснили их в ниши, где они (для лент, например, это архивное «отчуждаемое» offline-хранилище) существуют и будут существовать очень долго. Но, как мне кажется, сейчас все большему числу IT-специалистов видно, что мы стоим на пороге больших перемен в инфраструктуре. И как когда-то жесткие диски вытеснили магнитные ленты во времена мэйнфреймов, как в 90-е годы дисковые массивы SAN постепенно заполнили датацентры, вытеснив DAS, как в 2000-е появившаяся серверная виртуализация пробила себе путь в подавляющее число корпоративных датацентров, так и HCI сегодня, потенциально, является следующим эволюционным шагом для инфраструктуры датацентров.

8. Какие преимущества получит заказчик при переходе от традиционной к HCI инфраструктуре?

Это, на мой взгляд, большая гибкость, упрощение (и как следствие – снижение стоимости и числа ошибок) администрирования, повышение надежности, увеличение производительности, экономия на эксплуатационных расходах, большая динамичность IT, позволяющая быстрее откликаться на требования бизнеса, повышая его конкурентоспособность.
Не стоит забывать, что все, что мы делаем в IT-инфраструктуре, в конечном счете должно повышать отдачу и конкурентоспособность бизнеса, ей обслуживаемого, и одна из стратегических задач HCI состоит как раз в этом.

9. Что вызвало рост HCI?

Безусловно, определяющим толчком для HCI послужило широкое принятие рынком технологии виртуализации, так как без гипервизора не работает ни одна из HCI-систем, представленных на рынке. Сегодня подавляющее большинство приложений или уже работает, или может работать в среде гипервизора, тем самым открыт путь к широкому использованию HCI. Кроме того, важным этапом был возникший, за последние три-пять лет, существенный интерес к Software-defined продуктам, не только Storage (SDS), но и всем другим компонентам, которые могут быть реализованы дешевле и с существенно более быстрым циклом разработки, в виде программного кода на CPU общего применения. Сегодня, как показывает практика, производительность массовых CPU архитектуры x86 общего применения, достаточна для подавляющего большинства задач, которые раньше реализовывались дорогими в производстве и разработке специализированными hardware-системами.
Кроме этого, постоянный рост производительности ввода-вывода, обусловленной приходом твердотельной памяти, начал диктовать необходимость размещать хранилище максимально близко к CPU обработки данных, в идеале – локально на шине CPU и RAM.
Ответом на эти потребности, вызванные развитием технологий, и стали HCI, системы, где данные хранятся локально, там, где они обрабатываются, которые реализованы полностью программно, на процессорах общего применения и commodity-серверах, работающих под управлением baremetal-гипервизора. Первоначально разработанные как часть проперитарных решений построения инфраструктуры в компаниях интернет-гигантах, таких как, например, Google и Facebook, они «коммодитизровались» и вышли на массовый рынок в виде доступного «коробочного» продукта.

10. Какие проблемы несет устаревшая инфраструктура?

Основные проблемы, присущие «классическому» методу построения инфраструктуры, это негибкость, проблемы с масштабируемостью, высокая стоимость владения, сложность и дороговизна поддержки многокомпонентных мультивендорных решений, сложность и, как следствие, высокая цена администрирования.

11. Какие проблемы пытаются решить клиенты?

Для Nutanix типичные области использования это разнообразные enterprise-приложения, такие как базы данных, включая тяжелые и требовательные к объемам RAM. Это инфраструктуры VDI, для которых характерны задачи быстрого масштабирования в случае добавления новых рабочих мест и низкая latency дисковых операций. Это разнообразные инфраструктуры частных и гибридных «облаков». Существенной и растущей долей является направление Big Data Analysis, интерес к которой сейчас растет во всем мире. Важной частью также являются «распределенные» инфраструктуры, ROBO, филиальные сети, DR-центры, и так далее.
Отчасти проблемы, решаемые клиентами это сокращение эксплуатационных затрат и увеличение гибкости уже существующих систем, мигрируемых с «классики» на Nutanix, отчасти это совершенно новые области, такие как, например, Big Data исследования или построение Private Cloud в компании.

12. С каким проблемами чаще всегда сталкиваются заказчики при внедрении и использовании HCI решений?

На мой взгляд, основной проблемой при переходе на HCI, является инертность мышления. «Когда в руке молоток – все вокруг выглядит как гвозди». Существует годами выработанная методика решения IT-задач. И одномоментно вдруг увидеть, что кругом не только гвозди, которые можно только забивать, но и множество других способов обращаться с предметами и решать задачи, часто бывает довольно тяжело воспринимаемой, особенно для IT-шников старшего поколения, привыкших жить в парадигме «сервер-SAN-СХД», рожденной еще в 90-е. Когда «бэкап – это непременно ленточная библиотека», «Fibre Channel – высочайшее достижение инженерной мысли и единственно пригодное для наших задач», «нужно запустить приложение – ставим под нее выделенный сервер». Сегодня в мире довольно быстро развивается совершенно новая IT-парадигма дискретизации и распределенных приложений, микросервисов, контейнеризации, web-scale. К сожалению, мимо крупного энтерпрайза (в особенности, и прежде всего в России) этот тренд все еще проходит мимо, он все еще мыслит, например, категорией «одно приложение – один сервер». И HCI в таком случае применить и использовать довольно сложно, он не позволит проявить HCI свои лучшие и наиболее сильные преимущества.

13. Является ли снижение совокупной стоимости владения ключевым фактором перехода к HCI?

Глобально, в мире, безусловно – да. В России, к сожалению, стоимость владения все еще не является, обычно, решающим фактором при выборе решения и расчете его стоимости. Отчасти это связано с отсутствием общепринятой методики расчета TCO в России (а общемировые, часто, плохо подходят для российских условий), отчасти просто от общей недооценки стоимости владения в общей стоимости решения. По моим наблюдениям, вопросы «а сколько это стоит» в российском IT (а широко — и в бизнесе вообще) это какое-то «небарское дело» («…копейки все эти считать, прикажем — заплатят!»), признаком успешного бизнеса у нас являются масштабы трат, шикарность офисов и автомобилей «топов» а не эффекивность использования бюджетов. Совместить такой менталитет с пониманием, что деньги могут быть потрачены с бОльшей или мЕньшей отдачей, достаточно непросто.

14. Развитие каких технологий может увеличить спрос на HCI системы?

На мой взгляд, широкое распространение быстрой персистентной (то есть не теряющей данные при выключении питания, например, как магнитные диски) памяти, такой как NVMe flash и 3DXpoint насущно требует сокращения пути доступа к хранимым данным. Большие величины latency, характерные для внешней памяти, с доступом через SAN, уничтожают значительную часть преимуществ по скорости и производительности таких типов памяти и не дают ей показать все, на что она физически способна. Подобная память должна располагаться максимально близко к процессорной части системы, в идеале прямо на шине взаимодействия процессора с памятью. И здесь гиперконвергенция, сливающая хранение и обработку воедино, и размещающая ее локально для CPU, имеет огромный потенциал для роста производительности систем и использования всего скоростного потенциала новых типов быстрого хранилища.

15. Кто является основными игроками на этом рынке? На кого вы смотрите и ориентируетесь из конкурентов?

Пожалуй, наиболее активным и значимым нашим конкурентом среди гиперковергентных систем являются DellEMC VxRAIL (и VMware VSAN). Вероятно, после окончания процесса интеграции в продуктовую линейку HPE и решения ряда проблем с развитием архитектуры, определенный импульс к развитию получит и SimpliVity. В целом на рынке сейчас существует масса гиперконвергентных решений, однако общая беда почти всех – в отсутствии хорошего vision, того, куда эта область будет развиваться в ближайшие 3-5 лет. Позиция Nutanix, которая с одной стороны – превопроходец, а с другой – пробивающая общую инертность рынка собой, имеет и свою силу, и свою слабость. Сила, безусловно, в задании тренда, в соответствии с которым будут вынуждены идти и повторять вслед за лидером компании, идущие за ним следом. Слабость, возможно, в том, что повторить успех обычно стоит гораздо дешевле с точки зрения затрат на R&D. Пока Nutanix вышеперечисленное удается.
Но, говоря о конкурентах Nutanix важно понимать, что главный конкурент Nutanix не VSAN, не SimpliVity и не традиционные инфраструктуры. Важно понимать, что для всего перечисленного главный конкурент – AWS и Azure, «публичные облака». И пока «инфраструктурщики» спорят о том, кто является «лидером рынка», бизнес тем временем все дальше и быстрее уходит к облачным провайдерам (например, только за 2017 год, и только AWS достиг в выручке 20 миллиардов $, и растет на 40% в год. И это только один AWS, без учета не менее успешных MS Azure, Google Cloud Platform, RackSpace, Softlayer) На мой взгляд, именно они сегодня – главный конкурент и для HCI, и для «классики» вместе взятых.

16. На ваш взгляд — чем выделяется ваше решение среди конкурентов?

Основные преимущества Nutanix перед конкурентами это принципиальная hypervisor-agnostic модель решения, не навязывающая выбор сопутствующего гипервизора. Это широкая поддержка сторонних платформ и OEM-партнеров, обусловленная использованием чистого software-defined в решении, которое легко перенести и установить на стороннее commodity hardware. Это широта и полнота вИдения пути дальнейшего развития продукта и отрасли и функциональное богатство решения, его готовность к «Tier1 workload». Его зрелость, широкое принятие рынком, большой накопленный опыт реализации проектов пользователей самого разного масштаба.

17. Чем обусловлен выбор гипервизора, с которым работает ваша система?

Около 65% наших клиентов используют в качестве гипервизора разные версии VMware vSphere. Однако кроме поддержки сторонних гипервизоров, которая будет продолжаться и развиваться, у нас есть и свой собственный – Acropolis Hypervisor, AHV, разработанный на базе открытого исходного кода Linux KVM. Наша цель в разработке этого гипервизора была, во-первых, достичь большей независимости и свободы от одного поставщика гипервизора (к тому же напрямую конкурирующего с нами с продуктом VSAN/VxRAIL), использовать открытый код, со всеми присущими этому шагу плюсами, и, наконец, получить гипервизор, в котором мы можем реализовывать передовые технологические возможности платформы, независимо от стороннего поставщика гипервизора, своими силами.

18. Какие перспективы вашей системы в ближайшем будущем?

В недавнем обновлении мы выпустили инструмент, который будет доступен для всех наших пользователей – наш облачный оркестратор Nutanix Calm, который позволит строить на базе кластеров Nutanix гибко и просто разворачиваемую пользователем облачную платформу, с использованием технологий Docker и Kubernetes, а также нашего собственного «магазина приложений». Мы намерены развивать начавшееся в этом году технологическое сотрудничество с Google Cloud Platform по построению гибридных облачных решений, и более активно предлагать рынку Nutanix в форме программного продукта для сторонних аппаратных серверных платформ, таких как HP ProLiant и Cisco UCS. Мы также расширяем круг наших OEM-партнеров, уже сейчас добавив к ним такого мощного в Европе и Германии игрока как Fujitsu, а также планируем продолжать сотрудничество с IBM по продвижению гиперконвергентности на платформе IBM Power8.

19. Почему некоторые заказчики, задачи которых отлично укладываются в HCI остаются приверженцами традиционной архитектуры? Боязнь, что HCI это временный «хайп»? Сталкивались вы с такими заказчиками и удавалось ли их переубедить?

Когда-то у IBM была серия рекламы со слоганом «еще никого не уволили за покупку IBM», и это был слоган, бьющий в самое сердце любого CIO. Никто не ищет возможности «поменять», если можно не менять. Никто не хочет быть уволенным за эксперименты над инфраструктурой, это объяснимо и понятно.
Если у вас не «болит», то никто и никогда не будет что-то менять, что уже работает. Что позволяет спокойно спать ночами, ходить в отпуск, не держа рядом с кроватью включенный телефон, и вовремя получать годовые бонусы.
Но вот когда настает момент, когда «надо менять», а текущая инфраструктура достигла своего предела. Когда бизнес требует срочного снижения Time-to-Market, а у вас три месяца занимает только запуск новой инфраструктурной единицы в датацентре, считая от подачи заявки подразделением. Если ваш KPI как CIO владельцы бизнеса напрямую связали с резким снижением TCO IT-инфраструктуры, а бюджеты IT-отдела урезаются год от года, вот тогда вы, поневоле, будете искать что-то новое, что поможет вам эти задачи выполнить.
Наконец, на мой взгляд, общая консервативность IT в Российском энтерпрайзе, связана с тем, что мы, к сожалению, в значительной мере оторваны от мирового IT-мэйнстрима. Например, из-за плохого владения английским языком, значительная часть российских айтишников вынуждена узнавать о новостях и трендах в IT «в переводе», с существенной задержкой на то, когда соответствующая технология будет «переведена» и привезена на локальную выставку или конференцию в Россию (и конкретнее – в Москву). А крупные IT-события, на которых можно увидеть какие-то прорывные технологии, когда они появились, а не спустя два года, обычно происходят «там», и чтобы туда поехать нужно время, средства, визы, мотивация, и так далее.
Все это делает российское IT более консервативным, чем оно могло бы быть. Но есть и хорошая новость. Самые передовые и создающиеся «здесь и сейчас» бизнесы, не обремененные наследием legacy, пусть это и не масштаб «Silicon Valley», часто хотят стартовать «с отрывом» и вынуждены «рисковать» и выбирать самое передовое. Зачастую, это также отличный «внутренний драйвер» и мотивация для проекта в компании.

20. Расскажите о наиболее интересном, с технической точки зрения проекте по строительству гиперконвергентной инфраструктуры, которую вы выполняли для ваших заказчиков.

Сложно рассказывать о проектах, которые не были официально объявлены публичными. И у нас в России, и, в целом, в мире, не любой интересный проект является таким, о котором можно рассказать. Это так у любого вендора. Я стараюсь вылавливать и рассказывать о том, о чем рассказывать можно, в блоге. Лично для меня одними из самых впечатляющих кажутся истории, когда в результате модернизации и переводе «классики» на HCI удается существенно сократить расходы и footprint решения. Так, например, недавнее внедрение в Казахтелекоме, перевело семь стоек оборудования «классики» во всего 10U, причем с существенным ростом производительности и перспективами на рост. В Азербайджане мы, совместно с нашим OEM-партнером Lenovo запустили IT-инфраструктуру в свежепостроенной клинике высочайшего класса Bona Dea Hospital Baku, и в этом случае мы также оставили большую часть заказанных на этапе строительства стоек в больничном датацентре незаполненными (их заказывали под «классику») просто потому, что свыше 70 медицинских IT-сервисов в катастрофоустойчивой инфраструктуре хранения и обработки, в том числе рентгеновская и MRT-томография, защищенное хранение медицинских документов пациентов, и прочие IT-нужды современного медицинского комплкса, с запасом уложились в две стойки оборудования.
Ничего подобного «классические» IT-инфраструктуры, дошедшие сегодня практически до своего предела, не могут предложить даже близко.
Очень интересным мне показалось проведение тестирования (и публикация результатов) компанией Центр Финансовых Технологий, ведущего российского разработчика банковского ПО Tier-1 class, на котором работают сотни банков как в России, так и в некоторых странах СНГ и Восточной Европы. Тестирование показало высочайшую производительность и надежность, открывающие двери HCI в крайне консервативную и требовательную область банковского ПО.
Особенно стоит отметить, что HCI применяется и используется сегодня в широчайшем спектре и диапазоне задач и бюджетов, от «супермега»-международных корпораций (более 60 компаний из списка Forbes Global 100 сегодня — наши клиенты) до, порой, почти SMB-клиентов. и это — еще одно важное преимущество гиперконвергентных инфраструктур.

Конфигурация «1-Node» Nutanix

Как вы уже наверное слышали, у Nutanix появляется особый класс систем, которые я в целом затрудняюсь называть «кластер». Это однонодовые системы, которые, подобно тому, что вы уже, возможно, видели в Community Edition, могут работать как «кластер, состоящий из одной ноды». Раньше мы такое позволяли использовать в качестве Backup Target, а вот теперь, хорошо подумав, разрешили использовать и для запуска VM. Но подумали мы и правда тщательно, и вот ниже я перечислю все моменты, о которых вам будет нужно знать, прежде чем вы будете интересоваться предметно таким «сверхдешевым» Nutanix.

Пункт номер ноль. Это НЕ SMB решение. Это решение для рынка так называемого ROBO (Remote Office/Branch Office). Поэтому минимальная закупка таких 1-Node Nutanix — 10 штук.
То есть если у вас структура компании с множеством (десятком и более) небольших удаленных филиалов, и вы выбрали Nutanix в качестве решения для основной инфраструктуры, и при этом вам нужно оснастить Nutanix-ами филиалы и удаленные офисы, на которых практически нет вычислительной задачи, а данные для защиты все равно реплицируются на «большой» Nutanix в головной компании, то вот тогда это то, что вам нужно. В филиалы тогда идут недорогие однонодовые Nutanix, управляемые из Prism Central головного офиса. И в целом вы решаете задачу защиты данных через их репликацию в центральную систему, минимальная локальная защита у вас будет (об этом ниже). При этом типовая задача у вас для такого офиса — держать «AD, DHCP, DNS, Firewall, VPN до «головы», пять VDI операционистов, почту и файлопомойку» — то с этим вот сюда. Получается такой «филиальный допофис-ин-э-бокс», заливаемый за 30 минут и готовый к использованию «просто включи в сеть».

1. Пока мы подготовили две специальные модели для этого направления, это NX-1175S-G5 (1N1U) и NX-1155-G5 (1N2U). Обратите внимание, 1175S означает single socket, 1 pCPU. Модель 1155 уже была доступна, это 1-Node Backup Target, теперь на ней разрешено запускать Guest VMs.

Конфигурация NX-1175S-G5:
CPU: 1x 2620v4 (8-core) or 1x 2650v4 (12-core)
Memory: 64G or 96G or 128G or 256G
Hybrid:
SSD: 2x 480G or 2x 960G or 2x 1.9TB
HDD: 2x 2TB or 2x 4TB or 2x 6TB
All-Flash:
SSD: 4x 480G or 4x 960G or 4x 1.9TB
Network: 2x1GbE LOM (built-in) + Add-on NIC (Optional) : 2x1GbE or 2x10GbE (SFP+ or Base-T)
Power Supply: 1 (only!)

Сетевая конфигурация, доступная для NX-1155-G5:
4x1GbE, Add-on NIC (Optional): Dual-Port 10 GbE SFP+, Dual-Port 10 GbE BASE-T, or Quad-Port 10 GbE SFP+

2. «Расширение кластера» для 1-Node нет и не планируется. То есть, купить и установить 1-Node, потом докупить еще две и расширить на них, сделав «полный» кластер нельзя.
Однако можно собрать «большой» Nutanix Cluster из трех и более NX-1175S, но только НЕ расширением 1-Node, а переинсталляцией, с нуля. Дальше такой 1375S можно скейлить обычным для Nutanix способом, это будет обычный трех- и более нодовый кластер Nutanix из 1U Single CPU нод 1175S.

3. CVM на такой системе занимает 6 vCPU и 20GB RAM

4. Так как наша архитектура подразумевает репликацию блоков, то даже на 1-Node она будет, просто две копии блока будут храниться локально. Это не защитит от отказа контроллера или ноды целиком, но отказ одного HDD это может помочь пережить без потери данных. Отказоустойчивость предполагается решать репликацией на main cluster и локальными бэкапами, например с помощью Comtrade HYCU на сторонний NAS.
Так что репликация RF=2 будет, и usable space все равно будет ~50% от raw физических дисков.

5. Нет: дедупликации, ABS и AFS, Erasure Coding, Capacity Analysis на Prism Central.

6. Async DR (репликация на Nutanix в другом DC) — минимальный цикл 6 часов (RPO). Metro Availability конечно же нет тоже.

7. Отказ ноды — ожидаемо offline всего на ней содержащегося.

8. Отказ SSD (одного из двух) — переход хранилища в read only.

9. Гипервизоры: для 1175S — AHV и ESXi, для 1155 — только AHV. Hyper-V нет ни для одной модели.

10. Минимальная версия AOS — 5.5

Чуть позже, как только они будут объявлены, я расскажу и про вариант перечисленного, который будет носить название «2-Node».

Переход на Nutanix для компании — реальный кейс

Кстати, вот вам реальный кейс одного из клиентов компании, взятый из свежего отчета по проекту миграции.

Поэтому когда мы рассказываем про то, что, мол, «продали один нутаникс на четыре ноды», это не оттого, что не можем больше. Это оттого, что клиенту, зачастую, больше нечего в него положить! Семь стоек, 56 серверов и сопутствующего хабара 19 информационных систем переехало на Nutanix и уместилось в компании в 10U одной стойки, при этом с двукратным ростом по памяти и ядрам, и пятикратным по дисковой емкости.

Nutanix Xtract for VMs: как мигрировать сотни VM из VMware vSphere в AHV и не сойти с ума

Постоянно задают нам пользователи вопрос: «Как мигрировать V2V, например, с vSphere на AHV?» Ладно, если это десяток VM, можно перекорячиться руками. А если их сотни? А если нужна сложная схема взаимосвязанных операций при этом? В общем, руками — не вариант.
И вот теперь у нас появился наш собственный, отличный инструмент для переноса VM из vSphere в AHV — Nutanix Xtract for VMs. Он входит в группу инструментов Xtract, там уже есть, например, инструмент для переноса баз данных, может быть как-нибудь напишу и про него. А пока, про то, как мигрировать VM из vSphere в AHV.
Начнем с того, что Xtract for VMs это виртуальная машина, разворачиваемая на платформе Nutanix AHV. Скачать подготовленную VM в формате QCOW2 можно с нашего портала http://portal.nutanix.com, а затем развернуть ее на имеющемся у вас кластере AHV. Образ имеет размер около гигабайта, так что развертывание занимает немного времени. Можно это сделать вручную, залив скачанный образ в AHV Image Service, и затем создав из него VM. Можно также сделать более автоматизированно, с помощью Xtract CLI. Рекомендуем попробовать именно автоматизированный вариант.

Кроме процедуры развертывания, утилита Xtract CLI может быть использована для некоторых других полезных операций, но все необходимое для миграции можно сделать из графического интерфейса, написанного на HTML 5. Так что после развертывания вы скорее всего будете управлять работой Xtract с помощью этого интерфейса в браузере, введя в него IP-адрес VM с установленным в нем Xtract for VMs. 
После логона в Xtract, вам потребуется добавить исходную и целевую систему для миграции. Исходная система под VMware vSphere подключается указанием адреса ее vCenter и соответствующих логинов-паролей. Система под AHV, аналогично, требует указания на адрес кластера AHV или адрес Prism Central.

После заведения системы-источника и системы, на которую будет произведена миграция, можно создать план миграции. С помощью него мы установим, какие именно VM будут мигрировать из vSphere. На примере ниже мы выбрали группу VM, обеспечивающих работу некоего сервиса, это две VM с фронтендом, сервер приложения и сервер базы данных. Перенесем всю эту группу из vSphere в AHV.

Перед началом миграции выполняются проверки, что на целевой системе есть достаточно ресурсов (например, памяти , дискового пространства и vCPU) для размещения переносимых в заданном плане виртуальных машин. Xtract группирует пригодные и непригодные для миграции машины, и снабжает их комментариями, позволяющими разобраться почему, например, данная VM не может быть перенесена. Это может быть, например, необходимость установки в VM средств Vmware Tools, или несоответствие версии virtual hardware, либо еще какие-то проблемы. Со стороны OS VM, все OS, поддерживаемые в AHV, также поддерживаются и в Xtract for VMs. Полный список всех поддерживаемых OS можно найти на портале.
Xtract использует возможности VMware vStorage API for Data Protection (VADP) для управления процесса репликации данных, поэтому на стороне VM или хоста ESXi нам не нужно устанавливать никаких агентов. Опционально можно разрешить Xtract подключаться в VM для установки в нее драйверов (VirtIO), обеспечивающих работу VM OS в среде AHV, однако это можно сделать и заранее вручную. Если вы хотете сделать это как часть процесса миграции, укажите соответствующие логины и пароли для мигрируемых VM, для всех вместе или для каждой индивидуально. Также настраивается и маппирование сети между ресурсами исходной и целевой сетей. Наконец, вы можете создать расписание миграции, запланировав ее на определенное время.

После настройки всего перечисленного выше, можно начинать миграцию. Как упоминалось выше, мы используем механизмы VADP для переноса содержимого виртуальных дисков VM на кластер AHV. Система создает снэпшот ESXi для каждой VM, а затем перенесет его в заданный контейнер AHV. Запущенную миграцию конечно же можно, при необходимости, поставить на паузу или прервать в любой момент. 

Файлы виртуальных дисков мигрируемых VM запоминаются во временной директории, и поддерживаются актуальными даже в случае изменения исходных данных, с помощью механизма change block tracking (CBT) API и дополнительных снэпшотов.
Когда наступает пора провести cutover, и закончить процесс миграции, Xtract выключает исходные машины, выполняя для них power-off, и отключает их виртуальные NIC. Инкрементально накопившиеся данные синхронизируются с перенесенными на AHV данными VM. Когда данные полностью реплицированы, файлы vmdk конвертируются силами AHV image service в нативный формат RAW, используемый в AHV. Конверсия происходит быстро, так как vmdk и RAW, по сути, идентичные форматы, так что обычно это занимает секунды. Xtract также указывает оценочное время выполнения, так что легко можно определить необходимые на операцию затраты времени и период даунтайма.

Виртуальные машины, согласно вашему плану миграции, могут делать cutover все вместе или индивидуально. Для такой группы связанных VM как на нашем примере, cutover можно начать с базы данных, затем провести его для сервера приложений, а затем для фронтэнда. После завершения миграции, VM включаются и все временные vmdk и конвертированные образы в AHV image service удаляются. Исходные VM остаются в состоянии выключенных, и сохраняются неизменными, на случай, если они вам понадобятся. К каждой мигрированной VM добавляется комментарий, где указывается, что данная VM является мигрированной, указывается дата и время миграции и версия Xtract, которая эту операцию проводила.

Мигрированные VM снабжены ссылкой на их управление в Prism целевой системы, так что прямо из интерфейса Xtract можно перейти в управление VM и проверить, что все работает правильно. Xtract отслеживает то, какие VM вы уже мигрировали, а какие еще остались на исходной системе. Вы можете, не боясь запутаться, создавать дополнительные планы миграции для оставшихся VM и переносит их в нужном порядке.

Вот и все. Процесс миграции с vSphere на AHV еще никогда не был для пользователя настолько простым.

Comtrade HYCU v1.5

Я уже упоминал в блоге о новом продукте для бэкапа Nutanix, сделанного небольшой (на самом деле не такой уж «небольшой», около 1000 инженеров в компании, и около 200 — на направлении бэкапа) восточноевропейской компаней Comtrade — HYCU, а вот уже подоспело обновление до версии 1.5. Те, кто ни за что не поставят первую версию продукта (где-то вы даже правы, обычно), можете начинать смотреть.

К преимуществам HYCU следует отнести не только изначальную заточенность на Nutanix, но и сравнительно невысокую цену лицензии на решение, например, ниже чем у Veeam B&R.

Вот список новинок из Release Notes:

  • Появилось возможность в явном виде задать «окно бэкапа», в которое должны будут уложиться все backup jobs системы.
  • Можно задать число параллельно выполняемых backup jobs для данного таргета.
  • При создании бэкапа VM можно сохранять сделанные в ней снэпшоты, чтобы иметь возможность быстрого восстановления состояния VM
  • Появилась возможность использовать для бэкапа iSCSI Target. В первой версии можно было бэкапиться только на NAS или в «облако» (AWS S3, Azure).
  • Теперь можно использовать iSCSI Target на какой-то внешней блочной СХД с iSCSI, например.
  • Улучшены механизмы резервного копирования и восстановления, за счет использования некоторых возможностей Nutanix, которые не использовались ранее. Это позволило поднять производительность как резервного копирования, так и восстановления.
  • Файлы из бэкапа могут быть восстановлены на shared location, с совместным доступом к location с нескольких клиентов.
  • Постепенно расширяются возможности app-specific backup. К бэкапу SQL Server добавились методы резервного копирования Active Directory в контроллере AD в VM. Список поддерживаемых приложений и методов бэкапов для них будет, конечно, расширяться.
  • Можно вручную задавать для какого-то бэкапа состояние expired, тогда этот бэкап будет удален с таргета и занимаемое им место высвобождается.
  • Появились более гибкие email notifications на разные события.

Поддерживается версия Nutanix OS от 5.1 и новее.
Поддерживаются Windows OS 7, 8, 10, Server 2008R2, 2012, 2016.
Для app-specific и file level restore поддерживаются файловые системы внутри VM: FAT, FAT32, NTFS.
Поддерживаются версии MS SQL Server: 2008R2, 2012, 2014, 2016.
Поддерживаемые версии AD: 2008R2, 2012, 2016
В качестве backup target может использоваться: SMB (1.0, 2.0, 3.0), NFS (3.0, 4.0), AWS S3 (и совместимые), MS Azure, iSCSI Target.

Как и ранее, триал можно взять на сайте Comtrade, причем для развертывания на CE можно попросить бесплатную лицензию.

Что нас ждет до конца этого года? Технические новинки.

От сложных финансовых лабиринтов — снова к технике.
Вот, о чем уже можно говорить из новинок, что появится в Nutanix до конца этого года. У нас ожидается два релиза, один — в самом ближайшем будущем, скажем, в течение месяца-полутора, и один — декабрь-январь.
Сначала — о ближнем релизе. В нем появятся:

* Первый выпуск нашей платформы оркестрации Nutanix CALM. Это софтверный продукт, который позволяет разворачивать и настраивать приложения из «магазина приложений», нашего репозитория, на «облако» Nutanix, а также, в ближайшем будущем, и на облака публичных облачных провайдеров также просто, как вы устанавливаете приложения на айфон. Первый этап выпуска Nutanix CALM — в ближайшем релизе.

* Near-Sync Replication. Довольно долго у нас был не всех устраивающий лимит на цикл асинхронной репликации данных между кластерами Nutanix в один час. Это было связано с тем, что механизм снэпшотов, используемый у нас, накладывал слишком большие накладные расходы на слишком частые «снимки», используемые в механизме репликации. В ближайшем релизе мы представляем долгожданные lightweight snapshots, механизм, дополняющий наш обычный механизм снэпшотов, с помощью которых мы можем делать 15-минутный цикл репликации, а, в отдельных случаях и для отдельных приложений, и вплоть до 1 минуты RPO.

* Поддерживается Hyper-V 2016. Что тут еще добавить. Начиная со следующего релиза не только полностью поддерживается Windows Server 2016 в гостевой VM, но и Hyper-V 2016 в качестве хостовой виртуализации.

* Появится поддержка vGPU и vNUMA. Сейчас у нас пока в AHV поддерживается только физический проброс GPU, полноценный vGPU в самом ближайшем будущем, как и vNUMA.

* Turbo Mode о котором я уже писал чуть раньше, выходит в релиз. Это механизм, упрощающий и распараллеливающий путь данных от VM к физическим дискам, что насущно важно для быстрых «твердотельных» дисков, в частности, для NVMe.

* Шифрование данных на дисках появится не только в форме поддержки SED — Self-encrypted Disks, но и чисто программным образом, на обычных дисках. Можно будет создавать зашифрованные контейнеры, для тех данных, которые в этом нуждаются. Для России это будет, вероятно, также недоступно по причине действующего законодательства, как и в случае SED.

* Наконец-то доползла до релиза долгожданная наша микросегментация сети! Ее первый выход в свет в форме, как у нас принято, Technical Preview, будет в ближашем релизе. Я уже немного упоминал про то, что это, но чуть более развернуто: это «наш ответ NSX», скажем так. Возможность создавать в виртуальной среде специальные сегменты-зоны сетевой доступности, и назначать их политиками на определенные VM. Это будет гораздо проще и легче, чем сегментирование с помощью, например VLAN.
Для VM, которые могут мигрировать не только между хостами кластера, но и между кластерами, в том числе, в будущем, между локальным и удаленным облаком, критически важно сохранять структуру сетевой подсистемы и носить ее «с собой», а, при необходимости, быстро ее реконфигурировать, без необходимости делать это через, допустим, перепрограммирование VLAN-ов на внешних коммутаторах. С помощью нашей Microsegmentation вы сможете создавать сетевые сегменты внутри виртуальной среды, ограничивать области «видимости» для групп VM, назначать в них нужные вам VM с помощью политик, причем эта сегментация через политики будет следовать за VM в том числе в случае ее миграции по хостам. Сейчас такое обычно требует чего-то вроде VMware NSX, дорогого и, часто, избыточного. Microsegmentation тоже будет небесплатным, но включенным в AHV, как, например, мы сделали с AFS (Ultimate и standalone-лицензия для более низких уровней лицензий). В любом случае, уже понятно, это будет существенно дешевле NSX. Так что если вы использовали NSX на vSphere только ради сегментации виртуальной сетевой инфраструктуры — это еще один повод посмотреть AHV.
Tech Preview — в ближайшем релизе. Production Release — как обычно, в следующем за ним.

* Ну и много всякой мелочи, о которой «через запятую». Продолжаем улучшать ИИ в Prism Central, появится диагностика аномального поведения VM и хостов и анализ его причин, аналитика предсказательного сервиса в Prism Central будет учитывать поведение VM в их исторической перспективе. Self-service будет работать в том числе и на многокластерной конфигурации.

Затем, мы ожидаем в декабре-январе (в зависимости от того, как лягут звезды) следующий релиз, и в нем:

* Как я уже писал выше — в следующем за techpreview релизе приходит production release для microsegmentation и security groups.

* Step 2 выкатки функциональности для CALM. Новые возможности CALM будут выходить постепенно, в несколько ступеней. Первые две — в этом году.

* Prism Central будет уметь Scale-out. Сейчас это одна VM, что непорядок. Сам Prism-то у нас полноценный Scale-out на скейлаут инфраструктуре. Вот теперь и до Prism Central дело дошло, он тоже будет масштабируемый, что насущно важно для по-настоящему больших распределенных инфраструктур.

* В AFS, нашем scaled-out файловом сервисе, появится NFSv4. Отметьте, что пока не v3 и не SMB3, все это в ближайшем будущем, по-порядку.

* Появится вариант, разрабатывавшийся в течение этого года, и предназначенный для ROBO-сегмента — 2-node cluster. Технические детали по нему — в свое время.

* Появится поддержка для узлов высокой емкости, вплоть до 80TB raw на ноду.

Ну а дальше — год 2018. На него у нас есть свои большие планы, о чем — в свое время.

Почему вам не нужно ставить в компании OpenStack: практический опыт

У меня тут есть, судя по логам, суперпопулярная статья со ссылкой на пост на Хабре: История двухлетнего опыта использования ceph в веб-хостере и полученный опыт.
Продолжим же инициативу, раз она пользуется успехом у моих читателей.
Пару дней назад там же на Хабре была опубликована статья под заголовком:
Итак, вы решили развернуть OpenStack.
В ней автор рассказывает о собственных злоключениях в течение двух лет, в попытке заставить стабильно работать кластер OpenStack.

Немного цитат:
«В общем, в 2012-м мы развернули OpenStack, на тот момент это был Essex, запустили проект, прожили с такой облачной инфраструктурой до 2014-го года, кажется до релиза Grizzly включительно. Сил и желания поддерживать его дальше не было, и OpenStack был с позором выпилен.

Когда-то давно я даже думал написать статью как правильно его ставить, с комментариями на что обратить внимание. Но знаете, я передумал. Не ставьте его лучше вообще. Просто не связывайтесь.»

Так часто у меня спрашивают про OpenStack, что, как мне кажется, тема требует своего освещения. Как вы, возможно, знаете, уже примерно год у нас есть инструмент, позволяющий встроить и использовать Nutanix как компонент типа hypervisor в среду OpenStack. Но это интересно только пользователям, у которых уже есть развернутся работающая инфраструктура OpenStack, например они уже инвестировали в это продукт, и они не хотят немедленно отказаться от него, но им нравится Nutanix. Для этого варианта мы сделали специальную VM интеграции, которая транслирует вызовы API OpenStack, в наш RESTful API Nutanix. Но, соглашусь с автором, наиболее разумным будет отказ от OpenStack, в стратегической перспективе, а использование нашего интерфейса интеграции может помочь провести переход наиболее безболезненно.

Основные недостатки, по мнению автора: сложность и тяжеловесность.

Когда-то давно, когда мы ставили Essex, там было все относительно просто и понятно. Keystone (служба авторизации), Glance (служба хранилища образов) и Nova (служба управления гипервизорами). Кроме того там еще был Horizon (дашборд) и куча мелких и не очень зависимостей. Каждый узел системы обрастает чуть ли не десятками вспомогательных демонов. На controller node через некоторое время становится страшно смотреть.

Архитектура OpenStack достаточно сильно фрагментирована. Есть очень большое количество «движущихся частей», взаимосвязь который между собой не всегда абсолютно ясна. У вас что-то сломалось? Окей, попробуй понять где это что-то сломалось и почему. OpenStack Foundation похоже гордится, что в OpenStack более 20 миллионов строк кода, даже на главную своего сайта вынесли. Так вот, ЭТО НИФИГА НЕ ДОСТОИНСТВО.
Код в большинстве своем написан на Python. Спасибо, OpenStack, благодаря тебе я возненавидел Python и все что с ним связано.

Дело в том, что являясь OSS, OpenStack пытается быть kind of unix-way. Т.е. под капотом все эти монструозные службы на самом деле дергают десятки и сотни unix-утилит по собственной логике, которую вам придется изучить и возможно даже дебажить.

Нестабильность:

ну вот вы наконец-то запилили инфраструктуру своей мечты, все худо-бедно работает как рассчитывали, но не хватает одной мааааленькой детали. А в новом релизе она есть. Ну по крайней мере по Release Notes.
Окей гугл, давай обновим наш OpenStack. И тут выясняется, что функционал, который вы с радостью использовали — выпилили. Ну потому что. Ну некрасивый он был и вообще, мы лучше сделаем, честно-честно. В следующем релизе. Может быть. А пока вот вам попроще, но ведь работает же! Ну и плевать что не в вашем случае, но работает!

И вообще сырость, в лучших традициях OSS:

А еще очень дивное чувство испытываешь, когда тебе нужен функционал, ну, скажем, деление на зоны. Ну вот есть у тебя машины с большими винтами, есть с SSD, есть с видюхами, хочу разбить кластер на зоны, чтобы виртуалка падала на ту машину, у которой необходимый ресурс есть. Ну ок, читаем доку, вроде бы availability zones подходит. Настраиваем, включаем. И ничего. В доке написано что все должно, а на практике ничего. Лезем в код, а там.
Будет реализовано. В следующем релизе. Может быть. Ну ты понял. Смотри предыдущий пункт.

Автор там, правда, делает вывод в конце:

В общем после полутора лет борьбы с OpenStack мы от него отказались и перешли на другое облако. Управление инфраструктурой стало простым и приятным, а обновлять версий также просто как apt dist-upgrade.
Что это за облако и почему оно удобнее OpenStack я постараюсь рассказать в следующей статье. (Спойлер: это OpenNebula).

Но мы то с вами, посетителями этого блога, знаем еще более правильный вариант. ;)

Nutanix для 1-Tier и Business Critical — опыт компании ЦФТ

Недавно мы завершили испытания системы Nutanix в компании ЦФТ — Центр Финансовых Технологий. Под таким незамысловатым названием скрывается компания-разработчик банковских информационных систем, работающая не только в России, но и за рубежом, с численностью более 2000 человек. ЦФТ входит в TOP-5 крупнейших разработчиков ПО, действующих на российском рынке.
Свыше 500 банков РФ и СНГ используют программные продукты и сервисы ЦФТ: Сберегательный банк РФ, Газпромбанк, «Возрождение», банк «РОССИЯ», «Банк Санкт-Петербург», «Еврофинанс Моснарбанк», «Росгосстрах Банк», Банк «УралСиб», банк «Петрокоммерц», Национальный банк «ТРАСТ», «МДМ Банк», Банк «Финансовая Корпорация Открытие», «Связной Банк», «Восточный Экспресс Банк», «Национальный резервный банк», Банк «Финансово-промышленный капитал», «БКС Банк», Банк «РЕСО Кредит», «Нордеа Банк» и многие другие в странах СНГ.

Сотрудники этой компании несколько месяцев назад тщательно и придирчиво тестировали Nutanix под самую Critical Tier-1 нагрузку разрабатываемых ими программных банковских систем. По результатам тестирования был выпущен отчет, который я и предлагаю ниже вашему вниманию: (PDF)

Nutanix for Critical Tier-1 workload - CFT report

Есть интересные цифры, причем это не «синтетика», а настоящие реальные данные финансовой информационной банковской системы, полученные на живом железе.

Кстати, для внимательных: кто найдет что-то необычное и интересное в тестируемой конфигурации? Там есть кое-что о чем мы публично еще не рассказывали, но вот-вот объявим. :)

Опубликованы результаты Q3FY2017

Опубликованы результаты Nutanix для Q3FY2017, то есть третьего квартала финансового года 2017 (у нас, как это принято в Америке, финансовый год начинается в сентябре).

Скучные подробности про GAAP ищите на соответствующих сайтах, а пока — традиционная уже картинка: