Архив рубрики: запоговорить

Что такое Гиперконвергентные (HCI) Инфраструктуры?

Текст, идущий ниже, был написан как своеобразное интервью, взятое у меня для блога KorP. Текста получилось много, почти статья, он показался мне интересным и сам по себе, а не только как ответы на вопросы, большая часть которых моим читателям уже известны. Поэтому я уговорился с автором интервью, что я также опубликую его у себя.

Изначальная идея была в том, что вопросы для интервью будут открыто предложены для всех работающих в России игроков, и каждый из конкурентов сможет ответить на них так, как эти ответы видит тот или иной вендор. При этом я, со своей стороны, написал свою часть еще в ноябре. К сожалению, «за неявкой соперников победа присуждается…», никто из конкурентов за три месяца так и не осмелился выступить в открытой дискуссии, поэтому ждать больше смысла нет. Вот наш текст, написанный, впрочем, еще до версии 5.5.
Удобно будет давать на него ссылку, если понадобится быстро ввести в курс дела человека, с HCI только начинающего знакомство с темой.

1. Что такое гиперконвергентные (HCI) инфраструктуры?

«Гиперконвергентными» называют инфраструктуры, в которых объединение серверов, SAN и СХД сделано на архитектурном уровне, объединяя их в единое неразрывное целое, в единую сущность «хранения-и-обработки информации», «кирпичик LEGO» современного датацентра. Модуль обработки и хранения информации.

2. Чем они отличаются от конвергентных и от классических инфраструктур?

Собственно, само название «гипер-» потребовалось, чтобы отличаться от появившихся на несколько лет ранее так называемых «конвергентных» систем (VCE vBlock, Cisco-NetApp FlexPod), которые, на наш взгляд, вообще никакой конвергенции не имели, а были просто способом продать клиенту предынсталлированную инфраструктуру из серверов, SAN и СХД и по одному Purchase Order-у, в одном шкафу, ничего не меняя в архитектуре системы по сути. Это по-прежнему оставались СХД и серверы, без какой-либо конвергенции между ними (если не считать таковой процесс продажи).
«Гипер» (а, по сути, и просто «конвергентность», как диктует сам термин) это именно слияние и образование единой сущности, чем и являются современные HCI.

3. В чем преимущества HCI инфраструктур?

Основные преимущества HCI это плавность и практическая неограниченность масштабирования, возможность строить интегрированную инфраструктуру под разные задачи, объединяя их в рамках единого «квази-облачного» инфраструктурного решения, без необходимости выделять «ресурсные острова» и дробить единое решение, при этом обеспечивая крайне высокую производительность решения.
Это существенная экономия на эксплуатационных расходах (TCO). Так, например, компания IDC в своем отчете, сделанном по результатам опроса десятков клиентов Nutanix в enterprise, утверждает, что срок окупаемости для Nutanix HCI составляет около полугода, а ROI на пятилетнем интервале составляет более 500%.
Наконец, это быстрота развертывания (и масштабирования в дальнейшем) решения, сокращающая Time-to-Market для продуктов компании. Тот самый «agile», о котором сегодня в России широко заговорили примерно полтора года назад.

4. Каковы недостатки HCI инфраструктур?

Наши клиенты обычно называют в качестве основных причин, по которым они пока не могут или не хотят перейти на HCI, настороженность в отношении вендор-лока (HCI обычно являются продуктом одной компании, так, в нашем случае, Nutanix поставляет и аппаратную платформу, и software-defined продукт на ней работающий, и, в случае использования AHV, гипервизор). Есть определенная настороженность к новому продукту, который, по сути, появился на рынке России всего лишь три года назад (для России это совсем недавно), и относительно невелик пока опыт его использования в российских компаниях (с этим сталкивается последовательно, каждый новый вендор, приходящий на российский рынок). Я также вижу определенную настороженность к самой по себе идее фиксированного объема хранения на каждом узле кластера HCI, так как в «классической» инфраструктуре нам много десятилетий возможность независимого расширения емкости хранения на SAN СХД от серверов обработки, а также идея «консолидации данных» на выделенном дисковом массиве, называлась одним из главных преимуществ современной IT-инфраструктуры.

5. Как они могут дополнять друг друга?

Сегодня мы, в Nutanix, всегда рассматриваем возможности сосуществования с «классической» инфраструктурой. Как хороший пример могу привести вариант использования HCI с системой SAP HANA. В настоящий момент сервер HANA поддерживается SAP только на физическом «железе», без виртуализации. Однако кроме сервера самой HANA, значительную часть решения обычно составляют многочисленные серверы приложений, использующих in-memory HANA DB, а также среда разработки, QA и так далее. И в нашем случае компании часто устанавливают под сервер HANA DB физический сервер, что полностью поддерживается SAP, а затем развертывают множество клиентов, серверов приложений, на HCI-узлах, и это тоже поддерживаемый вариант.

6. Каковы основные варианты использования?

Часто пользователи вынуждены продолжать эксплуатировать старое legacy оборудование и ПО, которое они не могут немедленно заменить на современное, по разным причинам. Проблемы лицензирования, совместимости с каким-то сторонним оборудованием, или просто нехватка ресурсов на миграцию и значительные инвестиции, сделанные компанией в прошлом, могут препятствовать немедленному переходу. Сейчас, например, в случае Nutanix, можно использовать кластер Nutanix, по крайней мере какую-то его часть, как своеобразную SDS СХД, подключая его как блочное хранилище к внешним серверам, и, таким образом, сосуществуя с ними и продляя их жизнь, защищая сделанные инвестиции.
Мы также предоставляем возможности использовать Nutanix как высокопроизводительное файловое хранилище (NAS) для внешних клиентов. Это могут быть как VDI-клиенты, так и, например, специализированные медицинские системы хранения цифровых рентгеновских снимков, с поддержкой отраслевого стандарта DICOM.
Так что возможности сосуществования с уже имеющейся инфраструктурой у HCI Nutanix довольно широки, и это, часто, открывает двери для новых технологий в «традиционных» IT-инфраструктурах.

7. Могут ли они интегрироваться или сосуществовать с имеющими инфраструктурами заказчиков?

Безусловно да. Мы трезво понимаем, что, как бы мы ни видели потенциальное превосходство HCI над «классикой», впереди у нас многие годы сосуществования с ней в датацентрах enterprise-компаний. Большие инвестиции, сделанные в SAN, в СХД, в большинстве компаниий расточительно, да и просто невозможно одномоментно «выбросить». Разумеется, остаются и области, ниши, в которых «классическая» инфраструктура хорошо себя чувствует, и будет чувствовать многие годы. Как телевизор не убил книги, так и, допустим, жесткие диски не уничтожили магнитные ленты, но вытеснили их в ниши, где они (для лент, например, это архивное «отчуждаемое» offline-хранилище) существуют и будут существовать очень долго. Но, как мне кажется, сейчас все большему числу IT-специалистов видно, что мы стоим на пороге больших перемен в инфраструктуре. И как когда-то жесткие диски вытеснили магнитные ленты во времена мэйнфреймов, как в 90-е годы дисковые массивы SAN постепенно заполнили датацентры, вытеснив DAS, как в 2000-е появившаяся серверная виртуализация пробила себе путь в подавляющее число корпоративных датацентров, так и HCI сегодня, потенциально, является следующим эволюционным шагом для инфраструктуры датацентров.

8. Какие преимущества получит заказчик при переходе от традиционной к HCI инфраструктуре?

Это, на мой взгляд, большая гибкость, упрощение (и как следствие – снижение стоимости и числа ошибок) администрирования, повышение надежности, увеличение производительности, экономия на эксплуатационных расходах, большая динамичность IT, позволяющая быстрее откликаться на требования бизнеса, повышая его конкурентоспособность.
Не стоит забывать, что все, что мы делаем в IT-инфраструктуре, в конечном счете должно повышать отдачу и конкурентоспособность бизнеса, ей обслуживаемого, и одна из стратегических задач HCI состоит как раз в этом.

9. Что вызвало рост HCI?

Безусловно, определяющим толчком для HCI послужило широкое принятие рынком технологии виртуализации, так как без гипервизора не работает ни одна из HCI-систем, представленных на рынке. Сегодня подавляющее большинство приложений или уже работает, или может работать в среде гипервизора, тем самым открыт путь к широкому использованию HCI. Кроме того, важным этапом был возникший, за последние три-пять лет, существенный интерес к Software-defined продуктам, не только Storage (SDS), но и всем другим компонентам, которые могут быть реализованы дешевле и с существенно более быстрым циклом разработки, в виде программного кода на CPU общего применения. Сегодня, как показывает практика, производительность массовых CPU архитектуры x86 общего применения, достаточна для подавляющего большинства задач, которые раньше реализовывались дорогими в производстве и разработке специализированными hardware-системами.
Кроме этого, постоянный рост производительности ввода-вывода, обусловленной приходом твердотельной памяти, начал диктовать необходимость размещать хранилище максимально близко к CPU обработки данных, в идеале – локально на шине CPU и RAM.
Ответом на эти потребности, вызванные развитием технологий, и стали HCI, системы, где данные хранятся локально, там, где они обрабатываются, которые реализованы полностью программно, на процессорах общего применения и commodity-серверах, работающих под управлением baremetal-гипервизора. Первоначально разработанные как часть проперитарных решений построения инфраструктуры в компаниях интернет-гигантах, таких как, например, Google и Facebook, они «коммодитизровались» и вышли на массовый рынок в виде доступного «коробочного» продукта.

10. Какие проблемы несет устаревшая инфраструктура?

Основные проблемы, присущие «классическому» методу построения инфраструктуры, это негибкость, проблемы с масштабируемостью, высокая стоимость владения, сложность и дороговизна поддержки многокомпонентных мультивендорных решений, сложность и, как следствие, высокая цена администрирования.

11. Какие проблемы пытаются решить клиенты?

Для Nutanix типичные области использования это разнообразные enterprise-приложения, такие как базы данных, включая тяжелые и требовательные к объемам RAM. Это инфраструктуры VDI, для которых характерны задачи быстрого масштабирования в случае добавления новых рабочих мест и низкая latency дисковых операций. Это разнообразные инфраструктуры частных и гибридных «облаков». Существенной и растущей долей является направление Big Data Analysis, интерес к которой сейчас растет во всем мире. Важной частью также являются «распределенные» инфраструктуры, ROBO, филиальные сети, DR-центры, и так далее.
Отчасти проблемы, решаемые клиентами это сокращение эксплуатационных затрат и увеличение гибкости уже существующих систем, мигрируемых с «классики» на Nutanix, отчасти это совершенно новые области, такие как, например, Big Data исследования или построение Private Cloud в компании.

12. С каким проблемами чаще всегда сталкиваются заказчики при внедрении и использовании HCI решений?

На мой взгляд, основной проблемой при переходе на HCI, является инертность мышления. «Когда в руке молоток – все вокруг выглядит как гвозди». Существует годами выработанная методика решения IT-задач. И одномоментно вдруг увидеть, что кругом не только гвозди, которые можно только забивать, но и множество других способов обращаться с предметами и решать задачи, часто бывает довольно тяжело воспринимаемой, особенно для IT-шников старшего поколения, привыкших жить в парадигме «сервер-SAN-СХД», рожденной еще в 90-е. Когда «бэкап – это непременно ленточная библиотека», «Fibre Channel – высочайшее достижение инженерной мысли и единственно пригодное для наших задач», «нужно запустить приложение – ставим под нее выделенный сервер». Сегодня в мире довольно быстро развивается совершенно новая IT-парадигма дискретизации и распределенных приложений, микросервисов, контейнеризации, web-scale. К сожалению, мимо крупного энтерпрайза (в особенности, и прежде всего в России) этот тренд все еще проходит мимо, он все еще мыслит, например, категорией «одно приложение – один сервер». И HCI в таком случае применить и использовать довольно сложно, он не позволит проявить HCI свои лучшие и наиболее сильные преимущества.

13. Является ли снижение совокупной стоимости владения ключевым фактором перехода к HCI?

Глобально, в мире, безусловно – да. В России, к сожалению, стоимость владения все еще не является, обычно, решающим фактором при выборе решения и расчете его стоимости. Отчасти это связано с отсутствием общепринятой методики расчета TCO в России (а общемировые, часто, плохо подходят для российских условий), отчасти просто от общей недооценки стоимости владения в общей стоимости решения. По моим наблюдениям, вопросы «а сколько это стоит» в российском IT (а широко — и в бизнесе вообще) это какое-то «небарское дело» («…копейки все эти считать, прикажем — заплатят!»), признаком успешного бизнеса у нас являются масштабы трат, шикарность офисов и автомобилей «топов» а не эффекивность использования бюджетов. Совместить такой менталитет с пониманием, что деньги могут быть потрачены с бОльшей или мЕньшей отдачей, достаточно непросто.

14. Развитие каких технологий может увеличить спрос на HCI системы?

На мой взгляд, широкое распространение быстрой персистентной (то есть не теряющей данные при выключении питания, например, как магнитные диски) памяти, такой как NVMe flash и 3DXpoint насущно требует сокращения пути доступа к хранимым данным. Большие величины latency, характерные для внешней памяти, с доступом через SAN, уничтожают значительную часть преимуществ по скорости и производительности таких типов памяти и не дают ей показать все, на что она физически способна. Подобная память должна располагаться максимально близко к процессорной части системы, в идеале прямо на шине взаимодействия процессора с памятью. И здесь гиперконвергенция, сливающая хранение и обработку воедино, и размещающая ее локально для CPU, имеет огромный потенциал для роста производительности систем и использования всего скоростного потенциала новых типов быстрого хранилища.

15. Кто является основными игроками на этом рынке? На кого вы смотрите и ориентируетесь из конкурентов?

Пожалуй, наиболее активным и значимым нашим конкурентом среди гиперковергентных систем являются DellEMC VxRAIL (и VMware VSAN). Вероятно, после окончания процесса интеграции в продуктовую линейку HPE и решения ряда проблем с развитием архитектуры, определенный импульс к развитию получит и SimpliVity. В целом на рынке сейчас существует масса гиперконвергентных решений, однако общая беда почти всех – в отсутствии хорошего vision, того, куда эта область будет развиваться в ближайшие 3-5 лет. Позиция Nutanix, которая с одной стороны – превопроходец, а с другой – пробивающая общую инертность рынка собой, имеет и свою силу, и свою слабость. Сила, безусловно, в задании тренда, в соответствии с которым будут вынуждены идти и повторять вслед за лидером компании, идущие за ним следом. Слабость, возможно, в том, что повторить успех обычно стоит гораздо дешевле с точки зрения затрат на R&D. Пока Nutanix вышеперечисленное удается.
Но, говоря о конкурентах Nutanix важно понимать, что главный конкурент Nutanix не VSAN, не SimpliVity и не традиционные инфраструктуры. Важно понимать, что для всего перечисленного главный конкурент – AWS и Azure, «публичные облака». И пока «инфраструктурщики» спорят о том, кто является «лидером рынка», бизнес тем временем все дальше и быстрее уходит к облачным провайдерам (например, только за 2017 год, и только AWS достиг в выручке 20 миллиардов $, и растет на 40% в год. И это только один AWS, без учета не менее успешных MS Azure, Google Cloud Platform, RackSpace, Softlayer) На мой взгляд, именно они сегодня – главный конкурент и для HCI, и для «классики» вместе взятых.

16. На ваш взгляд — чем выделяется ваше решение среди конкурентов?

Основные преимущества Nutanix перед конкурентами это принципиальная hypervisor-agnostic модель решения, не навязывающая выбор сопутствующего гипервизора. Это широкая поддержка сторонних платформ и OEM-партнеров, обусловленная использованием чистого software-defined в решении, которое легко перенести и установить на стороннее commodity hardware. Это широта и полнота вИдения пути дальнейшего развития продукта и отрасли и функциональное богатство решения, его готовность к «Tier1 workload». Его зрелость, широкое принятие рынком, большой накопленный опыт реализации проектов пользователей самого разного масштаба.

17. Чем обусловлен выбор гипервизора, с которым работает ваша система?

Около 65% наших клиентов используют в качестве гипервизора разные версии VMware vSphere. Однако кроме поддержки сторонних гипервизоров, которая будет продолжаться и развиваться, у нас есть и свой собственный – Acropolis Hypervisor, AHV, разработанный на базе открытого исходного кода Linux KVM. Наша цель в разработке этого гипервизора была, во-первых, достичь большей независимости и свободы от одного поставщика гипервизора (к тому же напрямую конкурирующего с нами с продуктом VSAN/VxRAIL), использовать открытый код, со всеми присущими этому шагу плюсами, и, наконец, получить гипервизор, в котором мы можем реализовывать передовые технологические возможности платформы, независимо от стороннего поставщика гипервизора, своими силами.

18. Какие перспективы вашей системы в ближайшем будущем?

В недавнем обновлении мы выпустили инструмент, который будет доступен для всех наших пользователей – наш облачный оркестратор Nutanix Calm, который позволит строить на базе кластеров Nutanix гибко и просто разворачиваемую пользователем облачную платформу, с использованием технологий Docker и Kubernetes, а также нашего собственного «магазина приложений». Мы намерены развивать начавшееся в этом году технологическое сотрудничество с Google Cloud Platform по построению гибридных облачных решений, и более активно предлагать рынку Nutanix в форме программного продукта для сторонних аппаратных серверных платформ, таких как HP ProLiant и Cisco UCS. Мы также расширяем круг наших OEM-партнеров, уже сейчас добавив к ним такого мощного в Европе и Германии игрока как Fujitsu, а также планируем продолжать сотрудничество с IBM по продвижению гиперконвергентности на платформе IBM Power8.

19. Почему некоторые заказчики, задачи которых отлично укладываются в HCI остаются приверженцами традиционной архитектуры? Боязнь, что HCI это временный «хайп»? Сталкивались вы с такими заказчиками и удавалось ли их переубедить?

Когда-то у IBM была серия рекламы со слоганом «еще никого не уволили за покупку IBM», и это был слоган, бьющий в самое сердце любого CIO. Никто не ищет возможности «поменять», если можно не менять. Никто не хочет быть уволенным за эксперименты над инфраструктурой, это объяснимо и понятно.
Если у вас не «болит», то никто и никогда не будет что-то менять, что уже работает. Что позволяет спокойно спать ночами, ходить в отпуск, не держа рядом с кроватью включенный телефон, и вовремя получать годовые бонусы.
Но вот когда настает момент, когда «надо менять», а текущая инфраструктура достигла своего предела. Когда бизнес требует срочного снижения Time-to-Market, а у вас три месяца занимает только запуск новой инфраструктурной единицы в датацентре, считая от подачи заявки подразделением. Если ваш KPI как CIO владельцы бизнеса напрямую связали с резким снижением TCO IT-инфраструктуры, а бюджеты IT-отдела урезаются год от года, вот тогда вы, поневоле, будете искать что-то новое, что поможет вам эти задачи выполнить.
Наконец, на мой взгляд, общая консервативность IT в Российском энтерпрайзе, связана с тем, что мы, к сожалению, в значительной мере оторваны от мирового IT-мэйнстрима. Например, из-за плохого владения английским языком, значительная часть российских айтишников вынуждена узнавать о новостях и трендах в IT «в переводе», с существенной задержкой на то, когда соответствующая технология будет «переведена» и привезена на локальную выставку или конференцию в Россию (и конкретнее – в Москву). А крупные IT-события, на которых можно увидеть какие-то прорывные технологии, когда они появились, а не спустя два года, обычно происходят «там», и чтобы туда поехать нужно время, средства, визы, мотивация, и так далее.
Все это делает российское IT более консервативным, чем оно могло бы быть. Но есть и хорошая новость. Самые передовые и создающиеся «здесь и сейчас» бизнесы, не обремененные наследием legacy, пусть это и не масштаб «Silicon Valley», часто хотят стартовать «с отрывом» и вынуждены «рисковать» и выбирать самое передовое. Зачастую, это также отличный «внутренний драйвер» и мотивация для проекта в компании.

20. Расскажите о наиболее интересном, с технической точки зрения проекте по строительству гиперконвергентной инфраструктуры, которую вы выполняли для ваших заказчиков.

Сложно рассказывать о проектах, которые не были официально объявлены публичными. И у нас в России, и, в целом, в мире, не любой интересный проект является таким, о котором можно рассказать. Это так у любого вендора. Я стараюсь вылавливать и рассказывать о том, о чем рассказывать можно, в блоге. Лично для меня одними из самых впечатляющих кажутся истории, когда в результате модернизации и переводе «классики» на HCI удается существенно сократить расходы и footprint решения. Так, например, недавнее внедрение в Казахтелекоме, перевело семь стоек оборудования «классики» во всего 10U, причем с существенным ростом производительности и перспективами на рост. В Азербайджане мы, совместно с нашим OEM-партнером Lenovo запустили IT-инфраструктуру в свежепостроенной клинике высочайшего класса Bona Dea Hospital Baku, и в этом случае мы также оставили большую часть заказанных на этапе строительства стоек в больничном датацентре незаполненными (их заказывали под «классику») просто потому, что свыше 70 медицинских IT-сервисов в катастрофоустойчивой инфраструктуре хранения и обработки, в том числе рентгеновская и MRT-томография, защищенное хранение медицинских документов пациентов, и прочие IT-нужды современного медицинского комплкса, с запасом уложились в две стойки оборудования.
Ничего подобного «классические» IT-инфраструктуры, дошедшие сегодня практически до своего предела, не могут предложить даже близко.
Очень интересным мне показалось проведение тестирования (и публикация результатов) компанией Центр Финансовых Технологий, ведущего российского разработчика банковского ПО Tier-1 class, на котором работают сотни банков как в России, так и в некоторых странах СНГ и Восточной Европы. Тестирование показало высочайшую производительность и надежность, открывающие двери HCI в крайне консервативную и требовательную область банковского ПО.
Особенно стоит отметить, что HCI применяется и используется сегодня в широчайшем спектре и диапазоне задач и бюджетов, от «супермега»-международных корпораций (более 60 компаний из списка Forbes Global 100 сегодня — наши клиенты) до, порой, почти SMB-клиентов. и это — еще одно важное преимущество гиперконвергентных инфраструктур.

Почему SSD на СХД «классике» такие медленные?

Вот что пишет, например, HPE в своем официальном гайде по сайзингу HPE 3Par в отношении SSD:

На странице 11 написано:

1100 IOPS с диска 480GB MLC и 4000 IOPS для дисков 1920 и 3840GB ?!! Да, это официальный гайдлайн для сайзинга 2-Tier storage SSD+FC.
При этом знаете, сколько эти «SSD на 4000 IOPS» в листе у HPE стоят?

Ну, ОК, допустим в стритпрайсе эти диски не 26 тысяч долларов, существенно меньше. Может даже на 80% дешевле. ;)

Но как вы думаете, сколько этот же диск дает IOPS, по спекам вендора, то есть, будучи вставленным в обычный тестовый сервер, как локальный диск?

Вот диски, которые мы используем у себя в Nutanix, это популярная «серверная», энтерпрайзная серия Samsung SM863A, с высокими показателями надежности при большом трафике записи. Официальный сайт говорит следующее:

28 тысяч на запись блоками 4K, и 95 тысяч — чтения.

Куда делась разница?
Съелсь в latency.

Длинный путь блока, от приложения в OS, в буфера, в HBA, в буфера коммутатора, в кэш OS СХД, на диски, а, затем, в обратный путь, не позволяет приложению продолжать ввод-вывод со скоростью, которую мог бы обеспечить SSD, будь он «поближе» к серверу.

Но все меняется в случае архитектуры HCI, где диск расположен локально к процессору, где путь к данным от приложения в памяти сервера до дисков гораздо короче.

Это как раз то, что дает нам возможност показывать вот такие результаты:

Два с половиной миллиона IOPS на random read блоком 8K, используемым на нашей файловой системе DSF, при median latency менее 1ms.
На скриншоте — недавно установленный у заказчика 18-узловой кластер. Таким образом средняя производительность ОДНОГО сервера-ноды (с парой SSD включенных локально) в данном кластере 2 500 000 / 18 = 139 000 IOPS random read 8K, при тестовом datasize 12GB, то есть, в среднем, 69 500 IOPS с каждого SSD.

Как мне кажется, более чем убедительная иллюстрация, насколько важна архитектура HCI с новыми быстрыми flash-дисками. Старая, «классическая» архитектура просто не в состоянии дать им показать все, на что они потенциально способны. Устанавливая SSD в «классику» мы, по сути, хороним большую часть их потенциальной производительности.
Именно HCI потенциально способен дать SSD и NVMe шанс показать их скорость.

Почему мы в Nutanix занимаемся Docker и контейнерами

Просто картинка, сделанная в Google Trends.

Google Trends, напомню, это сервис, который позволяет сравнивать упоминание и частоту появлений тех или иных слов в поиске и проиндексированных страницах.

Куда и кому продавать Nutanix?

Кому продавать Nutanix (и более широко — гиперконвергенцию вообще). Заметки для памяти.
Очень часто, рассказывая новым партнерам Nutanix о продукте, я слышу вопрос: «Ну а куда нам стоит попробовать продавать Nutanix в первую очередь?», куда его будет новичку продать проще и удобнее всего, куда «зацепиться» в аккаунте, в какой проект?
И вот, у меня родился такой текст, в помощь начинающему продавать Nutanix, и, в общем случае, кстати, гиперконвергенцию вообще.
Я решил представить себе (и вам)несколько кейсов, увидев которые начинающий продавать Nutanix должен удвоить усилия, и попытаться продать туда именно гиперконвергенцию, а не что-то еще, вроде «классики». Просто потому, что приведенные ниже области — хороший вариант показать лицом все основные преимущества HCI и Nutanix.

1. Если компания развертывает инфраструктуру виртуальных десктопов, VDI. (Особенно на Citrix XenDesktop, и особенно — с vGPU). Сегодня объем VDI, когда-то первого направления компании, совсем не так велик (вопреки популярному «заблуждению» на этот счет от наших конкурентов). Всего около четверти всех клиентов компании, по опубликованным результатам прошедшего года, это VDI. Сегодня мы гораздо больше работаем в «тяжелом энтерпрайзе» и БД (около 50% клиентов). Тем не менее, если стоит задача объяснить «с нуля» то, «в чем цимес» гиперконвергентности в инфраструктуре, то сделать это на задаче VDI нет ничего проще. Такие задачи состоят обычно из множества сравнительно однотипных VM. Задача, требующая быстрого масштабирования, растущая как вширь, так и «вглубь», от десятков и сотен, и порой до тысяч рабочих мест. Ничего нет лучше для этой задачи чем гиперконвергенция.
С 2015 года мы сотрудничаем с Citrix, для которого наша платформа виртуализации под их лидирующий в энтерпрайзе VDI брокер XenDesktop (XD) — идеальное дополнение, позволяющее легко конкурировать, и прежде всего по цене, с VMware Horizon. Своя платформа виртуализации у Citrix (это Xen Server) довольно быстро теряет позиции, отставая во многих решающих областях, поэтому эффективный, бесплатный, современный гипервизор для брокера Xen Desktop (и при этом чтобы НЕ ESXi!) Citrix-у насущно необходим. Так что неудивительно, что Citrix и Nutanix вот уже более 2 лет — технологические партнеры, а Xen Desktop на AHV это взаимно поддерживаемое и валидированное решение. В том числе и для использования GPU-powered десктопов с использованием графических карт NVIDIA Tesla M10 и M60.

2. Если компания собирается «в облака». Это, обычно, значит, что у нее уже все готово в инфраструктуре к такому переходу. Им не нужно будет объяснять преимущества перехода к облачной модели использования ресурсов, чуть ли не самому сложному, из того, что мне приходится объяснять среди преимуществ использования гиперконвергентного подхода. Значительная часть этих преимуществ находится именно тут. Они этот путь прошли, и все эти достоинства для себя уже сформулировали. Теперь вам просто надо прийти и сказать: «Вот смотрите, вместо того, чтобы отдавать свои данные на сторону, компании, которую вы пока не знаете (и еще и платить за это узнавание будете!) вы можете оставить все ваши данные и приложения у себя, и использовать Nutanix как платформу для «частного», или «гибридного облака», интегрированного как с вашими бизнес-задачами, так и с предложениями публичного облачного оператора. Да, «облако», но — у себя!». Nutanix Сalm, Kubernetes, AWS, Azure, Google Cloud. Гибко, быстро, удобно, безопасно.

3. Если компания хочет отказаться от vSphere. Причин может быть множество. Ищут альтернативу (а их сегодня, увы, немного. Кроме Hyper-V (и AHV), можно сказать, практически и нет). Не обновились на 6.х вовремя, или не хотят обновляться на «шестерку» в принципе, а дата окончания поддержки для vSphere 5.5 — сентябрь следующего, 2018 года, и уже припекает — так припекает. Просто разочаровались в VMware как таковой, продукте или компании в целом, и хотят «соскочить» с минимумом проблем с регулярных выплат «на техподдержку» и необходимости платы за расширение инфраструктуры с оплатой «за сокет». Если компания размышляет о миграции с VMware, и миграция на Hyper-V при этом по разным причинам не рассматривается, то это прекрасный случай поговорить о возможности уйти со всем хабаром на Acropolis Hypervisor (AHV), причем использовать наши средства миграции инфраструктуры для облегчения этого процесса. А они у нас есть.

4. Если компании интересно направление Big Data. Если вы еще никогда не слышали о Big Data, или слышали только краем уха, то вам стоит узнать о том, что это направление сегодня растет опережающими рынок темпами. Сегодня объем рынка по этому направлению составляет около 33 миллиардов долларов, и через 5 лет — более чем удвоится (72 миллиарда). Этим уже вовсю занимаются, в том числе в России, ритейл, банки, сотовые и интернет-операторы, и интерес тут, у нас в стране, растет вслед за мировыми трендами. Big Data, название может ввести в заблуждение, это не о размерах или количестве данных, это о методике работы с данными любого объема, не обязательно огромного (хотя часто — довольно большого). Big Data Analysis требует использования специальных средств. Если вы слышите в разговоре с клиентом слова Big Data, Hadoop, Splunk — навострите уши. Сюда есть куда продать Nutanix, мы много и успешно работаем в области интеграции с big data продуктами и у нас есть хороший опыт, в том числе в России.

5. Если компания занимается микросервисами, распределенными системами, контейнеризацией приложений, разработкой в вебе, Kubernetes, Docker, etc-etc.
Ну тут все очевидно. Как и в случае перехода в «облака» компания уже сделала важный шаг, перешла в новую парадигму, или сразу в ней родилась, жила и развивалась (что характерно для веб-ориентированных компаний). Им не нужно объяснять, чем хороши discretization, distributed apps, микросервисы, контейнеризация. Показывайте Calm, интеграцию с Docker, Kubernetes, публичными облаками, методы построения гибридного облака через оркестрацию в Calm, возможно — интеграцию с OpenStack. Это все скажет само за себя.

6. Если компания работает в области здравохранения и вообще медицины. Медицинский софт — это отдельный мир, со своими протоколами доступа к данным, форматами файлов, разнообразными специализированными сертификациями. В Nutanix работа с healthcare-вертикалью — большой сегмент бизнеса. Мы умеем работать с этим направлением, поддерживаем разное специализированное ПО, и у нас есть что предложить в этой области. Привлекайте наших экспертов к разговору. У нас есть опыт в том числе и в России.

Итак, остановимся на шести. Конечно же, число наших клиентов показывает, что Nutanix востребован и используется очень широко. Но иногда, для сейла, чтобы начать продавать, нужно «зацепиться». И, как мне кажется, перечисленные области, это то, где «зацепиться» начинающему бывает проще всего.

Если у кого есть дельные мысли по поводу того, какие очевидные и легкие области продать Nutanix я выше пропустил — делитесь в комментах.

Как дела у Nutanix: итоги года и почему «успех» не всегда «прибыльность»

За прошедшие несколько дней, начавшихся в пятницу, с объявления итогов года, довелось несколько раз участвовать в дискуссии о успехе или неуспехе компании на рынке. Регулярно, каждый квартал, практически, эта тема возникает, и раз за разом мне приходится отвечать одно и то же. Вынесу же из комментариев, и опубликую мое мнение отдельно тут.

Итак, 30 сентября компании исполняется год, как мы вышли на биржу, проведя IPO и став с этого момента Public Company. Это и достижение, и ответственность, так как с момента выхода на биржу компания обязана публиковать полную отчетность, все ее финансовые результаты должны быть публично доступны и открыты.

Однако, в отличие от США, «игра на бирже» по-прежнему не является сколь-нибудь массовым занятием, поэтому, как правило, представления многих моих читателей о том, как происходит биржевая игра и вся прочая активность вокруг акций, их курса и финансовых результатов публичных компаний, находятся на довольно примитивном уровне века этак XIX примерно. Я уже писал немного на тему того, что курс акций совсем не всегда и не напрямую, и не линейно связан с успехом компании. Позволю себе поговорить на эту тему еще раз.

Наконец практически стихли «предсказатели» того, что у Nutanix скоро, максимум осенью кончатся деньги и их купит какой-нибудь ЭйчПи. Курс акций медленно, но практически линейно растет начиная с 1 мая этого года, когда мы прошли нижнюю точку стоимости акций. Теперь новая тема «почему нутаникс завтра (через месяц, в следующем году) обанкротится» — это величина прибыли на акцию и вообще операционная прибыль компании. Мол, акции растут, ладно, но компания все равно приносит убытки. Значит все равно, опять, «деньги кончатся, компания разорится, пойдете вы на помойку бутылки собирать».
Ну давайте теперь эту гипотезу рассмотрим. Бывает ли, чтобы компания не приносила прибыли, и при этом все равно развивалась бы и росла?
Еще как бывает. И не с какими-нибудь там, неизвестными, а с самыми что ни на есть «локомотивами новой экономики».

Но для начала давайте посмотрим, как обстоят дела с прибылью у Nutanix по результатам годового отчета. Напомню, мы закончили год в конце июля, так как FY, Financial Year, в США принято завершать летом.
Спасибо комментатору Сергею, который извлек из отчета эти данные за меня:
Net Loss: GAAP net loss of $458.0 million, compared to a GAAP net loss of $168.5 million in fiscal 2016; Non-GAAP net loss of $199.1 million, compared to a non-GAAP net loss of $150.4 million in fiscal 2016

GAAP, напомню, это Generally Accepted Accounting Principles, некий общепринятый стандарт бухгалтерского учета. Особенности США как страны заключаются в том, что там кроме GAAP существует (и общепринят) и другой способ «подсчета денег», он обозначается как non-GAAP, и поэтому в финансовой документации публичные компании приводят как GAAP-результаты, так и non-GAAP. Не будем сейчас углубляться в детали того, в чем состоит разница, как мы видим, и в том и в другом случае Nutanix пока, формально, согласно приведенным в отчете данным, не вышел на зарабатывание денег и «приносит убытки», по крайней мере владельцы акций дивидентов по ним не получают. Оставим сейчас в стороне вопрос, часто ли вообще в Америке получают дивиденты по акциям высокотехнологичных компаний (ответ:нет, не часто). Посмотрим, бывает ли, чтобы компании, в том числе публичные, вели бизнес принося убытки, и насколько долго.

Рассмотрим такую, всем известную компанию, как Amazon (NASDAQ:AMZN). Компания Amazon была основана Джеффом Безосом (Jeff Bezos) в далеком 1994 году, в мае 1997, три года спустя, она вышла на IPO, и с тех далеких пор, вот уже 20 лет является общеизвестной компанией, причем не только в области интернет-торговли, но и, например, является крупнейшим в мире публичным облачным провайдером, под торговой маркой AWS, Amazon Web Services. Услуги облачного провайдинга, насколько мне удалось узнать, также являются частью общей компании Amazon, и учитываются в ее финансовом отчете.
Никто не будет спорить с тем, что Amazon — успешная компания.
Но как обстоят дела с их прибыльностью, и вообще, когда Amazon начал приносит прибыль?

Оказывается, первый прибыльный год, согласно найденным мной данным, был аж 2003-й, то есть спустя 9 лет с момента основания, и спустя 6 лет с момента IPO! Все это время компания наращивала объемы, но прибыли не получала! Тем не менее, сложно было бы назвать Amazon компанией «неуспешной», несмотря на такую ситуацию с прибылью (кстати и после 2003 года у Amazon не раз были убыточные кварталы и даже года).

А вот как выглядела стоимость их акций в этот период:

До помеченной вертикальным пунктиром линии Amazon денег в прибыль не зарабатывала. Вообще. Да, в «пузырь 2000-х» акции успели подрасти, потом, как все, упали. Потом понемножку дорожали, например от декабря 2000 года, когда взрыв «пузыря» практически закончился, и курсы упали на стабильное значение, и до декабря 2006-го, до того, как начался существенный и значительный рост курсов акций Амазона, продолжающийся до сих пор, курс вырос с примерно 15 долларов за акцию до примерно 40, и это — за 6 лет, половина из которых шла полностью в убыток. Убила ли эта ситуация компанию Amazon? Очевидно что — нет. Напомню, что сегодня акции AMZN котируются на уровне близком к 1000$ за акцию, тогда как цена размещения их в далеком 1997-м году была где-то 1.5$, а Джефф Безос из своих личных средств, которые ему дает владение акциями Amazon и периодическая продажа их, строит ракеты для космического туризма в компании Blue Origin.

Прекрасная иллюстрация того, что успех не всегда определяется прибыльностью бизнеса как такового, по крайней мере в краткосрочной перспективе.

Еще интереснее то, как обстоит дело с прибыльностью бизнеса Amazon, и соотношением выручки, объема продаж и прибыльности компании. В статье, найденной мной на Хабре, приводятся интересные графики.

Вот это — уровень выручки и уровень прибыли для компании Amazon от ее основания:

Как видно из него, прибыль у Amazon никогда сильно не росла и не увеличивалась вслед за объемами выручки, которая росла и продолжает расти практически экспоненциально.

А так выглядит график отношения Free Cash Flow (FCF) и Operational Cash Flow (OCF) к revenue (выручке) компании:

Как вы видите из графика, величина FCF в среднем составляет около 5% от выручки, с момента появления прибыльности, а OCF — постоянна и весьма невелика.
Причем в 2003-м, первом своем прибыльном году, Amazon заработала всего каких-то 35 с небольшим миллиона долларов чистой прибыли!
И тут еще надо учесть, что, например, AWS до 2012 года вообще была невыделенной частью Amazon, но даже и сейчас доходы ее (а AWS — очень прибыльный для компании бизнес, утверждается, что больше половины операционной прибыли Amazon приносит AWS) очень существенная доля доходов компании в целом.

Единственный ли это пример? Нет, конечно. Еще один лежащий на поверхности пример — небезызвестная Tesla. Компания главного «железного человека» Америки не приносит прибыли много лет. В отдельные кварталы компания показывает прибыль, но стабильной прибыльности у нее не было никогда. Из трех основных активов Маска, Tesla Motors, SpaceX и SolarCity, только Tesla — публична, однако по всем трем компаниям оценка аналитиков сходна, все три убыточны. Убыточны, также, например, такие «громкие» компании как Uber и Lyft. Да и вообще, есть такое ощущение, что прибыльность, по крайней мере среди сегодняшних «компаний новой экономики», хайтек и IT, это скорее исключение, чем правило, по крайней мере в первые годя их существования и выхода на рынок.

Плохо это или хорошо? Конечно же, в идеальном мире самое лучшее было бы, чтобы компании приносили прибыль, платили своим акционерам дивиденты, а по радуге бы скакали белые пони. Увы, мы живем в мире, в котором корпоративный налог на начисляемые дивиденты составляет в США 30%, что означает, что треть передаваемых на выплату дивидентов денег забирает себе правительство. Последнее и заставляет многие компании вместо показания прибыли и, следовательно, выплаты дивидентов акционерам, тратить заработанное в виде само-инвестиций в развитие компании. В суперконкурентном мире хайтека, получить на развитие на 30% денег больше — зачастую критически важно. Это, например, одна из причин, отчего тот же Nutanix вместо выхода на прибыль пока не торопится показывать положительный баланс. Пример Amazon показывает нам, что жить так можно буквально десятилетиями.
Биржа и мир бизнеса уже давно не так линейны и просты, как в XIX веке, когда есть прибыль — хорошая компания, нет прибыли — плохая. Растут цены за акции — хорошо. Падают — плохо. Сегодня, как видите, ситуация куда сложнее, чем то, к чему мы привыкли знать «про биржи и капиталистов» по книжкам времен Маркса, Диккенса и Драйзера.

Итого, о чем я, в результате хотел сказать-то:
Не пытайтесь делать далеко идущие предсказания, не владея в полном объеме картиной, и не ориентируясь свободно в сегодняшней фондовой и инвестиционной жизни США. Не торопитесь обещать разорение, исходя лишь из вашего скромного опыта владения ценными бумагами в виде ваучеров приватизации 90-х (а для большинства из нас опыт владения ценными бумагами ими и ограничивается). Сегодняшняя жизнь бирж и хайтек-компаний куда сложнее и непредсказуемее.
И значит, господа злопыхатели и предсказатели, поход на помойку за стеклотарой откладывается. :)
Удачи нам, и, конечно, скорейшего выхода на прибыльность. А когда это будет, как выражаются по российскому телевизору, «покажет время».

PS. Пользуясь случаем, хочу отдельно напомнить моим читателям, что в блоге действует возможность писать комментарии без регистрации, однако для автоматической публикации их требуется иметь уже заапрувленные комментарии раньше. Первый коммент с данного IP, с данным именем и E-Mail ставится в очередь на модерацию. Кроме того, посты, имеющие явные признаки спама, автоматически уходят в спам. Я, как хозяин и владелец этого блога, решил, что буду требовать от желающих публиковать комментарии, соблюдения простых требований: подписывайтесь своим именем, либо ником, и используйте реальный email, указав его в соответствующем поле формы коммента (он не публикуется, его вижу только я). Отсутствие имени или ника, а также указание заведомо недействующего email приводит к блокировке вашего коммента антимспамными средствами блога (у меня тут примерно по пять сотен спама в комменты пытается запоститься каждую неделю, на разные темы, вы не хотите это читать ;). Я полагаю, что человек, который хочет опубликовать свое мнение в комментариях, не должен стесняться подписать свое мнение своим именем, тем самым беря на себя ответственность за высказывание. Иначе, скорее всего, писать его не стоит вовсе.

1242 страницы качественной бумаги

Книга, озаглавленная «Storage Design and Implementation in vSphere 6». 1242 страницы. Второе издание. Тысяча двести сорок две, my ass! Только про то, как правильно подключить к серверу и настроить СХД.

Мы, в Nutanix, в конечном счете, работаем в том числе и для того, чтобы такие книги стали, наконец, админу не нужны.

Как дела у Nutanix?

В рубрике «запоговорить» у меня в этом блоге собираются разнообразные размышления, зачастую не относящиеся напрямую к технике и технологии, но о которых иногда стоит рассказать.

В последние несколько лет российский интернет расцвел многочисленными специалистами-экспертами на самые разнообразные темы, в народе их уже прозвали «диванными аналитиками». Какую бы тему не затронуть, уверен, вскоре в топик придут люди, детально разбирающиеся, или, по крайней мере, очень активно высказывающие свое мнение по затронутой теме. Диапазон широчайший, от похудения до тактико-технических характеристик зенитно-ракетных комплексов всех стран мира.
И уж конечно же всегда хватает аналитиков в области управления финансами. Особенно чужими. В русском народе издавна это называется «считать чужие деньги». ;)
Не избег этого и Nutanix.
Вот уже добрых полгода в любом нашем посте по поводу продукта обязательно найдется «специалист в финансовых рынках», сулящий нам скорое разорение, крах, нищету под забором и смерть от алкоголизма в колодце на теплотрассе, основываясь на графике стоимости акций. ;)

Но так ли все ужасно, и скоро ли Хьюлет Паккард (вариант: Хуавей) купит Нутаникс на сдачу от продажи десятка Супердомов?

Я сходил в Google Finance, чтобы нарезать вам оттуда несколько примеров графиков стоимостей акций разнообразных знакомых вам компаний, чтобы проиллюстрировать мои мысли сегодня.

Вот, например, как выглядел биржевой график цены акций за всю ее историю у хорошо знакомой всем и, безусловно, успешной компании:

Здесь легко видеть, что, после короткого и бурного роста сразу после размещения, курс начал падать и падал больше года, до начала 2009. После чего линейно попер вверх в течение двух лет, хотя даже в этом случае он так и не достиг цены акций, полученной в первые недели после размещения. Потом курс рос, снижался, опять рос, опять снижался, и несмотря на это компания VMware — это компания VMware.

Плохо это или хорошо? Да ни плохо, ни хорошо. Такова фондовая биржа, не зря к ней применяют слово «игра». Она давно уже живет не в понятиях, допустим, XIX века, когда если курс акций высокий — хорошо, курс снизился — плохо. Там давно уже все не так просто. Там свои механизмы, которые нам не видны, если вы только не профессиональный биржевой брокер, не зря сейчас на бирже допущены «играть» только они.

Еще пример? Пожалуйста.
Вот так выглядел первый год у еще одной большой и успешной сегодня компании. Как вы видите, в первые полгода курс акций упал более чем вдвое. В третьем и четвертом квартале чуть приподнялся, но все равно, что бы сказали, глядя на этот график уже знакомые вам «финансовые аналитики»? Ну, стали бы рассказывать, что дела плохи, что у компании скоро «кончатся деньги» и их «скоро купит кто-нибудь».

Давайте посмотрим, что произошло дальше, после первого года?

Парадоксально, возможно, но быстрый рост — не всегда хорошо (хотя слукавлю, если скажу что мне, как сотруднику компании, и владельцу shares, как это сегодня принято во многих американских компаниях, не хотелось бы, чтобы акции стоили побольше). Но и резкое падение — совсем не всегда означает обязательный крах, неудачу, скорое разорение и закрытие. Вот вам еще один характерный пример:

Во время «пузыря доткомов» стоимость акций компании, после практически экспоненциального роста, обвалилась в разы. И что, убило это компанию? Перестала она быть Cisco? «Погибла безвозвратно», разорилась и пошла с рыданием распродавать письменные столы и дыроколы из офиса? Нет, не пошла, и осталась Cisco, даже несмотря на то, что никогда с тех пор такой капитализации больше не имела, и прекрасно себя чувствует сегодня.

Более того вам скажу, для успеха, масштаба и влиятельности компании, зачастую, даже не нужен как таковой рост стоимости акций. Вот хороший пример:

У Twitter в долгосрочной перспективе курс вообще никогда не рос, и практически линейно снижался прямо с самого момента размещения акций на бирже. И вы не живете в Америке, если скажете, что сегодня Twitter — не влиятельная и не успешная компания в глобальном масштабе. И такие примеры существуют еще.

В целом же, даже короткий экскурс по стоимостями акций технологических компаний показывает, что первый год после IPO он вообще не очень показательный. У многих успешных впоследствии компаний в первый год акции падали, что, зачастую, совсем не связано с качеством продукта, и уж тем более с их успехом в будущем.
Как я уже показал выше, стоимость акций связана с успешностью компании и качеством продукта, обычно, очень опосредовано. Также как Корея не является лузером в сравнении, например, с Великобританией только оттого, что корейский вон в сотни раз дешевле британского фунта, так и биржевая капитализация и биржевая игра сегодня, в эпоху хедж-фондов и высокоскоростного трейдинга, совсем не столь линейный и всем ясный процесс.

Так что, накануне отчета за наш третий квартал, заканчивающийся вот-вот, давайте наберемся терпения, и сперва посмотрим, как закончится наш первый год в статусе публичной компании. И, нет, «не дождетесь» (с). ;)

SimpliVity теперь в HPE. Что дальше?

Я никак не комментировал эту новость, когда она появилась в январе. Но теперь, когда сделка официально закрыта, и наш конкурент, SimpliVity (SVT) теперь официально стал частью HPE, думаю, стоит сказать несколько слов по этому поводу.
Несмотря на то, что SVT много лет была нашим крупным и важным конкурентом в HCI (Hyperconverged Infrastructure), по крайней мере на американском рынке и в сегменте SME, я старался в этом блоге, когда писал о них, соблюсти нейтральность и минимум предвзятости. Это была компания, вместе с Nutanix начавшая развитие гиперконвергентного рынка простым стартапом, и довольно неплохо державшаяся все это время (собственно та активность, с которой мы в Nutanix их «мочили» иногда, этому основная причина).
Однако, Nutanix вышел на IPO, а SimpliVity куплена «грандом» серверного энтерпрайз рынка, причем куплена, в результате, за сумму существенно меньшую ее оценки, за 650 миллионов $, что почти втрое ниже оценки. Факт этот свидетельствует, что на IPO с такой разницей в оценке и реальной стоимости SimpliVity ничего «не светило».

Что будет дальше — вопрос интересный и не простой, и тут мне видится сразу несколько моментов, о которых стоит знать.

Вообще, HP/HPE компания любящая покупать продукты вместе с компаниями. Однако судьбы разработок таких компаний внутри HP бывают очень разными. Иногда они «расцветают», получая ресурсы такого гиганта, как HP, пример тому — судьба 3Par, который, до покупки в HP прямо скажем «влачил существование», и получил настоящее «второе дыхание» в HP, сменив, наконец, хороший, но безнадежно морально устаревший к моменту покупки midrange enterprise storage HP EVA.
Бывает и по другому, мало кто помнит уже такие имена как IBRIX или PolyServe, компании, разрабатывавшие эти продукты также были в свое время куплены HP, и «канули» словно бы в никуда. Возможно частично какие-то разработки вошли в какие-то другие проекты, но это со стороны не столь очевидно.
Наконец, какие-то продукты ждет стангнация, пример — купленный в 2008 году LeftHand, пару раз переименованный, но так никогда и не заблиставший на рынке, по своему интересный SDS-продукт, так толком за эти уже почти 10 лет и не «распробованный» рынком, и оставшийся в «нише». И даже вся маркетинговая и финансовая мощь HP не смогла его как следует «раскрутить». Даже сегодняшние попытки сделать из StorVirtual «гиперконвергентность» достаточно вялые, вон, у HPE теперь новая большая игрушка, Synergy.

Что суждено SimpliVity, успех, забвение или стагнация сейчас совершенно неясно.

Успех 3Par был обусловлен, как я уже отметил, тем, что он пришел на нужное место в нужное время. Менять в линейке продуктов устаревающую EVA на момент покупки 3Par было надо уже «пожарным порядком», «плана Б» на этот счет у компании просто не было. Polyserve покупался тогда, «чтобы врагам не достался, а дальше придумаем куда». С LeftHand, классическим Software-defined Storage, и на момент разработки весьма пионерским (в хорошем смысле) продуктом, получилось не так. Его, кажется, так и не придумали куда «подоткнуть» в линейку. За ним явно не было какого-то сильного «драйвера» в компании.

SimpliVity, как я уже отмечал в более ранних постах о этой компании и ее продукте, последние год-полтора явно страдала от недостатков ресурсов на разработку. Задержки с выпуском продукта, отсутствие серьезных инноваций от версии к версии, история с поддержкой (читай: ее отсутствием) других гипервизоров, кроме ESXi, явно наталкивали на мысль, что в компании просто заканчиваются ресурсы. Обычно в этом случае компания как раз и идет на публичный рынок, выпуская акции, и собирая нужные для дальнейшего развития деньги таким образом (если она желала бы остаться независимой), либо «продается» большому игроку. До «планки» IPO SimpliVity явно «не дотягивала» (это даже и Nutanix далось нелегко в прошлом году, не зря мы столько «высиживали» этот момент), поэтому покупка «грандом» для SVT был вполне разумный, и объективно необходимый шаг дальнейшего развития.

Однако, если вы следите за ее судьбой, вы знаете, что за последний год SimpliVity очень успешно продавала себя как OEM-решение. Многие серверные вендоры имели с SVT соглашение по выпуску их OmniStack на своем «железе». Cisco, Lenovo, Huawei, даже Dell объявляли о OEM-выпуске SimpliVity на своем серверном железе. Сейчас, очевидно, всем этим продуктам настал EOL. Ясно, что никаких «OEM» HPE на рынке не потерпит. Не для того покупали.
Особо «попали» тут купившие, возможно только вот-вот, такой OEM-SimpliVity клиенты. Они останутся, во-первых, с той версией ПО, которая у них есть, сейчас это 3.5. Во-вторых, вероятно, поддержка таких oem-SVT станет в перечисленных компаниях-бывших партенрах SVT весьма «базовой», как для любого другого EOL-продукта.
В HPE SimpliVity поддерживается только на платформе HPE ProLiant DL380, и пока только на нем. Никаких планов о поддержке «сторонних» вендоров не публиковалось.

Как вы знаете, «интеллектуальное ядро» SimpliVity как продукта — его плата аппаратной дедупликации, вокруг которого, собственно, и «наросла» гиперконвергентность OmniCube как продукта. Однако, почти сразу же за покупкой HPE объявила о том, что намерена отказаться от FPGA-based OmniCube Accelerator Card, и сделать продукт полностью «софтверным».
Это, среди прочего, означает, серьезные изменения в архитектуре, уйдут самые опытные члены инженерной команды SVT, стоявшие у колыбели продукта, бохзнает что еще.
HPE собирается также прекратить разработку и использование основного на сегодня инструмента управления, Simplivity vCenter Management Plug-In, и перейти на HP OneView. Кроме того, есть признаки того, что HPE вообще скептически и без особого понимания смотрит на HCI как таковой, и не исключено, что речь идет о переделке SimpliVity в просто еще один SDS для их новой дорогостоящей разработки — HPE Synergy. «…including tight integration with HPE’s OneView management platform. HPE also plans to integrate the SimpliVity software with HPE Synergy and 3Par.»
Явно в HPE сейчас идет сложная политическая игра между несколькими «партиями», и от того, кто выиграет, «пргрессисты» или «традиционалисты-консерваторы» будет зависеть судьба продукта в компании. Пример медленной стагнации в нише и на периферии интересов у нас уже есть, как я показал выше.

При этом надо также понимать, что внутри HPE уже есть как минимум целых два собственных продукта того же класса, это разработанные самой HPE HC250 и HC380, которые, что интересно, будут продолжать предлагаться, по крайней мере пока: «For current HPE customers and partners, we will continue to offer our existing hyperconverged products, the Hyper Converged 380 and the Hyper Converged 250 and provide a pathway to the SimpliVity based-offerings.» по меньшей мере еще квартал.
Не исключено, что «новичку» в компании придется столкнуться еще и с «внутренней конкуренцией». Синдром «Придумано не нами» (NIH, Not Invented Here) может ударить по продукту в HPE довольно болезненно.

Ясно одно, даже в идеальном случае, дальнейшая разработка продукта задержится минимум на год, а то и меньше, на время слияния и организационных «утрясаний». А в нашей области, где год-два это целое поколение продуктов, и с учетом того, что SVT уже и без этого начинала отставать, это может быть катастрофой.

Таким образом, у приобретения HPE есть и некоторые плюсы, и существенные минусы. Ситуация с SimpliVity как продуктом в компании мне видится крайне неустойчивой и неясной. Думаю, что следуюший квартал-два раставит все по местам, и позволит понять, какая судьба ждет SVT в составе их нового «дома».

UPD: Из свежих новостей: HPE купил еще и Nimble Storage, вошел во вкус. ;)

О пользе точной настройки перед проведением performance tests на Nutanix

Немного интересного о том, насколько важно для получения хорошего результата правильно и грамотно конфигурировать систему (а не просто поставить ее потыкав Enter и «Далее»), руководствуясь нашими Best Practices.

Нак коллега из Германии поделился своим опытом:

«Доброе утро. Хочу с вами поделиться результатами тестирования, которые хорошо иллюстрируют важность использования наших best practices.

Я запускал бенчмарк на MSSQL с использованием HammerDB. Использовался AOS 5 на AHV на 3x NX-3175-G4. CPU на 2.6 Ghz (2x 10 core) и каждая нода имела 692 GB RAM. Диски: 2x 1.5 TB SSD и 2x 2TB HDDs.

Все VM были созданы из шаблона Windows 2012 R2 x64 со всеми сежими патчами, VM имела 1 сокет и 8 виртуальных ядер, а также 64GB vRAM.

Я создал VM с SQL Server установленным по умолчанию (просто приняты все значения установки по умолчанию, просто жал «next» всегда), и база была поставлена на виртуальный диск, размером 1TB в контейнере по умолчанию.

Я также создал одну VM с SQL установленным и настроенным в соответствии с нашими best practices. Контейнер имел включенную inline compression, для базы созданы несколько виртуальных дисков, настроены параметры SQL Server, установлены trace flags, large pages, database memory allocation, и так далее.

Затем я установил HammerDB и выполнил транзакционный тест (TPC-C) с 40 пользователями и 254 warehouses, что, в общем, довольно невысокое число последних.

Так выглядел запуск теста на неоптимизированном сервере SQL. Мы получили примерно 90K transactions per minute, и уперлись в CPU.

А это тест на оптимизированной VM с SQL. Мы получили тут более миллиона транзакций в минуту, и все еще не уперлись в CPU.

В обоих случаях, OS и базовая конфигурация VM были идентичны, различалась только конфигурация контейнера, были добавлены дополнительные диски в VM, и были сделаны настройки базы данных. Подсистема хранения не была слишком нагружена, она выдавала всего около 4800 IOs или 290 MB/s.

Мне показалось, что вам будет интересно посмотреть на результаты. Возможно это также будет полезно показать пользователям, если заходит разговор о производительности базы данных на Nutanix.»

Итак, просто за счет более правильной настройки VM для работы в Nutanix, получен двенадцатикратный прирост ее производительности.

История двухлетнего опыта использования ceph в веб-хостере и полученный опыт.

Интересный пост на Хабре, описывающий опыт веб-хостера FirstVDS в его попытках сделать кластер на ceph, и честное описание всех значительной части проблем, которые они хапнули в процессе. Полезное и душеспасительное чтение для всех, кто рассматривает ceph как enterprise-grade решение.
Вкратце, бегло о lessons learned:

* Процесс «выучивания уроков» занял примерно два года, на сегодняшний день. Первая версия была собрана осенью 2014 года.

* Не все x86 сервера «одинаково полезны». Купленные специально под кластер сервера оказались глючными.

Чтобы опробовать новую архитектуру и избавиться от прежних недостатков, собрали тестовый стенд. И тут выяснилось интересное — специально купленные для сборки первой версии серверы оказались «палёными». Системная шина всех серверов работала медленно. В результате, все устройства, связанные с северным и южным мостами — карты IB, подключенные по PCI-E, диски, память — также работали медленно. Это объясняло большую часть проблем, с которыми мы столкнулись. В качестве пробы взяли несколько свободных нод, на которых обычно запускаем клиентские VDS. По тех. характеристикам они почти ничем не отличались. Собрали и запустили кластер на этих машинах, стали прогонять тесты. Всё летает! … купили новые серверы на базе Xeon 2630 …

* Далекая от оптимальности схема восстановления избыточности в ceph, требующая ручной регулировки.

Кластер справлялся с задачами — при выходе из строя дисков или нод целиком, он продолжал функционировать. Однако, каждая перебалансировка превращала ситуацию в критическую. При добавлении нового диска сглаживали пик нагрузки, используя веса. Вес отвечает за степень использования конкретного физического носителя. Устанавливаем новый диск, ставим вес 0 — диск не используется. После этого увеличиваем вес постепенно, и перебалансировка происходит маленькими порциями. Если же диск выходит из строя, то веса не срабатывают: ~1 Тб реплик надо «размазать» по оставшимся дискам сразу, и Ceph надолго уходит в режим записи данных, загружая диски «пустой» работой.

* Перестроение кластера ceph на ходу вызывает существенную нагрузку на серверы и влияет на нормальную работу приложений

* Для построения в чистом виде гиперконвергентной системы, когда одни и те же сервера являются и узлами хранения и хостами виртуализации, ceph оказался малопригоден.

При увеличении количества VDS кластер начинал работать нестабильно, и мы переносили клиентские машины на обычные ноды. …
После нескольких итераций стало ясно, что ситуация кардинально не меняется. Приняли решение перенести клиентов на обычные ноды и расформировать кластер.
Первая версия кластера не оправдала ожиданий. Клиенты сталкивались с дисковыми тормозами, а мы уделяли слишком много времени технической поддержке кластера.

* Несбалансированная система с купленными «для экономии» дисками SATA большой емкости стала проблемой при увеличении нагрузки.

* Сетевая распределенная запись на хранилище, без data locality, одновременно с высокой загрузкой кластера по вводу-выводу — зло.

* SSD в режиме кэша в ряде специфических ситуаций, например замене вышедшего из строя диска и последующей перебалансировке, работает плохо.

Около 5-ти месяцев система замечательно работала, радуя нас и клиентов. Так было, пока количество клиентов не достигло критического значения. Вместительные диски по 4-8 Тб всё-таки вылезли нам боком. При заполнении диска уже наполовину, он превращался в бутылочное горлышко — большое количество файлов, принадлежащих разным VDS, располагались на одном физическом носителе, и ему приходилось обслуживать большое количество клиентов. При выходе его из строя перебалансировка тоже проходила тяжело — надо перераспределить большой объём информации. SSD-кэш в таких условиях плохо справлялся со своими обязанностями. Рано или поздно диск кэша переполнялся и давал сигнал — с этого момента я ничего не кэширую, а только записываю сохраненную информацию на медленный HDD-диск. HDD-диск испытывает в это время двойную нагрузку — обрабатывает прямые обращения, которые поступают минуя кэш, и записывает сохраненные в кэше данные. Хранилище хорошо работало, пока дело не доходило до изменения дисковой конфигурации. Выпадение диска или добавление нового сильно замедляло общую пропускную способность хранилища.

* Низкое качество кода ceph, может привести к серьезным проблемам с разрушением хранилища данных.

Используйте LTS-выпуски Ceph. Не рассчитывайте, что будете накатывать новую версию с каждым релизом. Обновление — потенциально опасная операция для хранилища. Переход на новую версию повлечёт изменения в конфигах, и не факт, что хранилище заработает после обновления. Отслеживайте багфиксы — они бэктрекаются из новых версий в старые.

* Баги могут уничтожить как работу кластера в целом, так и содержимое хранилища.

18 февраля 2016 мы столкнулись с критическим багом Ceph: в процессе скидывания кэша на диск происходила некорректная запись блока данных. Это приводило к отключению процессов ceph-osd всех дисков, где хранились реплики злосчастного блока. Система сразу лишалась трёх дисков, а значит и всех файлов, размещенных на них. Запускался процесс перебалансировки, но не мог завершиться до конца — ведь из системы пропадали все три копии как минимум одного блока данных (и соответствующего файла), с которого началась проблема. Консистентность хранилища была под угрозой. Мы вручную удаляли ошибочные блоки, перезапускали процессы ceph-osd, но это помогало ненадолго. Ошибочная запись повторялась, балансировка начиналась снова, и хранилище рушилось. …
Напряженный поиск в интернете дал результат — закрытая бага в последнем на тот момент релизе Ceph Hammer. Наше хранилище запущено на предыдущей версии — Firefly.
Предупредили клиентов о недоступности серверов и приступили к обновлению. Переключились на другой репозиторий, в который залит фикс баги, выполнили yum update, перезапустили процессы Ceph — не помогло. Ошибка повторяется. Локализовали источник проблемы — запись из кэша в основное хранилище — и отключили кэширование полностью. Клиентские серверы заработали, но каждая перебалансировка превращалась в ад. Диски не справлялись с обслуживанием системной балансировки и клиентского чтения-записи.
Решили проблему кардинально — отказались от SSD-кэша

* Для полноценной работы кластера ceph требуется allflash конфигурация.

поставили SSD-накопители в качестве основных. Тут помогли ноды с большим количеством дисковых корзин, предусмотрительно купленные для кластера хранения. Заменяли постепенно: сначала добавили по четыре SSD в оставшиеся пустые корзины на каждом сервере, а после балансировки данных, стали по одному заменять старые HDD-диски на SSD. Делали по схеме: удаление диска, установка диска, балансировка данных, удаление, установка, балансировка и так далее по кругу, пока в нодах не остались только SSD. Заменяли на горячую …
Использовали промышленные накопители Samsung 810 размером 1 Тб. Не стали использовать SSD большего размера, чтобы не провоцировать ситуацию «узкого горлышка», когда на одном физическом носителе располагается много данных, и, следовательно на него приходится большое количество обращений.
Таким образом, постепенно мы заменили все накопители на SSD. И наступило счастье

Мои выводы (которые могут не совпадать с выводами авторов оригинального поста): ceph в продакшне — опыт для людей с железными яйцами. Скупой платит. И хорошо если только дважды. И тем более хорошо, если только деньгами. Забудьте об отпусках с семьей и отключенном на ночь звонке телефона. Это не для вас теперь.
Зато не скучно. :)