Архив за месяц: Ноябрь 2017

Куда и кому продавать Nutanix?

Кому продавать Nutanix (и более широко — гиперконвергенцию вообще). Заметки для памяти.
Очень часто, рассказывая новым партнерам Nutanix о продукте, я слышу вопрос: «Ну а куда нам стоит попробовать продавать Nutanix в первую очередь?», куда его будет новичку продать проще и удобнее всего, куда «зацепиться» в аккаунте, в какой проект?
И вот, у меня родился такой текст, в помощь начинающему продавать Nutanix, и, в общем случае, кстати, гиперконвергенцию вообще.
Я решил представить себе (и вам)несколько кейсов, увидев которые начинающий продавать Nutanix должен удвоить усилия, и попытаться продать туда именно гиперконвергенцию, а не что-то еще, вроде «классики». Просто потому, что приведенные ниже области — хороший вариант показать лицом все основные преимущества HCI и Nutanix.

1. Если компания развертывает инфраструктуру виртуальных десктопов, VDI. (Особенно на Citrix XenDesktop, и особенно — с vGPU). Сегодня объем VDI, когда-то первого направления компании, совсем не так велик (вопреки популярному «заблуждению» на этот счет от наших конкурентов). Всего около четверти всех клиентов компании, по опубликованным результатам прошедшего года, это VDI. Сегодня мы гораздо больше работаем в «тяжелом энтерпрайзе» и БД (около 50% клиентов). Тем не менее, если стоит задача объяснить «с нуля» то, «в чем цимес» гиперконвергентности в инфраструктуре, то сделать это на задаче VDI нет ничего проще. Такие задачи состоят обычно из множества сравнительно однотипных VM. Задача, требующая быстрого масштабирования, растущая как вширь, так и «вглубь», от десятков и сотен, и порой до тысяч рабочих мест. Ничего нет лучше для этой задачи чем гиперконвергенция.
С 2015 года мы сотрудничаем с Citrix, для которого наша платформа виртуализации под их лидирующий в энтерпрайзе VDI брокер XenDesktop (XD) — идеальное дополнение, позволяющее легко конкурировать, и прежде всего по цене, с VMware Horizon. Своя платформа виртуализации у Citrix (это Xen Server) довольно быстро теряет позиции, отставая во многих решающих областях, поэтому эффективный, бесплатный, современный гипервизор для брокера Xen Desktop (и при этом чтобы НЕ ESXi!) Citrix-у насущно необходим. Так что неудивительно, что Citrix и Nutanix вот уже более 2 лет — технологические партнеры, а Xen Desktop на AHV это взаимно поддерживаемое и валидированное решение. В том числе и для использования GPU-powered десктопов с использованием графических карт NVIDIA Tesla M10 и M60.

2. Если компания собирается «в облака». Это, обычно, значит, что у нее уже все готово в инфраструктуре к такому переходу. Им не нужно будет объяснять преимущества перехода к облачной модели использования ресурсов, чуть ли не самому сложному, из того, что мне приходится объяснять среди преимуществ использования гиперконвергентного подхода. Значительная часть этих преимуществ находится именно тут. Они этот путь прошли, и все эти достоинства для себя уже сформулировали. Теперь вам просто надо прийти и сказать: «Вот смотрите, вместо того, чтобы отдавать свои данные на сторону, компании, которую вы пока не знаете (и еще и платить за это узнавание будете!) вы можете оставить все ваши данные и приложения у себя, и использовать Nutanix как платформу для «частного», или «гибридного облака», интегрированного как с вашими бизнес-задачами, так и с предложениями публичного облачного оператора. Да, «облако», но — у себя!». Nutanix Сalm, Kubernetes, AWS, Azure, Google Cloud. Гибко, быстро, удобно, безопасно.

3. Если компания хочет отказаться от vSphere. Причин может быть множество. Ищут альтернативу (а их сегодня, увы, немного. Кроме Hyper-V (и AHV), можно сказать, практически и нет). Не обновились на 6.х вовремя, или не хотят обновляться на «шестерку» в принципе, а дата окончания поддержки для vSphere 5.5 — сентябрь следующего, 2018 года, и уже припекает — так припекает. Просто разочаровались в VMware как таковой, продукте или компании в целом, и хотят «соскочить» с минимумом проблем с регулярных выплат «на техподдержку» и необходимости платы за расширение инфраструктуры с оплатой «за сокет». Если компания размышляет о миграции с VMware, и миграция на Hyper-V при этом по разным причинам не рассматривается, то это прекрасный случай поговорить о возможности уйти со всем хабаром на Acropolis Hypervisor (AHV), причем использовать наши средства миграции инфраструктуры для облегчения этого процесса. А они у нас есть.

4. Если компании интересно направление Big Data. Если вы еще никогда не слышали о Big Data, или слышали только краем уха, то вам стоит узнать о том, что это направление сегодня растет опережающими рынок темпами. Сегодня объем рынка по этому направлению составляет около 33 миллиардов долларов, и через 5 лет — более чем удвоится (72 миллиарда). Этим уже вовсю занимаются, в том числе в России, ритейл, банки, сотовые и интернет-операторы, и интерес тут, у нас в стране, растет вслед за мировыми трендами. Big Data, название может ввести в заблуждение, это не о размерах или количестве данных, это о методике работы с данными любого объема, не обязательно огромного (хотя часто — довольно большого). Big Data Analysis требует использования специальных средств. Если вы слышите в разговоре с клиентом слова Big Data, Hadoop, Splunk — навострите уши. Сюда есть куда продать Nutanix, мы много и успешно работаем в области интеграции с big data продуктами и у нас есть хороший опыт, в том числе в России.

5. Если компания занимается микросервисами, распределенными системами, контейнеризацией приложений, разработкой в вебе, Kubernetes, Docker, etc-etc.
Ну тут все очевидно. Как и в случае перехода в «облака» компания уже сделала важный шаг, перешла в новую парадигму, или сразу в ней родилась, жила и развивалась (что характерно для веб-ориентированных компаний). Им не нужно объяснять, чем хороши discretization, distributed apps, микросервисы, контейнеризация. Показывайте Calm, интеграцию с Docker, Kubernetes, публичными облаками, методы построения гибридного облака через оркестрацию в Calm, возможно — интеграцию с OpenStack. Это все скажет само за себя.

6. Если компания работает в области здравохранения и вообще медицины. Медицинский софт — это отдельный мир, со своими протоколами доступа к данным, форматами файлов, разнообразными специализированными сертификациями. В Nutanix работа с healthcare-вертикалью — большой сегмент бизнеса. Мы умеем работать с этим направлением, поддерживаем разное специализированное ПО, и у нас есть что предложить в этой области. Привлекайте наших экспертов к разговору. У нас есть опыт в том числе и в России.

Итак, остановимся на шести. Конечно же, число наших клиентов показывает, что Nutanix востребован и используется очень широко. Но иногда, для сейла, чтобы начать продавать, нужно «зацепиться». И, как мне кажется, перечисленные области, это то, где «зацепиться» начинающему бывает проще всего.

Если у кого есть дельные мысли по поводу того, какие очевидные и легкие области продать Nutanix я выше пропустил — делитесь в комментах.

Обновление платформы: G6!

Тем временем подоспели новости, о которых я начну рассказывать с этой недели.
Как вы уже, наверное, слышали, к семье наших OEM-ов (DellEMC и Lenovo) добавляется Fujitsu. Пока это только анонс, и из трех заявленных моделей у Fujitsu доступна в первом квартале будет только одна.

Так что, когда они раскачаются, тогда я об этом и напишу подробно, а пока достаточно этого короткого анонса, потому что дальше — о нас самих.

Да, действительно, Nutanix постепенно идет в направлении software-only модели, но это будет не в следующем году точно. В следующем году нас ждет обновление линейки платформ native Nutanix, связанной с плановым обновлением процессорного ряда Intel, и, соответственно, обновлением наших ODM-партнеров, Supermicro.
Заверешен цикл тестирования, и мы официально объявляем выход поколения Generation 6, на процессорах Intel Skylake.

Вот, что будет в деталях нового и интересного.

Платформы NX-3060 первыми получат обновление до G6.
Мы будеи использовать шасси Supermicro SYS-2029BT-HNC0R-NI22 с материнской платой BigTwin X11DPT-B, на логике Intel C621 PCH (Lewisburg) и процессорами Intel Xeon Silver 4108, 4114 , 4116 и Intel Xeon Gold 5120 ,6130, 6138, 6126. Как вы должно быть знаете, Intel в очередной раз перелопатил номенклатуру процессоров Xeon, и теперь процессоры у них называются «металлами» по семейству и номерами по моделям в семействе. Bronze мы использовать, понятное дело, не будем, а Silver и Gold семейства, используемые в следующем поколении платформ, перечислены выше.
Повышается тактовая частота памяти DDR4, с 2400 до 2666 MHz. Максимальный объем памяти — 768GB на ноду G6 (все конфигурации по памяти — сбалансированные). Пока не поддерживаются 64GB DDR4 DIMM, из-за ограничений платформы по тепловыделению, поэтому максимальная емкость памяти на ноду ограничена на 768GB.

Сразу со старта заявлена поддержка NVMe (на 1.6TB). Разумеется остались SSD (960GB, 1.92TB, 3.84TB) и HDD (2TB только).

Из интересного «под капотом»: в Supermicro (и мы, следовательно, тоже), отказываются от использования SATADOM, SATA Disk-on-Module, внутреннего flash-диска на SATA-шине, с которого у нас грузится baremetal hypervisor. С ним было одно время достаточно проблем, связанных с производительностью и ресурсом. Например, проблемы вызывала Windows Server 2012R2, поставленная на него как хост Hyper-V. Оказалось, она непрерывно пишет неотключаемые логи, и это приводило к скорому выходу из строя SATADOM flash той модели, которую мы использовали примерно пару лет назад. Тогда это потребовало множества гарантийных замен на работающих системах у пользователя. Теперь эта проблема кардинально решена, платформа переходит на пару устройств 240GB SATA 2280FF M.2 в software RAID-1. Декларируется 1 DWPD, так что, как мы ожидаем, названные выше проблемы ушли в прошлое.

Расширяется номенклатура сетевых карт. К уже известным 2port 10G SFP+, 4port 10G SFP+, 2port 10GBaseT добавятся 2port 40G QSFP28 и 2port 25G SFP+, причем до двух карт на ноду! Новый конструктив корпуса дает возможность поставить ДВЕ карты на каждой ноде, и это не считая пары 10GbaseT, встроенных в платформу (на SIOM, Supermicro IO Module).
Так что 40G и 25G будут доступны теперь и на 3000-series. Это вызвано растущей производительностью ноды. Если раньше на midrange-нодах использование таких производительных интерфейсов выглядело сомнительным, так как чтобы загрузить такую полосу ввода-вывода нужна очень солидная производительность CPU и памяти, то теперь, с новыми CPU и, в особенности, с NVMe, это уже становится важным и необходимым.

Энергопотребление 4 нод под нагрузкой — в районе 1700W, рассчитанный worst case — 2080W, среднее тепловыделение 4 нод — 5800 BTU/h, блоки питания при «нашем» вольтаже поддерживают полную redundancy (блок из 4 нод продолжает работу при выходе из строя одного PSU).

Доступность всех перечисленных фич ожидается к концу декабря.

Странные движения вокруг Microsoft Storage Spaces Direct (S2D)

А еще тут у нас странная история произошла со Microsoft Storage Spaces Direct. Это, кто не знал, такая «гиперконвергенция», встроенная в Windows Server 2016 (ну, она теперь у всех, вот и Microsoft оскоромился). Или, вернее, была встроена, потому что в новом обновлении 1709 его из Windows Server 2016 удалили. По этому поводу есть некоторое количество запутанных объяснений, но, откровенно говоря, выглядит как временное удаление до исправления каких-то серьезных проблем. Обещают вернуть в следующем semi-annual update. Но пока пускать ли такое в продакшн — я бы поостерегся.

Пишу, потому что у нас в стране есть некоторое ненулевое количество пользователей и фанатов технологий Microsoft, и мне уже несколько раз приходилось сталкиваться с вопросами про S2D как потенциального конкурента. Ну, вот такой он у нас конкурент. То есть, то нет.

Переход на Nutanix для компании — реальный кейс

Кстати, вот вам реальный кейс одного из клиентов компании, взятый из свежего отчета по проекту миграции.

Поэтому когда мы рассказываем про то, что, мол, «продали один нутаникс на четыре ноды», это не оттого, что не можем больше. Это оттого, что клиенту, зачастую, больше нечего в него положить! Семь стоек, 56 серверов и сопутствующего хабара 19 информационных систем переехало на Nutanix и уместилось в компании в 10U одной стойки, при этом с двукратным ростом по памяти и ядрам, и пятикратным по дисковой емкости.

Nutanix Xtract for VMs: как мигрировать сотни VM из VMware vSphere в AHV и не сойти с ума

Постоянно задают нам пользователи вопрос: «Как мигрировать V2V, например, с vSphere на AHV?» Ладно, если это десяток VM, можно перекорячиться руками. А если их сотни? А если нужна сложная схема взаимосвязанных операций при этом? В общем, руками — не вариант.
И вот теперь у нас появился наш собственный, отличный инструмент для переноса VM из vSphere в AHV — Nutanix Xtract for VMs. Он входит в группу инструментов Xtract, там уже есть, например, инструмент для переноса баз данных, может быть как-нибудь напишу и про него. А пока, про то, как мигрировать VM из vSphere в AHV.
Начнем с того, что Xtract for VMs это виртуальная машина, разворачиваемая на платформе Nutanix AHV. Скачать подготовленную VM в формате QCOW2 можно с нашего портала http://portal.nutanix.com, а затем развернуть ее на имеющемся у вас кластере AHV. Образ имеет размер около гигабайта, так что развертывание занимает немного времени. Можно это сделать вручную, залив скачанный образ в AHV Image Service, и затем создав из него VM. Можно также сделать более автоматизированно, с помощью Xtract CLI. Рекомендуем попробовать именно автоматизированный вариант.

Кроме процедуры развертывания, утилита Xtract CLI может быть использована для некоторых других полезных операций, но все необходимое для миграции можно сделать из графического интерфейса, написанного на HTML 5. Так что после развертывания вы скорее всего будете управлять работой Xtract с помощью этого интерфейса в браузере, введя в него IP-адрес VM с установленным в нем Xtract for VMs. 
После логона в Xtract, вам потребуется добавить исходную и целевую систему для миграции. Исходная система под VMware vSphere подключается указанием адреса ее vCenter и соответствующих логинов-паролей. Система под AHV, аналогично, требует указания на адрес кластера AHV или адрес Prism Central.

После заведения системы-источника и системы, на которую будет произведена миграция, можно создать план миграции. С помощью него мы установим, какие именно VM будут мигрировать из vSphere. На примере ниже мы выбрали группу VM, обеспечивающих работу некоего сервиса, это две VM с фронтендом, сервер приложения и сервер базы данных. Перенесем всю эту группу из vSphere в AHV.

Перед началом миграции выполняются проверки, что на целевой системе есть достаточно ресурсов (например, памяти , дискового пространства и vCPU) для размещения переносимых в заданном плане виртуальных машин. Xtract группирует пригодные и непригодные для миграции машины, и снабжает их комментариями, позволяющими разобраться почему, например, данная VM не может быть перенесена. Это может быть, например, необходимость установки в VM средств Vmware Tools, или несоответствие версии virtual hardware, либо еще какие-то проблемы. Со стороны OS VM, все OS, поддерживаемые в AHV, также поддерживаются и в Xtract for VMs. Полный список всех поддерживаемых OS можно найти на портале.
Xtract использует возможности VMware vStorage API for Data Protection (VADP) для управления процесса репликации данных, поэтому на стороне VM или хоста ESXi нам не нужно устанавливать никаких агентов. Опционально можно разрешить Xtract подключаться в VM для установки в нее драйверов (VirtIO), обеспечивающих работу VM OS в среде AHV, однако это можно сделать и заранее вручную. Если вы хотете сделать это как часть процесса миграции, укажите соответствующие логины и пароли для мигрируемых VM, для всех вместе или для каждой индивидуально. Также настраивается и маппирование сети между ресурсами исходной и целевой сетей. Наконец, вы можете создать расписание миграции, запланировав ее на определенное время.

После настройки всего перечисленного выше, можно начинать миграцию. Как упоминалось выше, мы используем механизмы VADP для переноса содержимого виртуальных дисков VM на кластер AHV. Система создает снэпшот ESXi для каждой VM, а затем перенесет его в заданный контейнер AHV. Запущенную миграцию конечно же можно, при необходимости, поставить на паузу или прервать в любой момент. 

Файлы виртуальных дисков мигрируемых VM запоминаются во временной директории, и поддерживаются актуальными даже в случае изменения исходных данных, с помощью механизма change block tracking (CBT) API и дополнительных снэпшотов.
Когда наступает пора провести cutover, и закончить процесс миграции, Xtract выключает исходные машины, выполняя для них power-off, и отключает их виртуальные NIC. Инкрементально накопившиеся данные синхронизируются с перенесенными на AHV данными VM. Когда данные полностью реплицированы, файлы vmdk конвертируются силами AHV image service в нативный формат RAW, используемый в AHV. Конверсия происходит быстро, так как vmdk и RAW, по сути, идентичные форматы, так что обычно это занимает секунды. Xtract также указывает оценочное время выполнения, так что легко можно определить необходимые на операцию затраты времени и период даунтайма.

Виртуальные машины, согласно вашему плану миграции, могут делать cutover все вместе или индивидуально. Для такой группы связанных VM как на нашем примере, cutover можно начать с базы данных, затем провести его для сервера приложений, а затем для фронтэнда. После завершения миграции, VM включаются и все временные vmdk и конвертированные образы в AHV image service удаляются. Исходные VM остаются в состоянии выключенных, и сохраняются неизменными, на случай, если они вам понадобятся. К каждой мигрированной VM добавляется комментарий, где указывается, что данная VM является мигрированной, указывается дата и время миграции и версия Xtract, которая эту операцию проводила.

Мигрированные VM снабжены ссылкой на их управление в Prism целевой системы, так что прямо из интерфейса Xtract можно перейти в управление VM и проверить, что все работает правильно. Xtract отслеживает то, какие VM вы уже мигрировали, а какие еще остались на исходной системе. Вы можете, не боясь запутаться, создавать дополнительные планы миграции для оставшихся VM и переносит их в нужном порядке.

Вот и все. Процесс миграции с vSphere на AHV еще никогда не был для пользователя настолько простым.