Архив за год: 2014

Metro Availability в Nutanix

Недавно Nutanix снял любопытную демонстрацию того, как настраивается и работает Metro Availability в Nutanix. Это, напомню, возможность строить DR-сайт с синхронной репликацией, на расстояние 5ms roundtrip (что в идеальном случае дает расстояние разноса датацентров до 400 километров).

На видео показаны процессы организации и включения Metro Availability между двумя кластерами, и поведение при отказах standby (DR) и active системы.

Сайзер для Nutanix

Недавно Nutanix открыл для публичного доступа упрощенную версию своего партнерского сайзера, то есть инструмента для расчета необходимого вашей задаче оборудования Nutanix, исходя из ваших задачи и нагрузки.
Подробный рассказ про этот инструмент был недавно опубликован в блоге vmgu.ru, по адресу: http://www.vmgu.ru/news/nutanix-sizing-tool-for-vmware-and-citrix, поэтому я пересказывать рассказ коллеги не буду, просто привлеку ваше внимание к тому посту (да и вообще блог интересный, я его читаю много лет).
Сайзер неидеален, по моему опыту, но общее представление о возможностях Nutanix на ваших задачах сложить можно.

Экономическая эффективность решения Nutanix

Голландский партнер Nutanix опубликовал в своем блоге интересные расчеты сравнения экономической эффективности классических решений, или «конвергентных 1.0», таких как VCE/EMC vBlock, Cisco/NetApp FlexPod и EMC VSPEX, взяв опубликованные ими референсные архитектуры (CVS, Citrix Validated Solutions) под VDI с использованием XenDesktop, и повторив их на Nutanix. У Nutanix также есть такой документ: Citrix Validated Solution for Nutanix.
Сделать это несложно, тем более, что Nutanix выложил в открытый доступ свой сайзер, что стало возможным за счет того, что сами по себе формулы расчета нагрузки для VDI у Nutanix сравнительно несложны, что также заслуга его архитектуры.

Вот как происходил процесс расчета.
Читать далее

Производительность NVIDIA GRID K в NX-7110

Несколько раз задавали вопросы, чему соответствует производительность карт NVIDIA GRID K1 и K2, используемых в нашем модуле для «высокопроизводительного VDI» — NX-7110.
Беглое гугление позволило найти результаты бенчмарков этих карт, вместе с другими GPU, на сайте PassMark (http://www.videocardbenchmark.net). Да, это бенчмарки (G3D Mark), а не реаллайф, но, тем не менее, это почва для размышлений и какие-то данные для оценки.
Напомню, что NVIDIA GRID K это новое семейство GPU, предназначенное для использования под виртуализацией, GRID K1 это GPU уровня «entry level», по позиционированию самой NVIDIA, и предназначен для работы преимущественно в режиме vSGA, а GRID K2 — «high-end GPU», и нацелен на применение в режиме vDGA, то есть аппаратно проброшенного в виртуальную машину GPU.

К сожалению, на сайте можно выбрать для сравнения только три GPU, поэтому результаты пришлось комбинировать.
Сравнивал я их с серией GPU для профессионального применения, серией Quadro.

Вот, что показыывает бенчмарк PassMark G3D Mark:
NVIDIA GRID K2 примерно соответствует NVIDIA Quadro K5000, и примерно вдвое уступает Quadro K6000.

gridbench#1

Обратите внимание, что у NVIDIA есть также карты Quadro без K, прежнего поколения, они сильно, примерно вдвое уступают по производительности картам Quadro K. Таким образом, GRID K2 соответствует «старой» Quadro 6000, без K, или K5000 из новой серии.

gridbench#2

Так как GRID K2 в вашей системе наверняка будет использоваться в режиме vDGA, то, скорее всего, никаких оверхедов виртуализации тут не будет.

Карта GRID K1 примерно соответствует карте Quadro K600, и примерно впятеро ниже по результатам бенчмарка, чем K2.

gridbench#3

Возможно тут будет некоторый оверхед, но вряд ли значительный.
Также напомню, что на одну карту GRID K2 можно повесить два пользовательских рабочих места с виртуализацией vDGA (то есть, фактически, разделить эту видеокарту на две независимых карты) для «хардкорного» 3D, либо 2-16 пользователей в не таком требовательном 3D (например «не таким требовательным» NVIDIA называет AutoCad и другие подобные программы), а карта K1 — до 32 пользователей vSGA на карту.

Вот такая вот оценка производительности и возможностей для NVIDIA GRID K в сравнении с NVIDIA Quadro поколений 2012-2013 годов, и которые часто приводятся как референсы в ТЗ наших клиентов.

Первые продукты сотрудничества Dell и Nutanix

Как я уже писал в этом блоге чуть ранее, этим летом Dell заключил большое OEM-соглашение с Nutanix, и начинает выпуск своих конвергентных систем «Nutanix Inside». При этом кажды будет делать то, что хорошо умеет. Dell — серверы своего прекрасного и очень популярного, особенно в США, модельного ряда PowerEdge, а Nutanix — свой «Nutanix OS» для него.
Называться это будет Dell XC series, и будет продаваться в мире через каналы дистрибуции и партнеров Dell.

Вот какие первые пять моделей объявлены.

Dell-Nutanix

Обратите внимание, что, несмотря на то, что для некоторых моделей Dell XC можно найти примерный аналог в модельной линейке Nutanix, это не полный аналог линейки моделей Nutanix. Таким образом, для пользователя расширяется выбор и гибкость подхода, а для компаний-вендоров — появляется возможность гибче удовлетворить требованиям клиента.

Ну и, как я уже писал в посте про соглашение ранее, и хочу это специально еще раз отметить:
1. OEM-соглашение это взаимовыгодный процесс. Dell не покупает Nutanix. Nutanix не покупает Dell. Dell получает для себя новый интересный и хорошо продающийся продукт. Nutanix получает для себя мощный, широкий, и умелый канал продаж своего продукта, мирового класса.
2. Для Dell это хорошо известная и массово применяема им форма сотрудничества. Вспомните, как Dell продавал EMC Clariion, как сейчас продает NetApp E-series под названием PowerVault MD3, ряд сетевого оборудования, и так далее.
3. Сервис и поддержку по линейке Dell XC будет обеспечивать сам Dell.
4. Dell XC не будет включаться в кластер Nutanix NX, несмотря на общую программную платформу. Это меры по взаимной защите рынков двух компаний.

Nutanix first boot

Позавчера запускали у одного из заказчиков небольшую ферму из трех блоков NX-3460 (240 ядер E5-2680v2 на 2.8GHz в 6U!). Вот такая «елка» происходит после «прошивки» нод в Nutanix Foundation. Это, по видимому, идет ресинк и инициализация дисков в кластере.

Кстати, если будете завтра на Highload 2014, то заходите на стенд. Можно будет, в том числе, и пощупать железо, и позадавать вопросы.

Nutanix NX-7110: сделано для VDI

После публикации поста с анбоксингом возникли вопросы, что это такое за NX-7110, и зачем оно придумано Нутаниксом.
В двух словах, это модуль для кластера Nutanix, специализированный под высокопроизводительный VDI, в особенности работающий с 3D-акселерацией, FullHD, и прочих таких направлениях, которые, еще совсем недавно, считалось невозможным перевести в VDI. И тогда для таких задач появились специальные возможности, которые, например, у VMware стали называться vSGA, vDGA и Soft 3D. Под такие задачи NVIDIA разработала и предлагает специальную «видеокарту» NVIDIA Grid K, а кроме того на рынке есть интересный продукт от компании Teradici — PCoIP, и специализированная серверная карта для него — APEX.
Вот для того, чтобы все это использовать в кластере Nutanix, и создан блок Nutanix NX-7110.

nx-7110[1]

Читать далее

NOS 4.1: Что нового? (Часть 2)

Некоторое время назад я уже начал рассказывать про то, что появилось нового в уже объявленной NutanixOS (NOS) 4.1. Я обещал продолжить рассказ, но пришлось потратить некоторое время, разбираясь, а потом у нас вышли новые железки, о которых я писал на прошлой неделе. Пришлось сказать несколько слов и о активных конкурентах на нашем рынке. И вот теперь пришла пора продолжить.

Сегодня — об одном из самых важных, на мой взгляд, фич NOS 4.1. Это — Metro Availability, географически распределенная, синхронизированная система из кластеров Nutanix.

Требования к архитектуре и обвязке, и, прежде всего, к сети:

  • Менее 5ms RoundTrip Time (RTT), то есть задержка сигнала по пути «туда и обратно», включая все задержи на свитчах и прочем оборудовании. Это может быть расстояние до 400 километров.
  • Разумеется, достаточная полоса для синхронной репликации всех ваших данных.
  • Разумеется, наличие избыточных сетевых линков настоятельно рекомендуется (будет, в принципе, работать и без них, но, вы сами понимаете).
  • Инфраструктурно: два кластера Nutanix, по одному на каждый сайт.
  • Можно смешивать разные модели.
  • В настоящее время поддерживается только VMware ESXi, но остальные гипервизоры тоже в ближайших планах.

Ну и коротко FAQ:

Q: Что с ценой?
A: Metro Availability включена в Ultimate Software edition. Лицензия на Ultimate нужна на кластерах на обоих площадках.

Q: Можно ли получить Metro Availability на уже существующую систему?
A: Да, если у кастомера уже Ultimate-лицензия, то он просто обновляется на 4.1, и у вас появляются новые фичи.

Q: Можно ли на разных сайтах использовать при этом разные модели Nutanix, например 3000 и 1050 или 3000 и 6000?
A: Да, можно использовать разные модели, каждый сайт — отдельный самостоятельный кластер Nutanix.

Q: Какие самые главные особенности Nutanix Metro Availability от других решений?
A: 1. Не требуются специализированные аппаратные решения
2. Простые требования к каналу (IP network, 5ms RTT, достаточный bandwidth)
3. Можно включить на уже установленной системе
4. Можно использовать разные модели на разных концах плечей пары
5. Управление из простого Web GUI (Prism UI)

Q: Для чего это может применяться?
A: Disaster Recovery site, с нулевым PRO и близком к нулевому RTO. Построение Zero Downtime решения, например для проведения необходимого планового обслуживания инфраструктуры.

Ну и, чтобы уже завершить тему про новинки NOS 4.1:

Появилась интеграция с MS System Center 2012, с помощью поддержки на Nutanix спецификации SMI-S
system_center_2012_logo[1]

Storage Management Initiative – Specification или SMI-S, это стандарт управления дисковыми хранилищами, разрабатываемый с 2002 года Storage Networking Industry Association. SMI-S является ANSI и ISO стандартом. Актуальная версия SMI-S 1.5. Более 800 различных аппаратных и 75 программных решений поддерживают данный стандарт. Основная идея стандарта – унификация управления дисковыми хранилищами через веб-запросы.

System Center Virtual Machine Manager 2012 позволяет подключить SMI-S хранилища, так чтобы администратор имел возможность из консоли VMM получать информацию о LUN, группах RAID, свободном месте на хранилище и так далее.

В результате из MS System Center 2012 Operations Manager и Virtual Machine Manager вы видите и можете управлять кластером Nutanix гораздо более глубоко и детально.
Например, это показатели производительности в Operations manager:

nutanix_scom_02[1]

А это — Диски в нем же:

nutanix_scom_01[1]

Nutanix NX-9000: All-Flash «Ferrari» в семействе Nutanix

nutanix-bezel-650

В конце прошлой недели компания официально объявила свою очередную новую модель, о которой уже понемногу рассказывала партнерам. Это — All-Flash, как теперь модно, система, то есть серверный блок нод, оснащенных только SSD. Напомню, что типовая нода Nutanix, например «классической», 3000-й серии оснащена SSD для Hot Tier, и SATA для Capacity «Cold» Tier. Однако для All-Flash систем появляется все больше областей применения, не прошел мимо и Nutanix.

NX9000-techspecs

Как вы видите из спеки, это двухнодовый блок в 2U, аналогичный NX-6000, но оснащенный 6x SSD на 800GB или 1,6TB на блок, то есть по 12 SSD в блоке. Это совсем не «полная набивка», так что, возможно, следом будут и более «упакованные» модели.
Цель NX-9000 это, прежде всего, так называемые Tier-1 приложения, типа OLTP-баз данных Oracle и MS SQL Server с максимальными требованиями по производительности.
Важной особенностью именно этой модели является то, что NX-9000 не может быть включена в «смешанный» кластер с нодами Nutanix других типов.

Тем не менее, несмотря на такое ограничение, NX-9000 позволяет использовать все традиционные уже для Nutanix возможности по масштабируемости, достижению низкого latency при использовании «локальных» для VM дисков, с одновременной высокой надежностью хранимых на них данных.

На NX-9000 будет работать новая версия NOS — NOS 4.1, о которой и о новых фичах которой я уже немного начинал рассказывать.
Объявленная цена «листпрайса» составляет от 110 тысяч $ за ноду 9020.

Кстати, упомянутый в заголовке Ferrari — это кодовое название этой разработки внутри Nutanix. :)

Moar geekporn! Nutanix NX-7110

Здравствуйте, мои маленькие любители качественного гикпорна. %)
Посчастливилось мне на днях участвовать в установке и запуске нового кластера Nutanix в России, причем в отличие от уже виденного вами NX-3000 (в нашем случае такой тоже был, и это были 3 юнита по 4 ноды, общим числом во внушительные 12 серверных нод в 8U серверной стойки, или, суммарно, 240(!) ядер CPU), в конфигурации также участвовал и новый, и, похоже, первый в России NX «семитысячной» серии, предназначенный для работы в качестве хоста высокопроизводительной VDI-инфраструктуры. Особенностью модели является наличие только одного серверного блока в корпусе и возможность использовать специальные графические платы от NVidia и/или Teradici для ускорения графического вывода виртуального десктопа.

Итак, новые фоточки горячих штучек!
Читать далее