Архив за месяц: Октябрь 2014

Nutanix first boot

Позавчера запускали у одного из заказчиков небольшую ферму из трех блоков NX-3460 (240 ядер E5-2680v2 на 2.8GHz в 6U!). Вот такая «елка» происходит после «прошивки» нод в Nutanix Foundation. Это, по видимому, идет ресинк и инициализация дисков в кластере.

Кстати, если будете завтра на Highload 2014, то заходите на стенд. Можно будет, в том числе, и пощупать железо, и позадавать вопросы.

Nutanix NX-7110: сделано для VDI

После публикации поста с анбоксингом возникли вопросы, что это такое за NX-7110, и зачем оно придумано Нутаниксом.
В двух словах, это модуль для кластера Nutanix, специализированный под высокопроизводительный VDI, в особенности работающий с 3D-акселерацией, FullHD, и прочих таких направлениях, которые, еще совсем недавно, считалось невозможным перевести в VDI. И тогда для таких задач появились специальные возможности, которые, например, у VMware стали называться vSGA, vDGA и Soft 3D. Под такие задачи NVIDIA разработала и предлагает специальную «видеокарту» NVIDIA Grid K, а кроме того на рынке есть интересный продукт от компании Teradici — PCoIP, и специализированная серверная карта для него — APEX.
Вот для того, чтобы все это использовать в кластере Nutanix, и создан блок Nutanix NX-7110.

nx-7110[1]

Читать далее

NOS 4.1: Что нового? (Часть 2)

Некоторое время назад я уже начал рассказывать про то, что появилось нового в уже объявленной NutanixOS (NOS) 4.1. Я обещал продолжить рассказ, но пришлось потратить некоторое время, разбираясь, а потом у нас вышли новые железки, о которых я писал на прошлой неделе. Пришлось сказать несколько слов и о активных конкурентах на нашем рынке. И вот теперь пришла пора продолжить.

Сегодня — об одном из самых важных, на мой взгляд, фич NOS 4.1. Это — Metro Availability, географически распределенная, синхронизированная система из кластеров Nutanix.

Требования к архитектуре и обвязке, и, прежде всего, к сети:

  • Менее 5ms RoundTrip Time (RTT), то есть задержка сигнала по пути «туда и обратно», включая все задержи на свитчах и прочем оборудовании. Это может быть расстояние до 400 километров.
  • Разумеется, достаточная полоса для синхронной репликации всех ваших данных.
  • Разумеется, наличие избыточных сетевых линков настоятельно рекомендуется (будет, в принципе, работать и без них, но, вы сами понимаете).
  • Инфраструктурно: два кластера Nutanix, по одному на каждый сайт.
  • Можно смешивать разные модели.
  • В настоящее время поддерживается только VMware ESXi, но остальные гипервизоры тоже в ближайших планах.

Ну и коротко FAQ:

Q: Что с ценой?
A: Metro Availability включена в Ultimate Software edition. Лицензия на Ultimate нужна на кластерах на обоих площадках.

Q: Можно ли получить Metro Availability на уже существующую систему?
A: Да, если у кастомера уже Ultimate-лицензия, то он просто обновляется на 4.1, и у вас появляются новые фичи.

Q: Можно ли на разных сайтах использовать при этом разные модели Nutanix, например 3000 и 1050 или 3000 и 6000?
A: Да, можно использовать разные модели, каждый сайт — отдельный самостоятельный кластер Nutanix.

Q: Какие самые главные особенности Nutanix Metro Availability от других решений?
A: 1. Не требуются специализированные аппаратные решения
2. Простые требования к каналу (IP network, 5ms RTT, достаточный bandwidth)
3. Можно включить на уже установленной системе
4. Можно использовать разные модели на разных концах плечей пары
5. Управление из простого Web GUI (Prism UI)

Q: Для чего это может применяться?
A: Disaster Recovery site, с нулевым PRO и близком к нулевому RTO. Построение Zero Downtime решения, например для проведения необходимого планового обслуживания инфраструктуры.

Ну и, чтобы уже завершить тему про новинки NOS 4.1:

Появилась интеграция с MS System Center 2012, с помощью поддержки на Nutanix спецификации SMI-S
system_center_2012_logo[1]

Storage Management Initiative – Specification или SMI-S, это стандарт управления дисковыми хранилищами, разрабатываемый с 2002 года Storage Networking Industry Association. SMI-S является ANSI и ISO стандартом. Актуальная версия SMI-S 1.5. Более 800 различных аппаратных и 75 программных решений поддерживают данный стандарт. Основная идея стандарта – унификация управления дисковыми хранилищами через веб-запросы.

System Center Virtual Machine Manager 2012 позволяет подключить SMI-S хранилища, так чтобы администратор имел возможность из консоли VMM получать информацию о LUN, группах RAID, свободном месте на хранилище и так далее.

В результате из MS System Center 2012 Operations Manager и Virtual Machine Manager вы видите и можете управлять кластером Nutanix гораздо более глубоко и детально.
Например, это показатели производительности в Operations manager:

nutanix_scom_02[1]

А это — Диски в нем же:

nutanix_scom_01[1]

Nutanix NX-9000: All-Flash «Ferrari» в семействе Nutanix

nutanix-bezel-650

В конце прошлой недели компания официально объявила свою очередную новую модель, о которой уже понемногу рассказывала партнерам. Это — All-Flash, как теперь модно, система, то есть серверный блок нод, оснащенных только SSD. Напомню, что типовая нода Nutanix, например «классической», 3000-й серии оснащена SSD для Hot Tier, и SATA для Capacity «Cold» Tier. Однако для All-Flash систем появляется все больше областей применения, не прошел мимо и Nutanix.

NX9000-techspecs

Как вы видите из спеки, это двухнодовый блок в 2U, аналогичный NX-6000, но оснащенный 6x SSD на 800GB или 1,6TB на блок, то есть по 12 SSD в блоке. Это совсем не «полная набивка», так что, возможно, следом будут и более «упакованные» модели.
Цель NX-9000 это, прежде всего, так называемые Tier-1 приложения, типа OLTP-баз данных Oracle и MS SQL Server с максимальными требованиями по производительности.
Важной особенностью именно этой модели является то, что NX-9000 не может быть включена в «смешанный» кластер с нодами Nutanix других типов.

Тем не менее, несмотря на такое ограничение, NX-9000 позволяет использовать все традиционные уже для Nutanix возможности по масштабируемости, достижению низкого latency при использовании «локальных» для VM дисков, с одновременной высокой надежностью хранимых на них данных.

На NX-9000 будет работать новая версия NOS — NOS 4.1, о которой и о новых фичах которой я уже немного начинал рассказывать.
Объявленная цена «листпрайса» составляет от 110 тысяч $ за ноду 9020.

Кстати, упомянутый в заголовке Ferrari — это кодовое название этой разработки внутри Nutanix. :)

Moar geekporn! Nutanix NX-7110

Здравствуйте, мои маленькие любители качественного гикпорна. %)
Посчастливилось мне на днях участвовать в установке и запуске нового кластера Nutanix в России, причем в отличие от уже виденного вами NX-3000 (в нашем случае такой тоже был, и это были 3 юнита по 4 ноды, общим числом во внушительные 12 серверных нод в 8U серверной стойки, или, суммарно, 240(!) ядер CPU), в конфигурации также участвовал и новый, и, похоже, первый в России NX «семитысячной» серии, предназначенный для работы в качестве хоста высокопроизводительной VDI-инфраструктуры. Особенностью модели является наличие только одного серверного блока в корпусе и возможность использовать специальные графические платы от NVidia и/или Teradici для ускорения графического вывода виртуального десктопа.

Итак, новые фоточки горячих штучек!
Читать далее

X vs. Y: Nutanix и VMware EVO:RAIL

Несколькими постами ранее я начал серию обзоров конкурентов Nutanix, с подробными разбором «кто есть кто», и что конкуренты предлагают в сравнении с продуктами Nutanix, и начал я с SimpliVity OmniCube.

Продолжим наше исследование ландшафта рынка гиперконвергентных систем, и представленных на нем продуктов. Следующим заметным игроком на нем является VMware со своим уже хорошо известным VSAN, и недавно объявленным новым «хардварным апплаенсом» на его базе — EVO:RAIL.
Давайте посмотрим, что интересного предлагает Vmware, и как они смотрятся в сравнении с Nutanix.
Для начала несколько слов, что же такое EVO:RAIL, и чем он отличается от VSAN, продукта уже, в общем, известного пользователям.

SYS-2027PR-HTR_25[1]

Читать далее