Архив за месяц: Декабрь 2017

X-Ray 2.2

В релиз вышла новая версия нашего открытого теста-бенчмарка гиперконвергентных сред — X-Ray v2.2
Мы планируем выпускать новую версию каждые два месяца, так что следующая запланирована на январь-февраль 2018.

В текущей версии к Nutanix и VSAN добавлен также ScaleIO как платформа, на которой можно запустить наши тесты и проанализировать производительность.
Появилась возможность к предустановленным workloads создавать свои собственные.
Добавлена возможность использовать Linked Clones для тестов VDI.

В будущем мы планируем расширить X-Ray на поддержку наших совместных с IBM платформ на Power8.

Взять новую версию можно как обычно:
QCOW2 (AHV) — http://download.nutanix.com/x-ray/2.2.0/xray-2.2.qcow2
OVA (ESXi) — http://download.nutanix.com/x-ray/2.2.0/xray-2.2.ova

Не забывайте прочитать документацию по настройке и использованию. Хэппи бенчмаркинг!

Конфигурация «1-Node» Nutanix

Как вы уже наверное слышали, у Nutanix появляется особый класс систем, которые я в целом затрудняюсь называть «кластер». Это однонодовые системы, которые, подобно тому, что вы уже, возможно, видели в Community Edition, могут работать как «кластер, состоящий из одной ноды». Раньше мы такое позволяли использовать в качестве Backup Target, а вот теперь, хорошо подумав, разрешили использовать и для запуска VM. Но подумали мы и правда тщательно, и вот ниже я перечислю все моменты, о которых вам будет нужно знать, прежде чем вы будете интересоваться предметно таким «сверхдешевым» Nutanix.

Пункт номер ноль. Это НЕ SMB решение. Это решение для рынка так называемого ROBO (Remote Office/Branch Office). Поэтому минимальная закупка таких 1-Node Nutanix — 10 штук.
То есть если у вас структура компании с множеством (десятком и более) небольших удаленных филиалов, и вы выбрали Nutanix в качестве решения для основной инфраструктуры, и при этом вам нужно оснастить Nutanix-ами филиалы и удаленные офисы, на которых практически нет вычислительной задачи, а данные для защиты все равно реплицируются на «большой» Nutanix в головной компании, то вот тогда это то, что вам нужно. В филиалы тогда идут недорогие однонодовые Nutanix, управляемые из Prism Central головного офиса. И в целом вы решаете задачу защиты данных через их репликацию в центральную систему, минимальная локальная защита у вас будет (об этом ниже). При этом типовая задача у вас для такого офиса — держать «AD, DHCP, DNS, Firewall, VPN до «головы», пять VDI операционистов, почту и файлопомойку» — то с этим вот сюда. Получается такой «филиальный допофис-ин-э-бокс», заливаемый за 30 минут и готовый к использованию «просто включи в сеть».

1. Пока мы подготовили две специальные модели для этого направления, это NX-1175S-G5 (1N1U) и NX-1155-G5 (1N2U). Обратите внимание, 1175S означает single socket, 1 pCPU. Модель 1155 уже была доступна, это 1-Node Backup Target, теперь на ней разрешено запускать Guest VMs.

Конфигурация NX-1175S-G5:
CPU: 1x 2620v4 (8-core) or 1x 2650v4 (12-core)
Memory: 64G or 96G or 128G or 256G
Hybrid:
SSD: 2x 480G or 2x 960G or 2x 1.9TB
HDD: 2x 2TB or 2x 4TB or 2x 6TB
All-Flash:
SSD: 4x 480G or 4x 960G or 4x 1.9TB
Network: 2x1GbE LOM (built-in) + Add-on NIC (Optional) : 2x1GbE or 2x10GbE (SFP+ or Base-T)
Power Supply: 1 (only!)

Сетевая конфигурация, доступная для NX-1155-G5:
4x1GbE, Add-on NIC (Optional): Dual-Port 10 GbE SFP+, Dual-Port 10 GbE BASE-T, or Quad-Port 10 GbE SFP+

2. «Расширение кластера» для 1-Node нет и не планируется. То есть, купить и установить 1-Node, потом докупить еще две и расширить на них, сделав «полный» кластер нельзя.
Однако можно собрать «большой» Nutanix Cluster из трех и более NX-1175S, но только НЕ расширением 1-Node, а переинсталляцией, с нуля. Дальше такой 1375S можно скейлить обычным для Nutanix способом, это будет обычный трех- и более нодовый кластер Nutanix из 1U Single CPU нод 1175S.

3. CVM на такой системе занимает 6 vCPU и 20GB RAM

4. Так как наша архитектура подразумевает репликацию блоков, то даже на 1-Node она будет, просто две копии блока будут храниться локально. Это не защитит от отказа контроллера или ноды целиком, но отказ одного HDD это может помочь пережить без потери данных. Отказоустойчивость предполагается решать репликацией на main cluster и локальными бэкапами, например с помощью Comtrade HYCU на сторонний NAS.
Так что репликация RF=2 будет, и usable space все равно будет ~50% от raw физических дисков.

5. Нет: дедупликации, ABS и AFS, Erasure Coding, Capacity Analysis на Prism Central.

6. Async DR (репликация на Nutanix в другом DC) — минимальный цикл 6 часов (RPO). Metro Availability конечно же нет тоже.

7. Отказ ноды — ожидаемо offline всего на ней содержащегося.

8. Отказ SSD (одного из двух) — переход хранилища в read only.

9. Гипервизоры: для 1175S — AHV и ESXi, для 1155 — только AHV. Hyper-V нет ни для одной модели.

10. Минимальная версия AOS — 5.5

Чуть позже, как только они будут объявлены, я расскажу и про вариант перечисленного, который будет носить название «2-Node».

AHV Turbo Mode — первые результаты

Интересные результаты показали наши разработчики для AHV Turbo Mode (AKA Frodo).

Напомню, AHV Turbo Mode, как внутренний project codename называвшийся Frodo, это новый способ работать с дисковым хранилищем в Nutanix AHV, оптимизация пути передачи данных и более высокая параллельность обработки очередей, которые теперь могут обрабатываться большим числом ядер CPU на хост-машине, чем было до того в vanilla QEMU. Он появился впервые в AOS 5.5, вышедшем на прошлой неделе.
Это улучшение особенно важно для AllFlash и NVMe машин, выходящих у нас в свет следующем году.
Как вы видите из графика, на обычной VM рост производительности ввода-вывода при увеличении числа параллельных операций практически останавливается в районе 30-40 Outstanding Requests, при этом с использованием AHV Turbo Mode он продолжает свой рост вплоть до 128. Это отличный потенциал для роста производительности для новых AllFlash, так как проявляется эта новая возможность прежде всего на них.

Acropolis OS 5.5 goes wild

Итак, долгожданный AOS 5.5 вышел в релиз.
Если у кого все работает, не спешите обновляться, дайте пару недель «постоять» все же. А я пока перечислю самое важное, что в новом релизе появляется.

1. Calm. Или вот даже так: CALM!!
Столько мы о нем говорили, и вот он есть.

2. Микросегментация и политики микросегментации сети в Prism Central.
Это позволяет гибко создавать «сетевые сегменты» для приложений, задавать их политиками, и наследовать эти политики даже при миграции VM. Наш ответ NSX-у.
Пока в Tech Preview, релиз весной.

3. Async DR с Nearsync репликацией.

4. Программное шифрование.
Раньше только с помощью SED disks, а теперь — программно, на любой системе. По прежнему непонятен статус этой фичи для России по известным причинам. Этой фичи не будет в версии для России (по известным причинам), в других странах будет.

5. Scaleout Prism Central.
В отличие от Prism Elements, встроенного, наш Prism Central был одной VM, с понятными проблемами с масштабируемостью и доступностью. Так как теперь PC стал все более и более важным компонентом системы, этот недостаток устранен, теперь он тоже распределенный.

6. AHV Turbo Data Path.
Я уже кратко упоминал это. Новый метод работы с быстрыми дисками, позволяет обойти узкое место в гипервизоре. Особенно актуально для NVMe.

7. Поддеживается vNUMA в AHV.

8. vGPU в AHV.
Долгое время это была проблема, использовать 3DGPU в VDI с AHV. Теперь есть поддержка vGPU.

9. Поддерживается Windows Server 2016 и Hyper-V 2016.

10. Появилась официально возможность запускать VM на «Single Node Cluster».
Single Node cluster знаком вам по CE, в этом году он появился как Backup Target, и вот, после всестороннего тестирования, появиась эта возможность и для запуска VM на такой системе. Вариант для extremely low-end, понимающего, что он делает.

11. Сетевая сегментация.
Было некоторое количество критики на тему, почему у Nutanix все сетевые трафики, служебные, пользовательские, и все остальное, загнаны в одну сеть. Теперь их можно ранести по интерфейсам.

AOS 5.5 пока не вышел в 1-Click Upgrade, но на тестовых системах уже можно начинать смотреть.