Как настроить и использовать Nutanix SSP

Если вы хотите разобраться как настроить, использовать, и что вообще такое SSP — Nutanix Self-service Portal, то рекомендую вам просмотреть серию из шести статей, написанных в блоге нашего инженера, Магнуса Андерссона: http://vcdx56.com/category/ssp/.
Очень подробно, пошагово, с массой скриншотов рассмотрено как настраивать и использовать SSP. Все настолько детально и подробно, что не требует даже перевода.
SSP — это наш встроенный в Acropolis продукт, позволяющий построить портал самообслуживания для «частого облака» компании на базе AHV и Nutanix. Вы можете создавать лимиты на ресурсы для групп пользователей (которые интегрируются с корпоративным AD/LDAP), создавать заранее подготовленные для развертывания пользователями образы VM, делегировать управление, в общем все то, для чего ранее вам нужно было переходить на VMware и ее Cloud Director, теперб вы это сможете сделать в рамках Acropolis Hypervisor у Nutanix.

Карты 40GBE — на NX-8150-G5

Новость не то чтобы немедленно «в печать», но все же, возможно, кому-то будет интересно. Иногда спрашивают «есть ли жизнь за 10GBE у Nutanix»?
Вот теперь официально — есть, сейчас уже стали доступны карты 40GBE для нашей топовой модели NX-8150-G5, где они более всего нужны, а следующим этапом, возможно — и для других моделей, когда они там понадобятся.

Эффективность online compression на Nutanix

Экспериментирую тут с домашней лабой на CE, описанной детально в посте на Хабре.
После обновления стало интересно, как там работает LZ4HC, который мы теперь используем для компрессии.
Включил компрессию на двух томах, на одном — ISO, 14,67GB дистрибутивов, на втором — четыре разных Linux и один Windows 2012R2, общим занятым объемом 42,46GB.
После того, как компрессия отработала, получил вот такой результат. По-моему неплохо.

Надо попробовать увеличить память, выделенную CVM, и включить еще и дедупликацию, ради эксперимента.

«Они снова сделали это» — disk performance в AOS 5.0

Помните, я рассказывал про историю, как мы в 4.6 значительно улучшили производительность работы на том же самом железе, просто обновлением софта.
Так вот, «мы снова сделали это». На скриншотах ниже результаты обновления версии AOS 4.7.3 на AOS 5.0 на тестовой системе. Просто запустили diagnostics.py, обновили систему на 5.0, и снова его запустили.

Вот результат с последней сабверсией линейки 4.7 — 4.7.3 на 4-нодовой демосистеме NX-3000, стоявшей в этот момент на тестировании у пользователя.

А это результат того же diagnostics.py сразу после обновления на 5.0.

Вот так работает software defined. То же железо, та же задача, а производительность Random Read IOPS стала выше на ~25%, Random Write IOPS — на ~30%, просто обновлением ПО, которое вы получаете бесплатно, пока система находится на поддержке.

Nutanix CE — уже 5.0!

Всякий раз, когда я рассказывал где-нибудь про CE, пользователи пеняли мне на медленное обновление CE относительно «коммерческого Nutanix», что, мол, новая версия «большого» уже вышла, а CE обновляется до него месяца через два только.
Так вот, выложенная версия CE на известном вам портале, сейчас УЖЕ 5.0.

Обновляется без проблем из Prism, надо взять пак «upgrade», а не «baremetal install», и обновить прямо на живом CE.

Также обратите внимание, что в ноябре обновился и Hypervisor, то есть сам AHV. Его обновление качается там же, встает только на новый AOS. То есть сперва обновляете AOS CE до последней (codebase 5.0), как на картинке выше, а потом, вторым действием обновляйте Hypervisor. Он тоже обновляется из Prism с помощью offline bundle (tar.gz + json).

Nutanix AOS 5.0 — что нового в мажорном релизе? Ч.1.

Итак, после небольшого перерыва в блоге, вызванного новогодними праздниками, возвращаемся к регулярности. А главное событие у нас — выход «мажорного» релиза Nutanix Acropolis OS — 5.0. Релиз этот был собран еще в конце прошлого года, его «мучили» в QA, и выпустили в релиз в последние дни декабря, так что все же можно сказать, что в прошедшем, 2016 году мы выдали «на гора» три больших релиза: 4.6 весной, 4.7 осенью, и 5.0 в декабре. Все они были большие, но, конечно, замена «первой цифры» в номере версии всегда привлекает много внимания, поэтому остановимся на этом релизе особенно.
Релиз этот во внутренней документации носил внутреннее имя Asterix, следующий, Asterix.1, с некоторыми новыми фичами, подоспеет видимо весной.

Self-Service Portal

Начнем обзор с темы, которая была предметом просьб наших пользователей весь прошедший год. Это — Self-service portal, SSP. Портал — отдельный веб-интерфейс, который позволяет с использованием гипервизора AHV создать своеобразный «Acropolis Cloud Director», то есть отдельный веб-интерфейс для конечного пользователя, на котором он может, без доступа к «большому» Prism, и всем админским функциям его, создавать, модифицировать и разносторонне управлять своими VM в большой инфраструктуре. Представьте, что вы — админ большой виртуальной инфраструктуры с сотнями пользователей, и тысячами их VM. Раньше вам, как админу, приходилось в Prism вручную рулить всем этим стадом, потому что не было возможности дать конечному пользователю простой «трехкнопочный» интерфейс для создания VM из шаблонов и управления ими. Теперь он есть. Пользователь, аутентифицированный в AD, получает доступ через SSP к своему набору VM и пулу ресурсов, и может управлять им самостоятельно, как через своеобразный Cloud Director.

Лично для меня загадка, отчего, при наличии нашего RESTful API, пользователи, в первую очередь сервис-провайдеры, которым нужен этот инструмент, не писали его сами. Объективно, паре программистов со знанием какого-нибудь Python или Go, написать такое — неделя работы максимум, с перекурами, да вдобавок еще и с заточкой под конкретные нужды этого провайдера, тем более, что примеры есть. Однако ж просили постоянно. Просили — получите.
SSP получился довольно богатый возможностями, и еще будет развиваться.
Подробно о его настройке и возможностях смотрите в серии постов вот в этом блоге, например: http://vcdx56.com/category/ssp/

RESTful API 2.0

Раз уж мы затронули тему RESTful API, то стоит сразу сказать, что в этом релизе вышла новая, доработанная и причесанная его версия. Напомню, что почти всем что есть в Nutanix можно управлять не только из GUI PRISM, и не только из командной строки nCLI, но и через наш API.
Если вы разработчик, или хотите разрабатывать какие-то свои сервисы на базе Nutanix, то первая ваша «точка входа» — портал developer.nutanix.com. Там вы найдете документацию, примеры кода на GitHub, и так далее.

Affinity и Anti-Affinity

Эта фича тоже часто спрашивалась пользователями. Вкратце, это правила, с помощью которых можно было определить то, как будут мигрировать во хостам определенные VM. Например, если нам надо, чтобы определенные VM всегда располагались вместе, даже при переезде по хостам, например, если это связанные сервисы, или же определенные VM всегда работали на определенных хостах, на которых есть для них нужные им аппаратные средства, то это VM affinity. Если, напротив, определенные VM никогда не должны оказываться на одном хосте, например по требованиям безопасности или отказоустойчивости, то это — Anti-Affinity. Это было в vSphere. Теперь возможность задать такие правила есть и в AHV.

Acropolis Dynamic Resource Scheduling

Отчасти связанная с предыдущим пунктом тема — Dynamic Resource Scheduling. Тут мы тоже нагнали vSphere, теперь такая фича есть и у нас, пользуйтесь. Теперь, например, при создании VM и размещении ее на хост, или миграции между хостами, будет учитываться степень загрузки этого хоста по памяти, CPU и дискам.

Network Visualization

Появися новый удобный инструмент для визуализации ваших сетевых соединений в кластере. Когда число VM за много сотен, когда хостов и VLAN-ов — десятки, бывает непросто разобраться что с чем и где соединено. Теперь это станет проще.

Несмотря на то, что HCI сегодня в «датацентре 4.0» оставляет «вне себя», отдельно, только Top-of-the-Rack коммутаторы, Nutanix может автоматически собрать информацию о их конфигурациях через LLDP и SNMP, проанализировать и визуализировать топологию сети, и показать ее пользователю в своем интерфейсе. Это существенно сократит для него время на траблшутинг и разбирательство в «сетевой лапше» соединений крупного виртуального датацентра.

Acropolis File Services goes GA

Наш продукт, встроенный в AOS, Acropolis File Services, позволяющий запустить на Nutanix файловый сервис SMB 2.1 дорос до статуса GA, General Available, пригодный в продакшн для всех. Первоначально он разрабатывался как средство, позволяющее на инфраструктуре Nutanix хранить файлы пользователей в больших VDI, но сейчас может использоваться на множестве разных применений, требующих высокопроизводительного распределенного NAS c single namespace. Так, например, всего три ноды кластера Nutanix могут держать на себе до 60 миллионов файлов/директорий.

AFS, напомню, реализован в виде специальной VM, аналогичной CVM, что довольно практично, если пользователю не нужен этот, довольно тяжелый, сервис, он его не устанавливает и не разворачивает, и не тратит на него память и CPU. Нужен — устанавливает VM и использует. Лицензия на AFS включена в лицензионный блок Ultimate, либо может быть приобретена отдельно, на любой сет лицензий, например на Pro.

В AFS теперь поддерживается нативная Async репликация, имеющаяся у Nutanix. Поддерживаются квоты на место для пользователей, а также Access-based Enumeration.

Для обеспечения хорошей производительности сервис будет давать рекомендации по перебалансировке данных между нодами.

Acropolis Block Services

Это, как вы помните, блочная, iSCSI «SDS» на Nutanix. Она также как AFS распределенная, многопутевая, «многоконтроллерная». В новой версии к поддерживаемым ранее OS добавился VMware ESXi (раньше не работал с ABS), это позволяет использовать Nutanix со сторонними хостами, например если клиент по каким-то причинам не хочет отказываться от уже существующих у него хостов ESXi. Это также поможет при миграции и вообще постепенном внедрении Nutanix в большой системе.

Поддерживается CHAP аутентификация, dynamic load balancing, online LUN resize, IP based initiator whitelisting, Flash mode для volume groups.

И много-много других, менее значительных, но все же важных улучшений и новинок.

Nutanix официально объявил о том, что AHV теперь сертифицирован на работу Oracle VM и Oracle Linux с ABS, и поддерживает работу стека SAP Netweaver на AHV.

В Metro Availability появился собственный witness, это VM на «третьей» стороне, контролирующий двух участников синхронной репликации датасторов ESXi, и принимающий решение в случае разрыва репликации, чтобы избежать split brain. Это VM, разворачивающаяся из OVF на каком-то третьем сайте, это может быть, например, сервер в стороннем датацентре, имеющий связь по IP с двумя защищаемыми датацентрами.

Улучшена настройка и работа того, что называлось Flash Pinning. Это возможность закрепить виртуальные диски VM на уровне SSD, и сделать AllFlash для отдельных VM.

Теперь это называется VM Flash Mode.

Появился еще один self-service portal, на это раз для самостоятельного восстановления пользователем своих данных в VM из снэпшота. Раньше это было возможно только админу из PRISM GUI, отчасти это было возможно через Nutanix Guest Tool, а теперь для этого появился отдельный веб-интерфейс.

В статусе Tech Preview поддерживается Citrix Xen Server 7, под VDI инфраструктуры с GPU. Раньше для этого требовался платный vSphere, сейчас GPU у нас работает и под бесплатным Xen Server.

Расширяется поддержка серверов Cisco UCS, теперь к Cisco UCS С220/240 M4 (рэковым) добавились Cisco UCS B200-M4 (блейд). Там есть некоторая засада, связанная с тем, что в blade-сервера можно поставить только 2 диска. Это означает, во-первых, что требуется storage-node на базе UCS C240-M4SX, и, во-вторых, так как диски в blade будут SSD, это делает систему all-flash (как вы помните, мы не умеем пока смешивать all-flash и hybrid в одном кластере).
В общем получается что-то такое:

Появилась разнообразная What-if и prediction аналитика.

Она помогает ответить на вопросы и промоделировать разнообразные ситуации:

  1. Сколько VM определенного типа потянет этот кластер?
  2. Через месяц мне нужно будет развернуть еще один SQL сервер, хватит ли мне ресурсов на кластере?
  3. Если у меня вырастет нагрузка, то сколько я еще продержусь с имеющейся системой?
  4. Если у меня вот такая вот нагрузка, то если я перенесу ее на отдельный кластер, то какой он должен быть?

Теперь у вас есть куда эти вопросы задать и откуда получить ответ.

Ну и, наконец, чтобы уж чем-то закончить заметным, потому что множество еще более мелких фишечек осталось неосмотренными:
Появилась конфигурация Single Node Backup. То есть, например, вы маленькая компания, эксплуатирующая недорогую NX-1365-G5, и хотите с нее делать репликацию в бэкап. Раньше вам нужно было на резервном сайте только для бэкапов держать еще три ноды, так как это был минимум. Теперь вы можете поставить туда для бэкапов одну ноду. Ведь не секрет, что Nutanix может, без отказоустойчивости, но может работать с одной нодой, как это делает CE. Ну, вот, скорее всего без отказоустойчивости для хранения бэкапа можно обойтись в таких недорогих системах, и теперт у нас поддерживается в продуктиве, на «большом» Nutanix, но только для получателя бэкап-репликации, single node системы.

Ну, на этом, чтобы не раздувать бесконечно этот пост, поставим брейкпойнт, и продолжение с некоторыми любопытными фичами, достойными упоминания, напишу в начале следующей недели.

Обновление для действующих систем поступило на сервера обновления 3 января, можете начинать скачивать и ставить.

Как посмотреть на Nutanix версию BIOS платформы?

Иногда хочется быстро и в командной строке посмотреть версию BIOS платформы нод кластера. Нет, конечно есть IPMI, и можно зайти браузером и там в менюшках посмотреть. Но есть ли еще способ (например нод у нас много, и хочется получить вывод всех нод «одним писом», а не 28 раз заходя в браузер и записывая там значение на бумажку. Оказывается — можно.

Например, у нас на хостах AHV, то есть на «железе» стоит наш CentOS Linux. Тогда в нем есть утилита dmidecode.
Войдем на CVM, и выполним на нем команду

allssh ssh root@192.168.5.1 dmidecode -t bios | grep 'BIOS Information' -A3

Как вы знаете наверняка, allssh — команда, которая передается и выполняется на каждую ноду кластера последовательно, будучи запущенной только на одной из них. Ее удобно использовать, чтобы отдать какую-то команду на всех нодах кластера. В данном случае мы командуем зайти с помощью ssh на адрес 192.168.5.1 с именем root, и выполнить в получившейся сессии команду dmidecode -t bios, а из вывода выкусить только кусочек, относящийся к BIOS Information.
Адрес 192.168.5.1 это, напомню, специальный адрес внутренней служебной сети Nutanix, ассоциированный с каждым хостом кластера.

Получаем мы что-то такое:


nutanix@NTNX-A-CVM:10.0.0.10:~$ nutanix@NTNX-A-CVM:10.0.0.11:~$ allssh "ssh root@192.168.5.1 dmidecode -t bios | grep 'BIOS Information' -A3"

Executing ssh root@192.168.5.1 dmidecode -t bios | grep 'BIOS Information' -A3 on the cluster
================== 10.0.0.11 =================
FIPS mode initialized
Nutanix AHV
BIOS Information
Vendor: American Megatrends Inc.
Version: 1.0b
Release Date: 05/21/2015 G4-1.2
Connection to 10.0.0.11 closed.
================== 10.0.0.12 =================
FIPS mode initialized
Nutanix AHV
BIOS Information
Vendor: American Megatrends Inc.
Version: 1.0b
Release Date: 05/21/2015 G4-1.2
Connection to 10.0.0.12 closed.
================== 10.0.0.13 =================
FIPS mode initialized
Nutanix AHV
BIOS Information
Vendor: American Megatrends Inc.
Version: 1.0b
Release Date: 05/21/2015 G4-1.2
Connection to 10.0.0.13 closed.
nutanix@NTNX-A-CVM:10.0.0.10:~$

В выводе я выделил жирным то, что нас интересует.

Сделаем то же самое но с использованием ESXi на хосте:
В ESXi есть подходящая утилита smbiosDump.


nutanix@NTNX-A-CVM:10.0.0.20:~$ allssh " ssh root@192.168.5.1 smbiosDump | grep 'BIOS Info' -A5"

Executing ssh root@192.168.5.1 smbiosDump | grep 'BIOS Info' -A5 on the cluster
================== 10.0.0.21 =================
FIPS mode initialized
BIOS Info: #0
Size: 0x00018
Vendor: "American Megatrends Inc."
Version: "1.0b"
Date: "05/21/2015 G4-1.2"
Start Address: 0xf0000
Connection to 10.0.0.21 closed.
================== 10.0.0.22 =================
FIPS mode initialized
BIOS Info: #0
Size: 0x00018
Vendor: "American Megatrends Inc."
Version: "1.0b"
Date: "05/21/2015 G4-1.2"
Start Address: 0xf0000
Connection to 10.0.0.22 closed.
================== 10.0.0.23 =================
FIPS mode initialized
BIOS Info: #0
Size: 0x00018
Vendor: "American Megatrends Inc."
Version: "1.0b"
Date: "05/21/2015 G4-1.2"
Start Address: 0xf0000
Connection to 10.0.0.23 closed.
nutanix@NTNX-A-CVM:10.0.0.20:~$

И, наконец, на Hyper-V, в Windows Server 2012R2 есть возможность вызвать команду winsh wmic bios get smbiosbiosversion


nutanix@NTNX-A-CVM:10.0.0.50:~$ allssh "winsh wmic bios get smbiosbiosversion"

Executing winsh wmic bios get smbiosbiosversion on the cluster
================== 10.0.0.51 =================
SMBIOSBIOSVersion

1.0b
================== 10.0.0.52 =================
SMBIOSBIOSVersion

1.0b
================== 10.0.0.53 =================
SMBIOSBIOSVersion

1.0b
nutanix@NTNX-A-CVM:10.0.0.50:~$

На примерах у нас всюду трехузловой кластер, но если кластер большой, такие команды могут быстро выручить и собрать много данных о платформе одной командой, не только версию биоса.

VSAN: facts to know

В этом блоге я так или иначе постоянно поднимаю тему сравнения с конкурирующими продуктами, и, разумеется, пишу о некоторых фактах, которые, как я замечаю, вызывают вопросы. Они, зачастую, вызывали бы вопрос не только у меня, вовлеченного в тему competitive по долгу службы, но и у пользователей, но, довольно часто, поьзователи не лазят глубоко в доки, а сотрудники вендора часто говорят о некоторых особенностях своего продукта нехотя и вскользь. Поэтому случается, что о некоторых особенностях пользователи узнают уже постфактум, на купленной и развернутой системе. Вот о таких «детальках» я обычно тут и пишу.

Ранее, в публикациях про VSAN я уже упоминал тот факт, что, согласно документации VMware, объем кэша записи (спасибо за важную поправку Nikolay из комментов) дисковой группы для ноды в VSAN ограничен емкостью в 600GB, что, явно, выглядит недостаточным даже для современных емких SSD, таких, как наши 3.8TB, и уж точно мал для ожидаемых в будушем году Самсунгов на 16TB. С этим в комментах к предыдущим постам как-то вяло пытались спорить, но я так и не понял как предлагается это ограничение обходить в жизни, и почему оно, по поводу критиков моей позиции «не важно» (пояснение почему это так — в комментариях). Ограничение это оставалось и в v6.2, если верить официальному гайду:

http://www.vmware.com/files/pdf/products/vsan/virtual-san-6.2-design-and-sizing-guide.pdf

С учетом того, что там же, в документе, ниже, указывается, что основное правило в сайзинге кэша — кэш составляет 10% от хранимой usable (не raw) емкости (cache:capacity ratio) — что означает, что конфигурации размером более 6TB на ноду на дисковую группу будут, вероятно, испытывать недостаток пространства кэширования. (также смотри в комментарии о деталях)

Изменилось ли что-то тут в VSAN 6.5? Похоже, что нет:

http://pubs.vmware.com/Release_Notes/en/vsan/65/vmware-virtual-san-65-release-notes.html

VSAN все еще требует Multicast.

http://www.vmware.com/files/pdf/products/vsan/virtual-san-6.2-design-and-sizing-guide.pdf

Поменялось ли это? Нет, multicast по-прежнему нужен в VSAN 6.5

http://pubs.vmware.com/Release_Notes/en/vsan/65/vmware-virtual-san-65-release-notes.html

Готова ли у вас сеть к использованию в ней Multicast? Умеете его настраивать, отлаживать странности, понимает ли работу с ним ваши роутеры и иное оборудование в сети?

Дедупликация И компрессия. Я не зря ставлю тут «И», потому что в VSAN они включаются ТОЛЬКО ВМЕСТЕ, и на ВЕСЬ КЛАСТЕР целиком. И по-прежнему ТОЛЬКО на AllFlash.
Если у вас есть в кластере задачи, которые плохо переносят дедупликацию или компрессию, то вам придется выключить эти фичи для всего кластера целиком, даже если какие-то задачи и нуждаются в них.

Это соханилось в VSAN 6.5:

http://pubs.vmware.com/vsphere-65/topic/com.vmware.vsphere.virtualsan.doc/GUID-2285B446-46BF-429C-A1E7-BEE276ED40F7.html

Обоатите внимание также на warning, показываемый при включении deduplication & compression.

Документация подтверждает:

http://pubs.vmware.com/vsphere-65/index.jsp?topic=%2Fcom.vmware.vsphere.virtualsan.doc%2FGUID-5A01D0C3-8E6B-44A7-9B0C-5539698774CC.html

Про Data Locality.
Даже несмотря на то, что у VMware даже есть специальный документ по этому поводу: http://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/products/vsan/vmware-virtual-san-data-locality.pdf
просто взгляда на картинку со схемой размещения данных виртуальной машины достаточно, чтобы понять, что data locality в том смысле, в котором его понимает Nutanix, в VSAN нет.

Поэтому ничего удивительного в том, что в приведенном выше документе термин Data Locality VMware трактует иначе, и достаточно своеобразно:

Поддержка и обновления.
Поправьте меня, если я что-то понимаю не так, но из вот этой картинки следует, что обновления ПО у VxRail доступны только для Premium support:

Ну и, чтоб уж, как говорится, два раза не вставать, надо помнить, что, с точки зрения DellEMC покупатель VxRail НЕ МОЖЕТ смешивать их в одном кластере с «самосборными» нодами. То есть купили VxRail с поддержкой — продолжайте покупать их для расширения системы дальше. Но подключать в кластер из VSAN/VxRail самосборные ноды VSAN вы технически — можете, но поддерживаться эта конструкция на стороне DellEMC не будет. Помните об этом.

Как и раньше, комментарии от более знающих обсуждаемый предмет приветствуются. Возражения со ссылками на подтверждающие документы приветствуются особо.

UPD: В комментах развернулась дискуссия, где обсуждается много интересных моментов, не пропустите.

Nutanix Acropolis Block Service: планы на ближайший релиз

Уже не раз в этом блоге я упоминал про ABS, Acropolis Block Service, нашу фичу, с помошью которой вы можете создать на хранилище Nutanix блочный LUN, и отдать его по iSCSI 10G внешним хостам, используя часть пространства Nutanix как своеобазную «SDS СХД». Сервис этот развивается, и вот какие новые фичи были объявлены на ближайший релиз.

abs

В настоящее время в списке поддерживаемых OS на внешних хостах: RHEL 6 и 7, CentOS 6 и 7, Oracle Linux 6 и 7, Microsoft Windows Server 2008 R2, 2012 и 2012 R2.
В ближайшем релизе сюда добавятся VMware ESXi 5.5 и 6.
Последние в настоящий момент не поддерживаются, но, как видите, будут. Это означает, что вы сможете использовать Nutanix как внешнее хранилище для уже существующих у вас хостов виртуализации, например, на время переходного периода, миграции, и так далее. Не думаю, что использовать Nutanix только как SDS будет хорошей идеей, в результате вы лишаетесь множества плюсов, присущих Nutanix как решению. Но как вспомогательный способ решить какие-то конкретные задачи инфраструктуры это вполне работает.

В 5.0 ожидается Online LUN resizing.

Также мы ожидаем механизм Dynamic load balancing, который поможет распределять и динамически ребалансировать нагрузку по нодам в зависимости от их загрузки.

В 5.0 также появится CHAP authentication и IP/IQN based whitelisting, что позволит обеспечить необходимый некоторым инфраструктурам уровень защиты.

Новое внедрение Nutanix в России

У нас мало опубликованных success stories среди наших внедрений в России (и Казахстане), поэтому каждый, даже маленький, опубликованный кейс — ценен.
Очередное внедрение провел партнер компании OCS — «Магистраль Телеком».
Далее — текст пресс-релиза, предоставленного OCS:

Nutanix внедрен в ФБУН «Центральный НИИ эпидемиологии Роспотребнадзора»

Гиперконвергентная платформа NX-1365-G4 производства компании Nutanix была внедрена в федеральном бюджетном учреждении науки «Центральный НИИ эпидемиологии Роспотребнадзора» усилиями группы специалистов заказчика, интегратора «Магистраль Телеком» и дистрибутора OCS. Потребность в обновлении ИТ-инфраструктуры вызвана физическим износом существующей аппаратной платформы и необходимостью обеспечения более высоких показателей производительности и хранения данных. Наилучшим образом с этими задачами справляется серверная виртуализация на основе платформы Nutanix.

Для обеспечения работы системы использовалась традиционная трехуровневая архитектура: сервера + SAN сеть + система хранения. В связи с физическим устареванием аппаратной платформы и необходимостью сокращения сроков подготовки и выдачи данных для бизнес-подразделений, служба информационных технологий инициировала процесс выбора новой инфраструктуры.

В результате создания виртуальной инфраструктуры удалось серьезно сэкономить на физическом размещении оборудования в датацентре. Высокая плотность виртуальных серверов позволяет разместить всю инфраструктуру в 2-х юнитах на каждой площадке. За счет инновационных сервисов данных, таких как автоматическое распределение, дедупликация, сжатие данных удалось серьезно увеличить показатели производительности. Возможность неограниченного линейного масштабирования позволяет расти по мере потребности. Решение является высоко отказоустойчивым и способно продолжать предоставлять сервисы при выходе из строя до 40% аппаратных ресурсов с минимальными потерями производительности. Удобство использования  достигается за счет одной web-консоли для управления всей платформой. Наличие Rest API позволило быстро организовать полную автоматизацию инфраструктурного решения, в том числе управление  кластером, контроль, поиск и устранение неполадок, анализ производительности.

ФБУН «ЦНИИ эпидемиологии Роспотребнадзора» является одним из главных разработчиков в стране теоретических основ и концепций в области эпидемиологии, изучения социально-экономического значения инфекционных болезней, патогенеза, диагностики, терапии и профилактики инфекционных болезней. Надежная ИТ-инфраструктура является необходимым условием для нормального функционирования организации.

«Сейчас мы рассматриваем возможность применения технологий Nutanix для защиты данных и непрерывности бизнес-процессов. Это может быть реализовано при помощи технологии Metro Availability и репликации данных между площадками. Мы очень довольны эксплуатационными показателями Nutanix, такими как производительность, простота обслуживания и высокая отказоустойчивость», – считают в службе информационных технологий учреждения.