Архив рубрики: обзоры

Обзоры продуктов

Comtrade HYCU v1.5

Я уже упоминал в блоге о новом продукте для бэкапа Nutanix, сделанного небольшой (на самом деле не такой уж «небольшой», около 1000 инженеров в компании, и около 200 — на направлении бэкапа) восточноевропейской компаней Comtrade — HYCU, а вот уже подоспело обновление до версии 1.5. Те, кто ни за что не поставят первую версию продукта (где-то вы даже правы, обычно), можете начинать смотреть.

К преимуществам HYCU следует отнести не только изначальную заточенность на Nutanix, но и сравнительно невысокую цену лицензии на решение, например, ниже чем у Veeam B&R.

Вот список новинок из Release Notes:

  • Появилось возможность в явном виде задать «окно бэкапа», в которое должны будут уложиться все backup jobs системы.
  • Можно задать число параллельно выполняемых backup jobs для данного таргета.
  • При создании бэкапа VM можно сохранять сделанные в ней снэпшоты, чтобы иметь возможность быстрого восстановления состояния VM
  • Появилась возможность использовать для бэкапа iSCSI Target. В первой версии можно было бэкапиться только на NAS или в «облако» (AWS S3, Azure).
  • Теперь можно использовать iSCSI Target на какой-то внешней блочной СХД с iSCSI, например.
  • Улучшены механизмы резервного копирования и восстановления, за счет использования некоторых возможностей Nutanix, которые не использовались ранее. Это позволило поднять производительность как резервного копирования, так и восстановления.
  • Файлы из бэкапа могут быть восстановлены на shared location, с совместным доступом к location с нескольких клиентов.
  • Постепенно расширяются возможности app-specific backup. К бэкапу SQL Server добавились методы резервного копирования Active Directory в контроллере AD в VM. Список поддерживаемых приложений и методов бэкапов для них будет, конечно, расширяться.
  • Можно вручную задавать для какого-то бэкапа состояние expired, тогда этот бэкап будет удален с таргета и занимаемое им место высвобождается.
  • Появились более гибкие email notifications на разные события.

Поддерживается версия Nutanix OS от 5.1 и новее.
Поддерживаются Windows OS 7, 8, 10, Server 2008R2, 2012, 2016.
Для app-specific и file level restore поддерживаются файловые системы внутри VM: FAT, FAT32, NTFS.
Поддерживаются версии MS SQL Server: 2008R2, 2012, 2014, 2016.
Поддерживаемые версии AD: 2008R2, 2012, 2016
В качестве backup target может использоваться: SMB (1.0, 2.0, 3.0), NFS (3.0, 4.0), AWS S3 (и совместимые), MS Azure, iSCSI Target.

Как и ранее, триал можно взять на сайте Comtrade, причем для развертывания на CE можно попросить бесплатную лицензию.

Что нас ждет до конца этого года? Технические новинки.

От сложных финансовых лабиринтов — снова к технике.
Вот, о чем уже можно говорить из новинок, что появится в Nutanix до конца этого года. У нас ожидается два релиза, один — в самом ближайшем будущем, скажем, в течение месяца-полутора, и один — декабрь-январь.
Сначала — о ближнем релизе. В нем появятся:

* Первый выпуск нашей платформы оркестрации Nutanix CALM. Это софтверный продукт, который позволяет разворачивать и настраивать приложения из «магазина приложений», нашего репозитория, на «облако» Nutanix, а также, в ближайшем будущем, и на облака публичных облачных провайдеров также просто, как вы устанавливаете приложения на айфон. Первый этап выпуска Nutanix CALM — в ближайшем релизе.

* Near-Sync Replication. Довольно долго у нас был не всех устраивающий лимит на цикл асинхронной репликации данных между кластерами Nutanix в один час. Это было связано с тем, что механизм снэпшотов, используемый у нас, накладывал слишком большие накладные расходы на слишком частые «снимки», используемые в механизме репликации. В ближайшем релизе мы представляем долгожданные lightweight snapshots, механизм, дополняющий наш обычный механизм снэпшотов, с помощью которых мы можем делать 15-минутный цикл репликации, а, в отдельных случаях и для отдельных приложений, и вплоть до 1 минуты RPO.

* Поддерживается Hyper-V 2016. Что тут еще добавить. Начиная со следующего релиза не только полностью поддерживается Windows Server 2016 в гостевой VM, но и Hyper-V 2016 в качестве хостовой виртуализации.

* Появится поддержка vGPU и vNUMA. Сейчас у нас пока в AHV поддерживается только физический проброс GPU, полноценный vGPU в самом ближайшем будущем, как и vNUMA.

* Turbo Mode о котором я уже писал чуть раньше, выходит в релиз. Это механизм, упрощающий и распараллеливающий путь данных от VM к физическим дискам, что насущно важно для быстрых «твердотельных» дисков, в частности, для NVMe.

* Шифрование данных на дисках появится не только в форме поддержки SED — Self-encrypted Disks, но и чисто программным образом, на обычных дисках. Можно будет создавать зашифрованные контейнеры, для тех данных, которые в этом нуждаются. Для России это будет, вероятно, также недоступно по причине действующего законодательства, как и в случае SED.

* Наконец-то доползла до релиза долгожданная наша микросегментация сети! Ее первый выход в свет в форме, как у нас принято, Technical Preview, будет в ближашем релизе. Я уже немного упоминал про то, что это, но чуть более развернуто: это «наш ответ NSX», скажем так. Возможность создавать в виртуальной среде специальные сегменты-зоны сетевой доступности, и назначать их политиками на определенные VM. Это будет гораздо проще и легче, чем сегментирование с помощью, например VLAN.
Для VM, которые могут мигрировать не только между хостами кластера, но и между кластерами, в том числе, в будущем, между локальным и удаленным облаком, критически важно сохранять структуру сетевой подсистемы и носить ее «с собой», а, при необходимости, быстро ее реконфигурировать, без необходимости делать это через, допустим, перепрограммирование VLAN-ов на внешних коммутаторах. С помощью нашей Microsegmentation вы сможете создавать сетевые сегменты внутри виртуальной среды, ограничивать области «видимости» для групп VM, назначать в них нужные вам VM с помощью политик, причем эта сегментация через политики будет следовать за VM в том числе в случае ее миграции по хостам. Сейчас такое обычно требует чего-то вроде VMware NSX, дорогого и, часто, избыточного. Microsegmentation тоже будет небесплатным, но включенным в AHV, как, например, мы сделали с AFS (Ultimate и standalone-лицензия для более низких уровней лицензий). В любом случае, уже понятно, это будет существенно дешевле NSX. Так что если вы использовали NSX на vSphere только ради сегментации виртуальной сетевой инфраструктуры — это еще один повод посмотреть AHV.
Tech Preview — в ближайшем релизе. Production Release — как обычно, в следующем за ним.

* Ну и много всякой мелочи, о которой «через запятую». Продолжаем улучшать ИИ в Prism Central, появится диагностика аномального поведения VM и хостов и анализ его причин, аналитика предсказательного сервиса в Prism Central будет учитывать поведение VM в их исторической перспективе. Self-service будет работать в том числе и на многокластерной конфигурации.

Затем, мы ожидаем в декабре-январе (в зависимости от того, как лягут звезды) следующий релиз, и в нем:

* Как я уже писал выше — в следующем за techpreview релизе приходит production release для microsegmentation и security groups.

* Step 2 выкатки функциональности для CALM. Новые возможности CALM будут выходить постепенно, в несколько ступеней. Первые две — в этом году.

* Prism Central будет уметь Scale-out. Сейчас это одна VM, что непорядок. Сам Prism-то у нас полноценный Scale-out на скейлаут инфраструктуре. Вот теперь и до Prism Central дело дошло, он тоже будет масштабируемый, что насущно важно для по-настоящему больших распределенных инфраструктур.

* В AFS, нашем scaled-out файловом сервисе, появится NFSv4. Отметьте, что пока не v3 и не SMB3, все это в ближайшем будущем, по-порядку.

* Появится вариант, разрабатывавшийся в течение этого года, и предназначенный для ROBO-сегмента — 2-node cluster. Технические детали по нему — в свое время.

* Появится поддержка для узлов высокой емкости, вплоть до 80TB raw на ноду.

Ну а дальше — год 2018. На него у нас есть свои большие планы, о чем — в свое время.

Почему вам не нужно ставить в компании OpenStack: практический опыт

У меня тут есть, судя по логам, суперпопулярная статья со ссылкой на пост на Хабре: История двухлетнего опыта использования ceph в веб-хостере и полученный опыт.
Продолжим же инициативу, раз она пользуется успехом у моих читателей.
Пару дней назад там же на Хабре была опубликована статья под заголовком:
Итак, вы решили развернуть OpenStack.
В ней автор рассказывает о собственных злоключениях в течение двух лет, в попытке заставить стабильно работать кластер OpenStack.

Немного цитат:
«В общем, в 2012-м мы развернули OpenStack, на тот момент это был Essex, запустили проект, прожили с такой облачной инфраструктурой до 2014-го года, кажется до релиза Grizzly включительно. Сил и желания поддерживать его дальше не было, и OpenStack был с позором выпилен.

Когда-то давно я даже думал написать статью как правильно его ставить, с комментариями на что обратить внимание. Но знаете, я передумал. Не ставьте его лучше вообще. Просто не связывайтесь.»

Так часто у меня спрашивают про OpenStack, что, как мне кажется, тема требует своего освещения. Как вы, возможно, знаете, уже примерно год у нас есть инструмент, позволяющий встроить и использовать Nutanix как компонент типа hypervisor в среду OpenStack. Но это интересно только пользователям, у которых уже есть развернутся работающая инфраструктура OpenStack, например они уже инвестировали в это продукт, и они не хотят немедленно отказаться от него, но им нравится Nutanix. Для этого варианта мы сделали специальную VM интеграции, которая транслирует вызовы API OpenStack, в наш RESTful API Nutanix. Но, соглашусь с автором, наиболее разумным будет отказ от OpenStack, в стратегической перспективе, а использование нашего интерфейса интеграции может помочь провести переход наиболее безболезненно.

Основные недостатки, по мнению автора: сложность и тяжеловесность.

Когда-то давно, когда мы ставили Essex, там было все относительно просто и понятно. Keystone (служба авторизации), Glance (служба хранилища образов) и Nova (служба управления гипервизорами). Кроме того там еще был Horizon (дашборд) и куча мелких и не очень зависимостей. Каждый узел системы обрастает чуть ли не десятками вспомогательных демонов. На controller node через некоторое время становится страшно смотреть.

Архитектура OpenStack достаточно сильно фрагментирована. Есть очень большое количество «движущихся частей», взаимосвязь который между собой не всегда абсолютно ясна. У вас что-то сломалось? Окей, попробуй понять где это что-то сломалось и почему. OpenStack Foundation похоже гордится, что в OpenStack более 20 миллионов строк кода, даже на главную своего сайта вынесли. Так вот, ЭТО НИФИГА НЕ ДОСТОИНСТВО.
Код в большинстве своем написан на Python. Спасибо, OpenStack, благодаря тебе я возненавидел Python и все что с ним связано.

Дело в том, что являясь OSS, OpenStack пытается быть kind of unix-way. Т.е. под капотом все эти монструозные службы на самом деле дергают десятки и сотни unix-утилит по собственной логике, которую вам придется изучить и возможно даже дебажить.

Нестабильность:

ну вот вы наконец-то запилили инфраструктуру своей мечты, все худо-бедно работает как рассчитывали, но не хватает одной мааааленькой детали. А в новом релизе она есть. Ну по крайней мере по Release Notes.
Окей гугл, давай обновим наш OpenStack. И тут выясняется, что функционал, который вы с радостью использовали — выпилили. Ну потому что. Ну некрасивый он был и вообще, мы лучше сделаем, честно-честно. В следующем релизе. Может быть. А пока вот вам попроще, но ведь работает же! Ну и плевать что не в вашем случае, но работает!

И вообще сырость, в лучших традициях OSS:

А еще очень дивное чувство испытываешь, когда тебе нужен функционал, ну, скажем, деление на зоны. Ну вот есть у тебя машины с большими винтами, есть с SSD, есть с видюхами, хочу разбить кластер на зоны, чтобы виртуалка падала на ту машину, у которой необходимый ресурс есть. Ну ок, читаем доку, вроде бы availability zones подходит. Настраиваем, включаем. И ничего. В доке написано что все должно, а на практике ничего. Лезем в код, а там.
Будет реализовано. В следующем релизе. Может быть. Ну ты понял. Смотри предыдущий пункт.

Автор там, правда, делает вывод в конце:

В общем после полутора лет борьбы с OpenStack мы от него отказались и перешли на другое облако. Управление инфраструктурой стало простым и приятным, а обновлять версий также просто как apt dist-upgrade.
Что это за облако и почему оно удобнее OpenStack я постараюсь рассказать в следующей статье. (Спойлер: это OpenNebula).

Но мы то с вами, посетителями этого блога, знаем еще более правильный вариант. ;)

Nutanix для 1-Tier и Business Critical — опыт компании ЦФТ

Недавно мы завершили испытания системы Nutanix в компании ЦФТ — Центр Финансовых Технологий. Под таким незамысловатым названием скрывается компания-разработчик банковских информационных систем, работающая не только в России, но и за рубежом, с численностью более 2000 человек. ЦФТ входит в TOP-5 крупнейших разработчиков ПО, действующих на российском рынке.
Свыше 500 банков РФ и СНГ используют программные продукты и сервисы ЦФТ: Сберегательный банк РФ, Газпромбанк, «Возрождение», банк «РОССИЯ», «Банк Санкт-Петербург», «Еврофинанс Моснарбанк», «Росгосстрах Банк», Банк «УралСиб», банк «Петрокоммерц», Национальный банк «ТРАСТ», «МДМ Банк», Банк «Финансовая Корпорация Открытие», «Связной Банк», «Восточный Экспресс Банк», «Национальный резервный банк», Банк «Финансово-промышленный капитал», «БКС Банк», Банк «РЕСО Кредит», «Нордеа Банк» и многие другие в странах СНГ.

Сотрудники этой компании несколько месяцев назад тщательно и придирчиво тестировали Nutanix под самую Critical Tier-1 нагрузку разрабатываемых ими программных банковских систем. По результатам тестирования был выпущен отчет, который я и предлагаю ниже вашему вниманию: (PDF)

Nutanix for Critical Tier-1 workload - CFT report

Есть интересные цифры, причем это не «синтетика», а настоящие реальные данные финансовой информационной банковской системы, полученные на живом железе.

Кстати, для внимательных: кто найдет что-то необычное и интересное в тестируемой конфигурации? Там есть кое-что о чем мы публично еще не рассказывали, но вот-вот объявим. :)

Опубликованы результаты Q3FY2017

Опубликованы результаты Nutanix для Q3FY2017, то есть третьего квартала финансового года 2017 (у нас, как это принято в Америке, финансовый год начинается в сентябре).

Скучные подробности про GAAP ищите на соответствующих сайтах, а пока — традиционная уже картинка:

Сколько в мире сегодня «гиперконвергентных решений»?

Наш коллега в своем блоге делает подсчеты и собирает индекс «гиперконвергентных решений», существующих на сегодня. У него получилось 34 (Тридцать Четыре!) продукта, без учета выбывших и «слившихся» с другими.
Конечно, добрая половина там — компании «ниже горизонта», не уверен даже что у них вообще есть хоть какие-то продажи, но сам факт!
В этом списке огромный диапазон компаний, от HP и EMC, до, например, QNAP и Promise. Поистине, сегодня гиперконвергенция — самая горячая тема в IT.

http://bythebell.com/2016/01/hyperconverged-players-index.html

Как настроить и использовать Nutanix SSP

Если вы хотите разобраться как настроить, использовать, и что вообще такое SSP — Nutanix Self-service Portal, то рекомендую вам просмотреть серию из шести статей, написанных в блоге нашего инженера, Магнуса Андерссона: http://vcdx56.com/category/ssp/.
Очень подробно, пошагово, с массой скриншотов рассмотрено как настраивать и использовать SSP. Все настолько детально и подробно, что не требует даже перевода.
SSP — это наш встроенный в Acropolis продукт, позволяющий построить портал самообслуживания для «частного облака» компании на базе AHV и Nutanix. Вы можете создавать лимиты на ресурсы для групп пользователей (которые интегрируются с корпоративным AD/LDAP), создавать заранее подготовленные для развертывания пользователями образы VM, делегировать управление, в общем все то, для чего ранее вам нужно было переходить на VMware и ее vCloud Director, теперь вы это сможете сделать в рамках Acropolis Hypervisor на Nutanix.

Nutanix AOS 5.0 — что нового в мажорном релизе? Ч.1.

Итак, после небольшого перерыва в блоге, вызванного новогодними праздниками, возвращаемся к регулярности. А главное событие у нас — выход «мажорного» релиза Nutanix Acropolis OS — 5.0. Релиз этот был собран еще в конце прошлого года, его «мучили» в QA, и выпустили в релиз в последние дни декабря, так что все же можно сказать, что в прошедшем, 2016 году мы выдали «на гора» три больших релиза: 4.6 весной, 4.7 осенью, и 5.0 в декабре. Все они были большие, но, конечно, замена «первой цифры» в номере версии всегда привлекает много внимания, поэтому остановимся на этом релизе особенно.
Релиз этот во внутренней документации носил внутреннее имя Asterix, следующий, Asterix.1, с некоторыми новыми фичами, подоспеет видимо весной.

Self-Service Portal

Начнем обзор с темы, которая была предметом просьб наших пользователей весь прошедший год. Это — Self-service portal, SSP. Портал — отдельный веб-интерфейс, который позволяет с использованием гипервизора AHV создать своеобразный «Acropolis Cloud Director», то есть отдельный веб-интерфейс для конечного пользователя, на котором он может, без доступа к «большому» Prism, и всем админским функциям его, создавать, модифицировать и разносторонне управлять своими VM в большой инфраструктуре. Представьте, что вы — админ большой виртуальной инфраструктуры с сотнями пользователей, и тысячами их VM. Раньше вам, как админу, приходилось в Prism вручную рулить всем этим стадом, потому что не было возможности дать конечному пользователю простой «трехкнопочный» интерфейс для создания VM из шаблонов и управления ими. Теперь он есть. Пользователь, аутентифицированный в AD, получает доступ через SSP к своему набору VM и пулу ресурсов, и может управлять им самостоятельно, как через своеобразный Cloud Director.

Лично для меня загадка, отчего, при наличии нашего RESTful API, пользователи, в первую очередь сервис-провайдеры, которым нужен этот инструмент, не писали его сами. Объективно, паре программистов со знанием какого-нибудь Python или Go, написать такое — неделя работы максимум, с перекурами, да вдобавок еще и с заточкой под конкретные нужды этого провайдера, тем более, что примеры есть. Однако ж просили постоянно. Просили — получите.
SSP получился довольно богатый возможностями, и еще будет развиваться.
Подробно о его настройке и возможностях смотрите в серии постов вот в этом блоге, например: http://vcdx56.com/category/ssp/

RESTful API 2.0

Раз уж мы затронули тему RESTful API, то стоит сразу сказать, что в этом релизе вышла новая, доработанная и причесанная его версия. Напомню, что почти всем что есть в Nutanix можно управлять не только из GUI PRISM, и не только из командной строки nCLI, но и через наш API.
Если вы разработчик, или хотите разрабатывать какие-то свои сервисы на базе Nutanix, то первая ваша «точка входа» — портал developer.nutanix.com. Там вы найдете документацию, примеры кода на GitHub, и так далее.

Affinity и Anti-Affinity

Эта фича тоже часто спрашивалась пользователями. Вкратце, это правила, с помощью которых можно было определить то, как будут мигрировать во хостам определенные VM. Например, если нам надо, чтобы определенные VM всегда располагались вместе, даже при переезде по хостам, например, если это связанные сервисы, или же определенные VM всегда работали на определенных хостах, на которых есть для них нужные им аппаратные средства, то это VM affinity. Если, напротив, определенные VM никогда не должны оказываться на одном хосте, например по требованиям безопасности или отказоустойчивости, то это — Anti-Affinity. Это было в vSphere. Теперь возможность задать такие правила есть и в AHV.

Acropolis Dynamic Resource Scheduling

Отчасти связанная с предыдущим пунктом тема — Dynamic Resource Scheduling. Тут мы тоже нагнали vSphere, теперь такая фича есть и у нас, пользуйтесь. Теперь, например, при создании VM и размещении ее на хост, или миграции между хостами, будет учитываться степень загрузки этого хоста по памяти, CPU и дискам.

Network Visualization

Появися новый удобный инструмент для визуализации ваших сетевых соединений в кластере. Когда число VM за много сотен, когда хостов и VLAN-ов — десятки, бывает непросто разобраться что с чем и где соединено. Теперь это станет проще.

Несмотря на то, что HCI сегодня в «датацентре 4.0» оставляет «вне себя», отдельно, только Top-of-the-Rack коммутаторы, Nutanix может автоматически собрать информацию о их конфигурациях через LLDP и SNMP, проанализировать и визуализировать топологию сети, и показать ее пользователю в своем интерфейсе. Это существенно сократит для него время на траблшутинг и разбирательство в «сетевой лапше» соединений крупного виртуального датацентра.

Acropolis File Services goes GA

Наш продукт, встроенный в AOS, Acropolis File Services, позволяющий запустить на Nutanix файловый сервис SMB 2.1 дорос до статуса GA, General Available, пригодный в продакшн для всех. Первоначально он разрабатывался как средство, позволяющее на инфраструктуре Nutanix хранить файлы пользователей в больших VDI, но сейчас может использоваться на множестве разных применений, требующих высокопроизводительного распределенного NAS c single namespace. Так, например, всего три ноды кластера Nutanix могут держать на себе до 60 миллионов файлов/директорий.

AFS, напомню, реализован в виде специальной VM, аналогичной CVM, что довольно практично, если пользователю не нужен этот, довольно тяжелый, сервис, он его не устанавливает и не разворачивает, и не тратит на него память и CPU. Нужен — устанавливает VM и использует. Лицензия на AFS включена в лицензионный блок Ultimate, либо может быть приобретена отдельно, на любой сет лицензий, например на Pro.

В AFS теперь поддерживается нативная Async репликация, имеющаяся у Nutanix. Поддерживаются квоты на место для пользователей, а также Access-based Enumeration.

Для обеспечения хорошей производительности сервис будет давать рекомендации по перебалансировке данных между нодами.

Acropolis Block Services

Это, как вы помните, блочная, iSCSI «SDS» на Nutanix. Она также как AFS распределенная, многопутевая, «многоконтроллерная». В новой версии к поддерживаемым ранее OS добавился VMware ESXi (раньше не работал с ABS), это позволяет использовать Nutanix со сторонними хостами, например если клиент по каким-то причинам не хочет отказываться от уже существующих у него хостов ESXi. Это также поможет при миграции и вообще постепенном внедрении Nutanix в большой системе.

Поддерживается CHAP аутентификация, dynamic load balancing, online LUN resize, IP based initiator whitelisting, Flash mode для volume groups.

И много-много других, менее значительных, но все же важных улучшений и новинок.

Nutanix официально объявил о том, что AHV теперь сертифицирован на работу Oracle VM и Oracle Linux с ABS, и поддерживает работу стека SAP Netweaver на AHV.

В Metro Availability появился собственный witness, это VM на «третьей» стороне, контролирующий двух участников синхронной репликации датасторов ESXi, и принимающий решение в случае разрыва репликации, чтобы избежать split brain. Это VM, разворачивающаяся из OVF на каком-то третьем сайте, это может быть, например, сервер в стороннем датацентре, имеющий связь по IP с двумя защищаемыми датацентрами.

Улучшена настройка и работа того, что называлось Flash Pinning. Это возможность закрепить виртуальные диски VM на уровне SSD, и сделать AllFlash для отдельных VM.

Теперь это называется VM Flash Mode.

Появился еще один self-service portal, на это раз для самостоятельного восстановления пользователем своих данных в VM из снэпшота. Раньше это было возможно только админу из PRISM GUI, отчасти это было возможно через Nutanix Guest Tool, а теперь для этого появился отдельный веб-интерфейс.

В статусе Tech Preview поддерживается Citrix Xen Server 7, под VDI инфраструктуры с GPU. Раньше для этого требовался платный vSphere, сейчас GPU у нас работает и под бесплатным Xen Server.

Расширяется поддержка серверов Cisco UCS, теперь к Cisco UCS С220/240 M4 (рэковым) добавились Cisco UCS B200-M4 (блейд). Там есть некоторая засада, связанная с тем, что в blade-сервера можно поставить только 2 диска. Это означает, во-первых, что требуется storage-node на базе UCS C240-M4SX, и, во-вторых, так как диски в blade будут SSD, это делает систему all-flash (как вы помните, мы не умеем пока смешивать all-flash и hybrid в одном кластере).
В общем получается что-то такое:

Появилась разнообразная What-if и prediction аналитика.

Она помогает ответить на вопросы и промоделировать разнообразные ситуации:

  1. Сколько VM определенного типа потянет этот кластер?
  2. Через месяц мне нужно будет развернуть еще один SQL сервер, хватит ли мне ресурсов на кластере?
  3. Если у меня вырастет нагрузка, то сколько я еще продержусь с имеющейся системой?
  4. Если у меня вот такая вот нагрузка, то если я перенесу ее на отдельный кластер, то какой он должен быть?

Теперь у вас есть куда эти вопросы задать и откуда получить ответ.

Ну и, наконец, чтобы уж чем-то закончить заметным, потому что множество еще более мелких фишечек осталось неосмотренными:
Появилась конфигурация Single Node Backup. То есть, например, вы маленькая компания, эксплуатирующая недорогую NX-1365-G5, и хотите с нее делать репликацию в бэкап. Раньше вам нужно было на резервном сайте только для бэкапов держать еще три ноды, так как это был минимум. Теперь вы можете поставить туда для бэкапов одну ноду. Ведь не секрет, что Nutanix может, без отказоустойчивости, но может работать с одной нодой, как это делает CE. Ну, вот, скорее всего без отказоустойчивости для хранения бэкапа можно обойтись в таких недорогих системах, и теперт у нас поддерживается в продуктиве, на «большом» Nutanix, но только для получателя бэкап-репликации, single node системы.

Ну, на этом, чтобы не раздувать бесконечно этот пост, поставим брейкпойнт, и продолжение с некоторыми любопытными фичами, достойными упоминания, напишу в начале следующей недели.

Обновление для действующих систем поступило на сервера обновления 3 января, можете начинать скачивать и ставить.

Будни саппорта Nutanix, октябрь

Интересные данные показал наш саппорт.
Я некоторое время назад упоминал, что они в августе рассказали, что из систем, которые подключены в Pulse (нашу систему репортинга и автоматического саппорта) в августе 28% систем уже работало на AHV. Но оставался вопрос, какое число систем саппорт не видит, так как они не в Pulse.
Так вот, по последним сведениям в Pulse включены 43% проданных систем.

В настоящее время на 34% нод установлена наша самая свежая версия — NOS 4.7 (на 32% — предпоследняя, весенняя, 4.6). Суммарно на последней и предпоследней версиях сидит уже 66% нод. Отличный результат.

nos-installed

Величина зарегистрированных саппортом software defects (попросту — багов, CFDs — Customer Found Defects) снижается с марта, хорошо коррелируя с выходом релиза 4.6 GA и в октябре снизилась ниже 1%, до 0,7%. То есть на ~60 000 инсталлированных нодов каких-то проблем с софтом Nutanix встречалось всего 385 штук!
При этом число инсталлированных нодов за год практически удвоилось.

SLA по кейсам уровня P2 (229 штук за месяц), P3 (937) и P4 (218) составил 99%, по кейсам P1 (critical, 46 штук, менее 1 часа реакции) — 98%.

SSD в HPE HC380 могут быть сняты с гарантии при «интенсивном использовании»

Разбираюсь тут с нашими конкурентами в HPE, точнее — с их новой системой HC380, наталкиваюсь в документации на такое:

hpe-hc380-ssd-warranty-issues

Э-э… HPE, вы это всерьез? У вас SSD warranty is subject to maximum usage limitiaions? На втором десятке лет XXI века, у крупнейшего поставщика энтерпрайз-решений? Знает ли об этом ваша мама ваши клиенты, которым вы продаете HC380?