Архив за месяц: Февраль 2016

Работа Nutanix CE с маленькими SSD

Хотел бы предостеречь некоторых наших пользователей, которые ставят Nutanix CE на системы с SSD крайне небольшого размера.
Не забывайте, пожалуйста, что на SSD определенное место (а на SSD небольшого размера в процентах оно весьма значительное) занимают данные самих служб CVM Nutanix.
Вот, например, что показывает наш веб-сервис designbrews.com, сколько места под данные останется на SSD размером 200GB, в «однонодовой» типичной конфигурации Nutanix CE:

Nutanix CE 200 GB SSD effective storage space

Всего 19 гигабайт места вам остается для хранения данных от ваших VM на SSD такого размера!

Вот почему сегодня минимальный размер SSD в наших самых младших системах серии NX-1000 — 480GB, причем в кластере таких нод — три.

Вышла в релиз версия NOS 4.6: что нового?

Наша долгожданная версия Nutanix OS 4.6, с таким объемом новых фич, которые у кое-кого стали бы поводом назвать ее «5.0», поэтому в этой и нескольких последующих статьях я расскажу, что у нас теперь появилось нового.
Прежде всего, остановимся на очень большой оптимизации кода, работы по которому велись весь прошлый год, в результате чего Nutanix удалось достичь очень существенного прироста в производительности. Причем это происходит и на уже существующих системах. Все что вам нужно — обновиться, причем без остановки работы, с помощью 1-Click Upgrade.
Вот вам картинка для привлечения внимания:

4.6-perf-update

Да, около 2,5 раз прирост на рандомном чтении мелкими блоками, около 1,8 раз на рандомной записи, по сравнению с предыдущей версией! Улучшились также, почти двукратно, показатели по вводу/выводу для одного vDisk.

Основными методами, приведшими к такому резкому приросту разработчики назвали:

  • Уменьшение числа dynamic memory allocations
  • Снижение locking overhead
  • Снижение оверхеда на переключении контекстов
  • Использование новых языковых фич и оптимизаций компилятора C++ v11
  • Более грануляное вычисление чексумм
  • Более быстрая категоризация ввода-вывода для его дальнейшей оптимизации
  • Улучшенное кэширование метаданных
  • Улучшенные алгоритмы кэширования записи.

Еще больше прирост показывают наши allflash системы, причем в скором времени грядет очень важное изменение в структуре предложений наших линеек продуктов, связанных с allflash.

В общем, если у вас система Nutanix подключена к интернету и получает обновления с наших серверов обновлений — ищите в PrismUI Upgrade Software новую версию. Для остальных — offline update bundle можно будет скачать с portal.nutanix.com, думаю, что в ближайшие сутки новая версия и там и там появится.

Кроме этого, просто как placeholders, перечислю через запятую, и распишу все эти новые фичи в следующих постах:

Встроенный в Nutanix распределеный scale-out файловый сервис SMB 2.1 Project Minerva, опубликован в статусе Technology Preview.
Volume Groups, появившиеся в 4.5 и конфигурировавшиеся в CLI, теперь управляются из PrismUI. Volume Groups — это тома с блочным доступом по iSCSI, доступные VM, в том случае, если вам нужно отдать в VM раздел с блочным доступом. Примеры таких приложений это Microsoft Exchange на ESXi, Windows 2008 Guest Clustering, Microsoft SQL 2008 Clustering и Oracle RAC.

Обновление 1-Click Upgrade теперь работает в том числе и для BMC и BIOS платформы. Без остановки работы вы можете обновить BIOS серверной платформы.
Также обновляется и встроенный теперь в Nutanix наш сервис прошивки и заливки образов гипервизора и CVM — Foundation.

Metro Availability получил долгожданную возможность не перезагружать VM после миграции на DR-сайт. Раньше это требовалось из-за необходимости переключить NFS-дескрипторы на новый сайт и его хранилище (сами данные синхронно реплицировались), теперь VM работают через NFS proxy, и могут мигрировать «наживую».

Еще одна долгожданная функция — Self-Service Restore. Теперь пользователь VM может самостоятельно восстановить данные, сохраненные в снэпшоте. Для этого в VM устанавливается так называемый Nutanix Guest Tool, и с его помощью VM коммуницирует с Nutanix, позволяя смонтировать снэпшот как отдельный диск внутри VM, откуда простым копированием можно извлечь данные снэпшота.

Появилась интеграция с OpenStack, новые драйвера для Nova, Cinder, Glance и Neutron. Интеграция работает через специальную Server VM (SVM), образ которой доступен для скачивания и установки в Nutanix. Таким образом, Nutanix видится из Open Stack как hypervisor.

Репликация между кластерами теперь возможна и между разными гипервизорами. Например, продакшновый кластер под ESXi может реплицировать свои данные на кластер в резервном датацентре, под Acropolis Hypervisor.

В статусе Tech Preview опубликован Project Dial — 1-click in-place hypervisor conversion, миграция всего кластера с ESXi на AHV. Автоматически конвертируются гипервизоры кластера, его CVM, а также VM пользователя. Разумеется, все это будет проделываться без остановки работы системы и приложений в VM. Релиз GA в ближайших версиях NOS.

VSAN и его работа при node fault может вас неприятно удивить.

Прекрасная во всех отношениях история нашлась на reddit.
С чего все началось: «My VSAN Nightmare»
И чем все закончилось: «Root cause analysis»

В двух словах:
Человек сделал из нескольких своих серверов Dell ноды VSAN, и все было прекрасно, пока однажды одна из нод не упала (PSOD из-за ошибки в DIMM памяти на сервере). Когда ее заменили несколькими днями спустя, и вернули ноду в строй, добавив заодно в нее дисков, через час после ее включения обратно, легла на этот раз ВСЯ система, прямо во время работы.
Какое-то время было потрачено на разбирательство, была подключена поддержка вендора, и все закончилось ответом из техподдержки VMware, привожу его в сокращении и с переводом.

«The RAID controllers that were being used in your environment are the H310s. While this controller is fully functional, it offers very low IO throughput. In particular, its very low queue depth (25) means that it can’t support moderate-to-high IO rates.
While this controller was certified and is in our Hardware Compatibility List, its use means that your VSAN cluster was unable to cope with both a rebuild activity and running production workloads. While VSAN will throttle back rebuild activity if needed, it will insist on minimum progress, as the user is exposed to the possibility of another error while unprotected. This minimum rebuild rate saturated the majority of resources in your IO controller. Once the IO controller was saturated, VSAN first throttled the rebuild, and — when that was not successful — began to throttle production workloads. »

Вы используете в вашей системе RAID контроллер H310s. Хотя это контроллер полностью работоспособен, его производительность на вводе-выводе очень низкая. Кроме этого, у него очень маленькая длина очереди ввода-вывода (25), означающая, что он не может обрабатывать нагрузки уровня от средних до высоких.
Хотя этот контроллер был сертифицирован и находится в нашем Hardware Compatibility List, при его использовании ваш кластер VSAN не смог одновременно обработать трафик ребилда и вашу рабочую нагрузку системы. Хотя VSAN, когда это возможно, и стремится ограничить объем операций по ребилду, для этой задачи требуется хотя бы минимальный прогресс, так как пользователь может столкнуться с новым отказом в то время, пока он остается незащищен (ребилд незакончен). Этот минимум нагрузки ребилда съел большую часть ресурсов ввода-вывода вашего контроллера. Когда контроллер оказался загружен, VSAN сначала ограничила трафик ребилда, а затем, когда это не достигло результата, начала ограничивать рабочий трафик системы.

Какой полезный урок мы можем извлечь из этой истории? Ну, во-первых, стоит отметить, что не всегда присутствие в HCL означает работоспособность. Мне постоянно приходится отвечать на вопрос: «Если вы софтверная компания, то почему вы продаете продукт вместе с платформой, не проще дать HCL и пусть пользователь соберет», вот, не проще, ничуть.
Во-вторых, конечно, история с тем, что трафик ребилда в VSAN настолько большой, что, при использовании некоторых, включенных в HCL контроллеров, нормально работающих в штатной ситуации, может убить «кластер» (не только эту ноду, но вообще весь кластер, Карл!) это, вообще, отлично.
В третьих, это повод получше изучить схему работы VSAN при отказе ноды и ее ребилде, при котором у VSAN создается ТАКОЙ трафик. Пользуясь случаем, скажу, что ничего подобного у Nutanix при «ребилде» нет. Но про это я напишу следующий пост.