Архив рубрики: сравнение

VSAN: facts to know

В этом блоге я так или иначе постоянно поднимаю тему сравнения с конкурирующими продуктами, и, разумеется, пишу о некоторых фактах, которые, как я замечаю, вызывают вопросы. Они, зачастую, вызывали бы вопрос не только у меня, вовлеченного в тему competitive по долгу службы, но и у пользователей, но, довольно часто, поьзователи не лазят глубоко в доки, а сотрудники вендора часто говорят о некоторых особенностях своего продукта нехотя и вскользь. Поэтому случается, что о некоторых особенностях пользователи узнают уже постфактум, на купленной и развернутой системе. Вот о таких «детальках» я обычно тут и пишу.

Ранее, в публикациях про VSAN я уже упоминал тот факт, что, согласно документации VMware, объем кэша записи (спасибо за важную поправку Nikolay из комментов) дисковой группы для ноды в VSAN ограничен емкостью в 600GB, что, явно, выглядит недостаточным даже для современных емких SSD, таких, как наши 3.8TB, и уж точно мал для ожидаемых в будушем году Самсунгов на 16TB. С этим в комментах к предыдущим постам как-то вяло пытались спорить, но я так и не понял как предлагается это ограничение обходить в жизни, и почему оно, по поводу критиков моей позиции «не важно» (пояснение почему это так — в комментариях). Ограничение это оставалось и в v6.2, если верить официальному гайду:

http://www.vmware.com/files/pdf/products/vsan/virtual-san-6.2-design-and-sizing-guide.pdf

С учетом того, что там же, в документе, ниже, указывается, что основное правило в сайзинге кэша — кэш составляет 10% от хранимой usable (не raw) емкости (cache:capacity ratio) — что означает, что конфигурации размером более 6TB на ноду на дисковую группу будут, вероятно, испытывать недостаток пространства кэширования. (также смотри в комментарии о деталях)

Изменилось ли что-то тут в VSAN 6.5? Похоже, что нет:

http://pubs.vmware.com/Release_Notes/en/vsan/65/vmware-virtual-san-65-release-notes.html

VSAN все еще требует Multicast.

http://www.vmware.com/files/pdf/products/vsan/virtual-san-6.2-design-and-sizing-guide.pdf

Поменялось ли это? Нет, multicast по-прежнему нужен в VSAN 6.5

http://pubs.vmware.com/Release_Notes/en/vsan/65/vmware-virtual-san-65-release-notes.html

Готова ли у вас сеть к использованию в ней Multicast? Умеете его настраивать, отлаживать странности, понимает ли работу с ним ваши роутеры и иное оборудование в сети?

Дедупликация И компрессия. Я не зря ставлю тут «И», потому что в VSAN они включаются ТОЛЬКО ВМЕСТЕ, и на ВЕСЬ КЛАСТЕР целиком. И по-прежнему ТОЛЬКО на AllFlash.
Если у вас есть в кластере задачи, которые плохо переносят дедупликацию или компрессию, то вам придется выключить эти фичи для всего кластера целиком, даже если какие-то задачи и нуждаются в них.

Это соханилось в VSAN 6.5:

http://pubs.vmware.com/vsphere-65/topic/com.vmware.vsphere.virtualsan.doc/GUID-2285B446-46BF-429C-A1E7-BEE276ED40F7.html

Обоатите внимание также на warning, показываемый при включении deduplication & compression.

Документация подтверждает:

http://pubs.vmware.com/vsphere-65/index.jsp?topic=%2Fcom.vmware.vsphere.virtualsan.doc%2FGUID-5A01D0C3-8E6B-44A7-9B0C-5539698774CC.html

Про Data Locality.
Даже несмотря на то, что у VMware даже есть специальный документ по этому поводу: http://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/products/vsan/vmware-virtual-san-data-locality.pdf
просто взгляда на картинку со схемой размещения данных виртуальной машины достаточно, чтобы понять, что data locality в том смысле, в котором его понимает Nutanix, в VSAN нет.

Поэтому ничего удивительного в том, что в приведенном выше документе термин Data Locality VMware трактует иначе, и достаточно своеобразно:

Поддержка и обновления.
Поправьте меня, если я что-то понимаю не так, но из вот этой картинки следует, что обновления ПО у VxRail доступны только для Premium support:

Ну и, чтоб уж, как говорится, два раза не вставать, надо помнить, что, с точки зрения DellEMC покупатель VxRail НЕ МОЖЕТ смешивать их в одном кластере с «самосборными» нодами. То есть купили VxRail с поддержкой — продолжайте покупать их для расширения системы дальше. Но подключать в кластер из VSAN/VxRail самосборные ноды VSAN вы технически — можете, но поддерживаться эта конструкция на стороне DellEMC не будет. Помните об этом.

Как и раньше, комментарии от более знающих обсуждаемый предмет приветствуются. Возражения со ссылками на подтверждающие документы приветствуются особо.

UPD: В комментах развернулась дискуссия, где обсуждается много интересных моментов, не пропустите.

Nutanix vs. SimpliVity: полтора года спустя. Что нового?

Быстро летит время. Я уже писал обзор особенностей продукта SimpliVity в 2014 году, пришло время обновить материал.
Так сложилось, что в США продукты SimpliVity для нас самый важный конкурент. Вопреки сложившемуся в России положению, VSAN «там» как-то мало кто знает, продается он не очень. Наоборот, до недавнего времени SimpliVity не продавался в России. Но теперь он появился здесь, давайте более внимательно посмотрим на то, что это и как он соотносится с продуктами Nutanix.

omnicube

Итак, что произошло у SimpliVity за прошедшее с прошлого разбора время.
К уже имеющемуся у SimpliVity продукту OmniCube, представляющему собой свою собственную x86-платформу, добавились совместные продукты с Cisco, на базе их C240 M4, и с Lenovo (на x3650M5), которые компания называет Omnistack, схема, сходная с нашими OEM-проектами с Dell и тем же Lenovo. Как вы заметили, Nutanix довольно часто пересекается в OEM с конкурентами, так, в Dell мы пересекаемся с EMC VxRail, а в Lenovo — с Omnistack. Таковы реалии рынка, никто не монополист.

Что же произошло с продуктом за прошедшие с прошлого разбора полтора года? Ничто так полно не рассказывает о продукте, как динамика его развития.

15 сентября 2014 года я писал: «Уже год как в SimpliVity обещают сделать поддержку Hyper-V, но пока в релиз это не выпущено.» Ситуация на сегодня, июнь 2016, полтора года спустя, прежняя. “SimpliVity has focused on vSphere first, in part for its market share and in part for its excellent breadth of capability. We are also working on expanding our coverage. KVM support has been announced, and Hyper-V is on our roadmap for GA.”
«Сеня, жарьте рыбу, рыба будет»(с). Интересно, дождутся первые купившие OmniCube поддержки Hyper-V, которая «is in our roadmap for GA», прежде чем у них кончится саппорт на купленную систему? Принимаю ставки :)

По-прежнему никак не движется ситуация у компании с ограниченностью расширяемости решения. По-прежнему только 4 ноды на кластер (или, вернее, на vCenter Datacenter), и не более 32 год на federation. Я писал, что в решении налицо серьезные архитектурные просчеты, которые помешают что-то сделать с этим в будущем. И, таки да, ничего за полтора года тут и не произошло. Четыре ноды, плюс одна для HA — это лимит сверху для кластера. Нужно больше емкости или нод, например при увеличении объемов нагрузки или числа мест для VDI — берите еще 4+1 ноды для нового кластера. Дробите дисковое пространство и увеличивайте число точек администрирования инфраструктуры. ОК, сегодня у вас на предприятии 200 VDI и вы их положили на 4-нодовую SimpliVity Omnicube. Через полгода у вас решили расширить проект до 2000 мест. Вы себе представляете администрирование десяти отдельных кластеров/датацентров vCenter? Вот то-то и оно. :(

По-прежнему нет, и, более того, неясны перспективы с All-Flash предложением. Его нет даже в roadmap. Сегодня, когда вся индустрия стремительно переходит на SSD, емкость которых резко растет, а цена — падает, такая неясность и неготовность выглядит странно.

Все также управление сделано через плагин к vCenter. Все ОК если vCenter — «ваше все». Но такой подход с привязкой к интерфейсам одного вендора в управлении чревато проблемой при попытке «отвязаться» от этого вендора, см. выше про проблемы с поддержкой Hyper-V.

Очень сомнительным, на мой взгляд, явилось решение продолжать использовать их собственную «железку», плату Omnicube Accelerator. Фактически, это «сердце» решения, полагаю, он был первоначальным стартап-продуктом, а уж hyperconvergence приложилась. Увы, сегодня «железка» есть наиболее очевидный лимитирующий элемент решения. Еще в прошлом посте про SimpliVity я задавался вопросом: Что будет с системой в целом, с ее функциональностью и с ее данными, если эта карта выходит из строя?

Еще сомнительнее выгляди то, что SimpliVity активно педалирует высокий data reduction rate своих систем с OAC (OmniCube Accelerator Card). Мой опыт говорит, что все методы повышения data storage efficiency на этапе сайзинга надо рассматривать исключительно как бонус. Данные сжимаются и дедуплицируются непредсказуемо. Нельзя сказать «А, ну у вас там 200TB, но у нас дедупликация и компрессия, так что вам надо взять всего на 100TB дисков, и все будет ОК!». Не факт. Есть данные, которые не сжимаются и не дедуплицируются, даже «волшебной платой» SimpliVity. К сожалению, пресейлы SimpliVity часто чересчур свободно обещают результаты дедупликации с помощью OAC, используя этот rate в сайзинге решения. Это может (впрочем, может и не) быть неприятным сюрпризом, если фактический результат работы data efficiency окажется хуже ожидаемого.

Следует также учитывать, что дедупликация — процесс by design очень сильно потребляющий память. Необходимость хранить в памяти и проводить проверку и сравнение по базе fingerprint-ов блоков в процессе проведения дедупликации есть очень RAM-емкая процедура. Даже у Nutanix, при включении компрессии и дедупликации, которая у нас емкость RAM, резервируемой CVM рекомендуется увеличить вплоть до 32GB. Пользователям рассказывают на презентации SimpliVity про волшебную «аппаратную» плату дедупликации OAC, и они представляют себе, что, в общем, это такой «черный ящик», куда на вход подается поток данных, а на выходе он выходит волшебным образом дедуплицированный, в 10 раз меньше, не загружая этим систему, и все. Однако обескураживающим является то, что, на самом деле, «разгружается» только CPU, память системы для работа дедупликации занимается. И еще огого как занимается, на младших системах может быть занято до 57GB (!), а на старших вплоть до 100GB (!!) памяти платформы, и это только лишь на поддержку работы OAC. Эта память, естественно, отнимается от ваших VM, от общего пространства, доступного гипервизору. И это в разы больше, чем занимает наш Nutanix CVM, за что его часто критикуют (и иногда даже справедливо). Такая вот «аппаратная плата дедупликации», съедающая 100GB RAM платформы при работе. При прочих равных это заставит вас купить на хосты SimpliVity больше памяти. Гораздо больше.

Столь же вводящим в заблуждение является предложение «2-node» конфигурации. Напомню, что у Nutanix минимально — 3 ноды, и это активно используется против нас в SMB-сегменте. Рассказ, почему мы не можем сделать менее 3 нод в кластере выходит за рамки поста. Однако стоит заметить, что и в «2-node» предложении SimpliVity эти «2 ноды» довольно лукавые. То есть, да, от самой SimpliVity нужно действительно 2 ноды. Но еще один сервер нужен для размещения Arbiter Service и vCenter. То есть две ноды плавно превращаются в три сервера. К слову, мы в Nutanix тоже рассматривали такую конструкцию, разрабатывая Xpress, но, в результате, решили, что такое не годится.

Все также нельзя смешивать в один кластер/vCenter datacenter разные модели. Набор моделей довольно узок, по-прежнему нет моделей all-flash, storage-only nodes, а GPU для тяжелых GPU-powered VDI может быть установлена только на выделенную ноду. Все это показывает, что SimpliVity все еще не вышла за пределы VDI-only решения для 200-300 рабочих мест.

Очевидно, и это вновь осталось неизменным за полтора года, решение SimpliVity нацелено на SMB-сегмент, и там, вероятно, вполне неплохо смотрится. Но любая попытка выйти из него немедленно натыкается на «зашитые» архитектурные проблемы. Повторю уже написанное полтора года назад, оно, на удивление, не изменилось. Если вам годятся ограничения SMB, если вас не пугают архитектурные ограничения, присущие решению, и не настораживает фактическое отсутствие развития за полтора года и «долгострой» в Roadmap, то SimpliVity может рассматриваться как вариант. Но меня бы, будь я клиент, такое бы напрягло. На фоне столь быстрого развития HCI (Hyper-converged Infrastructure) как направления, такая пробуксовка лично для меня показывает проблемы в управлении и явную нехватку сил для движения вперед в компании.

Просто для сравнения, за эти же полтора году у Nutanix появился:

  • Свой бесплатный для пользователя гипервизор Acropolis.
  • Nutanix Xpress Edition для рынка SMB
  • Распределенный файловый сервис Meduza, работающий в среде нашего кластера
  • Volume Groups для «блочного» iSCSI хранилища для VMs
  • Erasure coding
  • В два с половиной раза увеличилась производительность простым обновлением ПО
  • Появилась конфигурация All-Flash
  • Пройдена сертификация под SAP Netweaver
  • Сделана Metro Availability для vSphere
  • Написан плагин для интеграции XenDesktop с AHV
  • Сделан One-Click Upgrade
  • Вышел Prism Pro
  • Выпущена бесплатная версия Nutanix Community Edition

Nutanix и ceph

ceph-logo

…Другой частый вопрос, который мне задают, когда я рассказываю про Nutanix это: «Ну есть же ceph? Он бесплатный и делает почти то же самое. Мы возьмем его, скачаем, соберем, и сделаем себе свой нутаникс с б.дж. и ш.»
Что я могу сказать на это.

Недавно, на выставке РИТ++, мне довелось поговорить со специалистом из компании, которая работает на рынке облачного хостинга под брендом flops.ru. Эта компания известна тем, что использует как раз ceph и построила на нем платформу публичного облачного хостинга. Интересные ребята, кстати, энтузиасты и большие молодцы, серьезно. Я воспользовался случаем узнать «из первых рук» их компетентное мнение о том, насколько реально «скачать ceph и сделать все то же самое на нем». Ответ был однозначен: «Это утопия».
Так, в частности, он рассказал, что они в flops потратили на доводку, допиливание и вычищение багов примерно полтора года труда их команды разработчиков. Они взяли довольно старую версию (v 0.67 «Dumpling») и «пилили» ее. И в итоге действительно допилили ее до продакшна. Текущая же версия, в том виде, в котором она выложена в паблик, несмотря на major и stable в названии, в продакшн непригодна.
«Помните историю cloudmouse, который, в результате слова бага и сбоя в марте этого года потерял данные 22 тысяч виртуальных машин (включая их бэкапы, а перед этим они теряли данные в феврале) и, в результате, ушел из бизнеса? Ребята взяли текущую версию ceph, и сделали свою систему на ней. Результат — вот такой.»
Собственно мне больше нечего добавить к этому ответу на вопрос, «можно ли скачать ceph и сделать бесплатно то же самое, что у вас за деньги?».
Можно. Но не сразу, не быстро, и, по факту, не бесплатно.

А сам flops.ru, повторюсь, молодцы, и хорошо поработали. Но есть ли у вас полтора года и достаточно компетенции, чтобы пройти их путь? Вам отвечать на это.

Nutanix или VMware VSAN? Критерии выбора

mortal-kombat-2011

Когда мне приходится рассказывать про Nutanix интересующимся пользователям, в разговоре обязательно, рано или поздно всплывает вопрос: «А чем Nutanix лучше, чем VMware VSAN?»
Так уж исторически получилось, что именно VSAN в России является, по моим наблюдениям, основным конкурентом Nutanix. Это, кстати, не так в мире, но в России, в первую очередь из-за долгого периода бесплатной «беты» у VSAN — так.
И вот какие, как мне кажется, у VSAN недостатки, в порядке субъективной их важности.

1. VMware
Это VMware, и больше ничего. Для меня это один из самых значимых минусов, но многие, возможно, с недоумением спросят: В чем же здесь минус, лидер рынка, и все такое? Откровенно говоря, меня, да и не только меня, напрягает любой «вендорлок», насколько бы ни был «лидером рынка» его вам навязавший.
Я в жизни видал достаточно компаний, которые начиная с красивых поступков и прочего don’t be evil, и становясь фактическими монополистами, сильно меняли свое отношение к своим пользователям.
Помните же шутку про «да куда он денется с подводной лодки?» И в случае вендролока эта шутка — про вас.
Потому что на этой «подводной лодке» сейчас — вы. И плывете на ней следующие три, пять, а может и больше лет. Поэтому выбор продукта, которое сразу и существенно замыкает вас на одного единственного разработчика решений мне кажется сегодня поступком неосмотрительным.
Вот почему это — первый мой аргумент против VSAN.

2. vSphere 6.0
Если вы следите за моими постами про VSAN, то помните, что VSAN 5 имел множество весьма существенных недостатков. Часть из них была поправлена в VSAN 6. И, казалось бы, выбор VSAN 6 сегодня — естественнен. Но, вам следует помнить, что для использования VSAN 6 вы должны также использовать VMware vSphere 6. Нельзя использовать VSAN 6 на, например, vSphere 5.5U2. Однако не все готовы, или могут, прямо вот так, сейчас, перейти на новую vSphere. Тут и вопросы совместимости, и факт того, что из HCL vSphere 6 пропало множество популярных систем, да и просто, для многих компаний такое обновление затратно по времени и усилиям. Но — если вы не хотите мириться с многочисленными недостатками VSAN 5 — готовьтесь к переходу на vSphere 6, и никак иначе.

3. Функциональная бедность
VSAN использует network RAID (а не распределенное хранение, как у Nutanix), со всеми присущими ему минусами. В нем нет встроенной компрессии, дедупликации; Он использует SSD как кэш, а не как storage tier (это значит, что емкость SSD не прибавляется к емкости хранения HDD, и не увеличивает ее, как увеличивает тиринг у Nutanix). Там отсутствует поддержка VAAI, Shadow Clones, меньше эффективная емкость SSD (всего 600GB write buffer максимум). Снэпшоты по-прежнему приводят к существенному (меньшему, чем в v5, но все равно весьма заметному) падению производительности. Также явно плохо реализована изоляция задач (проблема «шумного соседа») в рамках одного кластера, ресурсоемкая задача может сильно повлиять на работу других VM того же кластера.

4. Доступ к данным через сеть/отсутствие Data Locality
Важная особенность VSAN в том, что доступ к данным штатным образом осуществлятся через 10G сеть. Данные пишутся и читаются через сеть и коммутатор в нормальном, рабочем режиме (а не только при нештатной недоступности данных локально, как у Nutanix), что может вести к повышенному времени задержек и перегрузке «межнодовой» 10G-магистрали, а также меньшей надежности.

5. Ограниченный набор моделей у EVO:RAIL
До сентября доступна всего одна модель EVO:RAIL, бедная как по мощности (примерно соответствует 1000-й серии Nutanix предыдущего поколения), так и по возможностям, к тому же для EVO:RAIL доступен только VSAN 5.0, а 6.0 поступает к партнерам только через 180 дней после релиза.
Вы, возможно, скажете: что нам тут в России тот EVO:RAIL, мы соберем сами, что захотим, и поставим на самосбор vSphere/VSAN. Все так. Но поддержка такой конструкции будет совсем не та, что предлагается у EVO:RAIL, равно как и у Nutanix.
О стоимости самосбора, впрочем, стоит поговорить отдельно, в специальном посте.

6. Не рекомендован вендором под Primary Data
Хотите — верьте, хотите — нет, но VMware VSAN not recommended for primary workload. Primary workloiad это весь business-critical, это «боевые» базы данных, электронный документооборот и почта, все критически-важные для компании сервисы. Да, кроме primary workload у компаний есть еще много чего повиртуализировать. Тут и весь Test/Dev, вспомогательные и инфраструктурные задачи. Но все же странно брать продукт, в котором для primary data не уверен сам производитель? Отсутствие поддержки не означает, что это не работает, согласен, есть достаточно примеров, когда это не поддерживается производителем, но у многих нормально работает. Это озачает, что сама VMware для таких задач VSAN не рекомендует, и, в случае чего, откажется искать ответ, когда вы придете со своим «как-то у меня это странно работает». И это определенный риск.
Это существенная разница с Nutanix, который не просто работает и поддерживается, но и прямо рекомендуется на разнообразные задачи, которые можно называть Primary Data, для бизнес-критичных и ответственных задач. У нас есть практика крупных OLTP-баз данных на наших системах, реализации SAP на Oracle, на Nutanix, системы Nutanix широко используется в банках и госсекторе, и прочее подобное. И у нас это поддерживается.

Таким образом, как вы видите, «с моей колокольни» у VSAN хватает минусов. Являются ли они минусами и для вас — решать вам. Но моя задача состоит в том, чтобы вы «на берегу» ясно представляли, что идеальных решений нет, и, несмотря на мощную маркетинговую поддержку, у VSAN есть свои «тараканы». Помните про них, принимая решение.

Let’s war begin! EVO:RAIL vs. Nutanix

Ниже перевод оригинального Description к ролику от автора:

Моя компания тестировала гиперконвергентные платформы Nutanix и EVO:RAIL. Хочу поделиться некоторыми результатами тестов, которые я запускал.

Очень простой тест … сколько времени займет развертывание на платформе 50 VM из шаблона (Windows 2008 R2 Enterprise, судя по имени, прим.romx). Шаблон состоит их одного ThickEagerZeroed vmdk размером 60GB. VM разворачивались через скрипт в PowerCLI. У Nutanix это заняло чуть более 1 минуты 35 секунд на все 50 VM. EVO:Rail финишировал за 1 час 45 минут. Сумасшедшая разница!

Nutanix — NX-3050
Четыре ноды, на каждой:
Dual Intel Ivy Bridge E5-2650v2 [16 cores / 2.6 GHz]
256 GB RAM
2x 800 GB SSD, 4x 1 TB HDDs
2x 10 GbE, 2x 1 GbE, 1x 10/100 BASE-T RJ45

В качестве EVO:RAIL по всей видимости фигурировала первая и стандартная модель EVO:RAIL с VSAN 5.0 (напомню, что VSAN 6 до сентября недоступна партнерам для установки в EVO:RAIL), то есть вот такая:
Четыре ноды, на каждой:
• Two Intel E5-2620v2 six-core CPUs
• 192GB of memory
• One SLC SATADOM or SAS HDD for the ESXi™ boot device
• Three SAS 10K RPM 1.2TB HDD for the VMware Virtual SAN™ datastore
• One 400GB MLC enterprise-grade SSD for read/write cache
• One Virtual SAN-certified pass-through disk controller
• Two 10GbE NIC ports (configured for either 10GBase-T or SFP+ connections)
• One 1GbE IPMI port for remote (out-of-band) management

Да, чуть меньше памяти, да, существенно слабее процессор и сильно меньше ядер, пусть SAS, вместо SATA, но вчетверо меньше SSD, все равно разрыв слишком огромен. Скорее всего сказывается отсутствие поддержки VAAI. У VSAN приходится делать полную физическую копию шаблона в VMDK целевой машины, и параллельные процессы копирования быстро забивают канал к дискам доверху, в то время, как у Nutanix за счет copy offload и функции быстрого клонирования процесс почти моментален, и вот результат.
Да, в VSAN 6 многое поправлено, да, будут больше SSD, но удастся ли наверстать такой огромный разрыв?.. «Покажет время» (с)

Пока же я видел вот такую табличку сравнения на Microsoft Jetstress 2013:

VSANvNutanix

Бенчмарки Nutanix NX-3451 (v4.2.1)

В одном из блогов подсмотрел результаты бенчмаркинга на синтетике (IOmeter v1.1.0) для Nutanix.
Несмотря на то, что для «продвинутых» очевидно, что бенчмарки и их результаты есть достаточно абстрактная величина, все равно, едва ли не каждый раз, когда мне приходится разговаривать, рассказывая «конечникам» о продукте, рано или поздно, но обязательно возникает вопрос: «а сколько оно дает иопсов?».
Наконец, мне попался в руки ответ на этот вопрос.

Подробнее о том, как проводилось тестирование, и как были получены результаты можно посмотреть там.
Еще раз: это неофициальные бенчмарки, проводившиеся посторонним человеком, по своей методике, и они не могут считаться ни универсальными, для любой задачи, ни абсолютно идеальными референсами.
Но как один из результатов — годится.

Там же, кстати, есть и бенчмарк VMware EVO:RAIL (VSAN 5), обратите внимание, что конфигурация «железа» различна (меньше SSD и RAM, существенно более слабый процессор), и сравнивать их результаты напрямую нельзя. Но посмотреть можно.

UPD: В связи с изменениями в EULA у VMware, стало невозможно публиковать независимые тесты EVO:RAIL/VSAN, поэтому автор соответствующие результаты из блога убрал. Однако гугл все помнит. :)

X vs. Y: VSAN 6.0. Что нового?

Я уже писал в этом блоге подробный разбор того, чем Nutanix отличается от VSAN (EVO:RAIL), однако там речь шла о VSAN 5.0. В версии 6.0 было многое поправлено и изменено, но все ли? Этим мы сегодня и займемся.
Читать далее

Экономическая эффективность решения Nutanix

Голландский партнер Nutanix опубликовал в своем блоге интересные расчеты сравнения экономической эффективности классических решений, или «конвергентных 1.0», таких как VCE/EMC vBlock, Cisco/NetApp FlexPod и EMC VSPEX, взяв опубликованные ими референсные архитектуры (CVS, Citrix Validated Solutions) под VDI с использованием XenDesktop, и повторив их на Nutanix. У Nutanix также есть такой документ: Citrix Validated Solution for Nutanix.
Сделать это несложно, тем более, что Nutanix выложил в открытый доступ свой сайзер, что стало возможным за счет того, что сами по себе формулы расчета нагрузки для VDI у Nutanix сравнительно несложны, что также заслуга его архитектуры.

Вот как происходил процесс расчета.
Читать далее

X vs. Y: Nutanix и VMware EVO:RAIL

Несколькими постами ранее я начал серию обзоров конкурентов Nutanix, с подробными разбором «кто есть кто», и что конкуренты предлагают в сравнении с продуктами Nutanix, и начал я с SimpliVity OmniCube.

Продолжим наше исследование ландшафта рынка гиперконвергентных систем, и представленных на нем продуктов. Следующим заметным игроком на нем является VMware со своим уже хорошо известным VSAN, и недавно объявленным новым «хардварным апплаенсом» на его базе — EVO:RAIL.
Давайте посмотрим, что интересного предлагает Vmware, и как они смотрятся в сравнении с Nutanix.
Для начала несколько слов, что же такое EVO:RAIL, и чем он отличается от VSAN, продукта уже, в общем, известного пользователям.

SYS-2027PR-HTR_25[1]

Читать далее

X vs. Y: Nutanix и SimpliVity

Не секрет, что на рынке гиперконвергентных систем Nutanix играет не один. Более того, на рынок гиперконвергентных систем разом вышло сразу несколько сильных и интересных игроков.
Начнем же в этом блоге, потихоньку, смотреть, что предлагают рынку и пользователям компании-производители конкурирующих с Nutanix продуктов. Разберем их слабые и сильные места, и что они предлагают в сравнении с продуктами Nutanix.
А стартуем, пожалуй, с компании SimpliVity, и ее OmniCube.

Для начала немного сухих фактов.

Компания SimpliVity образовалась в 2008 году, и первоначальной целью ее была разработка производительного устройства для потоковой, «онлайн»-дедупликации и компрессии данных. Такое устройство было создано с использованием «аппаратного» устройства на базе FPGA. В 2012 году компания вышла на рынок и в апреле 2013 года представила на нем свой продукт — платформу для виртуализации с использованием VMware vSphere, названную OmniCube. Система OmniCube построена на базе 2U серверной платформы Dell, собственной аппаратной разработки SimpliVity — PCIe-платы OmniCube Accelerator (OAC) и программного компонента — т.н. «virtual appliance» OmniCube Virtual Controller (OVC).
На январь 2014 в компании трудилось 170, а в июне 2014 — уже 350 сотрудников. Расположена компания в США, Вестборо, штат Массачусетс. CEO и founder SimpliVity — Doron Kempel — в прошлом вице-президент EMC. Ходят слухи, что приобретением компании интересуется HP.

Как и у всех разработчиков подобных решений, декларируемая цель SimpliVity — упрощение построения и развития виртуальных инфраструктур с помощью конвергентных решений.
Однако при внимательном рассмотрении технических деталей становится понятно, что подход SimpliVity несколько иной, если сравнивать его с уже знакомым нам тут Nutanix.

Давайте же разберем по порядку, как и чем продукты этих компаний отличаются.

simplivity-product-home-image

Читать далее