Архив метки: next

Veeam Availability Suite будет нативно работать с Nutanix AHV!

veeam logo

Ждали хороших новостей с .NEXT? Вот вам хорошие новости!
После долгих раздумий Veeam решился:
http://www.businesswire.com/news/home/20170629005954/en/Veeam-Nutanix-Accelerate-Digital-Transformation-Always-On-Enterprise
Veeam становится Premier Availability solution provider для Nutanix, и включит поддержку Acropolis Hypervisor в Veeam Availability Suite.

UPD: Согласно ответам пользователя Gostev в форуме Veeam, поддержка появится в B&R 9.5 Update 3, еще до конца этого года.

.NEXT 2016 Vienna и новые анонсы

У нас сейчас идет большая партнерская конференция .NEXT, на которой делаются важные анонсы и презентации новых фич и продуктов. Большую часть я лично уже знаю, но так как мы, как сотрудники, находимся под «мораторием», рассказывать я могу только когда они, эти новости, объявляются публично.

Вот некоторые из новостей. Уже большинство знает, что у нас выходит вот-вот новая мажорная версия NutanixOS 5.0, со множеством новинок, как и полагается мажорной версии.
Вот только некоторые из них:

Визуализация сети. Когда у вас инфраструктура с десятком хостов, парой десятков VLAN-ов и vSwitch-ей, несколькими сотнями VM на них, становится критически важно иметь инструмент, позволяющий разобраться во всей этой лапше. Теперь средства визуализации сетевой инфраструктуры встроены в Prism GUI.

networkvisual3

Микросегментация сети в AHV. С помощью TCP-based механизмов, на Level 4, мы будем уметь сегментировать сеть внутри Nutanix, создавая что-то похожее на VMware NSX, изолируя VM друг от друга. Релиз ожидается в первом квартале 2017 года, в версии NOS «5.0 +1».

nutanix-prism-stack-b

У нас теперь есть self-service portal. О нем давно и часто просили пользователи. Его можно было сделать и самим, например, с помощью средств нашего RESTful API, но теперь он есть наш собственный.

blog_one-click-004

Наконец, мы официально объявили о поддержке работы Nutanix на серверах Cisco UCS B-series, blade. Ранее, как вы помните, мы уже анонсировали поддержку Cisco UCS C-series, rackmounted. Теперь к ним добавились блейдовые, очень популярные, например, в США, системы. С ними существует специфическая проблема. Blades принципиально ориентированы на работу с минимумом дисков локально, предполагается, что корзина blades будет подключена в внешнему стораджу, по какому-нибудь FCoE, поэтому в конструктиве серверов B-series обычно просто нет места больше чем на 2-4 диска. В результате была придумана любопытная схема. В сервера B-series ставятся SSD, и они делаются all-flash compute nodes, а для объемов хранения к корзине подключаются сервера C-series, служащие storage-only nodes. Несмотря на такое разделение следует акцентировать внимание на том факте, что, как и в NX-системах, наличие AllFlash нод требует использования AllFlash кластера, то есть storage-nodes также должны быть AllFlash. C нашими новыми SSD это позволяет установить в C240-M4 24 штуки 1.6TB SSD, эта величина будет удвоена с началом поддержки 3.2TB SSD на UCS, а в свете существенного падения цен и роста емкости SSD в последние годы, это (all-flash системы) становится все более интересно.
Но как быть с лицензиями на гипервизор, например на VMware? Не обойдутся ли storage-only-ноды слишком дорого с точки зрения лицензирования гипервизора? Тут тоже интересный финт. Storage nodes могут работать под бесплатным AHV, совместно с нодами ESXi на B-series.

blog_b-series-02

blog_b-series-03

Скоро еще :)

Как искать и находить ответы по использованию Nutanix CE (Community Edition)?

Коллеги, на днях мне пришлось дать уже несколько ответов по работе и настройке нашей Community Edition. Например, популярный вопрос: «При входе в CE она лезет в интернет. Как сделать так, чтобы не лезла?» и «У нас нет на сервере с CE прямого выхода в интернет, как входить в Prism GUI?»
Прежде чем ответить, я хотел бы еще раз настоятельно привлечь внимание тех, кто решил попробовать Nutanix CE к тому, что этот продукт — КОМЬЮНИТИ ЭДИШН, и это предполагает, что вы должны САМИ находить ответы на свои вопросы, особенно на элементарные. Уже сам факт того, что вы беретесь за такой продукт предполагает, что у вас есть достаточно умений, чтобы с ним разобраться СВОИМИ СИЛАМИ. Уж по крайней мере под «своими силами» подразумевается возможность самостоятельно поискать ответ в форуме. Для этого у нас и создан форум поддержки Community Edition на next.nutanix.com.

Далее, про интернет на CE. Условием получения инвайта на CE было создание аккаунта на next.nutanix.com. К этому аккаунту привязана ваша копия. Ваша копия аутентифицируется у нас при запуске GUI. Для этого нужен интернет. Это условие использования CE.
Да, ОК, бывает так, что тестовый сетап и его сеть не имеют прямого выхода в интернет по причинам внутренней безопасности. Тогда вы можете настроить proxy и организовать доступ CE к аутентификационному механизму через него.
Как настроить в CVM в CE доступ через прокси написано в первой же ссылке вывода поиска по форуму по слову proxy.
Прочитайте, сделайте так, и активнее используйте комьюнити для решения своих затруднений.

CE-Proxy

Nutanix Community Edition!

То, что я уже многим рассказывал «с глазу на глаз», на встречах, но о чем, к сожалению, нельзя было писать до официального анонса (да, даже здесь, в блоге). Тут как-то выяснилось, что меня читают через Google Translate ;).

Nutanix выпускает версию своей NutanixOS, которая будет ставиться на любое подходящее железо, как чисто софтверное решение, при этом — бесплатно. Называться она будет Nutanix Community Edition.

Будут и ограничения, но достаточно разумные. Это будет чисто community driven «дистрибутив», без поддержки, только с поддержкой через комьюнити-форум next.nutanix.com. Не будет возможности проапгрейдить его до Full версии, максимальный размер кластера — 4 узла-ноды, и только под KVM. При этом Acropolis (KVM Management Tool) присутствует.

Минимальная конфигурация для работы фич отказоустойчивости — три ноды, однако, если отказоустойчивость не нужна, например для домашней лабы или тестовых задач, то можно будет поставить и на всего один хост.
В любом случае, требуется, разумеется, процессор Intel с поддержкой аппаратной виртуализации VT-x, с 4 ядрами и более, платформа с поддержкой VT-x (мы пробрасываем passthru диски в CVM, поэтому это требование), от 16 GB RAM, хотя бы один SSD (больше 200GB) и один SATA HDD (от 500GB), подключенные к контроллеру LSI в HBA-режиме (не-RAID). Сетевая карта Intel, от гигабита и выше.

Строго говоря, CE существует доступной «внутри» уже несколько месяцев, мы тут даже уже лабы на ней делаем.
Screenshot 2015-05-12 21.52.08

Официально доступна она будет для скачивания 8 июня, после нашей конференции .NEXT, на которой еще несколько важных анонсов будет сделано. А про Community Edition вот решили сказать чуть раньше, чтобы люди не думали, что «джентльмену нечего сказать другому джентльмену», я, конечно, сейчас про EMC ScaleIO и анонс его бесплатной версии.