Архив метки: ahv

Nutanix Acropolis OS — 5.9

Как вы помните, по новой модели time-based releases, мы выпускаем short-time support releases каждый квартал. В этом квартале вышел релиз 5.9

Сегодня релиз выложен для скачивания, и вот что в нем нового:

• Улучшена работа NearSync DR, это наша асинхронная репликация с циклом 1 минута, я писал о ней ранее в блоге.
Теперь в одном Protection Domain (PD) можно иметь и NearSync, и обычный Async. В PD с NearSync можно делать App-consistent Snapshots, а также one-time snapshots, выполняемые вручную, например для фиксации состояния VM перед изменениями в ней. Так как NearSync использует спциальные, Lightweight Snapshots, отличающиеся от обычных Snapshots, было ограничение на использование последних в PD с Nearsync. Теперь можно. Это, кстати, также означает, что backup решения которые используют наш механизм timestream snapshots, будут работать и на томах, реплицируемых NearSync.

• С этого релиза поддерживается ESXi 6.7

• Rack Fault Tolerance — это расширенный block awareness. Последний, если помните, возможнось раскладывать избыточные блоки не просто на разные ноды, но на ноды в разных блоках. С RFT это будет делаться еще и между рэками, если, например, кластер состоит из более чем одного рэка блоков. Это позволяет, потенциально, повысить отказоустойчивость, если авария затронет целиком рэк нодов.

• Metro Availability Support for Hyper-V 2016. Наконец-то к vSphere добавился Hyper-V. По-прежнему ждем Metro Availability для AHV

• Karbon (бывший Acropolis Container Services 2.0) выходит в статусе Tech Preview, в следующем релизе, 5.10 уже будет prodiuction ready. Karbon — это система, позволяющая развертывать кластер Kubernetes, со своей web-консолью, и Kibana для логгинга и мониторинга.

• Поддерживается NVIDIA Tesla V100 16 GB GPU в AHV

• Поддерживается RDMA для двух NIC на платформах G6: NX-3060-G6, NX-3155G-G6, NX-3170-G6, NX-8035-G6, NX-8155-G6 (не поддерживается на NX-1065-G6).

• Реорганизовано меню Settings в Web Console Prism (то, что раньше открывалось по щелчку по шестеренке справа). Так как настроек становится все больше, стало необходимым его переделать радикально.

SAP HANA — официально работает на Nutanix AHV!

Это произошло даже быстрее, чем я ожидал. Еще 15 июня я опубликовал заметку, о том, что мы в Nutanix поддерживаем SAP HANA на AHV, и ждем теперь официального SAP note, и вот он вышел еще до конца лета: SAP note 2686722 – SAP HANA virtualized on Nutanix Acropolis Hypervisor.
Теперь это официально в том числе и со стороны SAP — HANA работает и поддерживается на Nutanix HCI под AHV, причем, отметьте, пока только под AHV. И не просто работает, а поддерживается в Production! Это первый гипервизор, поддерживающий HANA в Production environment (не Test/Dev, такое было). [поправка: не первый, 2393917 — SAP HANA on VMware vSphere 6.5 in production]

Nutanix и SAP технологические партнеры много лет, и пару лет назад мы уже объявляли о поддержке SAP Netweaver, то есть classic решения, а вот теперь пришел черед и для HANA.
Несмотря на то, что в данный момент в нашей собственной линейке платформ нет более чем двухпроцессорных систем с объемом памяти более 1.5TB, они есть у наших OEM-партнеров DellEMC и Lenovo, там есть 4-процессорные системы с 3TB RAM, идеальные для крупных SAP HANA серверов.
В настоящий момент поддерживаются процессоры семейства Skylake, HANA VM может занимать до 2.3 TB RAM и использовать до 168 virtual CPU, пользовательские приложения на HCI могут использовать vCPU не занятые использованием production HANA базами.

Официальная страница по решениям для SAP на сайте Nutanix: https://www.nutanix.com/sap

Veeam Availability for Nutanix AHV

Ну, улита ехала, наконец доехала. :)

Наши коллеги из Veeam наконец выкладывают в public свой продукт Veeam Availability с поддержкой Nutanix AHV.

veeam site screenshot for nutanix ahv

https://www.veeam.com/availability-nutanix-ahv.html

Есть триал на 30 дней без ограничений.

Что нового в релизе AHV 5.6?

19 апреля компания выпустила новый релиз AHV, который стал называться 5.6. Кроме обычного whatsnew я бы хотел остановиться на одном важном изменении в политике релизов, которое мы запускаем в этом году.

Предыдущий, 5.5, выпущенный в конце декабря, шел медленно и тяжело, так как мы в нем запланировали много «стратегических» фич. Это, как минимум, из видимого пользователю, CALM, Microsegmentation/Flow, AHV Turbo, Nearline Replication/Lightweight Snapshots и много более мелких, но не менее значительных. Релиз несколько раз задерживался, так как все запланированные в него фичи не успевали вовремя, это, в общем, обычная ситуация для любой софтверной разработки.
В этом году, однако, мы решили пересмотреть модель выпуска релизов, и, начиная с 5.6, они будут выходить по новой схеме.

Схема эта знакома тем, кто использует Ubuntu, например, это так называемые time-based releases. Раз в квартал (у убунту это — два раза в год) мы будем выпускать релиз AHV. Фичи пойдут в режиме автобусной остановки. Что успевает быть подготовленным к включению в релиз — попадает в него, что нет — ждет следующего релиза-«автобуса», релизы не будут задерживаться, и выходить в назначенные даты.
Мы переходим к также хорошо знакомой модели Long и Short-time Support релизов. Раз в год будет выходить один LTS-релиз, в котором будут все важные и отлаженные фичи для продакшна, а затем, раз в квартал, будут выходить STS, «bleeding edge», для пользователей, которым хочется попробовать «все самое новое». Затем, в LTS соответствующего года, они будут «закрепляться».
Ближайшие релизы запланированы на май, август и ноябрь.

Версия 5.6 — это первый STS, выходящий после LTS — 5.5.

И вот что в нем появилось нового:

Acropolis File Services — 3.0.

  • К уже реализованным SMB 2.1 и 3.0 добавляется NFS v4.
  • Для целей бэкапа данных в Backup API реализован CFT — Change File Tracking, обеспечиваюший возможность инкрементального бэкапа файлов.
  • В партнерстве с Peer Software интегрирован их продукт Peer Link, позволяющий реализовать Active-Active систему, в которой два (и более) разнесенных AFS в разных кластерах и с разными namespaces будут двунаправленно синхронизировать свое содержимое по сети.
  • Добавились новые средства файлового аудита. С помощью внешнего syslog вы можете ловить события доступа к файлам, мы рассчитываем, что с использованием новых средств наши партнеры по экосистеме разработают полноценную систему файлового аудита, использующую новые возможности.

Микросегментация (Nutanix Flow) готова в GA. Я писал о ней ранее, после выхода v5.5. Теперь Tech Preview переходит в релиз General Available.

Volume Group Load Balancer.
Майкл Вебстер уже показывал, какие возможности несет с собой возможность распараллелить ввод-вывод на множество Volume Groups даже на одной VM, продемонстрировав миллион IOPS в одной VM на такой конфигурации. Volume Groups, напомню, это наши внутренние «блочные» тома, которые можно монтировать как LUNы в VM.
Теперь их использование еще упрощается. Между множественными VG трафик задачи будет автоматически балансироваться внутренними средствами.

Two-node cluster
Я уже писал в этом блоге про «однонодовый кластер» Nutanix для ROBO задач, и обещал, что в ближайшем релизе «однонодовая» конфигурация будет дополнена «двухнодовой». Подробнее — в посте ранее, а вкратце — это отличная возможность поставить Nutanix, со всеми его возможностями, в небольшие офисы и филиалы, с централизованным управлением из «головы». Напомню, это НЕ SMB, это ROBO (Remote Office Branch Office)! «Поштучно» мы их не продаем.

Scale-Out Prism Central.
Наша система управления большими и распределенными системами кластеров, Prism Central, стал распределенным тоже. Раньше этьо была одна VM, теперь его можно развернуть на группе нодов, защитив его от отказов и позволив лучше масштабироваться. Prism Central, напомню, бесплатен, и в него мы добавляем фичи, которые нужны тяжелому ынтерпрайзу. Но так как в «базе» он бесплатен — это повод попробовать, если, например, еще не видели.

RESTful API v3
Постепенно развивается и наш API. По мере того, как в систему добавляются новые возможности, расширяется и API управления. Если вы программируете, или планируете интегрировать Nutanix в сторонние системы, рекомендую посмотреть его. Лучший способ начать знакомство — сайт developer.nutanix.com. Для V3 нужен Prism Central, и в него включена интеграция с Self-Service Portal и Microsegmentation.

80TB per node limit
Мы постепенно наращиваем доступную на ноду емкость, по мере появления емких дисков и прохождения ими сертификации лимит на емкость повышается. Теперь максимальное значение — 80TB на ноду.

Guest OS shutdown
Появилась возможность корректно «дергать» операцию Shutdown в Guest OS, в том числе и из API.

Erasure Coding (EC-X) performance
Постепенно допиливаем до совершенства алгоритмы EC-X, в 5.6 существенно увеличилась производительность EC-X, в ом числе и на таких сложных для него операциях, как rewrite block.

Итак, новый STS release выкачен, если что-то из описанного вам необходимо — обновляйтесь, если нет — можно оставаться в рамках LTS линейки.

Nutanix AHV и что мы будем делать с Meltdown/Spectre

«А теперь, Машенька, о главном…» (с)

Год начинается весело. Если вы пропустили все на свете, то, в двух словах: обнаружена крупная и довольно пакостная уязвимость в большинстве ныне используемых процессоров Intel (и некоторых других архитектур — тоже). Условно вся эта группа уязвимостей названа Meltdown/Spectre, и за подробным описанием я отсылаю на специализированные сайты. Связана эта уязвимость с технологией выполнения программного кода, широко применяемой в CPU сегодня, и, потенциально, может быть использована для доступа к пользовательским данным. Любым данным. Ключам, паролям, произвольным блокам данных, лишь бы в памяти. Процесс злоумышленника может потенциально извлекать из недоступной ему, в обычном состоянии, памяти соседних процессов (и других VM, например), ее содержимое. Самое плохое, что починить ее так, как это обычно делается, правкой микрокода CPU — невозможно.
Пока, в пожарном порядке, производители OS выкатывают патчи, изолирующие память ядра от памяти пользовательских процессов, разными способами. К сожалению, у всех этих патчей есть неприятное побочное свойство: они существенно ухудшают эффективность работы процессоров, и, потенциально (обратите внимание на то, что я часто использую выражение «потенциально», да?) могут заметно ухудшить общую производительность систем. Степень падения производительности разная. В наихудшем случае, при наихудшем стечении обстоятельств, говорят о 20% снижения. Впрочем, существуют задачи, сочетания оборудования и характера операций на CPU, на которых падение незначительно, или вовсе отсутствует.

Если вы используете в качестве гипервизора на Nutanix VMware ESXi или MS Hyper-V — устанавливайте патчи, разработанные VMware и Microsoft (для vSphere смотрите сюда: https://kb.vmware.com/s/article/52085). В этом случае платформа Nutanix для вас ничем не отличается от любой x86 платформы под этим гипервизором. ОЧЕНЬ внимательно читайте текущее состояние дел с порядком установок патчей, там сейчас творится форменный цирк с конями. Обязательно проверяйте ситуацию со стабильностью ваших задач перед выкаткой патчей в продакшн.

Если вы используете Nutanix AHV, то тогда смотрите ниже.

Уязвимость типа Meltdown (Rogue Data Cache Load (CVE-2017-5754 — CVSSv3 7.9)). Более простая в использовании, и поэтому, в принципе, более опасная, но, так как Meltdown не может напрямую использоваться из гостевой VM для атаки на гипервизор, он не опасен для AHV и поэтому фиксить Meltdown в Nutanix AHV нет необходимости.

Уязвимость типа Spectre. Ее использование более сложно реализуется, но она может быть использована для атаки на гипервизор, и ее необходимо пофиксить на уровне гипервизора.

Существует два вида уязвимости Spectre: Вариант 1 и Вариант 2.

Spectre Var1 (Bounds Check Bypass (CVE-2017-5753 — CVSSv3 8.2)) требует минимального изменения в коде, так как уязвимый код НЕ ПРИСУТСТВУЕТ в подсистеме KVM ядра.

Spectre Var2 (Branch Target Injection (CVE-2017-5715 — CVSSv3 8.2)) требует четыре отдельных фикса.

Кроме этих четырех фиксов будет добавлена конфигурируемая пользователем опция CPU IBRS mode (Indirect Branch Restricted Speculation). CPU IRBS может быть включен (on) или выключен (off).

Значение CPU IRBS по умолчанию — off. В этом состоянии замедление работы CPU отсутствует, но есть потенциальная, крайне малая, впрочем, из-за примененных выше фиксов в коде, закрывающих большинство «лазеек», возможность использовать уязвимость Spectre.

В значении CPU IRBS on использование Spectre, даже потенциальное, полностью исключается, однако может наблюдаться некоторое снижение производительности, из-за ухудшения эффективности выполнения кода процессором.

Выбор пользователя, какой именно режим предпочесть.

В Nutanix продолжают работать над более эффективным и элегантным способом решения задачи устранения уязвимости, вероятно результат будет опубликован в течение следующих нескольких недель.

Фиксы для AOS версий 5.0.x и 5.1.x применяются на AHV version 20160925.103, и доступны с Nutanix support portal, а также будут включены по умолчанию в AOS версий 5.0.5 и 5.1.4, выходящих вскоре.
Фиксы для AOS версий 5.5.x применяются на AHV version 20170830.85, и доступны с Nutanix support portal, а также будут включены по умолчанию с AOS версии 5.5.1.

Подробнее информацию по этой теме смотрите на странице Security Advisores. Официальный док — тут: SecurityAdvisory07-v6. Документ обновляется, текущая версия, на момент публикации этой записи — шестая, самую свежую версию смотрите на сайте Nutanix.

UPD: Версия Security Adisory по этой проблеме обновилась до v7.

UPD2: This updated microcode from Intel has been deemed problematic in certain scenarios, and in some cases, can cause further side effects that are undesirable in virtual environments.
Removed recently released AHV versions 20170830.85 and 20160925.103 from the portal. Instead we will be delivering these AHV versions by way of direct AOS version upgrades. AOS versions 5.5.0.4, 5.1.4 and 5.0.5 will soon be available and packaged with AHV versions 20170830.85 and 20160925.103 respectively. By packaging these updates directly with an AOS update we can default disable VM use of IBRS, the affected and problematic portion of the microcode update.
Remediation:
1) If you have already updated AHV to 20170830.85 or 20160925.103 then it is recommended you upgrade to AOS version 5.5.0.4, 5.1.4 or 5.0.5 once they are available, and reference KB#5104, or contact Nutanix Support, for further information.
2) If you have not yet upgraded AHV to the aforementioned versions then it is recommended to wait and upgrade to AOS version 5.5.0.4, 5.1.4 or 5.0.5 once they are available, and then upgrade your hosts to the packaged AHV version. In this scenario, it is unnecessary to contact Nutanix Support for additional information. Reference KB#5104 for additional information.

Nutanix принял решение в нашем продукте для борьбы с Meltdown/Spectre использовать технологию Retpoline, разработанную командой Google, вместо плохо себя зарекомендовавшего пути с «тремя патчами» Intel.

О Veeam B&R и поддержке им AHV

В нескольких словах о ситуации с поддержкой в Veeam Backup and Replication нашего гипервизора Nutanix AHV.
Как вы наверняка уже знаете, в прошлом году мы договорились о том, что Veeam сделает такую поддержку, и добавит к ESXi и Hyper-V еще и AHV.
Неоднократно, в том числе официальными «спикерами» компании (например Gostev в форуме Veeam), называлась датой выхода «до конца 2017 года» и «выйдет в составе v9.5 Update 3». Однако 9.5 Update 3 вышел, как и обещалось, до конца года, а поддержки Nutanix AHV в нем не оказалось, и это, к сожалению, расстроило и обескуражило многих наших клиентов.

Инсайдерские сведения из Veeam говорят, что поддержка Veeam потребовала дополнительных циклов проверок и тестирования, и это было причиной, отчего поддержка AHV в Veeam Backup and Replication 9.5 не вышла в составе Update 3, а будет выпущена отдельно, «в ближайшие неделю-две». Фактически, она уже готова.
Продукт под AHV будет выпущен в статусе «Beta», и в виде Appliance, подобно тому, например, как работает Comtrade HYCU. Это позволяет выпускать и обновлять этот продукт независимо от основного B&R, при этом в Update 3, основном модуле, уже сделаны все необходимые изменения и поддержка для его работы в части бэкап репозитория. Так что как только этот appliance для AHV появится, его можно будет установить и подключить к репозиторию обновленного B&Rv9.5U3.
У этого appliance под AHV будет свой собственный цикл разработки и обновлений, что позволит выпускать его чаще, обновлять оперативнее, и добавлять софтверные фичи независимо от довольно неспешно развивающегося B&R.

Обратите внимание, что Veeam экспериментирует со схемой лицензирования, и Veeam for AHV будет лицензироваться по-новому для продуктов компании, «per VM». Выгодно это будет или нет — считайте, «снизу» на цены бэкапного решения давят шустрые новички (в ряде случаев даже Commvault обходится пользователю дешевле, чем Veeam). Возможно, для небольших инсталляций, это будет плюсом.

Не забудьте давать обратную связь для Veeam, как через официальный канал поддержки, так и через форум: https://forums.veeam.com/veeam-backup-replication-f2/nutanix-ahv-t35904-135.html

AHV Turbo Mode — первые результаты

Интересные результаты показали наши разработчики для AHV Turbo Mode (AKA Frodo).

Напомню, AHV Turbo Mode, как внутренний project codename называвшийся Frodo, это новый способ работать с дисковым хранилищем в Nutanix AHV, оптимизация пути передачи данных и более высокая параллельность обработки очередей, которые теперь могут обрабатываться большим числом ядер CPU на хост-машине, чем было до того в vanilla QEMU. Он появился впервые в AOS 5.5, вышедшем на прошлой неделе.
Это улучшение особенно важно для AllFlash и NVMe машин, выходящих у нас в свет следующем году.
Как вы видите из графика, на обычной VM рост производительности ввода-вывода при увеличении числа параллельных операций практически останавливается в районе 30-40 Outstanding Requests, при этом с использованием AHV Turbo Mode он продолжает свой рост вплоть до 128. Это отличный потенциал для роста производительности для новых AllFlash, так как проявляется эта новая возможность прежде всего на них.

AHV Turbo mode

Наш сотрудник, Josh Odgers, ведущий свой блог тут: http://www.joshodgers.com, недавно опубликовал интересное описание того, как работает AHV Turbo, особый режим работы ввода-вывода, сокращающий путь от UVM (User VM) к CVM (Controller VM) и непосредственно к «железу» через гипервизор.
Как вы уже знаете, CVM у нас находится в User Space гипервизора, и, в отличие от схемы ввод-вывода, например, VSAN, где он осуществляется в Kernel Space. И VMware это все еще позиционирует как большое преимущество, мотивируя это тем, что, дескать, работа в kernel-space более эффективна и более производительна. С одной стороны это так, конечно. С другой, как показывает Nutanix, разница в производительности в данном случае не так значительна, а, между тем, работа в user-space имеет множество преимуществ с точки зрения защищенности и изолированности, безопасности, простоты обновлений и гипервизоро-независимости. Хорошо спроектированная архитектура для user-space практически нивелирует преимущества в производительности для kernel-space, и при этом у нас еще не закончились фичи, позволяющие нам оптимизировать и улучшать процесс ввода-вывода, в особенности если ниже, под CVM и пользовательскими VM лежит наш собственный гипервизор.
Вот, например, как работает режим AHV Turbo, появившийся в новых версиях AHV, и предназначенный, в первую очередь, для оптимизации работы с новыми устройствами хранения, такими как NVMe и 3D Xpoint. В нем Nutanix сократил и спрямил Data IO path между пользовательской VM и «железом» серверной платформы.

На рисунке ниже показывается, как ввод-вывод пользовательской VM (UVM) проходит через подсистему Frodo (служебное имя для Turbo Mode) которая работает в User Space (не в kernel) и затем идет в Stargate (подсистема ввода-вывода) в Controller VM).

Еще одним преимуществом AHV и Turbo mode является то, что администратору не требуется конфигурировать множество адаптеров PVSCSI и распределять виртуальные диски по контроллерам. При добавлении виртуального диска в VM под AHV, многопоточная и много-очередная архитектура используется автоматически, что повышает производительность ввода-вывода как на запись, так и на чтение.
Много-очередной поток ввода-вывода обслуживается с помощью множественных тредов модуля frodo (Turbo mode) и проходит через stargate.

Как показано на рисунке выше, Nutanix с Turbo mode устраняет узкие места, характерные для традиционных гипервизоров, например — причину, по которой VMFS datastore требуется использовать VAAI Atomic Test and Set (ATS) для устранения проблем с большим количеством VM на датасторе (например более 25). Напомню, в классическом VMFS существует ряд операций, которые блокируют датастор целиком, например это любые изменения в метаданных датастора, вызываемые, например, созданием или включением VM, созданием ее снэпшота, запуск Storage vMotion, и так далее. В случае таких операций, без использования VAAI ATS, будет на определенное время, при выполнении этих операций, блокирован ввод-вывод на датастор целиком, для ВСЕХ VM на нем находящихся. Это не слишком страшно, если у вас всего несколько VM на датасторе, и является существенной проблемой когда этих VM на датасторе много, не только потому, что это «тормозит» гораздо больше приложений, но и потому, что при большом количестве VM операции, связанные с блокировкой VMFS, возникают чаще. В случае AHV при использовании Turbo mode, не только каждый vdisk будет иметь свою собственную очередь команд (вместо одной на датастор или контейнер в «классике») но также добавляется и очередь per-vcpu на уровне виртуальных контроллеров.

Вот какие результаты работы AHV Turbo приводит у себя в блоге Джош:

На четырехнодовом блоке четырехлетней давности NX-3450, стоящей в лабе, с двумя SATA SSD на ноду и с отключенным memory read cache, результаты от включения AHV Turbo:
На 25% ниже загрузка CPU на задаче sequential write, при том, что значение производительности практически не изменилось (2929 MBps vs 2964 MBps)
На 27.5% выше sequential read performance (9512 MBps vs 7207 MBps)
На 62.52% увеличилась производительность random read IOPS (510 121 vs 261 265)
На 33.75% увеличилась производительность random write IOPS (336 326 vs 239 193)

И еще из интересного оттуда же. У нас есть клиент, у которого эксплуатируется под Acropolis Hypervisor 1750 нод!

Конфигурация сети в Nutanix Acropolis Hypervisor — на русском

В конце апреля мы публиковали перевод на русский документа Nutanix Acropolis Hypervisor best practices, а сегодня я рад представить новый перевод:
Конфигурация сети в Nutanix Acropolis Hypervisor BP-2071 v.1 RUS.

По ссылке вы найдете PDF с подробным описанием того, как конфигурируется и организуется сетевая подсистема в AHV, как настроить балансировку нагрузки по портам, как организовать VLAN-ы, как настроить работу по множественным сетевым портам и виртуальным интерфейсам OpenvSwitch. Конечно, в большинстве случаев вы вполне можете оставить вашу систему в конфигурации по умолчанию, но если у вас есть специальные требования к сетевой подсистеме — этот документ для вас.
Знакомьтесь, если есть замечания по переводу, то можно оставлять в комментариях.

Наш новый партнер — IBM!

Как вы знаете, существенная часть продаж Nutanix — это наши продажи через OEM-партнеров. Поэтому ничего удивительного в том, что мы продолжаем активно развивать наш OEM-бизнес на рынке. До сегодняшнего дня у нас было, официально, два OEM. Это Dell, и его модельная линейка гиперконвергентных систем Dell XC (фактически — сервера PowerEdge и Nutanix как софт на них, продаваемые через канал Dell), и Lenovo (как Lenovo HX, на тех же условиях). Да, у нас есть эксперименты с установкой Nutanix на платформы Cisco UCS C и UCS B, и даже, с недавних пор, на HP ProLiant DL (мы пока не предлагаем это в России, но они есть), но это не OEM, официальных «настоящих» OEM у нас было два.

И вот к этим двум добавился еще один — IBM! Особое соглашение, под названием multi-year agreement было заключено между Nutanix и IBM.

ibm logo

«Погодите,» — скажете вы, «Но ведь у IBM больше нет серверов x86, они все теперь у Lenovo! У IBM остались только системы серверной архитектуры Power8, так это что ж значит?..»

Да! Nutanix AHV портирован на Power, и IBM будет поставлять Nutanix AHV на своих 1U- и 2U-серверах платформы Power как готовый appliance!

power8 logo

Основная цель для подобных систем — Linux-приложения на платформе Power, опернсорсные базы данных Cassandra и MongoDB, приложения на Java в WebSphere, BigData и AI (Artificial Intelligence).

Официальный анонс соглашения — сегодня, анонс первых продуктов, спецификации и цены — 28 июня, на .NEXT, нашей главной партнерской технологической конференции.

Чтобы соблюсти юридические формальности: Партнерство IBM и Nutanix официально не называется «OEM» (но, фактически является схожим с ним по сути), IBM будет поставлять свое оборудование, под своим именем, но с нашим софтом внутри. Фактически условия эти аналогичные OEM, например с Dell. Но при этом мы договорились, что это не будет называться так. Это, официально, зовется multi-year agreement. Давайте его так и будем называть.

Официальный пресс-релиз — тут: https://www.nutanix.com/press-releases/2017/05/16/ibm-nutanix-launch-hyperconverged-initiative-bring-enterprises-cognitive-era/