Архив за месяц: Октябрь 2016

Oracle RAC на внешних хостах с использованием Acropolis Block Services (ABS)

Интересный эксперимент провели у нас в лабе. Был запущен Oracle RAC 12.1 на двух хостах Lenovo (бывш. IBM) x3850, подключенных к 4 нодам кластера Nutanix (NOS 4.7) с использованием Lenovo HX7500 в AllFlash конфигурации (суммарное число нод в кластере было 6, как видно из скриншота ниже, но 2 в тесте не участвовали и в ABS подключены не были).
Причем так как не стояла задача достигнуть максимально возможных результатов, не делалось никакого тюнинга баз, и эксперимент проводился параллельно с другими операциями на этом экспериментальном кластере, в частности там же в этот момент было развернуто около 100 рабочих мест в XenDesktop и 4 вспомогательные базы в MS SQL.

Тем не менее, было достигнуто около 90K IOPS на OLTP-подобной нагрузке (70% Read / 30% Write) при средней latency около 1ms.
Суммарная производительность всех 6 узлов кластера, обрабатывавшего кроме нагрузки Oracle RAC еще и другие задачи лабы, составила около 200.000 IOPS

sn-2057-oracle-rac-with-abs_image5

А это показания непосредственно Enterprise Manager-а Oracle.

sn-2057-oracle-rac-with-abs_image6

Показания значений latency

sn-2057-oracle-rac-with-abs_image7

Выброс latency в районе 8:35 — это создание снэпшота AWR — Automatic Workload Repository.

При тесте в качестве генератора OLTP-подобной нагрузки использовался SLOB v2.3.

Конфигурация тестовой платформы:

Four-node HX7500 all-flash (prerelease hardware version) running Nutanix AHV:

  • 24x 800 GB SSDs per node
  • 2x Intel E5 v3 CPUs per node
  • 256 GB of RAM per node
  • 2x 10 GbE NICs per node

Two-node Lenovo x3850 X6 running Oracle Linux and Oracle 12c in RAC configuration:

  • 512 GB of RAM per node
  • 2x 40 GbE per node
  • 2x 10 GbE per node

sn-2057-oracle-rac-with-abs_image3

Nutanix AHV 4.7
Oracle Linux v7.1 x86_64
Oracle 12cR1 Grid Infrastructure v12.1.0.2
Oracle 12cR1 Database v12.1.0.2

На каждой ноде Oracle RAC был установлен Oracle Linux 7.1 x86_64 с 72 cores на 512 GB памяти, 128 GB выделено Oracle SGA (System Global Area).
Oracle ASM disk groups использовали 4 MB allocation unit (AU). Параметры ASM:

Database data — 24 тома 500GB
Online Redo Logs — 6 томов 30GB
FRA — 6 томов 100GB
OCR/Vote Disk — 6 томов 20GB

Для подключения томов к хостам Oracle использовался iSCSI 10GBE.

VMware исполняется 17 лет!

Совсем недавно я в этом блоге отметил 60 лет, исполнившихся HDD. А сегодня еще одна важная дата, пусть некруглая, это все равно повод вспомнить, что 17 лет назад была образована компания VMware. Компания, так важно и сильно изменившая наш IT-мир и современные датацентры. Тогда, 17 лет назад, виртуализация и гипервизоры сперва были просто неким забавным способом запустить Linux на Windows, и поиграться с ним на компьютере админа. Сперва это рассматривалось просто возможностью выполнять другую OS на персоналке, например для учебных или тестовых целей. Но прошло совсем немного лет, и стало ясно, что цели у новой компании куда более дальние. Сегодня же виртуализация, на мой взгляд, совершила переворот, сравнимый с приходом «персональных компьютеров» и «серверов стандартной архитектуры» на смену мэйнфреймам, переворот, который осознавался далеко не сразу и не всеми.
Так что не стоит забывать то, что всего 17 лет назад родилась компания, которая эту революцию сделала возможной, и поздравления коллегам из VMware с этой датой!

Citrix XenServer на Nutanix: некоторые подробности

citirx-xenserver-720x340
На прошлой неделе я упомянул о новости, появившейся на сайте Citrix, о том, что Nutanix начал поддерживать четвертый гипервизор. Плюс к VMware ESXi, MS Hyper-V, и нашему собственному Acropolis Hypervisor на базе RedHat KVM, мы начали поддерживать на наших системах еще и Citrix XenServer. Таким образом, практически все сегодняшние коммерческие гипервизора на рынке у нас поддерживаются, ни одна гипервизорная web-scale система больше такого не умеет.

У меня появились некоторые материалы, которые позволяют ответить на вопросы пользователей «как, зачем и почему».

Во-первых, как я уже писал ранее, Citrix XenServer поддерживается, в первую очередь, как гипервизор для решения Citrix XenDesktop. Первая версия, в которой появится поддержка XenServer будет Nutanix OS 5.0. Как вы уже знаете, все крупные новые фичи Nutanix сперва появляются в статусе Technical Preview (TP), и становятся Production-ready в следующем релизе Nutanix OS. Таким образом, впервые XenServer появится в ближайшем релизе, который будет 5.0, и далее станет production-ready в 5.1. Единственная версия XenServer, которая будет поддерживаться — 7.0

Направленность на XenDesktop связана с тем, что в Citrix XenServer работает поддержка для GPU-карт. Это то, что, пока, еще не работает в настоящий момент на AHV. Это будет в AHV, и ожидается уже в первой половине года 2017, но, пока этого нет, если вам нужен GPU в VDI, то следует использовать XenServer как платформу для VDI-системы XenDesktop. Мы планируем поддерживать XenServer только для этой задачи. Если вы ищете бесплатный гипервизор вообще, то лучше смотрите на наш AHV.

Интеграция XenServer в готовящемся TP пока не такая полная, как для трех остальных (например в интерфейсе управления). Пока нет средств обновления гипервизора (нашими средствами, которые есть, например, для vSphere и Hyper-V), расширения кластера, по-прежнему требуется XenCenter для развертывания VM в XenServer. К Production-ready релизу это, скорее всего, допилят.

Если вам нужны: Citrix PVS, vGPU или GPU Passthru для XenDesktop, то тогда смотрите на XenServer на Nutanix. Если ваша задача НЕ XenDesktop с GPU и/или PVS, то тогда лучше выберите AHV.

В настоящее время мы планируем использование XenServer только для платформ Nutanix, наши OEM (Lenovo и Dell) пока не планируют поддержку XenServer на Lenovo HX и Dell XC, по крайней мере для TP-стадии.

ceph.com упал.

Сайт ceph.com, работавший, как нетрудно догадаться, на ceph и OpenStack в хостере Dreamhost, упал, и лежит уже сутки.

http://www.dreamhoststatus.com/2016/10/11/dreamcompute-us-east-1-cluster-service-disruption/
Our beta DreamCompute cluster named US-East 1 is currently having issues with its storage system. We have our entire team up and working on the issue, and hope to have service restored shortly. The storage cluster is vital to many functions of the cluster, and so is affecting networking, routers and instances. We apologize for the issues and are working hard to restore service.

2016-10-12_21-01-32

http://www.spinics.net/lists/ceph-users/msg31693.html

UPD: Поднялся, сутки спустя. Видимо сервера восстановили из бэкапов. Вот так оно, с ceph. :(

Nutanix поддерживает Citrix XenServer!

https://www.citrix.com/blogs/2016/10/11/nutanix-supports-citrix-xenserver-to-deliver-a-superior-vdi-experience/

Итак, теперь Nutanix будет поддерживать Citrix XenServer плюс к уже поддерживаемым VMware ESXi, MS Hyper-V и нашему собственному Acropolis Hypervisor (AHV), созданному на базе RedHat KVM.

Вероятнее всего это не будет «универсальным» решением, и будет относиться только к инфраструктуре VDI с использованием Citrix XenDesktop, но дальше посмотрим как пойдут дела. Уже год как мы большие технологические партнеры с Citrix, и предлагаем интересное по цене решение Nutanix InstantOn на базе нашей платформы и VDI-решения от Citrix, но оно базируется на AHV. Сейчас к бесплатным для пользователя гипервизорам добавится и Citrix XenServer.

Что делать, если на Nutanix случайно удалены важные данные?

Допустим, вы случайно грохнули vDisk с базой данных вашей компании, или еще что-то столь же важное. Случится может с каждым. Что делать?

don-t-panic

1. Не паниковать!
Как и в большинстве других файловых систем сегодня, при удалении на ней файла блоки, в которых хранится информация, не удаляются физически. На Nutanix они даже не мгновенно высвобождаются. Поэтому, не паникуя, нужно максимально быстро сделать следующий шаг:

2. В консоли CVM дать команду:
allssh genesis stop curator

allssh — выполнит эту команду на всех хостах, когда вы запустите ее только на одном из них
genesis stop — это команда, указывающая менеджеру сервисов Genesis остановить указанную далее службу.
curator — служба менеджера кластера Nutanix, именно он занимается очисткой удаленных vDisk-ов. Цикл сканирования partial scan проходит раз в 60 минут (например, для переноса данных с hot на cold tier), так что если вы успели остановить curator приведенной командой раньше, чем будет запущен цикл сканирования и очистки, то данные гарантированно останутся целыми.

3. Свяжитесь с техподдержкой.
Вероятность восстановить данные полностью после их удаления достаточно велики, если вы без промедления остановили службу curator.

Важно: эти действия не приводят к остановке работы кластера и других VM с вашими приложениями! Все VM по-прежнему будут работоспособны, пока вы извлекаете удаленные данные из контейнера кластера Nutanix.

Nutanix ABS: как у нас работает failover/failback?

Интересное видео, показывающее, как отрабатывает Failover и Failback на нашем ABS — Acropolis Block Storage — сервисе, который отдает внешним серверам хранилище Nutanix как блочные LUNы. Это (по крайней мере изначально) было придумано для возможности подключить к кластеру Nutanix какой-то внешний сервер, например Oracle, который нельзя, или лицензионно дорого перетаскивать под гипервизор.
Но как при этом работает failover? Что произойдет если, например, одна из нод кластера упадет?

Вот на этот вопрос отвечает видео. На нем 4-нодовый кластер Nutanix отдает LUN-ы с тестовой базой внешнему серверу Oracle DB. На Nutanix также запущен в отдельной VM swingbench, эмулирующий нагрузку к этой базе данных и показывающий графики параметров работы теста.

На первом видео мы видим, как все четыре CVM обслуживают внешний сервер, самобалансируя ввод-вывод с него между собой. Обратите внимание, что мы НЕ ИСПОЛЬЗУЕМ MPIO или ALUA, для нашей архитектуры доступа к данным они не нужны на хост-сервере! iSCSI Initiator на физическом хост-сервере обращается на общий «кластерный IP» таргета, который передается какому-то из CVM, и им обслуживается. В версии 4.7 используется равномерная «рассортировка» по CVM, начиная с версии 5.0 для выбора целевого CVM используется сравнительный уровень его загрузки. Добавляемые в кластер ноды автоматически начинают обслуживать операции ввода-вывода, без дополнительного вмешательства и перенастройки админом.

Затем мы физически отключаем одну ноду, используя команду poweroff на IPMI из консоли. (страничка по адресу CVM с портом 2009 это одна из наших служебный вебстраниц интерфейса, в данном случае — iSCSI Target Adapter-а).
Мы видим, что iSCSI target переехал на одну из нод, которая подхватила операции упавшей, с минимальной задержкой операций, в пределах таймаута. Нагрузка на CVM, подхвативший операции вышедшего из строя выросла. Операции swingbench не прерывались.

Затем, мы включаем ноду назад, и, вскоре, видим, как она включилась, и iSCSI Target самостоятельно вернулся на включенную ноду, так что нагрузка снова автоматически сбалансировалась по всем четырем CVM-«контроллерам СХД».