«Они снова сделали это» — disk performance в AOS 5.0

Помните, я рассказывал про историю, как мы в 4.6 значительно улучшили производительность работы на том же самом железе, просто обновлением софта.
Так вот, «мы снова сделали это». На скриншотах ниже результаты обновления версии AOS 4.7.3 на AOS 5.0 на тестовой системе. Просто запустили diagnostics.py, обновили систему на 5.0, и снова его запустили.

Вот результат с последней сабверсией линейки 4.7 — 4.7.3 на 4-нодовой демосистеме NX-3000, стоявшей в этот момент на тестировании у пользователя.

А это результат того же diagnostics.py сразу после обновления на 5.0.

Вот так работает software defined. То же железо, та же задача, а производительность Random Read IOPS стала выше на ~25%, Random Write IOPS — на ~30%, просто обновлением ПО, которое вы получаете бесплатно, пока система находится на поддержке.

«Они снова сделали это» — disk performance в AOS 5.0: 4 комментария

  1. Peter

    Стоит отметить что такой же результат достигается и на netapp и на ряде других вендоров (но на них хуже). На прошедшей конференции показывали разницу в показателях производительности для систем с 8,3 и 9 — примерно такая же картина в плане разницы в производительности — не менее 25%.
    SDвсё рулит :)

    1. romx Автор записи

      Да, и это — прекрасно. Покупаешь железку, обновился через полгода бесплатно, и, хоба, плюс четверть производительности, да еще гроздь фичей.

  2. Anonymous

    Прикрутили кэширования от PernixData или только за счёт оптимизации своего кода?

  3. Лёва

    На днях переделывал NX-3460-G4 кластер AHV AOS4.7.3 —> ESXi6 AOS 5.0
    (8 x Intel Xeon Processor 2.50GHz 12-core Haswell E5-2680 v3 30M Cache
    * 32 x 32GB DDR4 Memory Module = 1024GB * 16 x 2TB 2.5″ HDD * 8 x 800GB 2.5″ SSD Intel S3610
    * 4 x 10GbE Dual SFP+ Network Adapter * 8 x Cable 3m SFP+ to SFP+ * 2 x Arista 7150S-24)

    Вот тоже делюсь результатом:

    Duration prepare_disks : 43 secs
    *******************************************************************************
    Waiting for the hot cache to flush ……………………. done.
    2017-01-24_20-04-05: Running test «Sequential write bandwidth» …
    1813 MBps
    Average CPU: 192.168.9.38: 72% 192.168.9.35: 44% 192.168.9.37: 64% 192.168.9.36: 46%
    Duration fio_seq_write : 30 secs
    *******************************************************************************
    Waiting for the hot cache to flush ………… done.
    2017-01-24_20-05-13: Running test «Sequential read bandwidth» …
    4149 MBps
    Average CPU: 192.168.9.38: 45% 192.168.9.35: 27% 192.168.9.37: 39% 192.168.9.36: 29%
    Duration fio_seq_read : 14 secs
    *******************************************************************************
    Waiting for the hot cache to flush …………….. done.
    2017-01-24_20-06-22: Running test «Random read IOPS» …
    271314 IOPS
    Average CPU: 192.168.9.38: 93% 192.168.9.35: 85% 192.168.9.37: 86% 192.168.9.36: 86%
    Duration fio_rand_read : 102 secs
    *******************************************************************************
    Waiting for the hot cache to flush … done.
    2017-01-24_20-08-14: Running test «Random write IOPS» …
    223391 IOPS
    Average CPU: 192.168.9.38: 85% 192.168.9.35: 76% 192.168.9.37: 76% 192.168.9.36: 75%
    Duration fio_rand_write : 59 secs
    *******************************************************************************
    Tests done.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *