upgrade raid
Модераторы: Trinity admin`s, Free-lance moderator`s
upgrade raid
Дано:
https://www.supermicro.com/products/sys ... -73mtf.cfm
Сейчас 8 дисков сата работают на встроенном контроллере lsi
В качестве апргрейда планирую купить следующее:
MegaRAID SAS 9271-4i L5-25413-17
Батарея аварийного питания + кэш-память LSICVM01
SSD накопитель HGST Ultrastar SS200 SDLL1DLR-400G-CAA1 0TS1375 400Гб, 2.5", SAS - 2 шт.
Будет данная конфигурация норм работать ?
https://www.supermicro.com/products/sys ... -73mtf.cfm
Сейчас 8 дисков сата работают на встроенном контроллере lsi
В качестве апргрейда планирую купить следующее:
MegaRAID SAS 9271-4i L5-25413-17
Батарея аварийного питания + кэш-память LSICVM01
SSD накопитель HGST Ultrastar SS200 SDLL1DLR-400G-CAA1 0TS1375 400Гб, 2.5", SAS - 2 шт.
Будет данная конфигурация норм работать ?
- Sponge Bob
- Сотрудник Тринити
- Сообщения: 102
- Зарегистрирован: 03 май 2018, 12:11
- Откуда: Moscow
- Контактная информация:
Re: upgrade raid
Добрый день.
SSD не станет работать быстрее с кэшем, даже наоборот.
SSD не станет работать быстрее с кэшем, даже наоборот.
Re: upgrade raid
Ну эта мантра уже стала общим местом в различных "FAQ".Sponge Bob писал(а):SSD не станет работать быстрее с кэшем, даже наоборот.

Хотя я бы поспорил. Особенно по части "наоборот".
Re: upgrade raid
Вместо 9271, буду использовать 9361-8i для избежания проблем с совместимостью с ssd.
Приобретать или нет батарею аварийного питания + кэш-память, и кинте ссылку почитать по поводу этого по возможности.
Приобретать или нет батарею аварийного питания + кэш-память, и кинте ссылку почитать по поводу этого по возможности.
- Avenduff
- Junior member
- Сообщения: 10
- Зарегистрирован: 02 янв 2019, 09:51
- Откуда: Croatia
- Контактная информация:
upgrade raid
Возникли сомнения о правильности создания массива, с течением времени массив значительно деградировал.
Контроллер lsi 92 точно не помню, но это особо и не важно мне кажется.
Дисков 8шт, raid10, размер блока был указан как 256кб, без readahead, но с кэшем на ssd.
Сторедж используется как хранилка виртуальных машин клиентов, на сервера отдается по iscsi, клиентские системы натянуты как lvm раздел.
Дальше используются теже Linux разных видов, внутри Linux для ext4 размер блока по умолчанию 4кб.
В итоге что вижу, сумашедшее не совпадение размера блока между внутреней фс сервера и размером блока дисковой подсистемы хранилища, от сюда делаю вывод что идет достаточно серьезная лишняя нагрузка на диски потому что каждый чих диск переваривает гораздо сложней из-за несовпадения размеров секторов.
С другой стороны, уменьшение размера блока самого массива не совсем понятно к какому может привести результату, времена может даже плачевному...
Может кто-то подскажет что-то интересное по этой теме?
Почему это все написал?
Столкнулся с деградацией производительности под zfslinux, без использования контроллера, таже самая история, чтение с дисков всего пару мегабайт, но при этом диски стояли в полке по iops и не давали достаточно производительности для дальнейшей работы.
Контроллер lsi 92 точно не помню, но это особо и не важно мне кажется.
Дисков 8шт, raid10, размер блока был указан как 256кб, без readahead, но с кэшем на ssd.
Сторедж используется как хранилка виртуальных машин клиентов, на сервера отдается по iscsi, клиентские системы натянуты как lvm раздел.
Дальше используются теже Linux разных видов, внутри Linux для ext4 размер блока по умолчанию 4кб.
В итоге что вижу, сумашедшее не совпадение размера блока между внутреней фс сервера и размером блока дисковой подсистемы хранилища, от сюда делаю вывод что идет достаточно серьезная лишняя нагрузка на диски потому что каждый чих диск переваривает гораздо сложней из-за несовпадения размеров секторов.
С другой стороны, уменьшение размера блока самого массива не совсем понятно к какому может привести результату, времена может даже плачевному...
Может кто-то подскажет что-то интересное по этой теме?
Почему это все написал?
Столкнулся с деградацией производительности под zfslinux, без использования контроллера, таже самая история, чтение с дисков всего пару мегабайт, но при этом диски стояли в полке по iops и не давали достаточно производительности для дальнейшей работы.
Кто сейчас на конференции
Сейчас этот форум просматривают: нет зарегистрированных пользователей и 8 гостей