Нормально поддерживаемые RAID контроллеры
Модераторы: Trinity admin`s, Free-lance moderator`s
Нормально поддерживаемые RAID контроллеры
Планируется 2 машинки под FC, одна полуигрушечный ftp сервер на отдел, вторая роутер.
Роутером IBM xSeries 206, поймется ли ее рэйд как нормальный железный или ставить дополнительный? Если да то какой?
FTP изначально без встроенного контроллера, хочется чтоб держал 8 sata дисков 2 зеркалом и 6 в 10м.
Что порекомендуете?
Роутером IBM xSeries 206, поймется ли ее рэйд как нормальный железный или ставить дополнительный? Если да то какой?
FTP изначально без встроенного контроллера, хочется чтоб держал 8 sata дисков 2 зеркалом и 6 в 10м.
Что порекомендуете?
- exLH
- Сотрудник Тринити
- Сообщения: 5061
- Зарегистрирован: 11 фев 2004, 15:49
- Откуда: Москва
- Контактная информация:
Роутером IBM xSeries 206, поймется ли ее рэйд как нормальный железный или ставить дополнительный?
Это зависит от того, какую ОС ставить будете. Если ту, что поддерживается (RedHat, SUSE), то распознается.
хочется чтоб держал 8 sata дисков 2 зеркалом и 6 в 10м. Что порекомендуете?
У IBM нет в линейке сервера с поддержкой 8-ми SATA дисков. Хотите делать мешанину из брэндов? Зачем?
Это зависит от того, какую ОС ставить будете. Если ту, что поддерживается (RedHat, SUSE), то распознается.
хочется чтоб держал 8 sata дисков 2 зеркалом и 6 в 10м. Что порекомендуете?
У IBM нет в линейке сервера с поддержкой 8-ми SATA дисков. Хотите делать мешанину из брэндов? Зачем?
Fedora Core 4. Просто как-то проскакивала тема, что части рэйдов требуется для нормального функционирования поддержка драйверов ОС. Кроме того, при установке система видит 2 разных диска (при созданом рэйде 1-го уровня), хотя после установки при потере люборго из дисков продолжает работать. На моей памяти, когда ставил RH на старые сервера диск виделся как 1.Это зависит от того, какую ОС ставить будете. Если ту, что поддерживается (RedHat, SUSE), то распознается.
вы бы уточнили о каком контроллере идет речь, т.к. ИБМ пишет что там (в x206) и SCSI контроллер есть и SATA.
PS:
Общий совет для линукса: если вам достался HOST RAID - не мучайтесь со специфическими софт-raid драйверами, а используйте стандартный софовый raid линукса на модуле md, т.к это точно будет не медленее и [почти наверняка] надежнее. В этом случае будет рабоать на любом дистро без проблем.
PS:
Общий совет для линукса: если вам достался HOST RAID - не мучайтесь со специфическими софт-raid драйверами, а используйте стандартный софовый raid линукса на модуле md, т.к это точно будет не медленее и [почти наверняка] надежнее. В этом случае будет рабоать на любом дистро без проблем.
Есть-ли тесты $ваш-контроллер vs linux md raid я не знаю.netfrog писал(а):О SATA.
а по производительности как, пример рельного теста есть?
Тем не менее, есть довольно много данных вроде hardware raid vs. software raid, где software raid на линуксе как правило быстрее (нагрузка на CPU естественно намного больше, т.к. чудес не бывает). Из этих тестов можно вполне зделать вывод что с производительностью у md модуля на линуксе нет особых проблемм.
[некоторые цифры есть тут,
и далее в коментариях к первому сообщению]
Когда вы используете HOST RAID на линуксе, то вы по сути дела меняете проверенный модуль md (то есть стандартный soft raid) , у которого как показано выше проблем прозиводительностью нет, на некий модуль X, на счет производительности [и надежности!] которого мало что известно.
Описание в Software-RAID HOWTO, и на Software-RAID HOWTO на русскомnetfrog писал(а): И если можно, носом ткнуть в описание и возможности мониторинга состояния.
состояние/мониторинг/восстановление и прочее в утилите mdadm, посмотрите man mdadm
Спасибо! Взялся разбираться с софтовым вариантом, адекватных нареканий на предмет стабильности ни от кого не услышал, так, что как бюдежтный вариант решил использовать. Соответственно возникли вопросы.
Как первый эксперимент был сделан имидж с дисков рабочего сервера (FC4) попытка слету создаь рэйд
Воспользоваться решил raidtools: raidtools-1.00.3-8.i386.rpm.
Вводная: в системе 2 диска:
/etc/raidtab
mkraid/dev/md0
/proc/mdstat
messages
Было высказано предположение, что грабли растут из того, что это рабочий и использующийся в системе диск. В принципе логично, но тогда возникает вопрос, могу ли я без переразметки и переусановки системы на текущей конфигурации "засунуть" все в рэйд уровня 1 и тупо поправить lilo на предмет загрузки с md0 или нет? Точнее я то пока не могу :P , а вот реально возможность существует?
Как первый эксперимент был сделан имидж с дисков рабочего сервера (FC4) попытка слету создаь рэйд

Вводная: в системе 2 диска:
Код: Выделить всё
Disk /dev/sda: 200.0 GB, 200049647616 bytes
255 heads, 63 sectors/track, 24321 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 24258 194852353+ 83 Linux
/dev/sda2 24259 24321 506047+ 82 Linux swap / Solaris
Disk /dev/sdb: 200.0 GB, 200049647616 bytes
255 heads, 63 sectors/track, 24321 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
Код: Выделить всё
raiddev /dev/md0
raid-level 1
nr-raid-disks 2
nr-spare-disks 0
chunk-size 4
persistent-superblock 1
device /dev/sda
raid-disk 0
device /dev/sdb
raid-disk 1
Код: Выделить всё
handling MD device /dev/md0
analyzing super-block
disk 0: /dev/sda, 195360984kB, raid superblock at 195360896kB
disk 1: /dev/sdb, 195360984kB, raid superblock at 195360896kB
mkraid aborted
Код: Выделить всё
Personalities :
md0 : inactive
unused devices: <none>
Код: Выделить всё
md: could not bd_claim sda
md: error, md_import_device() returned -16
- andygo
- Advanced member
- Сообщения: 85
- Зарегистрирован: 31 июл 2004, 23:49
- Откуда: Moscow
- Контактная информация:
Здес вроде не всё ладно...
RAID-массив как таковой ещё не создан. А причина, имхо, в том, что в 'device' для raid/spare-disk'ов можно использовать лишь партиции, а не диски целиком...
Стоит сделать примерно так:
/dev/sda1 - /boot - на ней положить ядро.
/dev/sda2 - swap
/dev/sda3 - / - собственно корень всеё дисковой системы.
Затем создать /dev/sdb1,2,3 идентичных размеров, что и /dev/sda1,2,3.
После чего прописать в raidtab уже не диски, как физ. устройство, а его партиции. Что-то типа:
после этого уже стоит создавать RAID'ы (mkraid /dev/md1,2,3).
В /proc/mdstat будет примерно следующее:
НО!
стОит внимательно перечитать доки про софтовый рейд, про которые упомянал apelsin.
там есть тонкость про настройку загрузочного диска и использование рейд-массива для swap-диска.
То, что я привел в примерах - условная теория, не совсем применимая к вашему случаю. Экспериментировать на рабочей лошадке - не желательно без предварительного полного бекапа.
RAID-массив как таковой ещё не создан. А причина, имхо, в том, что в 'device' для raid/spare-disk'ов можно использовать лишь партиции, а не диски целиком...
Стоит сделать примерно так:
/dev/sda1 - /boot - на ней положить ядро.
/dev/sda2 - swap
/dev/sda3 - / - собственно корень всеё дисковой системы.
Затем создать /dev/sdb1,2,3 идентичных размеров, что и /dev/sda1,2,3.
После чего прописать в raidtab уже не диски, как физ. устройство, а его партиции. Что-то типа:
Код: Выделить всё
raiddev /dev/md1
raid-level 1
nr-raid-disks 2
nr-spare-disks 0
chunk-size 4
persistent-superblock 1
device /dev/sda1
raid-disk 0
device /dev/sdb1
raid-disk 1
raiddev /dev/md2
raid-level 1
nr-raid-disks 2
nr-spare-disks 0
chunk-size 4
persistent-superblock 1
device /dev/sda2
raid-disk 0
device /dev/sdb2
raid-disk 1
raiddev /dev/md3
raid-level 1
nr-raid-disks 2
nr-spare-disks 0
chunk-size 4
persistent-superblock 1
device /dev/sda3
raid-disk 0
device /dev/sdb3
raid-disk 1
В /proc/mdstat будет примерно следующее:
Код: Выделить всё
Personalities : [linear] [raid0] [raid1] [raid5]
read_ahead 1024 sectors
md1 : active raid1 sda1[1] sdb1[0]
4891648 blocks [2/2] [UU]
md2 : active raid1 sda2[1] sdb2[0]
4891648 blocks [2/2] [UU]
md3 : active raid1 sda3[1] sdb3[0]
71296384 blocks [2/2] [UU]
unused devices: <none>
стОит внимательно перечитать доки про софтовый рейд, про которые упомянал apelsin.
там есть тонкость про настройку загрузочного диска и использование рейд-массива для swap-диска.
То, что я привел в примерах - условная теория, не совсем применимая к вашему случаю. Экспериментировать на рабочей лошадке - не желательно без предварительного полного бекапа.
если честно не очень понял вопрос.netfrog писал(а):Угу, практически все советуют юзать mdadm, тогда далее ламерские вопросы :oops:
Делаем все это ДО установки системы? Но тогда, получается, после разметки и того и того диска при инсталяции нужно создавать одинаковыке точки монтирования, что в принципе невозможно....
По мойму Федора инсталятор поддерживает создание и установку на рэйд в графике. Я не помню (и смотреть сейчас некогда), это может быть только в эксперт-моде доступно, а может и нет. Там на определенном этапе спрашивают о создании партиций на диске, и надо запросить "ручной" режим. Вы попробуйте, должно полчится.
Посмотрите доку внимательно, там такой финт:
вы устанавливаете систему на <диск1>, далее прописывате все в /еtc/raidtab где <диск2> помечается как failed-disk. Далее командой mdadm создается массив из двух дисков где диск 2 указывается как missing. После ребута вам надо будет raidtab исправить. В howto это написано подробнее.
- andygo
- Advanced member
- Сообщения: 85
- Зарегистрирован: 31 июл 2004, 23:49
- Откуда: Moscow
- Контактная информация:
Разбиение диска на партиции можно сделать до установки системы. А вот создавать массив - полагаю, что только после её установки.
Вот здесь рассматривается более приземленный вариант. Написано про слакварь, но это не суть важно. Принцип одинаков для многих осей.
С начала разбиваешь один диск;
затем ставишь ось (желательно по минимуму);
затем идентично разбиваешь второй диск;
маркируешь на втором диске разделы, как 'fd' (RAID autodetect);
создаешь /dev/md* (соответственно прописывая их в raidtab'е);
смотришь, что получилось в /proc/mdstat (должен получиться critical status RAID
);
копируешь с "живого" диска на диски массива (предварительно смонтировав их где-нить в /mnt/*);
корректируешь lilo.conf (лучше оставить два варианта: старый - с диска и новый с raid-партиции);
корректируешь fstab, указывая /dev/md*;
после того, как всё нормально загрузится и не будет траблов - подсовываешь старые партиции в массив и перемаркируешь их на 'fd';
перезагружаешься и смотришь, что получилось в /proc/mdstat...
в общем-то всё тоже самое, только подробнее написано в вышеуказанной ссылке..
Вот здесь рассматривается более приземленный вариант. Написано про слакварь, но это не суть важно. Принцип одинаков для многих осей.
С начала разбиваешь один диск;
затем ставишь ось (желательно по минимуму);
затем идентично разбиваешь второй диск;
маркируешь на втором диске разделы, как 'fd' (RAID autodetect);
создаешь /dev/md* (соответственно прописывая их в raidtab'е);
смотришь, что получилось в /proc/mdstat (должен получиться critical status RAID

копируешь с "живого" диска на диски массива (предварительно смонтировав их где-нить в /mnt/*);
корректируешь lilo.conf (лучше оставить два варианта: старый - с диска и новый с raid-партиции);
корректируешь fstab, указывая /dev/md*;
после того, как всё нормально загрузится и не будет траблов - подсовываешь старые партиции в массив и перемаркируешь их на 'fd';
перезагружаешься и смотришь, что получилось в /proc/mdstat...

netfrog, перед тем как создавать массив вручную, настоятельно предлагаю воспользоватся средствами автоматики: вот вам ссылка, и даже с картинками 
http://www.redhat.com/docs/manuals/linu ... -raid.html

http://www.redhat.com/docs/manuals/linu ... -raid.html
Ага, смотрел на эту статью, похоже накосячил с
Да и фича с первым/вторым диском актуальна? В смысле того, что ставиться именно на второй диск :roll:
Это как правильно сделать? Просто создал 4-ре нужных мне раздела указав размер через +значение и все.маркируешь на втором диске разделы, как 'fd' (RAID autodetect);
Да и фича с первым/вторым диском актуальна? В смысле того, что ставиться именно на второй диск :roll:
- andygo
- Advanced member
- Сообщения: 85
- Зарегистрирован: 31 июл 2004, 23:49
- Откуда: Moscow
- Контактная информация:
маркировать нужно через fdisk:
fdisk /dev/sdb (или /dev/sdb - кто из них в массиве первым попадается?)
дале для каждой партиции выставить тип (комманда t, затем номер партиции и тип - 'fd')
По поводу порядкового номера - не актуально. Ставьте сперва ось на тот диск, с которого потом сможете загрузиться (как при обычной установке оси). Потом на другом диске формируете Software-RAID и копируете с первого на второй (ну или если все наоборот - то со второго на первый
)
fdisk /dev/sdb (или /dev/sdb - кто из них в массиве первым попадается?)
дале для каждой партиции выставить тип (комманда t, затем номер партиции и тип - 'fd')
По поводу порядкового номера - не актуально. Ставьте сперва ось на тот диск, с которого потом сможете загрузиться (как при обычной установке оси). Потом на другом диске формируете Software-RAID и копируете с первого на второй (ну или если все наоборот - то со второго на первый

Кто сейчас на конференции
Сейчас этот форум просматривают: нет зарегистрированных пользователей и 23 гостя