LINUX.ORG.RU
ФорумAdmin

Debian RAID10 vs RAID0 + 2xRAID1 vs LVM + 2xRAID1

 , , , ,


2

4

Имеется сервер с Debian и четыре жёстких диска: два старых и два новых (попарно из одинаковых партий). Планирую из всего этого собрать software raid10. Как лучше это сделать?

  1. Использовать raid10 от mdadm и добавить в него все диски.
  2. Собрать вручную два raid1 из пар «старый диск + новый диск» и объединить их в raid0.
  3. Собрать вручную два raid1 из пар «старый диск + новый диск» и объединить их с помощью LVM.

Важно:

  • в будущем может появиться необходимость расширить массив путём добавления ещё нескольких дисков (суммарно их всегда будет чётное количество);
  • вероятно, имеющиеся диски будут постепенно заменены на HDD большего объёма и понадобится расширить доступный объём в RAID10;
  • я знаю про существование raid0+1, его плюсы и минусы - данный вариант к данной теме не относится.

Вопросы:

  1. Насколько сильно будет отличаться производительность операций чтения/записи в трёх случаях?
  2. Чем на практике отличаются указанные варианты?
  3. Какой вариант является самым надёжным?
  4. Какой вариант является самым производительным?
  5. Какой вариант порекомендуете на основании личного опыта с учётом требований к возможностям расширения?

Ответ на: комментарий от Pinkbyte

Допускаю, что в более старых версиях были проблемы, но когда-то они были и у mdadm

Вспоминай версию almalinux. Если будет не лень, поставлю в виртуалку именно эту ось и версию и пощупаю

router ★★★★★
()
Ответ на: комментарий от router

теперь возвращаем диск и проверям

Сорян, не тот кусок с консоли скопипастил (отматывал историю в screen). Там где сразу 2 of 2, это просто загрузка, когда ничего не отрывал и ничего не восстанавливал

Вот после возвращения диска. Виден автоматический ребилд lvm raid1:

[    4.886905] device-mapper: raid: Loading target version 1.14.0
[    4.949956] md/raid1:mdX: active with 1 out of 2 mirrors
[    5.028067] md: recovery of RAID array mdX
[  OK  ] Found device /dev/mapper/centos-root.
[    5.086415] random: crng init done
         Starting File System Check on /dev/mapper/centos-root...
[  OK  ] Started File System Check on /dev/mapper/centos-root.
[    5.235243] md/raid1:mdX: active with 1 out of 2 mirrors
[    5.285057] md: recovery of RAID array mdX
[    5.305383] md: mdX: recovery done.
[  OK  ] Started dracut initqueue hook.
         Starting dracut pre-mount hook...
[  OK  ] Reached target Remote File Systems (Pre).
[  OK  ] Reached target Remote File Systems.
[  OK  ] Started dracut pre-mount hook.
         Mounting /sysroot...
[    5.550537] SGI XFS with ACLs, security attributes, no debug enabled
[    5.557589] XFS (dm-4): Mounting V5 Filesystem
[    5.615277] XFS (dm-4): Ending clean mount
[  OK  ] Mounted /sysroot.
[  OK  ] Reached target Initrd Root File System.
         Starting Reload Configuration from the Real Root...
[    5.778816] md: mdX: recovery done.
[  OK  ] Started Reload Configuration from the Real Root.

router ★★★★★
()
Последнее исправление: router (всего исправлений: 1)
Ответ на: комментарий от router

Это всё прекрасно, но последний раз я испытывал проблемы с сборкой рейда из mdadm когда была миграция с сборки ядром с metadata=0.9 на более новый формат(и перенос сборки в initrd). Это какой год? 2008 или 2009 кажется, не помню точно, может даже еще раньше. С чем кстати справились без проблем все используемые мною тогда дистрибутивы(Fedora и Gentoo).

А такие факапы в разных дистрибутивах, использующие разные средства для сборки initrd намекают на некоторые проблемы со скриптами в этих самых initrd.

Нет, скорее всего это всё уже починили конечно и не один раз. Но мне вот не повезло с применением технологии, которая на тот момент к слову была уже не новой(пару лет lvm raid-у точно уже было, я о нём далеко не сразу узнал).

Pinkbyte ★★★★★
()
Последнее исправление: Pinkbyte (всего исправлений: 1)
Для того чтобы оставить комментарий войдите или зарегистрируйтесь.