LINUX.ORG.RU
ФорумJob

Восстановить software raid10 (2/4 дисков рабочие)

 , , ,


0

2

Рабочими остались диски sda и sdc, на другие диски смарт выдает ошибки..

root@debian:~# cat /proc/mdstat Personalities : [raid1] [raid10] md3 : inactive sdb5[2] sdc5[5](S) sdd5[4] 8619992839 blocks super 1.2

md2 : active (auto-read-only) raid10 sdc4[1] sda4[5](S) sdd4[4] sdb4[2] 15622144 blocks super 1.2 512K chunks 2 near-copies [4/3] [_UUU]

md1 : active raid10 sda3[5] sdd3[4] sdb3[2] sdc3[1] 97653760 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

md0 : active raid1 sda2[5] sdd2[4] sdb2[2] sdc2[1] 292957 blocks super 1.2 [4/4] [UUUU]

unused devices: <none>

-------------------------------------------------------------------

root@debian:~# mdadm -D /dev/md3 /dev/md3: Version : 1.2 Creation Time : Wed Sep 18 19:27:47 2013 Raid Level : raid10 Used Dev Size : -1 Raid Devices : 4 Total Devices : 3 Persistence : Superblock is persistent

Update Time : Thu Dec 25 23:52:07 2014 State : active, FAILED, Not Started Active Devices : 2 Working Devices : 3 Failed Devices : 0 Spare Devices : 1

Layout : near=2 Chunk Size : 512K

Name : debian:3 (local to host debian) UUID : 28af78a6:d9928577:1fb8e78a:8b1bfaed Events : 878909

Number Major Minor RaidDevice State 0 0 0 0 removed 1 0 0 1 removed 2 8 21 2 active sync /dev/sdb5 4 8 53 3 active sync /dev/sdd5

5 8 37 - spare /dev/sdc5

Есть шансы восстановить инфу? Кто возьмется?


ИМХО, это не восстановить. У вас ″Layout : near=2″, что означает, что первый блок данных хранится на дисках 0 и 1, второй на дисках 2 и 3, третий на 0 и 1, и т.д.

У вас, если смотреть на ″mdadm -D″, живые диски 2 и 3, а 0 и 1 «умерли». Вроде как нужно смотреть именно сюда, а не на номера в квадратных скобках в /proc/mdstat, так как там индекс устройства в таблице ролей в суперблоке. Поэтому, если я не ошибаюсь, у вас доступна только половина блоков.

Рабочими остались диски sda и sdc

Спорное утверждение. Судя по sdc5[5](S), sda4[5](S), когда-то раньше, при замене старых sda и sdc на новые, синхронизация не прошла.

mky ★★★★★
()

Рабочими остались диски sda и sdc, на другие диски смарт выдает ошибки..

root@debian:~# cat /proc/mdstat Personalities : [raid1] [raid10] md3 : inactive sdb5[2] sdc5[5](S) sdd5[4] 8619992839 blocks super 1.2

md2 : active (auto-read-only) raid10 sdc4[1] sda4[5](S) sdd4[4] sdb4[2] 15622144 blocks super 1.2 512K chunks 2 near-copies [4/3] [_UUU]

md1 : active raid10 sda3[5] sdd3[4] sdb3[2] sdc3[1] 97653760 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

md0 : active raid1 sda2[5] sdd2[4] sdb2[2] sdc2[1] 292957 blocks super 1.2 [4/4] [UUUU]

unused devices: <none>

-------------------------------------------------------------------

root@debian:~# mdadm -D /dev/md3 /dev/md3: Version : 1.2 Creation Time : Wed Sep 18 19:27:47 2013 Raid Level : raid10 Used Dev Size : -1 Raid Devices : 4 Total Devices : 3 Persistence : Superblock is persistent

Update Time : Thu Dec 25 23:52:07 2014 State : active, FAILED, Not Started Active Devices : 2 Working Devices : 3 Failed Devices : 0 Spare Devices : 1

Layout : near=2 Chunk Size : 512K

Name : debian:3 (local to host debian) UUID : 28af78a6:d9928577:1fb8e78a:8b1bfaed Events : 878909

Number Major Minor RaidDevice State 0 0 0 0 removed 1 0 0 1 removed 2 8 21 2 active sync /dev/sdb5 4 8 53 3 active sync /dev/sdd5

5 8 37 - spare /dev/sdc5

Есть шансы восстановить инфу? Кто возьмется?

Вопли грешников в аду. Сатана сказал Магдалине: «Подлей этим ламерам еще керосину».

sspzd
()
Ответ на: комментарий от sspzd

А с чего-бы умерли сразу два диска?

Такое разве бывает? Вероятность такая же, как выиграть в спортлото. Скорее контролер-мама-шлейф полетели

seyko2
()
Ответ на: комментарий от Goury

Именно так. Мужики как-то купили 200 дисков и ни один в течение года не подох (что было странно, учитывая их MTBF), а у других в аналогичной партии в первый месяц несколько сдохло. Вероятность однако.

Как-то на спарке слегка просел блок питания. Диски читались, но после любой записи блоки дохли. fsck приводил к фатальным последствиям. Блок заменили и все как-то стало лучше.

io ★★
()
Ответ на: комментарий от io

после любой записи блоки дохли

Поскольку читались, то блоки дохли скорее из-за неверного формата записи (блины не портились). Заводское переформатирование наверняка бы помогло вернуть их к жизни.

Касательно торика: надо бы попробовать вставить умершие диски в другой комп (но чтоб без попыток записи). Если не станет лучше, то кроме ремонта вряд ли что поможет. Попытки восстановить программно могут только ухудшить ситуацию.

seyko2
()
Ответ на: после любой записи блоки дохли от seyko2

Когда для записи не хватает мощи, то говорить о корректности формата уже несколько поздно. На блинах просто недозапись обыкновенная. После замены блока питания содержимое чинилось даже dd.

А ремонт тоже бывает разным. Мне когда-то профи (правда на весьма конкретного вида диске) дцать лет назад показал уникальное движение ручками и сразу отдал. Диск заработал, оказывается именно тот тип диска славился проблемами со смазкой. Достаточно было сделать нетривиальное движение и дерьмо выдавливалось нафиг, а диск начинал работать. В сумме он проработал существенно больше десятка лет, может и сейчас работоспособен. Его допотопный брат недавно на показухе вполне пристойно отплясывал.

io ★★
()
Ответ на: А с чего-бы умерли сразу два диска? от seyko2

Если какой-то серийный брак, то умирают приблизительно в одно время несколько дисков. Также могло иметь место быть обычное разгильдяйство - диск не работал один, но этого никто не замечал, пока и второй не отсох.

turtle_bazon ★★★★★
()
Ответ на: комментарий от turtle_bazon

Любых двух — это RAID6. А в RAID10 как повезёт, может выживет, а может нет. Там ведь RAID0 поверх двух зеркал (RAID1). Если два диска умрут в одном зеркале, то половинки RAID0 не станет и всё.

А у ТС, как я уже писал, что-то похуже, чем просто отказ двух дисков, так как в нормальном RAID10 на четырёх дисках ни у одного диска не должно быть метки ″[S]″.

mky ★★★★★
()
Ответ на: комментарий от mky

Там ведь RAID0 поверх двух зеркал (RAID1)

Ну или зеркало поверх двух страйпов. Но не суть. Там, я читал, какие-то алгоритмы используются, что оно как бы условно. И можно восстановить. Или это мне приснилось?

turtle_bazon ★★★★★
()
Ответ на: комментарий от turtle_bazon

Ну или зеркало поверх двух страйпов

емнип, нет. Смысл 10 сделать надежным 0. Поэтому зеркалят содержание стрипов, и да, при отвале обоих дисков в одном стрипе, 10 говорот «ой, все!».
Теоретическая возможность восстановления (с потерями) есть, но тут и вправду похоже, что ресинка не случилось.

могло иметь место быть обычное разгильдяйство

верно подмечено

handbrake ★★★
()
Ответ на: комментарий от turtle_bazon

raid10, вроде, можно восстановить при выходе из строя любых двух дисков?

гарантированно только одного. на верхнем слое расположен нулевой массив с чередованием записи на нижние зеркала, если вылетают сразу два диска из одно нижнего зеркала - то остается каша из половинных записей и ничто тут не поможет.

last_unit
()
Ответ на: комментарий от turtle_bazon

ЕМНИП, нету алгоритмов, даже если диск бить пополам и с помощью mdadm делать из половинок дисков. А у ТС ″layout: near=2″.

Тут вот посчитали вероятность выживания данных при выходе двух дисков из RAID10, страйп из зеркал выгоднее, чем зеркало из страйпов: http://alexeevd.narod.ru/papers/raid10fault.htm

mky ★★★★★
()
Ответ на: комментарий от mky

Спасибо за инфу. В памяти, значит, не то отложилось. У меня есть пара RAID10, надо будет серьёзнее к ним отнестись.

turtle_bazon ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.