LINUX.ORG.RU
ФорумAdmin

RAID 10. Вышли из строя 2 диска из 4-х. Как определить их положение?

 


0

4

Приветствую!
Сразу скажу - по этим интернетам копался, ответа не нашел (может не прямолинейность ручных манипуляторов у меня обострилась).
Вопрос вот в чем. Есть, вернее был программный RAID 10, у него вышли из строя 2 диска из 4 (Причина кроется в SMART, но не в этом вопрос) Так вот как узнать выпавшие жесткие диски какое положение в данном RAID занимали?


Ответ на: комментарий от uspen

Спасибо за ответ!
Вывод:

root@sysresccd /root % lshw -C disk
  *-disk:0                
       description: ATA Disk
       product: ST1000DM003-9YN1
       vendor: Seagate
       physical id: 0
       bus info: scsi@0:0.0.0
       logical name: /dev/sda
       version: CC4D
       serial: S1D1AYD1
       size: 931GiB (1TB)
       capabilities: partitioned partitioned:dos
       configuration: ansiversion=5 signature=1189f756
  *-disk:1
       description: ATA Disk
       product: ST1000DM003-9YN1
       vendor: Seagate
       physical id: 1
       bus info: scsi@1:0.0.0
       logical name: /dev/sdb
       version: CC4C
       serial: Z1D0CXQ8
       size: 931GiB (1TB)
       capabilities: partitioned partitioned:dos
       configuration: ansiversion=5 signature=0008d0db
  *-disk:2
       description: ATA Disk
       product: ST1000DM003-9YN1
       vendor: Seagate
       physical id: 2
       bus info: scsi@2:0.0.0
       logical name: /dev/sdc
       version: CC4C
       serial: Z1D0KRP0
       size: 931GiB (1TB)
       capabilities: partitioned partitioned:dos
       configuration: ansiversion=5 signature=00001eb9
  *-disk:3
       description: ATA Disk
       product: ST1000DM003-9YN1
       vendor: Seagate
       physical id: 3
       bus info: scsi@3:0.0.0
       logical name: /dev/sdd
       version: CC4C
       serial: Z1D0RLLE
       size: 931GiB (1TB)
       capabilities: partitioned partitioned:dos
       configuration: ansiversion=5 signature=000701fc
Как теперь привязать physical id и serial к позициям?

oS_a
() автор топика
Ответ на: комментарий от oS_a

ты понимаешь, что перед тобой?

это листинг информации о твоих дисках и физический id (их местоположение), на то и физически, ты же не /proc/mdstat смотришь...

uspen ★★★★★
()

Если хотите узнать о том, какие конкретно диски из массива отказали (sda,sdb...), смотрите mdadm --query --detail /dev/md0 (подставьте имя своего массива), если хотите увидеть какой конкретно диск физически в какой интерфейс на mb включен, смотрите cat /proc/scsi/scsi

Groovy
()
Ответ на: комментарий от uspen

Может у меня от жары и злобнодышашего над ухом начальника пропала способность думать и четко излагать свои мысли...
Но, я физически-то знаю где-какой у меня жесткий диск, в какой порт он подключен и пр. информацию. Не понятно что - какой диск какую позицию в RAID занимает. Т.е. если мы видим physical id: 0, он подключен в первый порт на маме - тут все понятно без вопросов. А вот в RAID где он позиционируется?
Именно в этом то и вопрос. Допустим, physical id: 0 и physical id: 1 это одно зеркало, два остальных - это другое зеркало. Вот именно это и нужно узнать. Или же physical id: 0 и physical id: 2 это есть одно зеркало, а id:1 и id:3 то второе зеркало. Вот в чем соль.

oS_a
() автор топика
Ответ на: комментарий от Groovy

И вам спасибо что не остались в стороне)
Какие диски отвалились выяснилось сразу. Вопрос в другом... см предыдущий комент.

oS_a
() автор топика
Ответ на: комментарий от oS_a

Не верно понял ваш вопрос, тогда отсюда:

Near layout with an even number of disks and two replicas:
• sda1 sdb1 sdc1 sde1
• 0 0 1 1 
• 2 2 3 3

Используя это и вывод двух команд приведенных выше, я думаю, становится понятно как определить положение выпавшего диска в массиве. Смотрие Number и RaidDevice в выводе mdadm или число в [] в выводе cat /proc/mdstat за sda[], sbd[], узнаете порядок в котором собирались диски в массив и как в нем распределились. По-умолчанию используется layout n2, значит первые два диска (0,1 в выводе mdadm) будут первым зеркалом, вторые два (2,3) будут вторым.

Groovy
()
Ответ на: комментарий от Groovy

А если имеем такую ситуацию:

root@sysresccd /root % cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md126 : inactive sdd1[3](S) sdb1[1](S) sdc1[2](S)
      2930279424 blocks super 1.2
       
md127 : inactive sda1[4](S)
      976760536 blocks super 1.2
       
unused devices: <none>

oS_a
() автор топика
Ответ на: комментарий от oS_a

При этом SMART sdb и sdc говорит примерно следующее:

smartctl -a /dev/sdd
...
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   093   093   006    Pre-fail  Always       -       75842654
  3 Spin_Up_Time            0x0003   097   097   000    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   100   100   020    Old_age   Always       -       42
  5 Reallocated_Sector_Ct   0x0033   100   100   036    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x000f   082   060   030    Pre-fail  Always       -       4493651130
  9 Power_On_Hours          0x0032   097   097   000    Old_age   Always       -       3115
 10 Spin_Retry_Count        0x0013   100   100   097    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   020    Old_age   Always       -       42
183 Runtime_Bad_Block       0x0032   100   100   000    Old_age   Always       -       0
184 End-to-End_Error        0x0032   100   100   099    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   001   001   000    Old_age   Always       -       126
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0
189 High_Fly_Writes         0x003a   100   100   000    Old_age   Always       -       0
190 Airflow_Temperature_Cel 0x0022   066   063   045    Old_age   Always       -       34 (Min/Max 28/35)
191 G-Sense_Error_Rate      0x0032   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       33
193 Load_Cycle_Count        0x0032   100   100   000    Old_age   Always       -       79
194 Temperature_Celsius     0x0022   034   040   000    Old_age   Always       -       34 (0 18 0 0)
197 Current_Pending_Sector  0x0012   092   092   000    Old_age   Always       -       1344
198 Offline_Uncorrectable   0x0010   092   092   000    Old_age   Offline      -       1344
199 UDMA_CRC_Error_Count    0x003e   200   200   000    Old_age   Always       -       1
240 Head_Flying_Hours       0x0000   100   253   000    Old_age   Offline      -       134591390157856
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       260073383485731
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       179318042416844

SMART Error Log Version: 1
ATA Error Count: 126 (device log contains only the most recent five errors)
	CR = Command Register [HEX]
	FR = Features Register [HEX]
	SC = Sector Count Register [HEX]
	SN = Sector Number Register [HEX]
	CL = Cylinder Low Register [HEX]
	CH = Cylinder High Register [HEX]
	DH = Device/Head Register [HEX]
	DC = Device Command Register [HEX]
	ER = Error register [HEX]
	ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 126 occurred at disk power-on lifetime: 3108 hours (129 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ff ff ff 0f

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 08 ff ff ff 4f 00  31d+18:52:56.415  READ FPDMA QUEUED
  ef 10 02 00 00 00 a0 00  31d+18:52:56.415  SET FEATURES [Reserved for Serial ATA]
  27 00 00 00 00 00 e0 00  31d+18:52:56.414  READ NATIVE MAX ADDRESS EXT
  ec 00 00 00 00 00 a0 00  31d+18:52:56.414  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 00  31d+18:52:56.394  SET FEATURES [Set transfer mode]

Error 125 occurred at disk power-on lifetime: 3108 hours (129 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ff ff ff 0f

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 08 ff ff ff 4f 00  31d+18:52:53.468  READ FPDMA QUEUED
  ef 10 02 00 00 00 a0 00  31d+18:52:53.468  SET FEATURES [Reserved for Serial ATA]
  27 00 00 00 00 00 e0 00  31d+18:52:53.448  READ NATIVE MAX ADDRESS EXT
  ec 00 00 00 00 00 a0 00  31d+18:52:53.447  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 00  31d+18:52:53.447  SET FEATURES [Set transfer mode]

Error 124 occurred at disk power-on lifetime: 3108 hours (129 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ff ff ff 0f

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 08 ff ff ff 4f 00  31d+18:52:50.530  READ FPDMA QUEUED
  ef 10 02 00 00 00 a0 00  31d+18:52:50.530  SET FEATURES [Reserved for Serial ATA]
  27 00 00 00 00 00 e0 00  31d+18:52:50.530  READ NATIVE MAX ADDRESS EXT
  ec 00 00 00 00 00 a0 00  31d+18:52:50.530  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 00  31d+18:52:50.529  SET FEATURES [Set transfer mode]

Error 123 occurred at disk power-on lifetime: 3108 hours (129 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ff ff ff 0f

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 08 ff ff ff 4f 00  31d+18:52:47.613  READ FPDMA QUEUED
  ef 10 02 00 00 00 a0 00  31d+18:52:47.613  SET FEATURES [Reserved for Serial ATA]
  27 00 00 00 00 00 e0 00  31d+18:52:47.612  READ NATIVE MAX ADDRESS EXT
  ec 00 00 00 00 00 a0 00  31d+18:52:47.612  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 00  31d+18:52:47.612  SET FEATURES [Set transfer mode]

Error 122 occurred at disk power-on lifetime: 3108 hours (129 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ff ff ff 0f

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 08 ff ff ff 4f 00  31d+18:52:44.687  READ FPDMA QUEUED
  ef 10 02 00 00 00 a0 00  31d+18:52:44.687  SET FEATURES [Reserved for Serial ATA]
  27 00 00 00 00 00 e0 00  31d+18:52:44.687  READ NATIVE MAX ADDRESS EXT
  ec 00 00 00 00 00 a0 00  31d+18:52:44.686  IDENTIFY DEVICE
  ef 03 46 00 00 00 a0 00  31d+18:52:44.686  SET FEATURES [Set transfer mode]

sda,sdb в пределах нормы

oS_a
() автор топика
Ответ на: комментарий от oS_a

А собственно где здесь массив? У вас все диски помечены (S) - Spare. Приведите вывод

mdadm --examine --scan -v
mdadm --query --detail /dev/md126
mdadm --query --detail /dev/md127

Groovy
()
Ответ на: комментарий от Groovy

На всякий случай уточню что загрузился с rescue cd.

root@sysresccd /root % mdadm --examine --scan -v
ARRAY /dev/md/0 level=raid10 metadata=1.2 num-devices=4 UUID=2eb3d20c:bb602557:474e35ce:bd2ba657 name=seven:0
   devices=/dev/sdd1,/dev/sdc1,/dev/sdb1,/dev/sda1
[code/]

root@sysresccd /root % mdadm --query --detail /dev/md126
mdadm: md device /dev/md126 does not appear to be active.
[code/]

root@sysresccd /root % mdadm --query --detail /dev/md127
mdadm: md device /dev/md127 does not appear to be active.
[code/]
oS_a
() автор топика
Ответ на: комментарий от oS_a

На всякий случай уточню что загрузился с rescue cd.

В общем-то, с этого и надо было начинать.

В настоящий момент рейд собран?

sin_a ★★★★★
()
Ответ на: комментарий от sin_a

На самом деле изначальная задача снятие информации с дисков. Перевернув n-количество ресурсов сети, наткнулся на непонятность - как определить какой диск где располагается в массиве. Не физическое его расположение. С этим и обратился. Получив комментарий о просмотре информации в выводе cat /proc/mdstat, снова не ясность. Уточняю.

oS_a
() автор топика
Ответ на: комментарий от sin_a

Получается, судя по

md126 : inactive

предполагаю что не собран.

oS_a
() автор топика
Ответ на: комментарий от sin_a

Есть RAID10, из четырех дисков (пусть это RAID1 из двух RAID0), на сколько я уловил ход мысли, ТСу нужно выяснить какие из дисков (sd[a-d]) в какой из этих двух RAID0 входят.

Groovy
()
Ответ на: комментарий от sin_a

По поводу

с этого и надо было начинать.

весь вывод команд копировался с именем пользователя, на расчет того, что уточнять с чего это копируется, будет ясным: root@sysresccd. Ошибку понял, впредь буду знать.

oS_a
() автор топика
Ответ на: комментарий от Groovy

Бинго! [bs] именно это! А цель всего этого - понять, можно ли данные с них восстановить.

oS_a
() автор топика
Ответ на: комментарий от Groovy

Насколько я теперь понял, ему бы его просто собрать сейчас, замена уже не особо нужна.

Как рейд собирается при загрузке?

А почему, кстати, с livecd, система не грузится? Если упали два которые зеркала друг друга, то и информацию, насколько я понимаю, не вытащить. Но рейд, как известно, не бекап.

sin_a ★★★★★
()
Ответ на: комментарий от Groovy

RAID1 из двух RAID0

Насколько я понимаю, про 10 так сказать нельзя. То есть, оно вроде бы и так, но внешне видно только массив из четырёх дисков, всё.

sin_a ★★★★★
()
Ответ на: комментарий от sin_a

Рейд, ясное дело не backup, данные уже восстановлены. Данное действие - спортивный интерес, на котором предоставилась возможность отработать ситуацию.
Система не грузится, жестко повисает при любом варианте загрузки.

oS_a
() автор топика
Ответ на: комментарий от oS_a

Нестыковка, однако:

cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md126 : inactive sdd1[3](S) sdb1[1](S) sdc1[2](S)
      2930279424 blocks super 1.2
       
md127 : inactive sda1[4](S)
      976760536 blocks super 1.2
       
unused devices: <none>
и
 root@sysresccd /root % mdadm --examine --scan -v
ARRAY /dev/md/0 level=raid10 metadata=1.2 num-devices=4 UUID=2eb3d20c:bb602557:474e35ce:bd2ba657 name=seven:0
   devices=/dev/sdd1,/dev/sdc1,/dev/sdb1,/dev/sda1

Похоже, что с этим массивом уже до Вас «поупражнялись», раз sda1 вдруг стал относиться к другому массиву. Но раз уж вы с sysresccd, могу предложить попробовать активировать массив: mdadm -A /dev/md126, дальше видно будет, есть там вообще что собирать или уже нет. Почему, кстати, пришлось грузиться с live?

Groovy
()
Ответ на: комментарий от sin_a

Да, всё верно, RAID10 бывают разные и 0+1, и 1+0 и комплексный, о котором вы говорите и который как раз создается в случае --level=10, здесь я привел пример, что бы понять о каком «положении» речь.

Groovy
()
Ответ на: комментарий от Groovy

До меня там ни кто не упражнялся. Придя утром, увидел

 buffer I/O error on device dm-3
Сервер жестко вис, не реагировал на CTRL+C. Вирт машина Win подвисала, потом вообще зависла, так же как и сам сервер, намертво. hard reset. Сервер не загрузился - черный экран, клавиатура не управлялась. safe mode выдал carnel panic, ошибки обращения к памяти. Загрузился с rescue cd увидел что у меня есть md127 не активный, и md126. В md127 был диск sdd. Дал команду stop обоим массивам. Не получилось, RAIDы исчезли, перезагрузился снова в rescue cd и увидел то, что вы сейчас видите.

oS_a
() автор топика
Ответ на: комментарий от oS_a

Пропадаю часа на полтора, если что-то напишите, по приходу прочитаю.

oS_a
() автор топика
Ответ на: комментарий от oS_a

Конечно, сначала:

echo "DEVICE partitions" > /etc/mdadm/mdadm.conf
echo "HOMEHOST sysresccd" >> /etc/mdadm/mdadm.conf
mdadm --examine --scan >> /etc/mdadm/mdadm.conf
а уже потом активировать.

mdadm uses HOMEHOST to determine which partitions to automatically assemble into arrays.

отсюда и md126 и md127.

Groovy
()
Ответ на: комментарий от sin_a

конечно мониторился! но все произошло рано утром, когда еще все спали. чуть позже, утром приехав на место, произошли события описанные выше.
Что странно действительно - оба винта одновременно. о причинах только остается догадываться.

oS_a
() автор топика
Ответ на: комментарий от Groovy

безрезультатно. Ситуация остается прежней

mdadm: /dev/md126 not identified in config file.

одно отличие - файл mdadm.conf располагается в /etc/ (может это и не играет роли).

oS_a
() автор топика
Ответ на: комментарий от petav
root@sysresccd /etc % cat /etc/mdadm.conf
DEVICE partitions
HOMEHOST sysresccd
ARRAY /dev/md/0 metadata=1.2 UUID=2eb3d20c:bb602557:474e35ce:bd2ba657 name=seven:0
oS_a
() автор топика
Ответ на: комментарий от petav

Может имелось ввиду так mdamd --detail --query /dev/md0

И такое было:

oot@sysresccd /etc % mdamd --detail --query /dev/md0
zsh: correct 'mdamd' to 'mdadm' [nyae]? y
mdadm: cannot open /dev/md0: No such file or directory
в моем случае ведь md126/127 в наличии.

oS_a
() автор топика
Ответ на: комментарий от oS_a

Если располагается в /etc значит пишите в /etc, зависит от дистрибутива.

man 5 mdadm.conf

       HOMEHOST
              The homehost line gives a  default  value  for  the  --homehost=
              option  to mdadm.  There should be exactly one other word on the
              line.  It should either exactly <system> or  a  host  name.   If
              <system> is given, then the gethostname(2) systemcall is used to
              get the host name.  When arrays are created, this host name will
              be  stored  in  the  metadata.   When arrays are assembled using
              auto-assembly, only arrays with this host  name  stored  in  the
              metadata will be considered.

Т.е что бы массив собрался в md0, каким он был на исходной системе, нужно в переменную HOMEHOST записать такое имя, каким оно было на исходной машине, так как именно это имя указано в метаданных, и далее mdadm -A /dev/md0. Кстати, появление массива md126 как раз с тем и связано, что эти имена не совпадают. Или попробовать mdadm --homehost=имя_исходной_машины -A /dev/md0 и не править конфиг

mdamd --detail --query /dev/md1

нет такой команды, есть mdadm.

и смотриш, что мигает

что мигает? вы о чем?

Groovy
()
Ответ на: комментарий от Groovy

Пардон, я тут не совсем в проблему вчитался, когда отвечал... игнорируйте меня пожалуста.

beastie ★★★★★
()
Ответ на: комментарий от Groovy

HOMEHOST seven ввел в mdadm.conf
попытка пересобрать массив

mdadm -A /dev/md0
ошибок не выдает, однако массив не собирается (хотя и другие имена подставлял в NAMEHOST, все осталось так же - ввод команды ошибок не выдает, однако изменений на наблюдаю.)
root@sysresccd /root % cat /proc/mdstat    
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md126 : inactive sdd1[3](S) sdb1[1](S) sdc1[2](S)
      2930279424 blocks super 1.2
       
md127 : inactive sda1[4](S)
      976760536 blocks super 1.2
 sdd1[3](S) sdb1[1](S) sdc1[2](S)
      2930279424 blocks super 1.2
       
md127 : inactive sda1[4](S)
      976760536 blocks super 1.2
возможно все дело в md127 : inactive и состояния дисков в данном массиве? просто это проверить пока нет возможности, остановив массивы скорее всего потребуется ребут, после которого отвалится ssh. еще не совсем понятна правильность значения name=seven:0 в разделе ARRAY. ведь имя-то seven. man adadm.conf говорит сухо что

The value should be a simple textual name as was given to mdadm when the array was created.

oS_a
() автор топика
Ответ на: комментарий от oS_a

Мне, как анонимосу, лениво все это читать, можно вопрос - у вас raid 10 и вывалилось 2 диска (с концами, восстановлению не подлежат), вам хочется вытащить данные с оставшихся двух, если они попали в разные зеркала, но вы не можете определить, так ли это?

anonymous
()
Ответ на: комментарий от anonymous

Если бы диски вывалились, разве /proc/mdstat не показал бы UU__ или U_U_? А тут он показывает что все диски S.

petav ★★★★★
()
Ответ на: комментарий от anonymous

у вас raid 10 и вывалилось 2 диска

Все верно. у вас явно дар ясновидения, раз вы не читая темы все поняли сами:

вам хочется вытащить данные с оставшихся двух, если они попали в разные зеркала, но вы не можете определить, так ли это?

попали в точку. Тут даже вопрос не в восстановлении данных (хотя это тоже не мало важно), а в запуске этого самого массива.

oS_a
() автор топика
Ответ на: комментарий от petav

/proc/mdstat не показал бы UU__ или U_U_

разве это справедливо для не активного массива?
сразу пардонюсь, но развалившийся таким образом массив впервые вижу и не перестаю удивляться.

oS_a
() автор топика
Ответ на: комментарий от oS_a

Тоесть диски физически работают, даже те, которые вывалились, так?

Посмотреть, какой диск какое месть занимал можно чтением суперблока mdadm --examine /dev/sda1 и т.д.

Должно быть что-то вроде

...Фигня...
Layout: near=2
...Фигня...
Device role: Inactive device <номер девайса>
...Фигня...

Если у вас так, то первое зеркало - это первые два диска (в порядке определения системой), вторые два - второе зеркало.

Сделайте копию данных с дисков (на всякий случай, сломаться не должно по-идее) и попробуйте запустить массив принудительно:

mdadm --assemble --force /dev/md0 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1

anonymous
()
Ответ на: комментарий от oS_a

Если и это не заработает, то тогда можно попробовать собрать Raid0 из двух живых зеркал.

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.