LINUX.ORG.RU
решено ФорумAdmin

Монтирование диска из старого Raid1 к новому Raid1

 , ,


0

1

Народ, Люди, Друзья! Помогите!!! Вопрос простой. Он на 100 процентов должен решаться. У меня никак не получается.

Есть новая система (Debian 9.6), но это не критично. Система поставлена на 2-х дисках (Raid1). Для того, чтобы переписать данные со старой машины, надо подмонтировать диск от туда. А здесь и начинаются проблемы - там тоже Raid1. Я не хочу разрушать старый Raid, мне нужна гарантия, что если чего не так - откатываемся назад и думаем дальше. Система видит устройства (md125, md126,md127). Это правильно. mdadm --examine /dev/sdc3 дает совершенно нормальную информацию. Смонтировать не могу.

Помогите!!!

Олег.

Думаю для решения проблемы может потребоваться немного больше данных, например: статус рейда, ошибки и сообщения при попытке монтирования, что и в какой последовательности было сделано.

anonymous
()

Тебе md устройства и надо монтировать. Если я всё правильно понял.

turtle_bazon ★★★★★
()

md125, md126,md127

Это три массива из старого рейда, или часть из них принадлежат новому?

Что и как Вы монтируете (приведите команды), и что система Вам отвечает на это? Какие файловые системы на массивах?

Serge10 ★★★★★
()

Привет, Олег! Вот уж не думал, что встречу тебя тут :-)

При старте системы, если в файле /etc/mdadm.conf не описаны найденные массивы, они стартуют с номерами md125 и выше (чтобы не попортить те, которые описаны). Соответственно, надо монтировать устройства /dev/md125 и далее.

Deleted
()
Ответ на: комментарий от Serge10

Монтирование диска из старого Raid1 к новому Raid1

Я впервые на этом форуме. Куда-то я уже ответил. Со всеми подробностями. Попробую повториться. Содержимое /proc/mdstat Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md125 : inactive sdc3[1](S) 968721408 blocks super 1.2 md126 : inactive sdc2[1](S) 7808000 blocks super 1.2 md127 : inactive sdc1[1](S) 96176 blocks super 1.2 md1 : active (auto-read-only) raid1 sda2[0] sdb2[1] 15617024 blocks super 1.2 [2/2] [UU] md2 : active raid1 sdb3[1] sda3[0] 984350720 blocks super 1.2 [2/2] [UU] bitmap: 1/8 pages [4KB], 65536KB chunk

md0 : active raid1 sdb1[1] sda1[0] 96128 blocks super 1.2 [2/2] [UU] unused devices: <none>

md0,md1,md2 - это рабочая система (/boot /swap /) md125,md126,md127 - это один диск из зеркала старого сервера. Убивать его я не хочу. Хочу с него прочитать данные. Делаю: mount /dev/sdc3 /mnt/disk mount: unknown filesystem type 'linux_raid_member' И это понятно. Делаю: mdadm --assemble /dev/md9 /dev/sdc3 mdadm: /dev/sdc3 is busy - skipping И дальше не знаю чего делать... Никто этот девайс юзать не должен.

olegmin
() автор топика
Ответ на: комментарий от Deleted

Монтирование диска из старого Raid1 к новому Raid1

root@fileserver:/home/oleg# mount /dev/md125 /mnt/disk mount: wrong fs type, bad option, bad superblock on /dev/md125, missing codepage or helper program, or other error

In some cases useful info is found in syslog - try dmesg | tail or so.

olegmin
() автор топика

Как уже писали ранее — монтировать надо /dev/md12[5-7], но смущает статус дисков (inactive sdc3[1](S)) — диск опознан как spare. Попробуйте остановить md125-md127 и включить их вручную или подождите более правильных вариантов. Рейд на старом сервере был консистентным на момент извлечения диска?

anonymous
()
Ответ на: комментарий от anonymous

но смущает статус дисков (inactive sdc3[1](S)) — диск опознан как spare.

Точно, ты прав. Я не увидел в неправильном форматировании.

Deleted
()
Ответ на: комментарий от Serge10

Уже отписался. Стандартно «mount», как я думаю, не умеет работать с RAID. Требуется виртуализация через mdadmin. Или я чего-то не догоняю? Если так - прошу Вас всех объяснить. Учиться никогда не поздно!

olegmin
() автор топика
Ответ на: комментарий от olegmin

Стандартно «mount», как я думаю, не умеет работать с RAID.

Это не так. Выше уже написали, проблема с массивом. Попробуйте остановить и заново запустить массив.

Serge10 ★★★★★
()
Ответ на: комментарий от Serge10

lsof - молча проглотил. fuser - команда не нашлась. Система нулевая (Debian 9.6 без графики)

olegmin
() автор топика
Ответ на: комментарий от olegmin

mount работает с любыми блочными устройствами, если на них есть ФС и установлены нужные модули. Но монтировать «низкоуровневые» компоненты более «высокоуровневых» устройств не получится.

anonymous
()
Ответ на: комментарий от olegmin

Выше уже написали, проблема с массивом. Попробуйте остановить и заново запустить массив.

Если старый сервер еще жив, то я бы предложил скопировать нужное по сети и не страдать.

anonymous
()
Ответ на: комментарий от olegmin

А что система пишет в dmesg по поводу старого массива при загрузке?

Только большая просьба использовать правильную разметку, а то Ваши сообщения будет сложно прочесть.

Serge10 ★★★★★
()
Ответ на: комментарий от Serge10

[17660.972014] EXT4-fs (md125): unable to read superblock [17660.972180] EXT4-fs (md125): unable to read superblock [17660.972270] EXT4-fs (md125): unable to read superblock

olegmin
() автор топика
Ответ на: комментарий от Serge10

Извиняюсь, но у меня все выглядит красиво.

olegmin
() автор топика
Ответ на: комментарий от anonymous

Спасибо. Такие решения у меня уже были. Хотелось решить такой простой вопрос один раз и на всегда.

olegmin
() автор топика
Ответ на: комментарий от Deleted

Нет. root@fileserver:/var/log# tune2fs -l /dev/md125 tune2fs 1.43.4 (31-Jan-2017) tune2fs: Invalid argument while trying to open /dev/md125 Couldn't find valid filesystem superblock.

swap - это md126

olegmin
() автор топика
Ответ на: комментарий от olegmin

К сожалению вопрос перестает быть простым, когда mdadm начинает вести себя подобным образом. Бывает, что диск когда-то по каким-то причинам вылетал из массива, его добавили обратно, но не проверили статус и в результате он просто висел как spare, а сервер работал с одним диском или быть может просто не повезло при запуске в новой системе. Если остановка и ручной запуск md устройств не помогают, то можно почитать маны насчет команды build (возможно, не помню). Вариант с использованием одного диска из зеркала обычно работает, но надо быть на 100% уверенным, что исходный массив до остановки был рабочим. Вариант с копированием по сети я упомянул, т.к. на мой взгляд в этом случае он менее затратен по времени человека и безопасен для данных на диске (ну не все делают и проверяют бэкапы).

PS: при возврате диска в старый сервер рейд с большой вероятностью также соберется неправильно.

anonymous
()
Ответ на: комментарий от anonymous

Спасибо. Старый сервер абсолютно рабочий. Статус массива - все три раздела 'good'. Я до этого пробовал с одним винтом, а потом с другим. Результат - одинаков. Пару лет назад была такая-же необходимость. Подергался и через трансферный винт все перекинул. Сейчас есть время и хочется один раз решить. Не хочется всегда все делать через ж...

olegmin
() автор топика
Ответ на: комментарий от olegmin

Диски md* и есть виртуализация через mdadm. mount его и монтирует.

turtle_bazon ★★★★★
()
Ответ на: комментарий от olegmin

Не хочется всегда все делать через ж...

Делать надо так, чтобы от проблем не было мучительно больно.

Сейчас есть время и хочется один раз решить.

удачи и man mdadm в помощь. Мне подобной ситуации хватило ровно настолько, чтобы не хотеть ее еще когда-нибудь решать.

anonymous
()
Ответ на: комментарий от anonymous

Спасибо. Я понял. Делаем как всегда... Кстати 'man' изучил перед этим. К сожалению - не помогло. Но все равно - всем спасибо. Буду в дальнейшем залезать на форум, может пригожусь.

olegmin
() автор топика
Ответ на: комментарий от turtle_bazon

Спасибо. Попробую. Не понятно одно. Когда я ставлю систему без RAID (т.е. один винт) и исталирую mdadm, я совершенно спокойно монтировал один винт так же из старого RAID1.Это было несколько лет назад. Потом был такой же случай как сейчас. Новая система на RAID1 и одиночный винт из другого RAID1 не монтировался. Обошелся через ж... Сейчас хотел начать новую жизнь. Похоже обломилось...

olegmin
() автор топика
Ответ на: комментарий от turtle_bazon

Еще раз, спасибо. С двумя дисками - все в порядке. Пока есть время и возможность - поставлю Debian на одном диске и попробую смонтировать одиночный винт из RAID1

olegmin
() автор топика
Ответ на: комментарий от olegmin

Мне искренне было жаль когда тебя ушли (ну или сам).

Ушли Сергея, а меня, как его человека, попросили за компанию :) Ничего страшного, это была приятная подработка.

Удачи в разборках с mdadm. Если что-то надо будет - у меня тот же e-mail.

Deleted
()

На всякий случай напоминаю, что есть такие замечательные утилиты, как blkid и lsblk, они немного помогают начать отвечать на вопросы «где я» и «что это за хрень».

И да, если у вас на боевом сервере три диска в raid1, то один из них, вероятно, считался spare и остался пустой.

legolegs ★★★★★
()
Ответ на: комментарий от Deleted

Дима, а как можно ответить всем сразу. Я вроде-бы разобрался. Может кому-то это поможет. Это по поводу mdadm. Скинь мейл. Я много раз переустанавливался...

olegmin
() автор топика
Ответ на: комментарий от olegmin

Опубликуй в этой теме отдельным сообщением (и дополнительно можно ещё тему отметить как решённую)

Написал письмо.

Deleted
()
Ответ на: комментарий от olegmin

Его надо запустить как деградированный массив. С указанием. Но точно не помню. Обычно просто добавляется диск новый. А init его сам деградированным запускает.

turtle_bazon ★★★★★
()
Ответ на: комментарий от Deleted

Монтирование диска из старого Raid1 к новому Raid1 (Решено)

Ну, вообщем, такие результаты. Действительно, если подключить оба винта - то монтируется Raid1 без проблем. Не всегда это физически удобно. Проще через USB конвертор подключить один. Выяснилось что mdmad --assemble работает только если events-ов на разделе было меньше 50, а у меня гораздо больше. Но если сделать так:

root@debian:/proc# mdadm --stop /dev/md126 mdadm: stopped /dev/md126 root@debian:/proc# mdadm --assemble --force /dev/md126 /dev/sdb3 mdadm: /dev/md126 has been started with 1 drive (out of 2). root@debian:/proc# mount /dev/md126 /mnt/disk root@debian:/proc#

В /proc/mdstat изменилась запись: md126 : active raid1 sdb3[0]

До этого был: md126 : inactive sdb3[0] (S)

дальше стандартный mount

При этом массив деградирует (благодаря --force) Проверил. После сборки массива на старом компе, через Webmin увидел, что массив разрушен, но утилитой Webmin-a восстановления массива все восстановилось. Вообщем так. Правда немножко стремно, а всегда-ли восстановится?

olegmin
() автор топика

Выяснилось что mdmad --assemble работает только если events-ов на разделе было меньше 50, а у меня гораздо больше.

Разверни, пожалуйста, мысль, не совсем понятно, что такое «events-ы на разделе»

При этом массив деградирует

деградирован. Не благодаря force, а потому-что не хватает частей массива.

Правда немножко стремно, а всегда-ли восстановится?

Восстановится всегда. Правда, raid1 без чексумм, поэтому надо очень аккуратно обращаться с частями разобранного массива, т.к. нет механизма знать, на каком диске актуальная части информации в случае её расхождения. Или рекомендуется перейти на файловую систему с чексуммами (zfs, например)

Deleted
()
Ответ на: комментарий от Deleted

https://raid.wiki.kernel.org/index.php/RAID_Recovery Там и прочитал в разделе: Trying to assemble using --force Что считает мdadm events - не знаю. Но на разделе /boot было около 90, а это больше, наверное, чем рестартов, а на / было вообще больше 20000. Без опции --force раздел не монтировался. Т.е. он просто не подключался (ассемблировался) через мdadm.

После восстановления массива опять подключил одинокий диск

Это результат команды (не знаю как с разметкой - копи пасте из putty. Раздел который прошел через --force.

root@fileserver:/home/oleg# mdadm --examine /dev/sdc3 /dev/sdc3: Magic : a92b4efc Version : 1.2 Feature Map : 0x1 Array UUID : ca9315b4:fbd82e3a:1bff4aea:f0ef127b Name : www:2 Creation Time : Sat Feb 11 11:37:44 2017 Raid Level : raid1 Raid Devices : 2

Avail Dev Size : 1937442816 (923.84 GiB 991.97 GB) Array Size : 968721408 (923.84 GiB 991.97 GB) Data Offset : 262144 sectors Super Offset : 8 sectors Unused Space : before=262056 sectors, after=0 sectors State : clean Device UUID : 99becd1d:daedb5cf:5fcb47c1:26e7fc74

Internal Bitmap : 8 sectors from superblock Update Time : Tue Jan 8 16:40:24 2019 Bad Block Log : 512 entries available at offset 72 sectors Checksum : f6a579fc - correct Events : 22058

Device Role : Active device 1 Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

root@fileserver:/home/oleg# mount /dev/md125 /mnt/disk mount: wrong fs type, bad option, bad superblock on /dev/md125, missing codepage or helper program, or other error

In some cases useful info is found in syslog - try dmesg | tail or so. root@fileserver:/home/oleg# mount /dev/md126 /mnt/disk mount: wrong fs type, bad option, bad superblock on /dev/md126, missing codepage or helper program, or other error

In some cases useful info is found in syslog - try dmesg | tail or so. root@fileserver:/home/oleg# mount /dev/md127 /mnt/disk mount: wrong fs type, bad option, bad superblock on /dev/md127, missing codepage or helper program, or other error

In some cases useful info is found in syslog - try dmesg | tail or so.

Похоже ни один раздел не смонтируется, пока я не разрушу массив. Конкретно раздел.

Извиняюсь за разметку.

olegmin
() автор топика
Ответ на: комментарий от Deleted

Ага. А я с Events теперь совсем запутался.

olegmin
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.