LINUX.ORG.RU

Проблема с MD raid после обновления Ubuntu


0

0

Всем привет!

После обновления с 9.04 до 9.10 MD raid приказал долго жить: status is degraded.
Обнаружилась странная ситуация - MD raid добавил в свой состав один диск /dev/block/252:1 вместо /dev/sda1 и /dev/sdb1.

---------------------
/dev/md1:
Version : 00.90
Creation Time : Tue Mar 11 22:25:42 2008
Raid Level : raid1
Array Size : 4883648 (4.66 GiB 5.00 GB)
Used Dev Size : 4883648 (4.66 GiB 5.00 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Mon Nov 2 07:50:55 2009
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0

UUID : 463cada2:752fa7d5:e81add79:9a43b23c
Events : 0.46

Number Major Minor RaidDevice State
0 0 0 0 removed
1 252 1 1 active sync /dev/block/252:1
/dev/md1: 4.66GiB raid1 2 devices, 0 spares. Use mdadm --detail for more detail.
---------------------

Как оказалось, /dev/block/252:1 это есть ссылка на полу-софтовый рейд dmraid, который до этого не использовался.
Устройств /dev/sda1 и /dev/sdb1 сейчас в системе нет.
Картинка - иллюстрация произошедшего:
http://i.imagehost.org/0928/1_40.png

Вопрос: как восстановить рейд?

mdadm --stop /dev/md*

mv /etc/mdadm/mdadm.conf /etc/mdadm/mdadm.conf.old

mdadm --assemble --scan

И пусть он сам разбирается, если суперблоки целы. Ня?

as33 ★☆☆
()
Ответ на: комментарий от as33

С md1 все запусается и на нем /
/boot/vmlinuz-2.6.31-14-generic root=/dev/md1 ro quiet
Система не завалится, если mdadm остановить?

swordfish
() автор топика

Можно еще передать ядру параметр nodmraid, чтобы оно не использовало fake raid. По идее все вернется взад - диски будут называться /dev/sda и /dev/sdb

Steel901
()
Ответ на: комментарий от Lumi

mdadm по-любому хочет использовать аппаратный рейд:

root@m-art:~# mdadm --examine --verbose --scan
ARRAY /dev/md0 level=raid1 num-devices=2 UUID=463cada2:752fa7d5:e81add79:9a43b23c
devices=/dev/block/252:1
ARRAY /dev/md1 level=raid1 num-devices=2 UUID=81861bf7:3db7bf8a:c2b714b5:90b4be25
devices=/dev/block/252:2

root@m-art:~# ls -all /dev/block/252*
lrwxrwxrwx 1 root root 25 2009-11-02 21:47 /dev/block/252:0 -> ../mapper/nvidia_afafahcb
lrwxrwxrwx 1 root root 26 2009-11-02 21:47 /dev/block/252:1 -> ../mapper/nvidia_afafahcb1
lrwxrwxrwx 1 root root 26 2009-11-02 21:47 /dev/block/252:2 -> ../mapper/nvidia_afafahcb2

root@m-art:~# dmraid -r
/dev/sdb: nvidia, "nvidia_afafahcb", mirror, ok, 625142446 sectors, data@ 0
/dev/sda: nvidia, "nvidia_afafahcb", mirror, ok, 625142446 sectors, data@ 0


главная засада в том, что нет устройств /dev/sda1, /dev/sdb1
есть только сами диски:
brw-rw---- 1 root disk 8, 0 2009-11-02 21:47 /dev/sda
brw-rw---- 1 root disk 8, 16 2009-11-02 21:47 /dev/sdb
brw-rw---- 1 root disk 8, 32 2009-11-02 21:47 /dev/sdc

если бы они были, нет проблем - подправить mdadm.conf руками и ребут.
а так что-то стремно. возиться потом с восстановлением совсем не хочется.

anonymous
()
Ответ на: комментарий от Steel901

Хочется все-таки увидеть устройсва разделов /dev/sda1 и остальные.
Тогда будет уверенность в завтрашнем дне ж)

anonymous
()
Ответ на: комментарий от anonymous

Прикол:

root@m-art:~# ls -all /dev/sda*
brw-rw---- 1 root disk 8, 0 2009-11-02 21:47 /dev/sda

root@m-art:~# fdisk -l /dev/sda
Диск /dev/sda: 320.1 ГБ, 320072933376 байт
255 heads, 63 sectors/track, 38913 cylinders
Units = цилиндры of 16065 * 512 = 8225280 bytes
Disk identifier: 0x00057429

Устр-во Загр Начало Конец Блоки Id Система
/dev/sda1 * 1 608 4883728+ fd Автоопределение Linux raid
/dev/sda2 609 38913 307684912+ fd Автоопределение Linux raid

anonymous
()
Ответ на: комментарий от swordfish

>Осталось понять, что теперь делать?

mkinitrd --omit-dmraid /boot/initrd-nodmraid-версия.img версия

Ну и в gurb.conf этот initrd прописать.

nnz ★★★★
()
Ответ на: комментарий от swordfish

Все решилось добавлением параметра "nodmraid" к загрузке ядра. mdadm ожил, но потерял резервные диски. пришлось добавить вручную. рекаверится:

root@m-art:~# cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 sdb1[0] sda1[1]
4883648 blocks [2/2] [UU]

md1 : active raid1 sdb2[2] sda2[1]
307684800 blocks [2/1] [_U]
[>....................] recovery = 0.5% (1677184/307684800) finish=103.6min speed=49222K/sec

swordfish
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.