LINUX.ORG.RU
ФорумAdmin

mdadm пропал md1

 


0

0

Здравствуйте! Предыстория. На файловом сервере решил поднять программный raid10. для системы диск 160Gb и два по 3Tb.

  1. md0 - raid1 из одного 3Tb
  2. md1 - raid1 из одного 3Tb
  3. md2 - raid0 из md0 и md1

Все работало, пока не докупил еще два диска чтобы был raid работал как надо. далее пытался их добавить и после каких то действий пропал md1. Есть возможность как-то восстановить?

НАКАСЯЧИЛ ТУТ sgdisk -R /dev/sdX /dev/sdX неверно указал диски первым был рабочий, а не новый...

Еще сделал фотки ДО операции http://savepic.ru/12549968.jpg http://savepic.ru/12536656.jpg http://savepic.ru/12535632.jpg

cat /proc/mdstat

Personalities : [raid1]
md2 : inactive md0[0](S)
      2930133816 blocks super 1.2

md0 : active (auto-read-only) raid1 sdb1[0]
      2930133824 blocks super 1.2 [2/1] [U_]

unused devices: <none>

mdadm.conf

ARRAY /dev/md1 metadata=1.2 name=fileserver.LAB56.INC:1 UUID=8f0a82de:7fffeaef:02b1b0a0:aa08dcfe
ARRAY /dev/md0 metadata=1.2 name=fileserver.LAB56.INC:0 UUID=60d1e50e:1f42566e:6f40612d:c08712b9
ARRAY /dev/md2 metadata=1.2 name=fileserver.LAB56.INC:2 UUID=9e98013a:f73f7c9b:e295c759:21312590

fstab

# / was on /dev/sdc1 during installation
UUID=886d9b58-8f86-4878-9a53-09826a68c41e /               ext4    errors=remount-ro 0       1
# /raid/ was on /dev/md0 during installation
#UUID=01efbaed-92de-41ea-b097-13c72205312c /raid/          ext4    defaults        0       2
# swap was on /dev/sdc5 during installation
UUID=6600ce39-e0d9-4335-8a51-65770de60dbb none            swap    sw              0       0
/dev/sr0        /media/cdrom0   udf,iso9660 user,noauto     0       0
/dev/fd0        /media/floppy0  auto    rw,user,noauto  0       0
/dev/md2        /raid/samba       ext3    defaults        1       1

mdadm --examine --scan

ARRAY /dev/md/0 metadata=1.2 UUID=60d1e50e:1f42566e:6f40612d:c08712b9 name=fileserver.LAB56.INC:0
ARRAY /dev/md/2 metadata=1.2 UUID=9e98013a:f73f7c9b:e295c759:21312590 name=fileserver.LAB56.INC:2



Последнее исправление: minxayzin (всего исправлений: 11)

Ты накосячил еще тогда, когда решил делать raid10 из двух raid1, вместо прямого создания raid10 средствами mdadm.

futurama ★★★★★
()
Ответ на: комментарий от minxayzin

У тебя из md1 хотя бы один диск с живой разметкой есть? Если ничего не писал туда, то вполне можно заново создать раздел и попробовать поднять массив. У тебя раздел на весь диск же?

Можно еще testdisk погонять на предмет потерянных разделов.

Radjah ★★★★★
()
Последнее исправление: Radjah (всего исправлений: 1)
Ответ на: комментарий от Radjah

1. gdisk /dev/sdc o 2. mdadm --create --verbose /dev/md1 --level=1 --raid-devices=2 /dev/sdc missing

minxayzin
() автор топика

md0 - raid1 из одного 3Tb
md1 - raid1 из одного 3Tb
md2 - raid0 из md0 и md1

Оу щит. Пиши хауту - «как формально используя 2 x raid1 сделать так, чтобы все данные терялись при вылете одного любого диска»

router ★★★★★
()
Последнее исправление: router (всего исправлений: 1)
Ответ на: комментарий от router

По факту это обычный raid0, со всеми вытекающими.

Demacr ★★
()
Ответ на: комментарий от router

да понял что накуралесил, но надо восстанавливать... testdisk уже нашел

  Linux Raid                    34 5860270633 5860270600 [fileserver.LAB56.INC:1
  Linux Raid                    34 5860270633 5860270600 [fileserver.LAB56.INC:1
  MS Data                        0 5860533167 5860533168
  MS Data                   262144 1953521279 1953259136
  MS Data                   262178 5860532769 5860270592
  Linux Raid                262178     262185          8 [fileserver.LAB56.INC:2
  Linux Raid                262178     262185          8 [fileserver.LAB56.INC:2

minxayzin
() автор топика

НАКАСЯЧИЛ ТУТ sgdisk -R /dev/sdX /dev/sdX неверно указал диски первым был рабочий, а не новый...

Я правильно понимаю, что ты всего лишь перезатёр таблицу разделов на диске с данными?

В таком случае есть шанс, что тебе повезло. Как уже говорили, может помочь testdisk, но лучше посмотри таблицу разделов на оставшемся диске с данными и сделай такую же на «потерянном»

gdisk -l /dev/sdb

gdisk /dev/$диск_с_которым_ты_накосячил

router ★★★★★
()
Ответ на: комментарий от minxayzin

Пока запиши и отложи в сторону. Скорее всего у тебя на обоих старых 3Тб винтах была одинаковая разметка. Возьми за образец тот, что остался цел, и создай такую же ( вручную!! включи голову! ) на том, где по глупости потёр

router ★★★★★
()
Ответ на: комментарий от router

md0 и md1 состояли из одинаковых 3Tb дисков, НО в них было только по одному диску. Т.е разметку скопировать с /dev/sdb (md0) на /dev/sdc (md1)?

minxayzin
() автор топика
Ответ на: комментарий от minxayzin

Отставить разврат

Сначала собери, запиши и распечатай

lsscsi
gdisk -l /dev/$disk # Для всех 5 дисков!
blkid
cat /proc/mdstat
cat /etc/mdadm/mdadm.conf

Потом соберись и подумай, где

  1. старый диск, который до сих пор в порядке
  2. старый диск, на котором ты затёр таблицу разделов
  3. новые диски

после всего этого смотри gdisk -l для диска из п.1

пытайся _вручную_ ( забудь про автоматический перенос, ты уже накосячил и можешь убить последний диск ) создать такую же разметку на одном из _новых_ дисков ( т.е. где нечего терять и можно тренироваться )

Научишься - вручную создавай на диске из п.2 такую же разметку, как на диске из п.1

router ★★★★★
()
Ответ на: комментарий от router
  1. старый который в порядке /dev/sdb
  2. старый который затер /dev/sdс
  3. новые вытащил
minxayzin
() автор топика
Ответ на: комментарий от router

gdisk -l /dev/sdb

GPT fdisk (gdisk) version 0.8.5

Partition table scan:
  MBR: protective
  BSD: not present
  APM: not present
  GPT: present

Found valid GPT with protective MBR; using GPT.
Disk /dev/sdb: 5860533168 sectors, 2.7 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): AD2920F1-59DA-4F81-8601-1201AA2F8E88
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 5860533134
Partitions will be aligned on 2048-sector boundaries
Total free space is 2925 sectors (1.4 MiB)

Number  Start (sector)    End (sector)  Size       Code  Name
   1            2048      5860532223   2.7 TiB     0700  primary

gdisk -l /dev/sdc

GPT fdisk (gdisk) version 0.8.5

Caution: invalid backup GPT header, but valid main header; regenerating
backup header from main header.

Partition table scan:
  MBR: protective
  BSD: not present
  APM: not present
  GPT: damaged

****************************************************************************
Caution: Found protective or hybrid MBR and corrupt GPT. Using GPT, but disk
verification and recovery are STRONGLY recommended.
****************************************************************************
Disk /dev/sdc: 5860533168 sectors, 2.7 TiB
Logical sector size: 512 bytes
Disk identifier (GUID): 90F09B7A-DE95-7646-9500-767430AEEB81
Partition table holds up to 128 entries
First usable sector is 34, last usable sector is 5860533134
Partitions will be aligned on 8-sector boundaries
Total free space is 262501 sectors (128.2 MiB)

Number  Start (sector)    End (sector)  Size       Code  Name
   1              34      5860270633   2.7 TiB     FD00  

minxayzin
() автор топика
Ответ на: комментарий от router

blkid

/dev/sda1: UUID="886d9b58-8f86-4878-9a53-09826a68c41e" TYPE="ext4" 
/dev/md0: UUID="9e98013a-f73f-7c9b-e295-c75921312590" UUID_SUB="cb4ce844-a3e3-67fa-4fd9-24e5cfbaa9cd" LABEL="fileserver.LAB56.INC:2" TYPE="linux_raid_member" 
/dev/sda5: UUID="6600ce39-e0d9-4335-8a51-65770de60dbb" TYPE="swap" 
/dev/sdb1: UUID="60d1e50e-1f42-566e-6f40-612dc08712b9" UUID_SUB="8456ec68-6acf-af7e-3fa4-c58687daa1f5" LABEL="fileserver.LAB56.INC:0" TYPE="linux_raid_member" 

/etc/mdadm/mdadm.conf

DEVICE partitions
ARRAY /dev/md1 metadata=1.2 name=fileserver.LAB56.INC:1 UUID=8f0a82de:7fffeaef:02b1b0a0:aa08dcfe
ARRAY /dev/md0 metadata=1.2 name=fileserver.LAB56.INC:0 UUID=60d1e50e:1f42566e:6f40612d:c08712b9
ARRAY /dev/md2 metadata=1.2 name=fileserver.LAB56.INC:2 UUID=9e98013a:f73f7c9b:e295c759:21312590

/proc/mdstat

Personalities : [raid1] 
md2 : inactive md0[0](S)
      2930133816 blocks super 1.2
       
md0 : active (auto-read-only) raid1 sdb1[0]
      2930133824 blocks super 1.2 [2/1] [U_]
      
unused devices: <none>

minxayzin
() автор топика

Смотрю про бэкапы еще никто не написал, ну ок, буду первым. Как это было сказано давно «править fw на ночь глядя - к дальней поездке», так же и у вас «править raid не по теме в нг праздники - к потере данных».

anc ★★★★★
()
Ответ на: комментарий от minxayzin

Вы попустили два момента, «бэкап» и «не по теме». Проф. работы в выходные и праздники для админа это норм, но только к вопросу надо подходить не по принципу «млляя быстрее повтыкал и дальше бухать». При проведении подобных работ, надо как минимум провести тестовые испытания, по итогам нафигачить инструкцию, что бы не накосячить «забыв одну команду в середине процесса», ну и как я выше писал бэкап (не такой уж обьем у вас, что бы некуда было слить перед «процедурой»)

anc ★★★★★
()
Ответ на: комментарий от anc

согласен. так и набирается к сожалению опыт( по кране мере у меня

minxayzin
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.