LINUX.ORG.RU

Как зафиксировать имена жёстких дисков?

 


1

2

Доброго времени суток. Операционная система OpenSuse 15.4 , на основе которой сделан файловый архив на рейд массивах. При перезагрузке жёсткие диски получают разные имена,/dev/sda , /dev/sdb и так далее, в итоге raid массивы получаются из разных дисков и не собираются. Погуглив проблему, выяснил,что есть решение присвоить дискам принудительно их имена,через файл 60-presistent-storage.rule , однако в разных источниках этот файл имеет разный формат и не сказано, как его создать для операционной системы OpenSuse 15.4

Как дискам принудительно назначить имена, что бы они не менялись при перезагрузке?



Последнее исправление: Dimez (всего исправлений: 1)

При перезагрузке жёсткие диски получают разные имена,/dev/sda , /dev/sdb и так далее, в итоге raid массивы получаются из разных дисков и не собираются.

Это ты как и чем так RAID собрал? В mdadm такой проблемы нет: https://unix.stackexchange.com/questions/52321/using-uuids-with-mdadm

mdraid always allows you to move disks around freely in the machine, regardless of how you add the disk to the array. It tracks the disks by the RAID metadata (superblocks) stored on the disk.

Vsevolod-linuxoid ★★★★★
()

При перезагрузке жёсткие диски получают разные имена,/dev/sda , /dev/sdb и так далее, в итоге raid массивы получаются из разных дисков и не собираются.

А ты уверен, что не собираются они из-за разных имён, а не, например, из-за того, что ты тип партиций правильно не указал (FD)?

Dimez ★★★★★
()

Погуглив проблему, выяснил,что есть решение присвоить дискам принудительно их имена,через файл 60-presistent-storage.rule

Не угадал.

Давай начнём сначала. Расскажи, как именно ты создавал массив?

router ★★★★★
()
Ответ на: комментарий от Vsevolod-linuxoid

Обнови инфу в профиле :) Вместо помощи нубам лучше что-нибудь про мизантропию

И выдахай, бобер. Такая сейчас экологическая обстановка. Половина админов срочно осваивает линукс. Лучше порекомендуй ТС какой-нибудь курс для начинающих

router ★★★★★
()
Последнее исправление: router (всего исправлений: 1)
Ответ на: комментарий от router

Тот комментарий 2019 года. Я мизантроп и пессимист всю сознательную жизнь.

А про курс — да классический совет пол RHCSA. Но неграмотные админы по Linux тут были сколько себя помню. Я вообще очень-очень редко видел, чтобы Linux администрировали грамотные.

Дистрибутив Linux для ноутбука Intel + Nvidia (комментарий)

Vsevolod-linuxoid ★★★★★
()
Ответ на: комментарий от router

И тут, блин, дело не в неграмотности, а в отсутствии здравого смысла. Никто в здравом уме и твердой памяти не будет делать RAID зависимым от динамических имен дисков, а если у тебя это так, то нужно не с именами возиться, а RAID по-человечески делать.

Мне вообще интересно, как он на такое нарвался. Если бы он делал через mdadm, там внятные настройки по умолчанию.

Vsevolod-linuxoid ★★★★★
()
Ответ на: комментарий от Vsevolod-linuxoid

Рэйд массивы собраны на mdadm. При первой загрузке системы после включения питания диски получают разные имена и массивы,два из трёх, md0 и md1 не собираются, массив md2 собирается. Загрузка останавливается и система просит пароль администратора для устранения проблем. Если ввести пароль администратора , ничего не делать, и отправить систему на перезагрузку, то при втором старте системы рэйд массивы собираются.

serg156
() автор топика
Ответ на: комментарий от Vsevolod-linuxoid

Благодарю за внимание моему вопросу. Привожу выводы команд во время первой загрузки после включения питания,когда рэйд массивы не собираются,и после перезагрузки,когда рэйд массивы собираются.

Вывод fdisk -l

Диск /dev/sdn: 1,36 TiB, 1500301910016 байт, 2930277168 секторов
Disk model: ST31500341AS
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 512 байт
Размер I/O (минимальный/оптимальный): 512 байт / 512 байт
Тип метки диска: dos
Идентификатор диска: 0x00000278

Устр-во    Загрузочный начало      Конец    Секторы Размер Идентификатор Тип
/dev/sdn1                2048 2930276351 2930274304   1,4T            fd Автоопределение Linux raid


Диск /dev/sdc: 931,51 GiB, 1000204886016 байт, 1953525168 секторов
Disk model: WDC WD10EADS-00L
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 512 байт
Размер I/O (минимальный/оптимальный): 512 байт / 512 байт
Тип метки диска: dos
Идентификатор диска: 0x000d6065

Устр-во    Загрузочный начало      Конец    Секторы Размер Идентификатор Тип
/dev/sdc1                2048 1953523711 1953521664 931,5G            fd Автоопределение Linux raid


Диск /dev/sdd: 1,36 TiB, 1500301910016 байт, 2930277168 секторов
Disk model: ST31500341AS
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 512 байт
Размер I/O (минимальный/оптимальный): 512 байт / 512 байт
Тип метки диска: dos
Идентификатор диска: 0x000d20a4

Устр-во    Загрузочный начало      Конец    Секторы Размер Идентификатор Тип
/dev/sdd1                2048 2930276351 2930274304   1,4T            fd Автоопределение Linux raid


Диск /dev/sdb: 5,46 TiB, 6001175126016 байт, 11721045168 секторов
Disk model: WDC WD6003FRYZ-0
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 4096 байт
Размер I/O (минимальный/оптимальный): 4096 байт / 4096 байт
Тип метки диска: gpt
Идентификатор диска: 905DA566-1D4D-4655-B9CC-5F2311EEE909

Устр-во    начало       Конец     Секторы Размер Тип
/dev/sdb1    2048 11721045134 11721043087   5,5T Linux RAID


Диск /dev/sdf: 1,36 TiB, 1500301910016 байт, 2930277168 секторов
Disk model: WDC WD15EARS-00M
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 512 байт
Размер I/O (минимальный/оптимальный): 512 байт / 512 байт
Тип метки диска: dos
Идентификатор диска: 0x433a7645

Устр-во    Загрузочный начало      Конец    Секторы Размер Идентификатор Тип
/dev/sdf1                2048 2930277167 2930275120   1,4T             7 HPFS/NTFS/exFAT


Диск /dev/sdm: 1,36 TiB, 1500301910016 байт, 2930277168 секторов
Disk model: ST31500341AS
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 512 байт
Размер I/O (минимальный/оптимальный): 512 байт / 512 байт
Тип метки диска: dos
Идентификатор диска: 0x000d19b0

Устр-во    Загрузочный начало      Конец    Секторы Размер Идентификатор Тип
/dev/sdm1                2048 2930276351 2930274304   1,4T            fd Автоопределение Linux raid


Диск /dev/sdj: 931,51 GiB, 1000204886016 байт, 1953525168 секторов
Disk model: ST31000528AS
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 512 байт
Размер I/O (минимальный/оптимальный): 512 байт / 512 байт
Тип метки диска: dos
Идентификатор диска: 0x000a183e

Устр-во    Загрузочный начало      Конец    Секторы Размер Идентификатор Тип
/dev/sdj1                2048 1953523711 1953521664 931,5G            fd Автоопределение Linux raid


Диск /dev/sda: 238,47 GiB, 256060514304 байт, 500118192 секторов
Disk model: SSD
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 512 байт
Размер I/O (минимальный/оптимальный): 512 байт / 512 байт
Тип метки диска: dos
Идентификатор диска: 0x000e7abb

Устр-во    Загрузочный    начало     Конец   Секторы Размер Идентификатор Тип
/dev/sda1  *                2048   1050623   1048576   512M            83 Linux
/dev/sda2                1050624  63965183  62914560    30G            83 Linux
/dev/sda3               63965184 105908223  41943040    20G            83 Linux
/dev/sda4              105908224 500118191 394209968   188G             f W95 расшир. (LBA)
/dev/sda5              105910272 122687487  16777216     8G            82 Linux своп / Solaris
/dev/sda6              122689536 500118191 377428656   180G            83 Linux


Диск /dev/sdg: 5,46 TiB, 6001175126016 байт, 11721045168 секторов
Disk model: ST6000VX0023-2EF
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 4096 байт
Размер I/O (минимальный/оптимальный): 4096 байт / 4096 байт
Тип метки диска: gpt
Идентификатор диска: CB7BCF6C-B0D2-4799-B077-ACE7DE9B08E3

Устр-во    начало       Конец     Секторы Размер Тип
/dev/sdg1    2048 11721045134 11721043087   5,5T Linux RAID


Диск /dev/sdk: 931,51 GiB, 1000204886016 байт, 1953525168 секторов
Disk model: WDC WD10EADS-00L
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 512 байт
Размер I/O (минимальный/оптимальный): 512 байт / 512 байт
Тип метки диска: dos
Идентификатор диска: 0x000b37b0

Устр-во    Загрузочный начало      Конец    Секторы Размер Идентификатор Тип
/dev/sdk1                2048 1953523711 1953521664 931,5G            fd Автоопределение Linux raid



serg156
() автор топика
Ответ на: комментарий от Vsevolod-linuxoid

Продолжение вывода fdisk -l



Диск /dev/sdi: 931,51 GiB, 1000204886016 байт, 1953525168 секторов
Disk model: WDC WD10EADS-00L
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 512 байт
Размер I/O (минимальный/оптимальный): 512 байт / 512 байт
Тип метки диска: dos
Идентификатор диска: 0x842cf1ee

Устр-во    Загрузочный начало      Конец    Секторы Размер Идентификатор Тип
/dev/sdi1                2048 1953523711 1953521664 931,5G            fd Автоопределение Linux raid


Диск /dev/sdo: 931,51 GiB, 1000203804160 байт, 1953523055 секторов
Disk model: ST31000528AS
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 512 байт
Размер I/O (минимальный/оптимальный): 512 байт / 512 байт
Тип метки диска: dos
Идентификатор диска: 0x6529caf0

Устр-во    Загрузочный начало      Конец    Секторы Размер Идентификатор Тип
/dev/sdo1                2048 1953517567 1953515520 931,5G             7 HPFS/NTFS/exFAT


Диск /dev/sde: 5,46 TiB, 6001175126016 байт, 11721045168 секторов
Disk model: ST6000VX0023-2EF
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 4096 байт
Размер I/O (минимальный/оптимальный): 4096 байт / 4096 байт
Тип метки диска: gpt
Идентификатор диска: 1EA8CA26-2B4F-4E36-B8EB-DC8658C83189

Устр-во    начало       Конец     Секторы Размер Тип
/dev/sde1    2048 11721045134 11721043087   5,5T Linux RAID


Диск /dev/sdh: 5,46 TiB, 6001174044160 байт, 11721043055 секторов
Disk model: WDC WD6003FFBX-6
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 4096 байт
Размер I/O (минимальный/оптимальный): 4096 байт / 4096 байт
Тип метки диска: gpt
Идентификатор диска: B6BBA34B-25CC-4D70-94DC-A9D876923FAA

Устр-во    начало       Конец     Секторы Размер Тип
/dev/sdh1    2048 11721043021 11721040974   5,5T Linux RAID


Диск /dev/sdp: 1,82 TiB, 2000397852160 байт, 3907027055 секторов
Disk model: ST32000542AS
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 512 байт
Размер I/O (минимальный/оптимальный): 512 байт / 512 байт
Тип метки диска: dos
Идентификатор диска: 0xff0e8351

Устр-во    Загрузочный начало      Конец    Секторы Размер Идентификатор Тип
/dev/sdp1                2048 3907027054 3907025007   1,8T            83 Linux


Диск /dev/sdl: 1,36 TiB, 1500301910016 байт, 2930277168 секторов
Disk model: ST31500341AS
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 512 байт
Размер I/O (минимальный/оптимальный): 512 байт / 512 байт
Тип метки диска: dos
Идентификатор диска: 0x00015033

Устр-во    Загрузочный начало      Конец    Секторы Размер Идентификатор Тип
/dev/sdl1                2048 2930276351 2930274304   1,4T            fd Автоопределение Linux raid


Диск /dev/md2: 16,37 TiB, 18003518423040 байт, 35163121920 секторов
Единицы: секторов по 1 * 512 = 512 байт
Размер сектора (логический/физический): 512 байт / 4096 байт
Размер I/O (минимальный/оптимальный): 131072 байт / 393216 байт
Тип метки диска: gpt
Идентификатор диска: 26DA4ACA-103E-45DE-A1B4-028CB654BECD

Устр-во    начало       Конец     Секторы Размер Тип
/dev/md2p1   3072 35127994934 35127991863  16,4T Файловая система Linux

serg156
() автор топика
Ответ на: комментарий от Vsevolod-linuxoid

Вывод cat /proc/mdstat

Personalities : [raid6] [raid5] [raid4]
md1 : inactive sdi1[0](S)
      976760696 blocks super 1.0

md2 : active raid5 sdh1[4] sdg1[0] sde1[1] sdb1[2]
      17581560960 blocks super 1.0 level 5, 128k chunk, algorithm 2 [4/4] [UUUU]
      bitmap: 0/44 pages [0KB], 65536KB chunk

unused devices: <none>

*******************************************************
Вывод fdisk -l | grep "931\|1,4\|5,46" в понятном сокращённом виде

/dev/sdn1                2048 2930276351 2930274304   1,4T            fd Автоопределение Linux raid
Диск /dev/sdc: 931,51 GiB, 1000204886016 байт, 1953525168 секторов
/dev/sdc1                2048 1953523711 1953521664 931,5G            fd Автоопределение Linux raid
/dev/sdd1                2048 2930276351 2930274304   1,4T            fd Автоопределение Linux raid
Диск /dev/sdb: 5,46 TiB, 6001175126016 байт, 11721045168 секторов
/dev/sdf1                2048 2930277167 2930275120   1,4T             7 HPFS/NTFS/exFAT
/dev/sdm1                2048 2930276351 2930274304   1,4T            fd Автоопределение Linux raid
Диск /dev/sdj: 931,51 GiB, 1000204886016 байт, 1953525168 секторов
/dev/sdj1                2048 1953523711 1953521664 931,5G            fd Автоопределение Linux raid
Диск /dev/sdg: 5,46 TiB, 6001175126016 байт, 11721045168 секторов
Диск /dev/sdk: 931,51 GiB, 1000204886016 байт, 1953525168 секторов
/dev/sdk1                2048 1953523711 1953521664 931,5G            fd Автоопределение Linux raid
Диск /dev/sdi: 931,51 GiB, 1000204886016 байт, 1953525168 секторов
/dev/sdi1                2048 1953523711 1953521664 931,5G            fd Автоопределение Linux raid
Диск /dev/sdo: 931,51 GiB, 1000203804160 байт, 1953523055 секторов
/dev/sdo1                2048 1953517567 1953515520 931,5G             7 HPFS/NTFS/exFAT
Диск /dev/sde: 5,46 TiB, 6001175126016 байт, 11721045168 секторов
Диск /dev/sdh: 5,46 TiB, 6001174044160 байт, 11721043055 секторов
/dev/sdl1                2048 2930276351 2930274304   1,4T            fd Автоопределение Linux raid


Вывод mdadm.conf

DEVICE containers partitions
ARRAY /dev/md/md0 UUID=35bee2f8:c0865823:ca30fc09:f9e757e2
ARRAY /dev/md/md1 UUID=ac589549:b7404922:5ab270d5:ee258277
ARRAY /dev/md/md2 UUID=0900cd9a:1ec42ca3:b1f5c196:846ce4d1

serg156
() автор топика
Ответ на: комментарий от Vsevolod-linuxoid

Вывод ls /dev/disk/by-id/

ata-ASUS_DRW-2014L1T_JKQC322823CN
ata-Optiarc_BD_RW_BD-5730S6
ata-SSD_YS202010031750AA
ata-SSD_YS202010031750AA-part1
ata-SSD_YS202010031750AA-part2
ata-SSD_YS202010031750AA-part3
ata-SSD_YS202010031750AA-part4
ata-SSD_YS202010031750AA-part5
ata-SSD_YS202010031750AA-part6
ata-ST31000528AS_9VP10PXL
ata-ST31000528AS_9VP10PXL-part1
ata-ST31000528AS_9VP11RDR
ata-ST31000528AS_9VP11RDR-part1
ata-ST31500341AS_9VS30R87
ata-ST31500341AS_9VS30R87-part1
ata-ST31500341AS_9VS31G7X
ata-ST31500341AS_9VS31G7X-part1
ata-ST31500341AS_9VS32077
ata-ST31500341AS_9VS32077-part1
ata-ST31500341AS_9VS329FW
ata-ST31500341AS_9VS329FW-part1
ata-ST32000542AS_5XW13VVG
ata-ST32000542AS_5XW13VVG-part1
ata-ST6000VX0023-2EF110_ZAD0Y08T
ata-ST6000VX0023-2EF110_ZAD0Y08T-part1
ata-ST6000VX0023-2EF110_ZAD18VZD
ata-ST6000VX0023-2EF110_ZAD18VZD-part1
ata-WDC_WD10EADS-00L5B1_WD-WCAU45187879
ata-WDC_WD10EADS-00L5B1_WD-WCAU45187879-part1
ata-WDC_WD10EADS-00L5B1_WD-WCAU45217652
ata-WDC_WD10EADS-00L5B1_WD-WCAU45217652-part1
ata-WDC_WD10EADS-00L5B1_WD-WCAU45221303
ata-WDC_WD10EADS-00L5B1_WD-WCAU45221303-part1
ata-WDC_WD15EARS-00MVWB0_WD-WMAZA0835312
ata-WDC_WD15EARS-00MVWB0_WD-WMAZA0835312-part1
ata-WDC_WD6003FFBX-68MU3N0_V9JDH46L
ata-WDC_WD6003FFBX-68MU3N0_V9JDH46L-part1
ata-WDC_WD6003FRYZ-01F0DB0_V9GBRKML
ata-WDC_WD6003FRYZ-01F0DB0_V9GBRKML-part1
md-name-any:md2
md-name-any:md2-part1
md-uuid-0900cd9a:1ec42ca3:b1f5c196:846ce4d1
md-uuid-0900cd9a:1ec42ca3:b1f5c196:846ce4d1-part1
scsi-0ATA_SSD_YS202010031750AA
scsi-0ATA_SSD_YS202010031750AA-part1
scsi-0ATA_SSD_YS202010031750AA-part2
scsi-0ATA_SSD_YS202010031750AA-part3
scsi-0ATA_SSD_YS202010031750AA-part4
scsi-0ATA_SSD_YS202010031750AA-part5
scsi-0ATA_SSD_YS202010031750AA-part6
scsi-0ATA_ST31000528AS_9VP10PXL
scsi-0ATA_ST31000528AS_9VP10PXL-part1
scsi-0ATA_ST31000528AS_9VP11RDR
scsi-0ATA_ST31000528AS_9VP11RDR-part1
scsi-0ATA_ST31500341AS_9VS30R87
scsi-0ATA_ST31500341AS_9VS30R87-part1
scsi-0ATA_ST31500341AS_9VS31G7X
scsi-0ATA_ST31500341AS_9VS31G7X-part1
scsi-0ATA_ST31500341AS_9VS32077
scsi-0ATA_ST31500341AS_9VS32077-part1
scsi-0ATA_ST31500341AS_9VS329FW
scsi-0ATA_ST31500341AS_9VS329FW-part1
scsi-0ATA_ST32000542AS_5XW13VVG
scsi-0ATA_ST32000542AS_5XW13VVG-part1
scsi-0ATA_ST6000VX0023-2EF_ZAD0Y08T
scsi-0ATA_ST6000VX0023-2EF_ZAD0Y08T-part1
scsi-0ATA_ST6000VX0023-2EF_ZAD18VZD
scsi-0ATA_ST6000VX0023-2EF_ZAD18VZD-part1
scsi-0ATA_WDC_WD10EADS-00L_WD-WCAU45187879
scsi-0ATA_WDC_WD10EADS-00L_WD-WCAU45187879-part1
scsi-0ATA_WDC_WD10EADS-00L_WD-WCAU45217652
scsi-0ATA_WDC_WD10EADS-00L_WD-WCAU45217652-part1
scsi-0ATA_WDC_WD10EADS-00L_WD-WCAU45221303
scsi-0ATA_WDC_WD10EADS-00L_WD-WCAU45221303-part1
scsi-0ATA_WDC_WD15EARS-00M_WD-WMAZA0835312
scsi-0ATA_WDC_WD15EARS-00M_WD-WMAZA0835312-part1
scsi-0ATA_WDC_WD6003FFBX-6_V9JDH46L
scsi-0ATA_WDC_WD6003FFBX-6_V9JDH46L-part1
scsi-0ATA_WDC_WD6003FRYZ-0_V9GBRKML
scsi-0ATA_WDC_WD6003FRYZ-0_V9GBRKML-part1
scsi-1ATA_SSD_YS202010031750AA
scsi-1ATA_SSD_YS202010031750AA-part1
scsi-1ATA_SSD_YS202010031750AA-part2
scsi-1ATA_SSD_YS202010031750AA-part3
scsi-1ATA_SSD_YS202010031750AA-part4
scsi-1ATA_SSD_YS202010031750AA-part5
scsi-1ATA_SSD_YS202010031750AA-part6
scsi-1ATA_ST31000528AS_9VP10PXL
scsi-1ATA_ST31000528AS_9VP10PXL-part1
scsi-1ATA_ST31000528AS_9VP11RDR
scsi-1ATA_ST31000528AS_9VP11RDR-part1
scsi-1ATA_ST31500341AS_9VS30R87
scsi-1ATA_ST31500341AS_9VS30R87-part1
scsi-1ATA_ST31500341AS_9VS31G7X
scsi-1ATA_ST31500341AS_9VS31G7X-part1
scsi-1ATA_ST31500341AS_9VS32077
scsi-1ATA_ST31500341AS_9VS32077-part1
scsi-1ATA_ST31500341AS_9VS329FW
scsi-1ATA_ST31500341AS_9VS329FW-part1
scsi-1ATA_ST32000542AS_5XW13VVG
scsi-1ATA_ST32000542AS_5XW13VVG-part1
scsi-1ATA_ST6000VX0023-2EF110_ZAD0Y08T
scsi-1ATA_ST6000VX0023-2EF110_ZAD0Y08T-part1
scsi-1ATA_ST6000VX0023-2EF110_ZAD18VZD
scsi-1ATA_ST6000VX0023-2EF110_ZAD18VZD-part1
scsi-1ATA_WDC_WD10EADS-00L5B1_WD-WCAU45187879
scsi-1ATA_WDC_WD10EADS-00L5B1_WD-WCAU45187879-part1
scsi-1ATA_WDC_WD10EADS-00L5B1_WD-WCAU45217652
scsi-1ATA_WDC_WD10EADS-00L5B1_WD-WCAU45217652-part1
scsi-1ATA_WDC_WD10EADS-00L5B1_WD-WCAU45221303
scsi-1ATA_WDC_WD10EADS-00L5B1_WD-WCAU45221303-part1
scsi-1ATA_WDC_WD15EARS-00MVWB0_WD-WMAZA0835312
scsi-1ATA_WDC_WD15EARS-00MVWB0_WD-WMAZA0835312-part1
scsi-1ATA_WDC_WD6003FFBX-68MU3N0_V9JDH46L
scsi-1ATA_WDC_WD6003FFBX-68MU3N0_V9JDH46L-part1
scsi-1ATA_WDC_WD6003FRYZ-01F0DB0_V9GBRKML
scsi-1ATA_WDC_WD6003FRYZ-01F0DB0_V9GBRKML-part1
scsi-30000000000000000
scsi-30000000000000000-part1
scsi-30000000000000000-part2
scsi-30000000000000000-part3
scsi-30000000000000000-part4
scsi-30000000000000000-part5
scsi-30000000000000000-part6
scsi-35000c50015464951
scsi-35000c50015464951-part1
scsi-35000c500154ec268
scsi-35000c500154ec268-part1
scsi-35000c50019ede4f8
scsi-35000c50019ede4f8-part1
scsi-35000c50019f28d88
scsi-35000c50019f28d88-part1
scsi-35000c50019f806c7
scsi-35000c50019f806c7-part1
scsi-35000c50019f8fb5e
scsi-35000c50019f8fb5e-part1
scsi-35000c5002a52c363
scsi-35000c5002a52c363-part1
scsi-35000c500a26f9a2c
scsi-35000c500a26f9a2c-part1
scsi-35000c500a2f8b8a3
scsi-35000c500a2f8b8a3-part1
scsi-35000cca0bdc554cd
scsi-35000cca0bdc554cd-part1
scsi-35000cca0bde1dc47
scsi-35000cca0bde1dc47-part1
scsi-350014ee0026b2ed1
scsi-350014ee0026b2ed1-part1
scsi-350014ee257a1e497
scsi-350014ee257a1e497-part1
scsi-350014ee257a1e503
scsi-350014ee257a1e503-part1
scsi-350014ee2acf76b1b
scsi-350014ee2acf76b1b-part1
scsi-SATA_SSD_YS202010031750AA
scsi-SATA_SSD_YS202010031750AA-part1
scsi-SATA_SSD_YS202010031750AA-part2
scsi-SATA_SSD_YS202010031750AA-part3
scsi-SATA_SSD_YS202010031750AA-part4
scsi-SATA_SSD_YS202010031750AA-part5
scsi-SATA_SSD_YS202010031750AA-part6
scsi-SATA_ST31000528AS_9VP10PXL
scsi-SATA_ST31000528AS_9VP10PXL-part1
scsi-SATA_ST31000528AS_9VP11RDR
scsi-SATA_ST31000528AS_9VP11RDR-part1
scsi-SATA_ST31500341AS_9VS30R87
scsi-SATA_ST31500341AS_9VS30R87-part1
scsi-SATA_ST31500341AS_9VS31G7X
scsi-SATA_ST31500341AS_9VS31G7X-part1
scsi-SATA_ST31500341AS_9VS32077
scsi-SATA_ST31500341AS_9VS32077-part1
scsi-SATA_ST31500341AS_9VS329FW
scsi-SATA_ST31500341AS_9VS329FW-part1
scsi-SATA_ST32000542AS_5XW13VVG
scsi-SATA_ST32000542AS_5XW13VVG-part1
scsi-SATA_ST6000VX0023-2EF_ZAD0Y08T
scsi-SATA_ST6000VX0023-2EF_ZAD0Y08T-part1
scsi-SATA_ST6000VX0023-2EF_ZAD18VZD
scsi-SATA_ST6000VX0023-2EF_ZAD18VZD-part1
scsi-SATA_WDC_WD10EADS-00L_WD-WCAU45187879
scsi-SATA_WDC_WD10EADS-00L_WD-WCAU45187879-part1
scsi-SATA_WDC_WD10EADS-00L_WD-WCAU45217652
scsi-SATA_WDC_WD10EADS-00L_WD-WCAU45217652-part1
scsi-SATA_WDC_WD10EADS-00L_WD-WCAU45221303
scsi-SATA_WDC_WD10EADS-00L_WD-WCAU45221303-part1
scsi-SATA_WDC_WD15EARS-00M_WD-WMAZA0835312
scsi-SATA_WDC_WD15EARS-00M_WD-WMAZA0835312-part1
scsi-SATA_WDC_WD6003FFBX-6_V9JDH46L
scsi-SATA_WDC_WD6003FFBX-6_V9JDH46L-part1
scsi-SATA_WDC_WD6003FRYZ-0_V9GBRKML
scsi-SATA_WDC_WD6003FRYZ-0_V9GBRKML-part1
wwn-0x0000000000000000
wwn-0x0000000000000000-part1
wwn-0x0000000000000000-part2
wwn-0x0000000000000000-part3
wwn-0x0000000000000000-part4
wwn-0x0000000000000000-part5
wwn-0x0000000000000000-part6
wwn-0x5000c50015464951
wwn-0x5000c50015464951-part1
wwn-0x5000c500154ec268
wwn-0x5000c500154ec268-part1
wwn-0x5000c50019ede4f8
wwn-0x5000c50019ede4f8-part1
wwn-0x5000c50019f28d88
wwn-0x5000c50019f28d88-part1
wwn-0x5000c50019f806c7
wwn-0x5000c50019f806c7-part1
wwn-0x5000c50019f8fb5e
wwn-0x5000c50019f8fb5e-part1
wwn-0x5000c5002a52c363
wwn-0x5000c5002a52c363-part1
wwn-0x5000c500a26f9a2c
wwn-0x5000c500a26f9a2c-part1
wwn-0x5000c500a2f8b8a3
wwn-0x5000c500a2f8b8a3-part1
wwn-0x5000cca0bdc554cd
wwn-0x5000cca0bdc554cd-part1
wwn-0x5000cca0bde1dc47
wwn-0x5000cca0bde1dc47-part1
wwn-0x50014ee0026b2ed1
wwn-0x50014ee0026b2ed1-part1
wwn-0x50014ee257a1e497
wwn-0x50014ee257a1e497-part1
wwn-0x50014ee257a1e503
wwn-0x50014ee257a1e503-part1
wwn-0x50014ee2acf76b1b
wwn-0x50014ee2acf76b1b-part1
***************************************************

serg156
() автор топика
Ответ на: комментарий от Vsevolod-linuxoid

После ребута


cat /proc/mdstat

Personalities : [raid6] [raid5] [raid4]
md2 : active raid5 sdh1[4] sdb1[2] sdg1[0] sde1[1]
      17581560960 blocks super 1.0 level 5, 128k chunk, algorithm 2 [4/4] [UUUU]
      bitmap: 0/44 pages [0KB], 65536KB chunk

md1 : active raid5 sdi1[0] sdk1[2] sdj1[4] sdc1[1]
      2930281728 blocks super 1.0 level 5, 128k chunk, algorithm 2 [4/4] [UUUU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

md0 : active raid5 sdl1[2] sdm1[1] sdo1[4] sdd1[0]
      4395410688 blocks super 1.0 level 5, 128k chunk, algorithm 2 [4/4] [UUUU]
      bitmap: 0/11 pages [0KB], 65536KB chunk

unused devices: <none>

serg156
() автор топика
Ответ на: комментарий от serg156

Если ввести пароль администратора , ничего не делать, и отправить систему на перезагрузку, то при втором старте системы рэйд массивы собираются

Так надо тут копаться, а не мдадм шевелить…

julixs ★★★
()
Ответ на: комментарий от serg156

При первой загрузке системы после включения питания диски получают разные имена и массивы,два из трёх, md0 и md1 не собираются,

Очень странно

Если ввести пароль администратора , ничего не делать, и отправить систему на перезагрузку,

А ты введи и посмотри список дисков. Может у тебя при первом включении почему-то (мощности БП не хватает?) не успели инициализироваться диски

lsscsi

mdadm --examine --scan
router ★★★★★
()
Ответ на: комментарий от router

Так, вот ещё

Внимательно посмотри вывод

mdadm --examine --scan
blkid

Если у тебя на этих же дисках были ДРУГИЕ рейды и ты забыл удалить их метаданные, они могут мешать. Хотя опять же вряд ли бы со второй попытки что-то загружалось

router ★★★★★
()
Ответ на: комментарий от Vsevolod-linuxoid

Вывод fstab

UUID=6874a370-88b5-4cec-bb33-840edfd6c78a  /             ext3     defaults              0  1
UUID=ef437ebc-d9a0-41be-84ad-b717731abb95  /boot         ext3     data=ordered          0  2
UUID=43ebf525-6755-43ee-ade5-79af94e8fe95  /home         ext3     data=ordered          0  2
UUID=74605ca9-b04a-4c5a-8468-580b998ca259  swap          swap     defaults              0  0
UUID=bb46c0c3-856f-401a-9b59-a7cb7921949d  /mnt/ssd      xfs      defaults              0  0
UUID=abea3d33-66fe-4db6-938b-6c246950b79d  /mnt/md2      xfs      defaults              0  0
#UUID=be0aa0b7-cd23-4b32-ba39-e8c63c902aac  /mnt/old_lin btrfs defaults 0  0
UUID=2e34e316-32ae-4eb4-87d9-0d3f605a75db  /mnt/2TB_USB  xfs      defaults              0  0
UUID=C8E4F91D616D0070                      /mnt/1TB_USB  ntfs-3g  gid=users,umask=0022  0  0
UUID=e5b0284e-dc57-431b-9e66-638726baf5a7  /mnt/md0      xfs      defaults              0  0
UUID=c66396ae-0d32-47b7-91f7-42d64327b53c  /mnt/md1      xfs      defaults              0  0
#UUID=4071fc10-7f60-4730-bc81-d37bf272b023  /mnt/md0      xfs      defaults              0  0
#UUID=e6297943-01bd-4ca5-912d-2790364505c0  /mnt/md1      xfs      defaults              0  0
#UUID=abea3d33-66fe-4db6-938b-6c246950b79d  /mnt/md2      xfs      defaults              0  0

serg156
() автор топика
Ответ на: комментарий от router

вывод mdadm --examine --scan и blkid


ftp-new:/home/serg # mdadm --examine --scan
ARRAY /dev/md/1  metadata=1.0 UUID=ac589549:b7404922:5ab270d5:ee258277 name=linhome:1
ARRAY /dev/md/0  metadata=1.0 UUID=35bee2f8:c0865823:ca30fc09:f9e757e2 name=linux-cwod:0
ARRAY /dev/md/md2  metadata=1.0 UUID=0900cd9a:1ec42ca3:b1f5c196:846ce4d1 name=any:md2
ftp-new:/home/serg # blkid
/dev/sdf1: LABEL="1.36TB" BLOCK_SIZE="512" UUID="18B08747B0872A78" TYPE="ntfs" PARTUUID="433a7645-01"
/dev/sdo1: UUID="35bee2f8-c086-5823-ca30-fc09f9e757e2" UUID_SUB="a7d5e06c-cd29-69df-3f56-ab65e6fd4df0" LABEL="linux-cwod:0" TYPE="linux_raid_member" PARTUUID="00000278-01"
/dev/sdd1: UUID="35bee2f8-c086-5823-ca30-fc09f9e757e2" UUID_SUB="f1b6156f-fba3-f055-e544-8ab5ea671b4b" LABEL="linux-cwod:0" TYPE="linux_raid_member" PARTUUID="000d20a4-01"
/dev/sdm1: UUID="35bee2f8-c086-5823-ca30-fc09f9e757e2" UUID_SUB="3996c142-9839-dc06-9653-7a37ac3e32e1" LABEL="linux-cwod:0" TYPE="linux_raid_member" PARTUUID="000d19b0-01"
/dev/sdb1: UUID="0900cd9a-1ec4-2ca3-b1f5-c196846ce4d1" UUID_SUB="9987f18d-b328-2de6-7874-55ee17c46a24" LABEL="any:md2" TYPE="linux_raid_member" PARTUUID="a4ce4809-d1ab-4af3-a589-af7803dd5b2f"
/dev/sdk1: UUID="ac589549-b740-4922-5ab2-70d5ee258277" UUID_SUB="1c6c16fd-aaaf-ce56-354c-8f6c671bff19" LABEL="linhome:1" TYPE="linux_raid_member" PARTUUID="000b37b0-01"
/dev/md2p1: UUID="abea3d33-66fe-4db6-938b-6c246950b79d" BLOCK_SIZE="4096" TYPE="xfs" PARTUUID="d8a36042-9236-48a4-9a20-4fcd064cce39"
/dev/sdi1: UUID="ac589549-b740-4922-5ab2-70d5ee258277" UUID_SUB="c4a71c90-b3a7-84f8-9f9d-86f9244c91bc" LABEL="linhome:1" TYPE="linux_raid_member" PARTUUID="842cf1ee-01"
/dev/md0p1: UUID="e5b0284e-dc57-431b-9e66-638726baf5a7" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="1413aa73-402a-404d-ad45-4d137b1999e7"
/dev/sdg1: UUID="0900cd9a-1ec4-2ca3-b1f5-c196846ce4d1" UUID_SUB="df27ac7f-8e68-5b4e-9460-1abd38be2926" LABEL="any:md2" TYPE="linux_raid_member" PARTUUID="9859a22f-415c-40fc-8427-69accee94f21"
/dev/sde1: UUID="0900cd9a-1ec4-2ca3-b1f5-c196846ce4d1" UUID_SUB="be0444d7-230b-8fad-aef6-e0cbc3edacb4" LABEL="any:md2" TYPE="linux_raid_member" PARTUUID="2f43ef83-62ec-4344-95c4-643c09971c9d"
/dev/sdn1: LABEL="USB_1TB" BLOCK_SIZE="512" UUID="C8E4F91D616D0070" TYPE="ntfs" PARTUUID="6529caf0-01"
/dev/sdc1: UUID="ac589549-b740-4922-5ab2-70d5ee258277" UUID_SUB="4b18bec9-bc3c-9545-9e43-09314cfd28f5" LABEL="linhome:1" TYPE="linux_raid_member" PARTUUID="000d6065-01"
/dev/sdl1: UUID="35bee2f8-c086-5823-ca30-fc09f9e757e2" UUID_SUB="d8f14949-eb6e-4579-ce64-a903d7023a36" LABEL="linux-cwod:0" TYPE="linux_raid_member" PARTUUID="00015033-01"
/dev/sda2: UUID="6874a370-88b5-4cec-bb33-840edfd6c78a" BLOCK_SIZE="4096" TYPE="ext3" PARTUUID="000e7abb-02"
/dev/sda5: UUID="74605ca9-b04a-4c5a-8468-580b998ca259" TYPE="swap" PARTUUID="000e7abb-05"
/dev/sda3: UUID="43ebf525-6755-43ee-ade5-79af94e8fe95" BLOCK_SIZE="4096" TYPE="ext3" PARTUUID="000e7abb-03"
/dev/sda1: UUID="ef437ebc-d9a0-41be-84ad-b717731abb95" BLOCK_SIZE="4096" TYPE="ext3" PTTYPE="dos" PARTUUID="000e7abb-01"
/dev/sda6: UUID="bb46c0c3-856f-401a-9b59-a7cb7921949d" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="000e7abb-06"
/dev/sdj1: UUID="ac589549-b740-4922-5ab2-70d5ee258277" UUID_SUB="cf44d8a9-a25a-b3a3-7c43-28f4d115a17d" LABEL="linhome:1" TYPE="linux_raid_member" PARTUUID="000a183e-01"
/dev/md1p1: UUID="c66396ae-0d32-47b7-91f7-42d64327b53c" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="43bb5447-3faf-45b3-a37c-38d0b0a5f6bf"
/dev/sdh1: UUID="0900cd9a-1ec4-2ca3-b1f5-c196846ce4d1" UUID_SUB="6838dc1a-aa18-ee33-e8db-3c084cff385f" LABEL="any:md2" TYPE="linux_raid_member" PARTUUID="e56955ca-eb2c-41af-93e6-7ba8115192f1"
/dev/sdp1: UUID="2e34e316-32ae-4eb4-87d9-0d3f605a75db" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="ff0e8351-01"
ftp-new:/home/serg # 

И что тут не так, почему рэйд массивы нормально собираются только после ребута?

serg156
() автор топика

Отвлечёмся от raid.

При перезагрузке жёсткие диски получают разные имена,/dev/sda , /dev/sdb

Потому что ядро рандомно их присваивает, а уже потом по всяким другим «именам» мы монтируем диски, куда надо. Именно поэтому нельзя тупо монтировать /dev/sd* через fstab, если у тебя больше одного диска.

Погуглив проблему, выяснил,что есть решение присвоить дискам принудительно их имена,через файл 60-presistent-storage.rule

Тоже гуглил этот вопрос, ибо меня напрягает, что корень периодически получает sdb, но пока решения не нашёл (правда не сильно упирался).

papin-aziat ★★★★★
()
Ответ на: комментарий от papin-aziat

уже потом по всяким другим «именам» мы монтируем диски, куда надо

Вот здесь нечего сказть, кроме rtfm. UUID, ну или lvm

Тоже гуглил этот вопрос, ибо меня напрягает, что корень периодически получает sdb, но пока решения не нашёл (правда не сильно упирался).

А погода тебя разная не напрягает? Все монтирования - только по persistent именам. Либо lvm, либо UUID

имя вроде /dev/sda в конфиге - это грубейший косяк

router ★★★★★
()
Последнее исправление: router (всего исправлений: 1)
Ответ на: комментарий от router

Да нормально всё, меня это не напрягает, но вопрос интересный, вот в чём суть.

И ТС им задался, хотя и очевидно, что его, ТСа, решение лержит в другой плоскости.

papin-aziat ★★★★★
()
Последнее исправление: papin-aziat (всего исправлений: 1)
Ответ на: комментарий от serg156

Это после первой неудачной загрузки?

ftp-new:/home/serg # mdadm --examine --scan
name=linhome:1
name=linux-cwod:0
name=any:md2

Разницу видишь? Какие-то имена, причём не из mdadm.conf

ЧСХ, md2 у тебя при первой загрузке собирается

Может, какие-то специфичные для suse вещи, причем конфликтующие с штатным mdadm.conf

Уже говорил - вспоминай, как создавал эти рейды. И видимо придётся почитать документацию, специфичную для суси

router ★★★★★
()
Ответ на: комментарий от papin-aziat

Раньше - это когда? Монтирование по UUID появилось больше 20 лет назад

Вот и меня это удивляет, ведь раньше делали так, тут нужен специалист!

Раньше делали черезжопу, а теперь тут какие-то выпендрежники говорят, что это неправильно

За 20 лет появился sata (без всяких master/slave) и pci (а потом ещё и pci-express). Причем контроллеров теперь часто несколько. Иногда нужно потратить время на обучение

router ★★★★★
()
Последнее исправление: router (всего исправлений: 1)
Ответ на: комментарий от papin-aziat

смотри, man fstab

              LABEL=<label> or UUID=<uuid> may be given instead of a device name.  This  is
              the  recommended  method, as device names are often a coincidence of hardware
              detection order, and can change when other disks are added or  removed.   For
              example, `LABEL=Boot' or `UUID=3e6be9de-8139-11d1-9106-a43f08d823a6'.  (Use a
              filesystem-specific tool like e2label(8), xfs_admin(8), or fatlabel(8) to set
              LABELs on filesystems).

Берешь и делаешь

blkid /dev/sda1

а потом полученный UUID пишешь в fstab вместо sda1

Если используешь LVM, его имена тоже persistent

router ★★★★★
()
Ответ на: комментарий от router

Ну почему? Например, у меня скрипт (это фантазия), который периодически делает делает blkdiscard /dev/sdb1, вот и приехали.

papin-aziat ★★★★★
()
Последнее исправление: papin-aziat (всего исправлений: 1)