LINUX.ORG.RU
ФорумAdmin

Монтирование Lun в центос.


0

1

Система поставлена на сервере. Жесткие встроенные отстукивают. Лезвие bl460c g6 Полка Hp p2000 Создан один большой vdisk Созданы два Volume, один под систему, другой под базу данных.

Система нормально установилась на свой volume, дальше задача замаунтить второй volume под базу через multipath.

И вот тут начинается интересное:

[root@itdb_sb1 etc]# multipath -l
mpatha (3600c0ff000140c5cd7b9fe4f01000000) dm-0 HP,P2000 G3 SAS
size=33G features='1 queue_if_no_path' hwhandler='0' wp=rw
`-+- policy='round-robin 0' prio=0 status=active
  |- 0:1:1:3 sda 8:0  active undef running
  `- 0:1:2:3 sdc 8:32 active undef running
[root@itdb_sb1 etc]#

Хотя сюда расшарен второй volume А вот что интересное говорит dmesg

sd 0:1:1:4: [sdb] Attached SCSI disk
sd 0:1:1:4: [sdb] Synchronizing SCSI cache
sd 0:1:1:4: [sdb] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
sd 0:1:1:4: [sdb] Sense Key : Not Ready [current]
sd 0:1:1:4: [sdb] Add. Sense: Logical unit not ready, manual intervention required
[root@itdb_sb1 etc]#


sd 0:1:2:4: [sdd] Attached SCSI disk
sd 0:1:2:4: [sdd] Synchronizing SCSI cache
sd 0:1:2:4: [sdd] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
sd 0:1:2:4: [sdd] Sense Key : Not Ready [current]
sd 0:1:2:4: [sdd] Add. Sense: Logical unit not ready, manual intervention required
[root@itdb_sb1 etc]#

Помогите разобраться, у самого уже голова не варит, как его смонтировать и ввести в строй.

Ответ на: комментарий от dada

Такой путь отсутствует. Centos 6

Сейчас ребутнул полку и контроллеры, сразу стало:

[root@itdb_sb1 ~]# dmesg|grep sdc
sd 0:1:2:1: [sdc] 585937408 512-byte logical blocks: (299 GB/279 GiB)
sd 0:1:2:1: [sdc] Write Protect is off
sd 0:1:2:1: [sdc] Mode Sense: d7 00 00 08
sd 0:1:2:1: [sdc] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
 sdc:
sd 0:1:2:1: [sdc] Attached SCSI disk
[root@itdb_sb1 ~]#

Теперь вопрос в том, multipath -l так и не видит этот раздел в 299гиг. Как его замаунтить?

InventoRs
() автор топика
Ответ на: комментарий от InventoRs

На все контроллеры

echo “- – -” > /sys/class/scsi_host/host#/scan

Потом

multipath -d

Если будут ошибки убилить блок девайсы по которым они идут

Удалить dm карту

multipath -f map_id

потом потереть девайсы (если не удалить карту и убить все девайсы потом ее невозможно будет удалить, только перезагрузкой)

echo 1 > /sys/block/sd#/device/delete

после повторить рескан

multipath -ll

testuser123
()
Ответ на: комментарий от dada

Скорее всего у него застряли кривые девайсы в dm-map. multipath -d должен это показать.

testuser123
()
Ответ на: комментарий от testuser123

Итак, рапортую. После перегрузки все ожило. Потом сделал:

[root@itdb_sb1 /]# scsi_id -u -g /dev/sda
3600c0ff000140c5cd7b9fe4f01000000
[root@itdb_sb1 /]# scsi_id -u -g /dev/sdb
3600c0ff000140c5c2ee2fe4f01000000
[root@itdb_sb1 /]#

внес не достающие данные в multipath.conf после этого multipath -r

диск появился при просмотре multipath -l

дальше pvcreate /dev/mapper/mpathd ну а дальше создаю lvm и монтирую.

Вроде так живет. но на сколько это правильно скажите:?

InventoRs
() автор топика
Ответ на: комментарий от InventoRs

Непонятно, что внес в multipath.conf. В нормальном режиме ничего менять там не требуется, разве что у тебя там блеклисты или правила именования не стандартные.

pvcreate - правильно. Ну а раз можешь ребутнуться лучше ребутись и проверь что все работает, по идее должно.

testuser123
()
Ответ на: комментарий от testuser123

Скорее всего у него застряли кривые девайсы в dm-map.

для этого и нужен был ребут. Только походу можно было обойтись и service multipathd restart =)

dada ★★★★★
()
Ответ на: комментарий от dada

Eсли ручками убить все девайсы, то останется пустая карта, которую нельзя удалить. И после рескана создастся новая карта, у нее после ребута сместится индекс, но для lvm это не критично так если пофигу на индексы. Так что можно и не ребутать. В свое время марафон по этим граблям пробежал.

Рестарт мультипаса не сильно отличается от перезагрузки)

testuser123
()
Ответ на: комментарий от testuser123

Это конфиг который был по default

# multipath.conf written by anaconda

defaults {
        user_friendly_names yes
}
blacklist {
        devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
        devnode "^hd[a-z]"
        devnode "^dcssblk[0-9]*"
        device {
                vendor "DGC"
                product "LUNZ"
        }
        device {
                vendor "IBM"
                product "S/390.*"
        }
        # don't count normal SATA devices as multipaths
        device {
                vendor  "ATA"
        }
        # don't count 3ware devices as multipaths
        device {
                vendor  "3ware"
        }
        device {
                vendor  "AMCC"
        }
        # nor highpoint devices
        device {
                vendor  "HPT"
        }
        device {
                vendor HP
                product Virtual_DVD-ROM
        }
        wwid "*"
}
blacklist_exceptions {
        wwid "3600c0ff000140c5cd7b9fe4f01000000"
        wwid "3600c0ff000140c5c2ee2fe4f01000000"
}
multipaths {
        multipath {
                uid 0
                gid 0
                wwid "3600c0ff000140c5cd7b9fe4f01000000"
                mode 0600
        }
        multipath {
                uid 0
                gid 0
                wwid "3600c0ff000140c5c2ee2fe4f01000000"
                mode 0600
        }
}
~
~

Я только добавил:

wwid "3600c0ff000140c5c2ee2fe4f01000000"
и
        multipath {
                uid 0
                gid 0
                wwid "3600c0ff000140c5c2ee2fe4f01000000"
                mode 0600
        }

InventoRs
() автор топика
Ответ на: комментарий от InventoRs

Это не делает ничего. Суть multipath.conf в установке алиасов и опций для специфичных массиов, так как dm-id sd-id могут смениться. Опции стоят дефолтные, алиас не прописан. Хуже конечно не стало.

Так ты используешь lvm он сканирует все диски при загрузке, и тебе на эти id плевать, пропишешь user_vg и все.

testuser123
()
Ответ на: комментарий от dada

В общем из очень не приятного.

lvremove swap orcl yes/no yes

reboot? yes

и дальше kernel panic

Загрука в single без скрина дает такую инфу: dracut Warning: LVM orcl/swap not found boot failed Kernel Panic....

А теперь самое интересно, почему это происходит? из fstab вырезано монтирование fstab и перенесено ан другой разел.

InventoRs
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.