LINUX.ORG.RU

Не монтируется GFS2 том в proxmox 4.4 (Debian)

 , , , ,


1

2

Здравствуйте! Подключаю том GFS2 к двум нодам. Тома поверх LVM, которые находятся на хранилище IBM (содинено всё FC и свитч) видятся обеими нодами прекрасно и работают с ними.

pvs
File descriptor 7 (pipe:[3137195]) leaked on pvs invocation. Parent PID 26822: bash
  PV                                                  VG          Fmt  Attr PSize    PFree  
  /dev/mapper/36005076211b628021000000001000002-part2 ibm         lvm2 a--  1023,87g 138,87g
  /dev/mapper/36005076300808e2c7800000000000000-part1 ibm-backups lvm2 a--    10,91t   4,90t

vgs
File descriptor 7 (pipe:[3137195]) leaked on vgs invocation. Parent PID 26822: bash
  VG          #PV #LV #SN Attr   VSize    VFree  
  ibm           1  17   0 wz--n- 1023,87g 138,87g
  ibm-backups   1   1   0 wz--n-   10,91t   4,90t
lvscan 
File descriptor 7 (pipe:[3137195]) leaked on lvscan invocation. Parent PID 26822: bash
  ACTIVE            '/dev/ibm/vm-100-disk-1' [30,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-105-disk-1' [60,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-101-disk-1' [60,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-102-disk-1' [160,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-103-disk-1' [55,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-110-disk-1' [10,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-109-disk-1' [10,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-111-disk-1' [10,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-115-disk-1' [115,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-104-disk-1' [100,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-106-disk-1' [110,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-107-disk-1' [10,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-108-disk-1' [10,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-112-disk-1' [55,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-113-disk-1' [10,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-114-disk-1' [70,00 GiB] inherit
  ACTIVE            '/dev/ibm/vm-150-disk-1' [10,00 GiB] inherit
  ACTIVE            '/dev/ibm-backups/bck-disk-1' [6,01 TiB] inherit

Видим, что в обеих нодах всё корректно подцепилось и пашет. Я хочу взять вот например том bck-disk-1 из группы ibm-backups и подмонтировать в качестве обычного диска.
Была выбрана система GFS2, блыго в ядре всё включено

lsmod | grep dlm
dlm                   159744  1 gfs2
configfs               36864  2 dlm

Фенсинг на проксмосе > 4 осуществляется на уровне ядра. Так вот я создал том gfs2

mkfs.gfs2 -t relef-web:storage01 -j 4 /dev/ibm-backups/bck-disk-1

Всё прокатило

/dev/ibm-backups/bck-disk-1 is a symbolic link to /dev/dm-22
This will destroy any data on /dev/dm-22
Are you sure you want to proceed? [y/n]y
Device:                    /dev/ibm-backups/bck-disk-1
Block size:                4096
Device size:               6150,00 GB (1612185600 blocks)
Filesystem size:           6150,00 GB (1612185597 blocks)
Journals:                  4
Resource groups:           24602
Locking protocol:          "lock_dlm"
Lock table:                "relef-web:storage01"
UUID:                      a905f71e-3a80-09ee-cc1b-17d6105d649f

Но при монтировании выдаёт такое

mount: mount /dev/mapper/ibm--backups-bck--disk--1 on /home/backups failed: Конечная точка передачи не подсоединена

Mar 14 12:56:56 hv00 kernel: [358236.673964] gfs2: fsid=relef-web:storage01: Trying to
 join cluster "lock_dlm", "relef-web:storage01"
Mar 14 12:56:56 hv00 kernel: [358236.674038] dlm: no local IP address has been set
Mar 14 12:56:56 hv00 kernel: [358236.678583] dlm: cannot start dlm lowcomms -107
Mar 14 12:56:56 hv00 kernel: [358236.683199] gfs2: fsid=relef-web:storage01: dlm_new_l
ockspace error -107

Я что-то пропустил, а что непонятно. Помогите, пожалуйста! Я просто хочу смонтировать диск на два сервера, чтобы они скидывали туда бэкапы как по обычной папке.

Отвечу сам. Посколльку это промышленный кластер, то сразу в ребут его никак низя отправлять. Нужно по очереди перезапустить ноды кластера. Запустить dlm и спокойно радоваться жизни, примонтировав том GFS2 ко всем нодам. Насоздаём чего-нить интересного в нодах, в других нодах всё прекрасно отображается. Сбрасывать бэкапы в папку самое оно. Городить NFS и тому подобное не очень хотелось, зачем? Когда есть оптика.

Glafir ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.