LINUX.ORG.RU

Репликация в proxmox 5.2

 , , ,


0

1

Сап, лор. Так как в наличии есть пара неиспользуемых серверов решил потыкать на них Proxmox 5.2. Установил на ZFS, объединил ноды в кластер, создал виртуалку, настроил репликацию на другую ноду. Отключаю сеть на той ноде, где установлена виртуалка - по идее она должна продолжить работу на другой ноде - но нет.
Реплицированный «диск» виртуалки на второй ноде отображается:

# zfs list
NAME                       USED  AVAIL  REFER  MOUNTPOINT
rpool                     66.2G   833G   104K  /rpool
rpool/ROOT                1.01G   833G    96K  /rpool/ROOT
rpool/ROOT/pve-1          1.01G   833G  1.01G  /
rpool/data                56.7G   833G    96K  /rpool/data
rpool/data/vm-100-disk-1  56.7G   884G  5.16G  -
rpool/swap                8.50G   841G    56K  -

И конфигурацию ВМ с первой ноды скопировать, чтобы запустить ручками тоже не дает, пишет что файл уже существует:
root@pve:/etc/pve/nodes/pve/qemu-server# touch 100.conf
touch: cannot touch '100.conf': File exists
root@pve:/etc/pve/nodes/pve/qemu-server# ls -la
total 0
drwxr-xr-x 2 root www-data 0 Jul 17 14:26 .
drwxr-xr-x 2 root www-data 0 Jul 17 14:26 ..

ЧЯДНТ?

★★★★★

Про две ноды точно не скажу не пробывал. На трех и более все работает. Датацентр -> HA -> ресурсы -> добовляем нашу виртуалку и все работает.

pvvking ★★
()

Там же минимум 3 ноды нужно, не?

kernist
()
Ответ на: комментарий от kernist

И скинь вывод

# pvecm status
Quorum information
------------------
Date:             Wed Jul 18 12:21:59 2018
Quorum provider:  corosync_votequorum
Nodes:            2
Node ID:          0x00000001
Ring ID:          1/108
Quorate:          Yes

Votequorum information
----------------------
Expected votes:   2
Highest expected: 2
Total votes:      2
Quorum:           2  
Flags:            Quorate 

Membership information
----------------------
    Nodeid      Votes Name
0x00000001          1 192.168.0.11 (local)
0x00000002          1 192.168.0.12


А ещё лучше читай оф доки, у них там всё чотко написано:
https://pve.proxmox.com/wiki/Cluster_Manager

Статью по ссылке читал, только не нашел в ней ничего про репликацию.

bsdfun ★★★★★
() автор топика
Ответ на: комментарий от kernist

Не, вывод покажи в момент когда ты погасил машину.

# pvecm status
Quorum information
------------------
Date:             Wed Jul 18 13:53:04 2018
Quorum provider:  corosync_votequorum
Nodes:            1
Node ID:          0x00000001
Ring ID:          1/120
Quorate:          No

Votequorum information
----------------------
Expected votes:   2
Highest expected: 2
Total votes:      1
Quorum:           2 Activity blocked
Flags:            

Membership information
----------------------
    Nodeid      Votes Name
0x00000001          1 192.168.0.11 (local)
bsdfun ★★★★★
() автор топика
Ответ на: комментарий от kernist
root@pve:/etc/pve/nodes/pve/qemu-server# pvecm e 1
root@pve:/etc/pve/nodes/pve/qemu-server# pvecm status
Quorum information
------------------
Date:             Wed Jul 18 14:02:05 2018
Quorum provider:  corosync_votequorum
Nodes:            1
Node ID:          0x00000001
Ring ID:          1/128
Quorate:          Yes

Votequorum information
----------------------
Expected votes:   1
Highest expected: 1
Total votes:      1
Quorum:           1  
Flags:            Quorate 

Membership information
----------------------
    Nodeid      Votes Name
0x00000001          1 192.168.0.11 (local)
bsdfun ★★★★★
() автор топика
Ответ на: комментарий от bsdfun

Тогда хз. Пробуй добавить 3-ю ноду в кластер. Если нету ещё одного сервака, можно виртуалку сделать и подключить в кластер, колхоз но для тестов самое то.

kernist
()

Отключаю сеть на той ноде, где установлена виртуалка - по идее она должна продолжить работу на другой ноде - но нет.

Не должна, нужно три ноды минимум для кворума ЕМНИП. А реплика должна чётко бегать. Но опять-же, реплика то это реплика. Это резервирование а не HA. Для HA нужно же вроде не реплику а shared storage. В противном случае при пропадании сети вы потеряете продуктивные данные...

DALDON ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.