LINUX.ORG.RU
ФорумAdmin

Переход с ProxMox 3.2 на 4.4 с заменой HDD на SSD

 ,


1

1

Доброго времени суток!!!
Имею хост с ProxMox 3.2 на борту, работает без сбоев уже 2.5 года, крутятся 4 виртуалки 2 из которых 1с и MS SQL. В последнее время стали замечаться тормоза, подозрение на дисковую подсистему (стоит 2 диска 2Tb Non RAID). Планирую заменить диски на SSD и параллельно обновить версию PVE до 4.4.
Вопрос, как правильней и без гемора провернуть данную операцию?
Вариант 1. поднять вторую НОДу с PVE 4.4, объединить в кластер, мигрануть виртуалки, на первой НОДе заменить диски, раскатать PVE 4.4, добавить в кластер, вернуть тачки обратно, отключится от кластера. (где то читал что ProxMox разных версий в кластер не объединяются)
Вариант 2. на текущую НОДу целять LUN-у с NAS, бэкапить виртуалки, заменить диски, раскатать PVE 4.4, цеплять ту же LUN-у с бэкапами и пытаться восстановить.
Вариант 3. по гопу, правда не уверен что так вообще получится, тупо образы дисков забэкапить, а потом попытаться их скормить новому PVE, но при таком методе скорее всего придётся перекраивать все конфигурационные файлы НОДы и виртуалок.

Буду благодарен за любые советы и информацию.


3 вариант подойдет. бэкапу виртуалки и ее конфигу совершенно пофигу, ssd на ноде или sata, поменялся вид/тип/путь хранилища или нет. Тут универсальный бэкап.

constin ★★★★
()

ProxMox разных версий в кластер

не надо так делать, огребешь проблем.

С дисками виртуалок, хранящихся на локальных дисках - миграция у тебя не получится в любом случае. С NAS-ом через iscsi - да.

Я бы поднял рядом ноду с 4.4, настроил «как надо», перетащил виртуалки по одной (тупо создаёшь такую же, потом подменяешь «пустой» образ диска - бэкапом).

После того как всё переедет - старую ноду обновляешь/переставляешь на 4.4, включаешь в кластер.

anonymous
()
Ответ на: комментарий от anonymous

Я бы поднял рядом ноду с 4.4, настроил «как надо», перетащил виртуалки по одной (тупо создаёшь такую же, потом подменяешь «пустой» образ диска - бэкапом).


Сейчас возможности нет кинуть iscsi, ради теста прицепил виндовую шару к обеим НОДам, перекинул образ диска по ней на новую НОДу PVE 4.4, пока что не получается запустить виртуалку пишет в консоли вебморды:
Could not access KVM kernel module: No such file or directory failed to initialize KVM: No such file or directory TASK ERROR: start failed: command '/usr/bin/kvm -id 100 -chardev 'socket,id=qmp,path=/var/run/qemu-server/100.qmp,server,nowait' -mon 'chardev=qmp,mode=control' -pidfile /var/run/qemu-server/100.pid -daemonize -smbios 'type=1,uuid=123dce49-3a0b-471b-8dd0-1536dadd920d' -name Ubuntu -smp '1,sockets=1,cores=1,maxcpus=1' -nodefaults -boot 'menu=on,strict=on,reboot-timeout=1000,splash=/usr/share/qemu-server/bootsplash.jpg' -vga cirrus -vnc unix:/var/run/qemu-server/100.vnc,x509,password -cpu kvm64,+lahf_lm,+sep,+kvm_pv_unhalt,+kvm_pv_eoi,enforce -m 1024 -k en-us -device 'pci-bridge,id=pci.2,chassis_nr=2,bus=pci.0,addr=0x1f' -device 'pci-bridge,id=pci.1,chassis_nr=1,bus=pci.0,addr=0x1e' -device 'piix3-usb-uhci,id=uhci,bus=pci.0,addr=0x1.0x2' -device 'usb-tablet,id=tablet,bus=uhci.0,port=1' -device 'virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x3' -iscsi 'initiator-name=iqn.1993-08.org.debian:01:872dbd7fe71a' -drive 'if=none,id=drive-ide2,media=cdrom,aio=threads' -device 'ide-cd,bus=ide.1,unit=0,drive=drive-ide2,id=ide2,bootindex=200' -drive 'file=/dev/pve/vm-100-disk-1,if=none,id=drive-virtio0,format=raw,cache=none,aio=native,detect-zeroes=on' -device 'virtio-blk-pci,drive=drive-virtio0,id=virtio0,bus=pci.0,addr=0xa,bootindex=100' -netdev 'type=tap,id=net0,ifname=tap100i0,script=/var/lib/qemu-server/pve-bridge,downscript=/var/lib/qemu-server/pve-bridgedown,vhost=on' -device 'virtio-net-pci,mac=EA:CE:EB:D6:2A:F9,netdev=net0,bus=pci.0,addr=0x12,id=net0,bootindex=300" failed: exit code 1

или ты имел ввиду сделать снапшот, перекинуть на новую НОДу и потом сделать восстановление ? Или может все таки надо подсовывать конфиги?

iv0ld
() автор топика
Ответ на: комментарий от iv0ld

Данная ошибка была из за того что в биосе не был включен режим виртуализации :)

iv0ld
() автор топика

Все получилось, опишу, может кому пригодится


Проверил 2 подручных способа, оба сработали:
1-й: на НОДе-1 загрузился под Acronis Tru Image 2017, в сетевую папку забекапил нужную VM, далее так же загрузился тем же акронисом на НОде-2, показал откуда взять архив, после восстановления VM запустилась.
2-й: скопировал с НОДы-1 образ диска VM (/var/lib/vz/images) и конфигурационный файл к ней (/etc/pve/nodes/имя сервера/qemu-server/) в сетевую шару, и на НОДе-2 из сетевой шары разложил все по местам. VM стартанула без каких либо проблем.
P.S. Конфигурационный файл VM копировать обязательно, без него при попытке запустить VM падает весь сервер, необходима перезагрузка.

iv0ld
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.