LINUX.ORG.RU
решено ФорумAdmin

Proxmox ZFS

 ,


0

2

есть 2 Ноды с proxmox и zfs

не могу сделать миграцию, непонятно с чего. command 'zpool import -d /dev/disk/by-id/ -a' failed: exit code 1

root@parrot:/dev/disk/by-id# zpool list
NAME    SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
rpool  7.25T   488G  6.77T     6%  1.00x  ONLINE  -
root@parrot:/dev/disk/by-id# zpool status
  pool: rpool
 state: ONLINE
  scan: scrub in progress since Thu Apr 30 13:12:42 2015
    32.5G scanned out of 488G at 29.9M/s, 4h19m to go
    0 repaired, 6.66% done
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            sda3    ONLINE       0     0     0
            sdb3    ONLINE       0     0     0
          mirror-1  ONLINE       0     0     0
            sdc     ONLINE       0     0     0
            sdd     ONLINE       0     0     0

errors: No known data errors
root@swan:/dev/disk/by-id# zpool list
NAME    SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
rpool   238G   768M   237G     0%  1.00x  ONLINE  -
root@swan:/dev/disk/by-id# zpool status
  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            sda3    ONLINE       0     0     0
            sdb3    ONLINE       0     0     0

подскажите что не так. с меня пиво.

root@swan:/dev/disk/by-id# cat /etc/pve/storage.cfg
dir: local
        path /var/lib/vz
        shared
        content images,iso,vztmpl,backup,rootdir
        maxfiles 0

nfs: parrot
        path /mnt/pve/parrot
        server 10.77.44.1
        export /var/lib/vz
        options vers=3
        content images,iso,vztmpl,rootdir,backup
        maxfiles 7

zfspool: zfs-parrot
        pool rpool
        content images

zfspool: zfs-penguin
        pool vmdata
        content images

zfspool: zfs-pipit
        pool rpool
        content images

zfspool: zfs-swan
        pool rpool
        content images

zfspool: parrot-local
        pool rpool
        content images

dir: parrot-dir
        path /var/lib/vz
        content images,iso,vztmpl,rootdir,backup
        maxfiles 1

dir: penguin-dir
        path /vmdata/vzstorage
        content images,iso,vztmpl,rootdir,backup
        maxfiles 1
root@parrot:/rpool#   cat /etc/pve/storage.cfg
dir: local
        path /var/lib/vz
        shared
        content images,iso,vztmpl,backup,rootdir
        maxfiles 0

nfs: parrot
        path /mnt/pve/parrot
        server 10.77.44.1
        export /var/lib/vz
        options vers=3
        content images,iso,vztmpl,rootdir,backup
        maxfiles 7

zfspool: zfs-parrot
        pool rpool
        content images

zfspool: zfs-penguin
        pool vmdata
        content images

zfspool: zfs-pipit
        pool rpool
        content images

zfspool: zfs-swan
        pool rpool
        content images

zfspool: parrot-local
        pool rpool
        content images

dir: parrot-dir
        path /var/lib/vz
        content images,iso,vztmpl,rootdir,backup
        maxfiles 1

dir: penguin-dir
        path /vmdata/vzstorage
        content images,iso,vztmpl,rootdir,backup
        maxfiles 1

root@parrot:/rpool# b






Последнее исправление: travka (всего исправлений: 1)

Ответ на: комментарий от axelroot

нужно мигрировать VM с одной ноды на другую. При миграции получаю ошибку

Apr 30 14:06:59 copying disk images
Apr 30 14:07:00 ERROR: Failed to sync data - command 'zpool import -d /dev/disk/by-id/ -a' failed: exit code 1
Apr 30 14:07:00 aborting phase 1 - cleanup resources
Apr 30 14:07:00 ERROR: migration aborted (duration 00:00:01): Failed to sync data - command 'zpool import -d /dev/disk/by-id/ -a' failed: exit code 1
TASK ERROR: migration aborted

travka
() автор топика
Ответ на: комментарий от axelroot

судя по всему iscsi. Это был дефолтный proxmox install.

root@parrot:/rpool# zfs list
NAME                   USED  AVAIL  REFER  MOUNTPOINT
rpool                  834G  6.32T   144K  /rpool
rpool/ROOT             293G  6.32T   144K  /rpool/ROOT
rpool/ROOT/pve-1       293G  6.32T   293G  /
root@swan:/dev/disk/by-id# zfs list
NAME               USED  AVAIL  REFER  MOUNTPOINT
rpool             32.4G   202G   144K  /rpool
rpool/ROOT         766M   202G   144K  /rpool/ROOT
rpool/ROOT/pve-1   766M   202G   766M  /

travka
() автор топика
Ответ на: комментарий от Deleted

Нет, scrub был запущен после, до этого ошибки были те же.

travka
() автор топика
Ответ на: комментарий от axelroot

Да Конченные. Сколько работаю с ним, каждый год новые косяки....

travka
() автор топика
Ответ на: комментарий от axelroot

Если бы был san, и ноды подхватывали/отдавали от него диски это одно дело, а тут два серванта, они что крест на крест отдают диски по iscsi и включают их в зеркало.

axelroot
()
Ответ на: комментарий от axelroot

Херня это. Оказывается это происки Сатаны^W proxmox. Из за того что добавленно 2 одинаковых пула, у него истерика случается и он не знает что делать ;ddd

travka
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.