LINUX.ORG.RU
ФорумAdmin

Вопрос по ceph в proxmox 5.1

 , ,


0

2

Привет. Запустил в тестовой среде кластер из 3х нод. Настроил ceph, 3 osd, по одной на каждой ноде, пул size=3, min_size=2. Потом создал один lxc в ha и отрубил его. Контейнер нормально запустился на второй ноде, но в ceph health висит вот это:

Degraded data redundancy: 201/600 objects degraded (33.500%), 64 pgs unclean, 64 pgs degraded, 64 pgs undersized
pg 2.0 is stuck undersized for 873.596481, current state active+undersized+degraded, last acting [1,2]
pg 2.1 is stuck undersized for 873.602337, current state active+undersized+degraded, last acting [2,1]
pg 2.2 is stuck undersized for 873.596553, current state active+undersized+degraded, last acting [1,2]
pg 2.3 is stuck undersized for 873.596615, current state active+undersized+degraded, last acting [1,2]
pg 2.4 is stuck undersized for 873.602252, current state active+undersized+degraded, last acting [2,1]
pg 2.5 is stuck undersized for 873.600040, current state active+undersized+degraded, last acting [2,1]
pg 2.6 is stuck undersized for 873.602196, current state active+undersized+degraded, last acting [2,1]
pg 2.7 is stuck undersized for 873.596685, current state active+undersized+degraded, last acting [1,2]
pg 2.8 is stuck undersized for 873.596961, current state active+undersized+degraded, last acting [1,2]
pg 2.9 is stuck undersized for 873.600627, current state active+undersized+degraded, last acting [1,2]
pg 2.a is stuck undersized for 873.600086, current state active+undersized+degraded, last acting [2,1]
pg 2.b is stuck undersized for 873.600212, current state active+undersized+degraded, last acting [1,2]

Это нормально что оно в таком состояние, 201/600 objects degraded (33.500%), висит уже пол часа и не сдвигается с места? Вроде ж Degraded data должны поделиться на двух osd, как бы зеркало, с условием что будет ворнинг, что нету одного osd.

Ответ на: комментарий от Pinkbyte

ceph -s

cluster:
    id:     a5235a94-8a1f-4875-8abc-29008424e6f5
    health: HEALTH_WARN
            1 osds down
            1 host (1 osds) down
            Degraded data redundancy: 201/600 objects degraded (33.500%), 64 pgs unclean, 64 pgs degraded, 64 pgs undersized
            1/3 mons down, quorum machine,machine1

  services:
    mon: 3 daemons, quorum machine,machine1, out of quorum: machine2
    mgr: machine(active), standbys: machine1
    osd: 3 osds: 2 up, 3 in

  data:
    pools:   1 pools, 64 pgs
    objects: 200 objects, 659 MB
    usage:   3524 MB used, 47473 MB / 50997 MB avail
    pgs:     201/600 objects degraded (33.500%)
             64 active+undersized+degraded
                                                                                                                                                                                                          

ceph osd tree

ID CLASS WEIGHT  TYPE NAME         STATUS REWEIGHT PRI-AFF
-1       0.07288 root default
-3       0.02429     host machine
 0   hdd 0.02429         osd.0         up  1.00000 1.00000
-5       0.02429     host machine1
 1   hdd 0.02429         osd.1         up  1.00000 1.00000
-7       0.02429     host machine2
 2   hdd 0.02429         osd.2       down  1.00000 1.00000

ZeroNight ()
Ответ на: комментарий от ZeroNight

Значит попутал, с такой же проблемой и теме же исходными данными заходил в чатик ceph_ru товарищ.

Deleted ()

А куда оно должно двигаться, если у тебя size=3, а живых OSD осталось два? Больше одной копии на одном OSD делать смысла нет.

Deleted ()

Если так, то всё сходиться, это я пень. Спасибо.

ZeroNight ()

Что бы не плодить новую тему, спрошу тут. Подкиньте интересные телеграм каналы на тематику *nix, сетевые технологии и всё такое в схожей тематике. Заранее спасибо.

ZeroNight ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.