LINUX.ORG.RU

Raw Storage показывает занятое место при отсутствии пулов.

 ,


0

1

Здравствуйте уважаемые форумчане. Я установил в k8s задеплоил ceph используя rook для теста.

Все поднялось нормально. Создал cephfs pool для приложения потом удалил pool и его metadata.

Теперь на ceph-e нет pool-ов. Но ceph мне пишет что обьем «raw storage» на 0.56% занято.

Я не совсем понимаю что это за данные и как их удалить. Не могли бы вы объяснить данную ситуацию? А именно что это за данные которые занимают место? Как их удалить что бы очистить место? Буду очень признателен в вашей подсказке. Благодарю.

Ниже инфо команды ceph df detail

[root@rook-ceph-tools-57cc9bfbdf-lsmph /]# ceph df detail
--- RAW STORAGE ---
CLASS     SIZE    AVAIL     USED  RAW USED  %RAW USED
hdd    300 GiB  298 GiB  1.7 GiB   1.7 GiB       0.56
TOTAL  300 GiB  298 GiB  1.7 GiB   1.7 GiB       0.56

--- POOLS ---
POOL                   ID  PGS  STORED  (DATA)  (OMAP)  OBJECTS  USED  (DATA)  (OMAP)  %USED  MAX AVAIL  QUOTA OBJECTS  QUOTA BYTES  DIRTY  USED COMPR
POOL                   ID  PGS  STORED  (DATA)  (OMAP)  OBJECTS  USED  (DATA)  (OMAP)  %USED  MAX AVAIL  QUOTA OBJECTS  QUOTA BYTES  DIRTY  USED COMPR
  UNDER COMPRdevice_health_metrics   1    1     0 B     0 B     0 B        1   0 B     0 B     0 B      0     94 GiB            N/A          N/A      1         0 B
          0 B


Последнее исправление: Azhdar (всего исправлений: 1)

Как их удалить что бы очистить место?

удалить ceph и использовать винты просто так :)

P.S.: на таких объёмах с ceph-ом только лабораторку выполнить. Чем, я надеюсь, ты и занят.

aol ★★★★★
()
Ответ на: комментарий от Azhdar

Я задеплоил rook/ceph заного + создал один cephfs pool.

[root@rook-ceph-tools-57cc9bfbdf-96qft /]# ceph df
--- RAW STORAGE ---
CLASS     SIZE    AVAIL    USED  RAW USED  %RAW USED
hdd    300 GiB  300 GiB  17 MiB    17 MiB          0
TOTAL  300 GiB  300 GiB  17 MiB    17 MiB          0

--- POOLS ---
POOL                   ID  PGS   STORED  OBJECTS    USED  %USED  MAX AVAIL
device_health_metrics   1    1      0 B        0     0 B      0     95 GiB
myfs-metadata           2   32  2.3 KiB       22  96 KiB      0     95 GiB
myfs-data0              3   32      0 B        0     0 B      0     95 GiB

Задеплоил для теста wordpress. После проверил опять.

[root@rook-ceph-tools-57cc9bfbdf-96qft /]# ceph df
--- RAW STORAGE ---
CLASS     SIZE    AVAIL     USED  RAW USED  %RAW USED
hdd    300 GiB  298 GiB  1.8 GiB   1.8 GiB       0.59
TOTAL  300 GiB  298 GiB  1.8 GiB   1.8 GiB       0.59

--- POOLS ---
POOL                   ID  PGS   STORED  OBJECTS     USED  %USED  MAX AVAIL
device_health_metrics   1    1      0 B        0      0 B      0     94 GiB
myfs-metadata           2   32   30 MiB       33   92 MiB   0.03     94 GiB
myfs-data0              3   32  138 MiB    1.64k  425 MiB   0.15     94 GiB

Далее удалил deployment wordpress. После проверил опять.

[root@rook-ceph-tools-57cc9bfbdf-96qft /]# ceph df
--- RAW STORAGE ---
CLASS     SIZE    AVAIL     USED  RAW USED  %RAW USED
hdd    300 GiB  299 GiB  1.4 GiB   1.4 GiB       0.46
TOTAL  300 GiB  299 GiB  1.4 GiB   1.4 GiB       0.46

--- POOLS ---
POOL                   ID  PGS  STORED  OBJECTS     USED  %USED  MAX AVAIL
device_health_metrics   1    1     0 B        0      0 B      0     95 GiB
myfs-metadata           2   32  37 MiB       33  112 MiB   0.04     95 GiB
myfs-data0              3   32     0 B        0      0 B      0     95 GiB

Решил удалить атк же и пул cephfs. После проверил опять.

[root@rook-ceph-tools-57cc9bfbdf-96qft /]# ceph df
--- RAW STORAGE ---
CLASS     SIZE    AVAIL     USED  RAW USED  %RAW USED
hdd    300 GiB  299 GiB  1.3 GiB   1.3 GiB       0.43
TOTAL  300 GiB  299 GiB  1.3 GiB   1.3 GiB       0.43

--- POOLS ---
POOL                   ID  PGS  STORED  OBJECTS  USED  %USED  MAX AVAIL
device_health_metrics   1    1     0 B        0   0 B      0     95 GiB

Вопрос: Что за данные которые занимают 1.3 занятого места?

Azhdar
() автор топика
30 апреля 2022 г.
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.