LINUX.ORG.RU

Proxmox GlusterFS. А стоит ли?

 ,


2

4

Коллеги. Делитесь опытом. Есть PM кластер - 28 нод. Есть 3 HPE DL380 G8. Есть 10Gb/s сеть между всем этим. Хочется уйти от SCSI/iSCSI и LVM. Вопрос - стоит заморочиться? Хотелось бы услышать опыт бывалых.

Не, в своё время имел счастье вертеть кластер виртуалок на гластере, но быстро всё понял и ушёл на Ceph. Выше порог вхождения, но проблем потом значительно меньше.

post-factum ★★★★★ ()

GFS2 хороша (без CVLM), но не суппортится PVE оффициально ( https://pve.proxmox.com/pve-docs/chapter-pvesm.html ), хотя вроде бы работает. С другой стороны, там наверняка дефолтная поддерка в ядре только 16 нод.

CEPH/RBD удобнее, и хороша на быстрых сетях и локальных дисках.

GlusterFS менее толковый, чем CEPH : на уровне бриков было хорошее сравнение на хабре https://m.habr.com/company/croccloudteam/blog/430474/ .

anonymous ()
Ответ на: комментарий от gfreeman

Производительность збс. Уронить надо постараться. Можно легко потерять доступ к данным если начудить в конфигах, но если потом конфиги расчудить, то и данные вернутся, т.е. сами данные потерять очень сложно.

post-factum ★★★★★ ()
Ответ на: комментарий от post-factum

т.е. как я правильно понимаю можно запустится на одном мониторе, переместить туда данные и запустить ещё два монитора (т.к. одна из хранилок сейчас в работе)?

gfreeman ()
Ответ на: комментарий от gfreeman

Эмм… вот типовая инструкция https://serveradmin.ru/ustanovka-i-nastrojka-ceph/ , одна из многих…

osd_pool_default_size - количество реплик данных в нашем кластере, 3 - минимально необходимое для отказоустойчивости.

osd_pool_default_min_size - количество живых реплик, при которых пул еще работает. Если будет меньше, запись блокируется.

т.е. OSD минимум 2, а MON минимум 3.

anonymous ()