LINUX.ORG.RU
ФорумAdmin

glusterfs объединение дисков. Монтирование в одну точку


0

1

Здравствуй ЛОР
Стоит задача объединить 3 HDD в одну папку увеличив ее размер до размера суммы 3х дисков. Понадобилось чтобы объединенные диски работали так, чтобы потеря/отсоединение/добавление диска не влияли на сохранность файлов на оставшихся дисках. Чтобы это было банальное монтирование и отдельные файловые системы на каждом диске. (Тут я намекаю что мне LVM не подходит)
Естественно мой взгляд упал сначала на mhddfs, но поскольку эта вещь отсутствует в виде rpm для CentOS 5.5, собрать rpm, не удалось, да и вообще по отзывам это костыль с багами, - я установил glusterfs. Он мне еще нравится возможностью репликации. Ну это так, на будущее.

Доп. инфо для более предметного разговора:
/dev/sda1 /mnt/hdd1
/dev/sdb1 /mnt/hdd2
/dev/sdс1 /mnt/hdd3

Не смотря на обилие информации о том как glusterfs объединяет сервера, делает между ними репликацию, и прочие сухо изложенные плюшки, до сих пор стоят вопросы:
1) Что из пакетов надо устанавливать - gluster-client, gluster-server или оба сразу для решения сабжа?
2) Где и что прописать в конфигах для этого объединения 3х HDD?
3) Что значат понятия «volume brick» и «remote sub-volume brick»?
4) Как поставить приоритет выбора диска при записи нового файла на объединенное пространство?
5) Как сделать лимит на диск чтобы glusterfs не заполнял под завязку до последнего байта приоритетный диск?
6) Что происходит с файлом, например базы данных, если он увеличивается и уже не вмещается на одном диске, а на других дисках еще есть место чтобы он вместился целиком?
7) Есть ли маны по glusterfs не такие теоретические как на их домашней странице, а с более подробным описанием секций конфигов с примерами?
Спасибо


объединить 3 HDD в одну папку увеличив ее размер до размера суммы 3х дисков.

у тебя нушевая избыточность, как ты себе представляешь резервирование данных в этом случае?

true_admin ★★★★★
()
Ответ на: комментарий от true_admin

Да, у меня нулевая избыточность и если мне она будет нужна, я буду использовать софт/хард-рейд 1 удваивая эти 3 диска, а наверх накатывая свой сабж, или делать репликацию на другой такой же сервер или делать бэкапы (резервирование) на ленточный магнитофон или зеркалируя это пространство на еще один присоединенный отдельный диск, да миллион или. Тут или пространство увеличиваем или «резервируем»/создаем избыточность. Одно перетекает во второе
У меня стоит другая задача - влегкую вставлять-вынимать HDD-хранилища из разномастных дисков (гораздо более 3х) в зависимости от моих надобностей, причем вынув диск продолжать иметь на нем не кусок лвм или 5го рейда, а ФАЙЛЫ. При всем при этом мне нужна единая точка монтирования. Ну и мелочи, которые я не указывал, типа иметь возможность физически перемещать файлы с начинающего дохнуть диска и не видеть синхронизаций рейда из кучи дисков или лвм суток по трое
Примерно так

dromer
() автор топика
Ответ на: комментарий от Pinkbyte

аufs2 На CentOS ставится? Есть коть какой мануал как ставить на RHEL подобное? Я там читал, надо патчить ядро вроде?

dromer
() автор топика
Ответ на: комментарий от dromer

Ааа, понял. Увы, не знаю готового рецепта. Уверен можно сделать оченб быстро костыль на fuse, но вряд ли тебе это интересно.

true_admin ★★★★★
()
Ответ на: комментарий от true_admin

Именно это и интересно! mhddfs, unionfs, aufs2 как раз и есть те костыли на fuse. Единственное что mhddfs не имеет рпм-ки, unionfs вроде как стара, aufs2 требует патчить ядро, но это не проблема, мне надо мануал для CentOS с примером aufs2. Это тема для менай новая, пока что копаюсь

dromer
() автор топика
Ответ на: комментарий от dromer

mhddfs не имеет рпм-ки

я думаю rpm сделать несложно :). Наверняка в сети куча инструкций и есть простые способы. Например, checkinstall. Я им deb-ы делал, очень удобно.

true_admin ★★★★★
()
Ответ на: комментарий от dromer

>unionfs, aufs2 как раз и есть те костыли на fuse

ничего, что aufs2 работает без FUSE, а для UnionFS тоже есть реализается без FUSE?!

Pinkbyte ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.