LINUX.ORG.RU
ФорумAdmin

Lustre + DRBD


0

0

Hi All,

Возникла у меня задача построить HA кластер (LDAP, DNS, экспортируемые тома ну и тд). Имеется в распоряжении три сервака с хардварными RAID. Сейчас крутиться куча VM каждая из которых обслуживает тот или иной сервис + NFS exports. Performance конечно херовая да и надежность та еще. На днях подох сервак ну и бегали как угорелые восстанавливая. Стал смотреть в сторону люстры+DRBD (нету у меня внешнего накопителя) + heartbeat.

Люстра пойдет заменой для NFS (хотя конечно сразу ее не вырезать), DRBD - для обеспечения надежности OST (могу использовать только внутренние диски серваков) ну и heartbeat для сервисов. Чего скажет всезнающий ALL по приведенной схеме и какие есть альтернативы.

anonymous

IMHO, если буквы HA действительно что-то значат для Вас, а не ради красного словца приведены, без нормальной СХД Вам не обойтись.

anonymous
()
Ответ на: комментарий от anonymous

> vmware не ESX.

Вроде кластерные возможности отсутствуют в бесплатном Vmware server и есть только в ESX.

anonymous
()
1 августа 2008 г.

Плдскажите по Lustre (хочу тоже организовать cluster) - разве Lustre не обеспечивает избыточность, т.е. размытие данных по всем OSS(OST)? А если да, то зачем DRBD - который насколько я понимаю реализует сетевой RAID-0?

anonymous
()

Используем DRBD+HA+NFS. Паршивенько (HA мониторит только доступность машины, а не сервисов; целостность файловой системы остаётся single point of failure, т.к. DRBD работает на блочном уровне и синкует битую ФС на все ноды; HA периодически чудИт и т.д.).

Пробовали вместе с NFS (полностью отказаться не могли, т.к. ноды бездисковые, root-over-NFS) использовать gnbd с GFS/OCFS2 -- получилось паршиво, производительность была хуже, чем на NFS плюс OCFS2 при этом допускала банальнейший memory leak (это у них knowing behavior при параллельной работе с NFS). В сторону Lustre смотрели, но вышла слишком большая головная боль с поддержкой и масштабированием.

В общем, до сих пор используем NFS. Сейчас полдюжины машинок, всё нормально. По I/O просаживаемся сильнее, чем из-за оверхеада от NFS (тут очень помогает вынос кэшей и прочего некритичного, но активно используемого в tmpfs; форвардинг логов на внешний лог-сервер и т.д.).

Как возникнут проблемы с I/O -- будем шардить данные: по двухнодовому DRBD-кластеру и НФС-серверу на каждый блок данных, всё монтируется в одно дерево на нодах.

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.