LINUX.ORG.RU
ФорумAdmin

DRBD на ZFS vs CEPH

 , ,


2

1

На 3 нодах или 2+1 т.е. на всех трех стоят диски либо на двух стоят диски и на третьей маломощной стоит монитор.

Будет крутиться 1с 7.7 файловая в терминале, в будущем может будет 1с 8 sql Что будет лучше и производительней?

Ceph производительней.

Deleted
()

DRBD на ZFS

ZFS - не кластерная ФС, в режиме DRBD Active-Active боюсь ждёт тебя много-много боли

Pinkbyte ★★★★★
()
Ответ на: комментарий от Pinkbyte

В чем будет проявятся боль? Сравнений или тестов на эту тему толком не нашел даже в зарубежном интернете, у нас так совсем все тихо. Кстати планируется сеть 10g для этого дела. Если в варианте с 3 серверами нужен свитч. То в варианте 2+1 можно обойтись двумя 10g картами + подключить монитор по сети в 1g и все должно работать. Я правильно понимаю?

VovanSSS
() автор топика
Ответ на: комментарий от VovanSSS

В чем будет проявятся боль?

В развале ФС при попытке множественного доступа с более чем одной ноды

Pinkbyte ★★★★★
()
Ответ на: комментарий от int13h

heartbeat deprecated лет 7 назад, нужен corosync + pacemaker, не?

anonymous
()
Ответ на: комментарий от VovanSSS

на терминальнике зеркало из lun-ов сделаешь

anonymous
()
Ответ на: комментарий от VovanSSS

Кстати планируется сеть 10g для этого дела. Если в варианте с 3 серверами нужен свитч.

Не нужен, если карты двухпортовые, можно подключить кольцом.
У меня ceph на трех хостах (один хост с монитором, 2 хоста с дисками - по 4 sata + 2 ssd intel 3700. Виртуалки вертятся на всех трех - 15 штук, в т.ч. 1с на постгри). ssd в качестве cache tiering. Без кеша чтение - весьма жиденькое, линейное выдает 50-70 мегабайт. Ну и запись соответствующая. А вот с ssd кешем уже можно жить.
Я правда все собираюсь попробовать object striping, судя по документации запись должна идти одновременно, наподобие raid0.

Davyd ★★
()
Последнее исправление: Davyd (всего исправлений: 1)
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.