LINUX.ORG.RU
ФорумAdmin

Есть один бекап сервер...

 , ,


0

1

Есть три сервера SuperMicro. Есть один бекап сервер. Извините, сейчас все на Windows 2012 Datacenter. Каким боком тут линукс? Рассказываю... Значит план такой - на бекап сервер накатываем CentOS, либо Debian (больше нравится CentOS). Устанавливаем в 3 сервера 2-ТБ диски. На этом этапе мы имеем - 6 ТБ на трех серверах. Задача - собрать их в отказоустойчивое хранилище на бекап сервере. Что придумал я - отдаём диски через iSCSI - собираем на бекап сервере с помощью GFS2 диск, на который будем складывать наши бекапы. В чем вообще вся загвоздка - в случае ребута одного из серверов (кроме бекап сервера) - будет ли остановка в записи на диск, долго ли он потом будет «складываться» в единое целое? Первая схема представляла собой примерно тоже самое, только на бекап сервере диски собирались в RAID 5 софтварный. После ребута одного из серверов с iSCSI - диски уходили в ребилд - на ОЧЕ долгое время. Ну и запись которая велась в этот момент была не консистентной - файлы бились, картинки не открывались как и архивы. Читал про GFS2 GlusterFS, DRBD - но там рассматриваются варианты с 2, 3 линукс серверами.В моём случае 1 - взлетит?



Последнее исправление: Retraut (всего исправлений: 1)

Если тебе надо отказоустойчивое хранилище на бэкап сервере то надо вставить диски в бэкап сервер, там собрать raid10.

hidden_4003
()

GFS2 GlusterFS

глюки в топку

RAID 5

тормоз в топку

вариант№1:

raid1(10)+drbd(primary/primary+bonding)+lvm

вариант№2:

zfs+снапшоты

vxzvxz ★★★
()
Ответ на: комментарий от vxzvxz

глюки в топку
тормоз в топку
raid1(10)+drbd(primary/primary+bonding)+lvm
zfs+снапшоты

признайся, ты ведь никогда сам всеми этими технологиями не пользовался в сколько-нибудь ответственных задачах? полезь сам в топку и не вреди на форуме больше

anonymous
()
Ответ на: Ясно понятно от Retraut

курить zfs

неподдерживаемый порт половины сопляриса в линупс с кучей ограничений.

по делу: разъясни смысл фразы

Задача - собрать их в отказоустойчивое хранилище на бекап сервере.

если сделать просто отказоусточивое хранилище файлов на трёх нодах, то тут сгодятся glusterfs, ceph и pnfs. В первый встроена гео-репликация, которая может асинхронно отправлять содержимое томов на твою бекапную ноду, про остальных не знаю.

anonymous
()

Задача - собрать их в отказоустойчивое хранилище на бекап сервере.

Думаю, надо из них рейд делать, а вот смысл «отдалять» диски используя iSCSI смысла не вижу. Отказоустойчивости не достигнуть, все равно существует единственная точка отказа - ваш сервер на gentos.

petav ★★★★★
()
Ответ на: комментарий от petav

Думали немного сэкономить

Дело в том, что в бекап сервере места нет. Но есть место в бордах. Арендовать еще один сервер для бекапа - накладненько и дорого. И тьфу-тьфу, пока еще особо бекапы не понадобились, но иметь их не западло. Поэтому хотелось сделать так - как в ОП посте. Главное чтобы перезагружая основные сервера, на которых будут 2ТБ диски, после перезагрузки - все снова нормально собиралось в одно целое. Аптайм этих трех серверов - на данный момент 239 дней. Т.е. перезагружаться будут не часто.

Retraut
() автор топика
Ответ на: комментарий от tazhate

покажи другой халявный линукс с десятилетней поддержкой, школьничек

anonymous
()
Ответ на: комментарий от anonymous

Молодец, гуглить умеешь. Там говорится про клиента, и что он поддерживает на текущий момент один из трёх режимов. А что по поводу сервера и остальных режимов? Сам то использовал?

Mr_Alone ★★★★★
()
Ответ на: комментарий от Mr_Alone

Молодец, гуглить умеешь

сам не использовал, видел угрозы редхета сделать в 6.5 полноценную поддержку клиента и сервера, авось сделали что-нибудь уже.

anonymous
()
Ответ на: комментарий от Mr_Alone

Кстати, если бы ты мог гуглить так же круто как и я, то уже нагуглил бы, что pnfs-сервер можно завести на линуксе с 2010го года

anonymous
()
Ответ на: комментарий от anonymous

сам не использовал, видел угрозы редхета сделать в 6.5 полноценную поддержку клиента и сервера, авось сделали что-нибудь уже.

6.5 уже вышел, и этого там нет. Обещают только в 7.0. И то непонятно, что там будет с сервером.

Mr_Alone ★★★★★
()
Ответ на: комментарий от Mr_Alone

Ну значит ональное партнёрство с микрософтом ведёт редхет по верному пути загнивания. Придётся, если не понравятся glusterfs и ceph, ТСу канпелировать руками.

anonymous
()
Ответ на: комментарий от anonymous

Кстати, если бы ты мог гуглить так же круто как и я, то уже нагуглил бы, что pnfs-сервер можно завести на линуксе с 2010го года

Гугли дальше. Тогда найдёшь, что на данный момент работает с набором костылей у NetApp, EMC и т.д. Ну и когда поставишь сам набор серверов на которых будут лежать данные, и линуксовые клиенты смогут без проблем писать/читать с этих серверов, при этом будет рекомендовано к продакшену, тогда возвращайся и поговорим.

Mr_Alone ★★★★★
()
Ответ на: комментарий от Mr_Alone

Не буду я это поделие ставить, буду глустерем пользоваться и на ceph смотреть в виртуалках. А за lustre что скажешь?

anonymous
()
Ответ на: комментарий от anonymous

Не буду я это поделие ставить, буду глустерем пользоваться и на ceph смотреть в виртуалках. А за lustre что скажешь?

Я на ceph остановился. Меня устраивает.

Mr_Alone ★★★★★
()

Читал про GFS2 GlusterFS, DRBD - но там рассматриваются варианты с 2, 3 линукс серверами.В моём случае 1 - взлетит

DRBD не подойдет для поставленных условий, это синхронизация на уровне блочных устройств, по сети
GFS2 и GlusterFS файловые системы. Нет опыта эксплуатации, но наверное их надо рассматривать, потому что еще один вариант, который голову идет, Вы уже пытались пользовать:

После ребута одного из серверов с iSCSI - диски уходили в ребилд - на ОЧЕ долгое время.

Ну и запись которая велась в этот момент была не консистентной

Может виной уровень 5 raid.

petav ★★★★★
()
Ответ на: комментарий от petav

Да, скорее всего виной 5 raid. Ну и собственно для наших целей, raid не совсем подходит. В случае raid - диски же просто так не вываливаются. А у нас при ребуте одного из трех севреров - они вываливаются, а потом собираются - это все время, ресурсы, и печаль в виде потерянных файлов. Т.е. тут проблема в самом архитектуре. Поэтому пошел искать дальше - пришел к файловым системам - и собственно тут интересует возможно моей ситуации. Теоретически - есть три диска - пишем на все три. Выпал один - дописываем на два. Выпавший появился - собралось все в кучу, и можно писать дальше. Желательно, во время сборки в целое - можно было тоже писать. Какими средствами этого достичь - вот вопрос.

Retraut
() автор топика
Ответ на: комментарий от Retraut

Ты тупой? Или свой тред не читал вовсе?

anonymous
()
Ответ на: комментарий от Retraut

Теоретически - есть три диска - пишем на все три. Выпал один - дописываем на два.

2+2+2=6Гб я даже не знаю, можно ли так отказоустойчивости достичь. Тут точно нужна кластерная файловая система. Реализуете поделитесь опытом, пожалуйста.

petav ★★★★★
()
Ответ на: комментарий от cipher

В 10 можно потерять один любой диск, 2 - если очень повезет, в 5 можно потерять 1 диск + высокий риск получить отказ диска при ребилде из-за неустранимой ошибки чтения либо выхода из строя самого диска. Хотя, конечно, на конфигурации 3-4 диска по 2 Тб разницы практически нет.

hidden_4003
()
Ответ на: комментарий от hidden_4003

В raid6 можно потерять любые 2 диска, и именно 6ка идёт как best practice у вендоров СХД, хотя казалось бы... Я где-то видел вероятностые показатели надежности разных рейдов, R10 не был лидером, что в общем-то и понятно.

cipher ★★★★★
()
Ответ на: комментарий от Mr_Alone

написать в их сейлс, заплатить, и получить доступ к софту

dyasny ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.