LINUX.ORG.RU
ФорумAdmin

Организовать FT или HA для двух серверов

 fault tolerance, , , ,


1

2

В продолжении этой темы Ищу решение для Fault Tolerance && Virtualization { Тогда как бы это посчитали нецелесообразным и не стали это все подымать}.
Однако бумеранг вернулся обратно и это задача вновь встала.

Имеется два по-сути идентичных сервера, на которых одинаковое количество дисков в режиме RAID 5+0 [контроллер правда аппаратный] на которых будет крутиться критический софт .
Денег на NAS нету,можно только DAS( + в нем наблюдались некоторые траблы с общим диском), но это уже ошутимо дороже.
На сервера потихоньку в виде других виртуалок будут прикручиваться другие ОСи и софты
Софт представляет собой скрипты + MYSQL + Freeradius.
Нужно организовать или Fault Tolerance (один ведущий, на ведомом сервер выполняется копия другого) или же HA ( с первого на второй постоянно копираются файлы , так что при падение можно хотя бы его запустить[даунтайм в 1-2 минуты не так критичен] )

Хочу поднять это все на RHEV,но заказщик привык к решениям от Vmware(Vsphere ).Возникло пару вопросов:

  • Какой продукт из семейства Vmware поддерживает/лучше всего подходит для HA?
  • Какой продукт из семейства Vmware поддерживает/лучше всего подходит для FT?
  • Есть ли RHEV для CentOS/Scientific Linux или опять придеться все руками собирать?
  • Может посмореть на другой продукт?

Также буду благодарен за ссылки на обсуждения/примеры решения такого рода вопросов.

★★★★★

Кошмар.

Если на NAS денег нет, про VmWare можно смело забыть. За FT на RHEV я что-то сомневаюсь, а HA будет жутким костылём, хотя и вполне реализуемым.

Ximen ★★★★
()

Денег на NAS нету,можно только DAS( + в нем наблюдались некоторые траблы с общим диском), но это уже ошутимо дороже.

И HA, и FT в любом случае требуют общие диски. Можно конечно по рабоче-крестьянски бекапить ВМ раз в сутки на другой хост и говорить что это HA, но никто не поверит и геморроя много.

Насколько я понимаю, из вариантов только iscsi с репликацией, но на ESXi насколько я знаю, ты iscsi сервер не поднимешь.

Есть ещё vsphere storage appliance, но лицензия стоит как пол-san-массива и не знаю как с отказоустойчивостью, если VC запущен на тех же двух хостах.

Какой продукт из семейства Vmware поддерживает/лучше всего подходит для HA?

vsphere с лицензиями essential plus и выше, но без общего дискового массива ( fc или iscsi ) ты HA не получишь.

Какой продукт из семейства Vmware поддерживает/лучше всего подходит для FT?

vsphere, лицензия standart и дороже. Но без общего дискового массива даже и не думай.

http://www.vmware.com/products/datacenter-virtualization/vsphere/compare-kits...

http://www.vmware.com/products/datacenter-virtualization/vsphere/compare-edit...

router ★★★★★
()
Последнее исправление: router (всего исправлений: 1)
Ответ на: комментарий от router

What happens when a node (physical server) in a cluster fails?

The network mirroring across nodes will protect against node failure.

How does VSA protect the data?

All VSA datastores have two levels of protection:

  • Network mirror between servers
  • Local RAID within each server

Я не пробовал, честно говоря, гасить одну из нод.

madgnu ★★★★★
()
Ответ на: комментарий от router

Ну ХЗ, можно ее в HA запихнуть :)

Все эти свистопляски нафиг не нужны на деле, единственный нормальный вариант — общая хранилка.

madgnu ★★★★★
()
Ответ на: комментарий от madgnu

Куда? На диски, созданные через этот же virtual appliance? Автор не будет покупать nas/san. Есть сильные подозрения, что ребута этот уроборос не переживёт :D

router ★★★★★
()
Ответ на: комментарий от madgnu

и надеяться, что оно не развалится

и ждать, когда оно развалится

Так больше похоже на правду.

Ximen ★★★★
()

Какой продукт из семейства Vmware поддерживает/лучше всего подходит для HA?

vSphere с доп. лицензией - цена, кстати, может посрамить любой мелкий NAS

Какой продукт из семейства Vmware поддерживает/лучше всего подходит для FT?

см. выше, только еще дороже

Есть ли RHEV для CentOS/Scientific Linux или опять придеться все руками собирать?

RHEV - продукт Red Hat, который не раздается бесплатно. «Собирать руками» его не получится, но можно пользоваться апстримовым ovirt.org (в продакшен я бы не стал)

в RHEV есть HA из коробки, без доп. лицензий, но FT нет, и вряд ли будет пока технология не созреет (поддержка SMP и другие ограничения).

в RHEV 3.1 можно раздавать виртуалкам общие виртуальные диски и/или прямой доступ к LUNам, и строить кластеры внутри виртуалок.

dyasny ★★★★★
()
Ответ на: комментарий от dyasny

vSphere с доп. лицензией - цена, кстати, может посрамить любой мелкий NAS

Все будет с торрентов.

RHEV - продукт Red Hat, который не раздается бесплатно. «Собирать руками» его не получится, но можно пользоваться апстримовым ovirt.org (в продакшен я бы не стал)

Поподробней плиз

в RHEV 3.1 можно раздавать виртуалкам общие виртуальные диски и/или прямой доступ к LUNам, и строить кластеры внутри виртуалок.

То что надо .

pinachet ★★★★★
() автор топика
Ответ на: комментарий от madgnu

Ну тогда автору могу посоветовать только kvm + drbd + pacemaker и надеяться, что оно не развалится 8)

Оптимистично ;) . Еще автору придеться веб морду дописывать чтобы им могли люди пользоваться.

pinachet ★★★★★
() автор топика
Ответ на: комментарий от madgnu

Можно Storage Appliance поднять, но, ИМХО, сыровато оно еще.

В виду чего , сыровато?
И сможет ли он организовывать то что есть

в RHEV 3.1 можно раздавать виртуалкам общие виртуальные диски и/или прямой доступ к LUNам, и строить кластеры внутри виртуалок.

?

pinachet ★★★★★
() автор топика
Ответ на: комментарий от pinachet

В виду чего , сыровато?

Сырое, поскольку недоработано по всем фронтам. Этакий аналог drbd, только за большие бапки и с меньшей (куда уж меньше) надежностью.

И сможет ли он организовывать то что есть

ЕМНИП, нет.

madgnu ★★★★★
()
Ответ на: комментарий от pinachet

Все будет с торрентов.

я сделаю вид что не видел этого

Поподробней плиз

почитайте в интернете что из себя представляет RHN и как работает модель подписок

dyasny ★★★★★
()
Ответ на: комментарий от pinachet

И сможет ли он организовывать то что есть

в RHEV 3.1 можно раздавать виртуалкам общие виртуальные диски и/или прямой доступ к LUNам, и строить кластеры внутри виртуалок.

Гипервизор может дать ВМ лишь то, что есть у него самого. ESX(i) ( vsphere ) поддерживают и общие между ВМ виртуальные диски, и передачу в ВМ всего LUN, но ESX должен иметь к ним доступ. По этой причине ты не отдашь ВМ одного ESXi локальный диск другого ESXi.

Раз лицензии тебя не беспокоят и возможно есть время на проверку отказоустойчивости - попробуй посмотреть на storage appliance.

Но всё же гораздо лучше - выбить деньги на отдельный дисковый массив.

router ★★★★★
()
Последнее исправление: router (всего исправлений: 1)
Ответ на: комментарий от dyasny

почитайте в интернете что из себя представляет RHN и как работает модель подписок

Все я понял. Я знаю как она работает.

я сделаю вид что не видел этого

Там где я сейчас работаю, там все не видят. ;)

pinachet ★★★★★
() автор топика
Ответ на: комментарий от router

Раз лицензии тебя не беспокоят и возможно есть время на проверку отказоустойчивости - попробуй посмотреть на storage appliance.

Угу, я его и сейчас щупаю.

pinachet ★★★★★
() автор топика
Ответ на: комментарий от zgen

vsphere + nfs, но это платно

nfs , я как понимаю смогу поставить , на одной из тех же машин?
Платно , в виду накрученных фишек от той же vmware ?

pinachet ★★★★★
() автор топика
Ответ на: комментарий от pinachet

nfs , я как понимаю смогу поставить , на одной из тех же машин?

На 3-й.

Или внутри виртуалки «на одной из», правда непонятно, откуда тогда FT/HA возьмется, если при сбое/выключении vsphere-хоста nfs накроются обе.

Платно , в виду накрученных фишек от той же vmware ?

лицензии.

zgen ★★★★★
()
Ответ на: комментарий от zgen

Или внутри виртуалки «на одной из», правда непонятно, откуда тогда FT/HA возьмется, если при сбое/выключении vsphere-хоста nfs накроются обе.

Ну там можно. на одной из них просто копировать все изменения на такой же раздел на другом машине.

pinachet ★★★★★
() автор топика
Ответ на: комментарий от zgen

Извини меня, но общее хранилище обычно резервировано по самое небалуйся и имеет два независимых контроллера. За всё время работы я видел проблему с san массивом один раз, причём проблема не привела к потере данных

router ★★★★★
()
Ответ на: комментарий от router

Извини меня, но общее хранилище обычно резервировано по самое небалуйся и имеет два независимых контроллера. За всё время работы я видел проблему с san массивом один раз, причём проблема не привела к потере данных

Согласен, но и стоит это резервирование денег.

pinachet ★★★★★
() автор топика
Ответ на: комментарий от router

Извини меня, но общее хранилище обычно резервировано по самое небалуйся

Это «небалуйся» заключается только в 2xУровнях raid + 2 контроллера + N БП (последние два - и то не в каждом). Все. Ты сейчас мне напишешь, что оно не выходит из строя? Не смешно ни разу, учитывая что еще там обычно есть FC инфраструктура, которая тоже может выдавать приколов пачку даже при резервировании. Для того, чтобы оно накрылось тазом, достаточно криво написанной прошивки в обоих контроллерах - и твои данные будут тебе снится исключительно во сне.

Это так, чтобы тут люди иллюзий не испытывали, что san никогда не может «унести» данные.

За всё время работы я видел проблему с san массивом один раз

Осталось озвучить, сколько это «все время работы» или «все время работы с san», чтобы я проникся.

zgen ★★★★★
()
Ответ на: комментарий от zgen

Ты сейчас мне напишешь, что оно не выходит из строя?

Нет, не напишу. Теоретически оба контроллера могут отказать одновременно. На практике я этого не видел ни разу :)

Не смешно ни разу, учитывая что еще там обычно есть FC инфраструктура, которая тоже может выдавать приколов пачку даже при резервировании.

Зонинг на свичах сокращает число приколов на порядки.

Для того, чтобы оно накрылось тазом, достаточно криво написанной прошивки в обоих контроллерах - и твои данные будут тебе снится исключительно во сне.

Да, бекап на ленту никто не отменял.

Осталось озвучить, сколько это «все время работы» или «все время работы с san», чтобы я проникся.

Если с san, то три года и примерно 10 массивов. Но не san админом, а unix и vmware админом, т.е. по сути пользователем san

router ★★★★★
()
Ответ на: комментарий от zgen

Это «небалуйся» заключается только в 2xУровнях raid + 2 контроллера + N БП (последние два - и то не в каждом). Все.

З.Ы. сравнение с storage appliance'ом всё равно сильно не в пользу последнего :)

ладно, а если саму ВМ с virtual appliance погасить?

А если общее хранилище погасить? :)

я хочу сказать что я не SAN массивы воспевал как непогрешимую технику, а наезжал на сравнение с storage appliance'ом, у которого будет куда больше единых точек отказа

router ★★★★★
()
Последнее исправление: router (всего исправлений: 1)
Ответ на: комментарий от router

1. Вот картинка:

http://2.bp.blogspot.com/-DFw3xktlq_Y/TiJnikcaStI/AAAAAAAAQE4/F8XdheqcgGw/s64...

Кого из 3х хостов ты там собрался «гасить», чтобы все упало?

2. Я с vsa не работал еще и не тестил, поэтому про его надежность ничего сказать не могу (да и мало кто действительно может - времени с релиза прошло всего ничего), так что спорить не буду.

zgen ★★★★★
()
Ответ на: комментарий от zgen

Во-первых, на картинке - из четырёх. Есть ещё vcenter. Возможно есть ещё storaga appliance отдельной ВМ, точно не знаю.

Во-вторых, почитай, пожалуйста, заголовок топика. У автора НЕТ общего хранилища. И есть подозрение, что в случае падения хоста с VC storage appliance работать дальше не будет

router ★★★★★
()
Ответ на: комментарий от router

Во-вторых, почитай, пожалуйста, заголовок топика. У автора НЕТ общего хранилища. И есть подозрение, что в случае падения хоста с VC storage appliance работать дальше не будет

Ок, сейчас все больше схожусь к тому, что придеться еще раз попробовать, какой нить еще один недо сервак выбить(Типа компа) и на нем запускать виртуалки, а другой просто в iscsi сервер сделать.
Но тем не менее , попытаюсь storage appliance попробовать.

Кстати вот еще один встречный вопрос : iscsi или nfs на том серваке подымать?

pinachet ★★★★★
() автор топика
Ответ на: комментарий от pinachet

Кстати вот еще один встречный вопрос : iscsi или nfs на том серваке подымать?

Забыл за ненадобностью, а книжка валяется на работе. Завтра посмотрю.

На правах необоснованного ИМХО я бы предложил iSCSI, т.к. на отданном диске будет создана родная VMFS, а через NFS что-то там не поддерживается.

router ★★★★★
()
Ответ на: комментарий от router

Забыл за ненадобностью, а книжка валяется на работе. Завтра посмотрю.

Ок, если подскажите на днях буду премного благодарен.

pinachet ★★★★★
() автор топика
Ответ на: комментарий от pinachet

Нашёл более старое издание в виде pdf на торрентах

Плюсы NFS:

  • возможность бекапа отдельных ВМ на уровне хранилища, тогда как VMFS - закрытая
  • nfs меньше загружает процессоры сервера по сравнению с программным инициатором iscsi

плюсы iscsi:

  • в отличие от NFS, можно весь LUN отдать ВМ с помощью raw device mapping
  • у ethernet контроллеров бывают аппаратные инициаторы iscsi
  • с iscsi можно загрузать сам ESX(i), если сетевые карты это поддерживают
router ★★★★★
()
Ответ на: комментарий от router

Ок, iscsi более удобство плюс аутентификация.Будет nfs - его легче по скорости доточить.

pinachet ★★★★★
() автор топика
Ответ на: комментарий от zgen

Это так, чтобы тут люди иллюзий не испытывали, что san никогда не может «унести» данные.

HA не про сохранность данных, а про непрерывное обслуживание

shty ★★★★★
()
Ответ на: комментарий от shty

HA не про сохранность данных, а про непрерывное обслуживание

Откуда возьмется непрерывное обслуживание, если данных нет?

zgen ★★★★★
()
Ответ на: комментарий от zgen

Откуда возьмется непрерывное обслуживание, если данных нет?

ну вот смотри, стоит сервер, единственная функция которого посылать редиректить всех на <не важно куда> - зашареных данных нет, непрерывное обслуживание выполняется

shty ★★★★★
()
Ответ на: комментарий от zgen

со всей очевидностью нет, ты ещё прошивку биоса в данные запиши

shty ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.