LINUX.ORG.RU

Недооцененная файловая система Linux

 , , ,


0

1

В статье Дж.Лейтона (Jeffrey B. Layton) «OCFS2: Недооцененная файловая система Linux» приводится краткое описание файловой системы OCFS2 и перечисляются ее особенности. Система OCFS2 является кластерной файловой системой, которую первоначально выпустила фирма Oracle и которая может стать замечательной основой для файловой системы общего назначения, где требуется совместный доступ к данным.

>>> Подробности

По заголовку решил, что речь пойдет о ReiserFS. Ан нет!

Zhid ()

Единственная ФС которая заводится с полпинка и работает, я с этой тру-GFS замучался на non-RH-хостах поднимать. Сейчас собираемся ее внедрять в связке с Xen.

gh0stwizard ★★★★★ ()

>первоначально выпустила фирма Oracle
эмн... нам бы от Сан кое что... /me многозначительно откашлялся.

darkshvein ☆☆ ()
Ответ на: комментарий от gh0stwizard

Ceph не пробовали? Или она еще не допилена до нужного состояния для промышленного использования?

exec0x ()

Есть две недооценённые ФС: reiser4 и spadfs. Остальное либо в уже в продакшене, либо ненужно.

post-factum ★★★★★ ()

Все эти «кластерные» системы OCFS2 и GFS хотят наличия ОДНОГО общего стораджа в виде RAID-массива (диковой полки). О какой кластерности можно говорить, если весь кластер построенный на этих ФС зависит от работы ОДНОГО общего стораджа? Сдох сторадж - сдох кластер - это простите дерьмо, а не кластер. Единственная действительно кластерная ФС - это GlusterFS, которая может быть полностью запараллелена.

anonymous ()
Ответ на: комментарий от anonymous

>весь кластер построенный на этих ФС зависит от работы ОДНОГО общего стораджа?

они вполне комфортно чувствуют себя на зеркальных томах CLVM.
т.о. все будет дублироваться без проблем.

shlag ()
Ответ на: комментарий от anonymous

Есть правда в твоих словах, так как между стораджем и кэшем кластерных машин логический канал 1:1. Вот только сторадж сдохнуть(или это оочень маловероятно) не может, ибо ocfs2 обертка для RAID-массива, реализованного стораджем. Значит при сбое одного из файловых хранилищ в сторадже, данные будут восстановлены из зеркал.

exec0x ()
Ответ на: комментарий от exec0x

охо-хо, вполне даже может сторедж сдохнуть. вот у нас недавно после ребута сдох, да так, что ЕМС сутки его ковыряли, а потом просто заменили. данные разумеется сохранились, но даунтайм...

val-amart ★★★★★ ()
Ответ на: комментарий от val-amart

Во-первых, существуют san-хранилища с возможнотью подключения дополнительных полок, в которых дублируется содержание главной полки.

Во-вторых, сколько контроллеров у вас было в сторадже? Рекомендуется использовать стораджи с двумя контроллерами, тогда второй возьмет на себя исполнение функций главного, при выходе последнего из строя.

exec0x ()
Ответ на: комментарий от exec0x

Сторадж может сдохнуть вполне. Наивно думать, будто стораджи делают избранные китайские мастера с нанопаяльниками. Вот только OCFS2 сдыхает на порядки быстрее любого стораджа. Анонимус прав, нельзя ложить все яйца в одну корзину. Есть гластерфс, а это чудо технологий не нужно.

shahid ★★★★★ ()
Ответ на: комментарий от exec0x

ты погугли, что такое EMC Symmetrix, перед тем как про дополнительные полки рассказывать. так вот, после аварийного ребута он просто на загружался. все иногда ломается.

val-amart ★★★★★ ()
Ответ на: комментарий от shahid

>это чудо технологий не нужно.

а я и не знал и потому уж несколько лет использую в продуктиве. почто вовремя не довели?

anonymous ()

Недооценённая ФС это Reiser4.

Недооценённая ФС это Reiser4.

Camel ★★★★★ ()
Ответ на: комментарий от GoNaX

Бомж кластер -> drbd

drbd это чисто резервирование, даже запросы на чтение со слейвов делать нельзя. Чтобы сделать кластер на ocfs2 как раз drbd и понадобится для резервирования.

me юзал ocfs2 на centos 5.4, механизмов распределения ресурсов не было, если одна нода усиленно пишет что-то в папку то остальные подвисают при обращении к ней. Ну в попу такую кластерность.

true_admin ★★★★★ ()
Ответ на: комментарий от true_admin

а ещё мускул с myisam запускал на трёх нодах одновременно. Там были такие мегаэпические тормоза что ппц. Конечно каждая блокировка по сети становится сверхдорогой операцией, но оверхед в тысячи раз это нечто.

true_admin ★★★★★ ()
Ответ на: комментарий от true_admin

Ну «Бомж кластер» можно использовать максимум для тестов, ноды подвисают - это конечно же плохо, но заметь они есть и они настроенны. Человек начинает понимать что такое «нода» и как это настроить. И рыночная стоимость специалиста растёт. Вот для этого бомж пакет и нужен.

GoNaX ★★★ ()

>> Система отслеживает время модификации файлов (mtime), время доступа к файлам (atime)

избыточно

kto_tama ★★★★★ ()
Ответ на: комментарий от GoNaX

Что ты имеешь в виду под бомж-кластером? drbd? Сам по себе мне он очень нравится, вещь сделанная с умом. Только кроме резервирования и master-master из двух нод больше ничего не умеет.

true_admin ★★★★★ ()
Ответ на: комментарий от true_admin

>me юзал ocfs2 на centos 5.4, механизмов распределения ресурсов не было, если одна нода усиленно пишет что-то в папку то остальные подвисают при обращении к ней. Ну в попу такую кластерность.

Можно же сделать запись на ходу. Т.е. без потверждения удачной записи на всех нодах. Ну и плюс канал нужен 1Гб/с+, а не 100Мб/с.

gh0stwizard ★★★★★ ()
Ответ на: комментарий от anonymous

>Все эти «кластерные» системы OCFS2 и GFS хотят наличия ОДНОГО общего стораджа в виде RAID-массива (диковой полки).

4.2
OCFS2 не требует этого.

gh0stwizard ★★★★★ ()
Ответ на: комментарий от anonymous

и правильно делают что хотят.
кластер без диского массива годиться разве что на числодробилку.
ок, можно, начиная с 3 нод, использовать без SAN.

Сдох сторадж - сдох кластер - это простите дерьмо, а не кластер.

вероятность полного отказа очень мала, имеется ввиду полная недоступность данных.
но все имеет свойство ломаться
и если это HA кластер, а не HPC, то почему бы и массив не продублировать?
видать дерьмо у вас, простите, а не кластер )

EvgGad_303 ★★★★★ ()

Развиваться и развиваться этой файловой системе, но масового потребления она не заслужит

zibert ★★★ ()

It stops responding with a high load on the RAC. Eventually it brings down problematic cluster node, which actually holds the lock.

anonymous ()
Ответ на: комментарий от anonymous

> О какой кластерности можно говорить, если весь кластер построенный на этих ФС зависит от работы ОДНОГО общего стораджа?

«Сторадж» выглядит как просто блочное устройство. И из пары легко собрать RAID зеркало. Если эти стораджи разнесены географически - ты даже от стихийных бедствий страхуешься. Только стораджи не дешевы и приходится выбирать что будет дешевле для бизнеса - простой на время восстановления из бекапа или иметь вторую полку в зеркале.

skwish ★★ ()
Ответ на: комментарий от gh0stwizard

кластарные и распределённые фс это разные вещи.

true_admin ★★★★★ ()
Ответ на: комментарий от gh0stwizard

в каком смысле без подтверждения? Запись ведётся на сторадж который примонтирован на нескольких нодах, синхронизация идёт через dlm.

В общем, всё что я хочу сказать это то что чтобы такое работало должна быть под это допилена архитектура приложения, иначе всё пожрут блокировки.

true_admin ★★★★★ ()

Фигня. Недооцененная - это UDF, чуть ли не единственная FS для флешек под линухом, которая не имеет проблем с правами, поддерживает файлы >4ГБ, sparce-файлы, хардлинки и симлинки, и при этом читается виндой.

anonymous ()

назовите бесплатную кластерную fs для windows :-)


Странная классификация - бесплатная/платная файловая система. Та, которая встроена в ОС - платная или нет? Или выбрать надо именно из тех FS, которые надо докупать к уже установленной ОС?
Попробуйте технически грамотно сформулировать свой вопрос.

torion ()
Ответ на: комментарий от torion

>Та, которая встроена в ОС - платная или нет?

ok, назовите встроенную

anonymous ()
Ответ на: комментарий от anonymous

DFS + SMB поддерживает кластеризацию.

Но по факту FS из subj не нужна, ибо там блокировки идут на уровне физических блоков на блочном устройстве, а не логические по файлам. При этом в протоколе гвоздями прибито ограничение на 256 клиентских нод. Данная FS подходит для какого нить DB кластера с общим хранилищем когда нужен raw disk, а не файловая система общего назначения.

anonymous ()
Ответ на: комментарий от true_admin

> В общем, всё что я хочу сказать это то что чтобы такое работало должна быть под это допилена архитектура приложения, иначе всё пожрут блокировки.

А мужики из IBM & Sun (Oracle) не знают - и пилят свои кластерные FS без допиливания софта ;-)

anonymous ()
Ответ на: комментарий от anonymous

>Данная FS подходит для какого нить DB кластера с общим хранилищем когда нужен raw disk, а не файловая система общего назначения.

Oracle считает иначе, у меня на ocfs2 dovecot. Так таки значит нет в винде встроенной кластерной fs то? :-)

anonymous ()
Ответ на: комментарий от val-amart

про EMC et.al.

может сторедж сдохнуть

нормальные люди 2 СХД ставят.
няхай себе дохнет. но по-одному!

mumpster ★★★★★ ()
Ответ на: комментарий от val-amart

EMC Symmetrix

кстати, про EMC Symm - таки есть у нас такие по 2 штуки у людей - в разным городах одно и тоже хранят.:-)

mumpster ★★★★★ ()
Ответ на: комментарий от mumpster

а у нас увы бардак - если несколько территориально разнесенный датацентра, в т.ч. в разных странах, но только часть данных есть на хранилищах во всех дц. просто обьемы огромные, стоимость с точки зрения бизнеса не оправдывается.

val-amart ★★★★★ ()
Ответ на: комментарий от val-amart

хмм

А если Вам критично, почему не поставили два симетрикса и третий в удалёном ДЦ ?

anonymous ()
Ответ на: хмм от anonymous

по тому что с точки зрения бизнесов - не критично. то, что критично, имеет 3-4 реплики. а вот для ИТ в любом случае геморрой. и сервис как всегда хотят 99,999%

val-amart ★★★★★ ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.