LINUX.ORG.RU

Выход файловой системы Lustre 2.1

 , , , whamcloud


0

1

Объявлено о выходе новой версии кластерной файловой системы — Lustre 2.1.

Замысел проекта по созданию Lustre состоял в том, чтобы предоставить файловую систему для кластеров в десятки тысяч узлов с хранилищами порядка нескольких петабайт без потери скорости и безопасности по сравнению с обычными файловыми системами. В настоящее время разработка Lustre ведётся компанией Whamcloud и сообществом после того, как в декабре 2010 года Oracle прекратил работу над проектом, доставшимся компании при покупке Sun Microsystems.

Из новинок следует отметить полную поддержку RHEL6/CentOS6 (сервер и клиент) и поддержку 128TB LUN.

Git-репозиторий

Загрузить

Список изменений

>>> Подробности



Проверено: maxcom ()
Последнее исправление: JB (всего исправлений: 5)

Ответ на: комментарий от wasd

> Есть около 20 серверов по всему миру, в качестве ОС используется Linux/FreeBSD. Хочется сделать кластер.

это будет называться не кластер. начни с чтения терминологии и основ в wiki

atiyakkha
()
Ответ на: комментарий от Saloed

Интенсивного обращения нет. Хранятся только образы с ОСью, если в /usr никто срать не начнет, то всё будет ok.

Reset ★★★★★
()
Ответ на: комментарий от Reset

Ну вот. А когда к ней идёт интенсивное обращение - начинается полный АДъ, вплоть до полного зависания серверов.

Saloed
()
Ответ на: комментарий от Saloed

У нас всё предусмотрено. Если виртуалка хочет интенсивного I/O, то разделы с данными создаются на локальных дисках, а в совсем запущенных случаях на сырых разделах.

Reset ★★★★★
()
Ответ на: комментарий от Reset

А может имело бы смысл сделать сторадж, и жарить его по iSCSI или AoE?

Saloed
()

какие только костыли не придумают, чтоб план9 не использовать

devnullopers
()
Ответ на: комментарий от atiyakkha

>Есть около 20 серверов по всему миру.

gluster отлично подойдет.

kiwirus
()
Ответ на: комментарий от malices_gossips

> Там изначально вроде как планировалась масштабируемая клиент-серверная реализация, которая в случае небольшого количества клиентов была бы альтернативой NFS.

C учетом того что 2 клиента не могли писать в один файл в непересекающиеся области без lock ping-pong - то нафик это поделие кому-то надо было. А на попытки автора заострить на этом внимание заявы что он делать лучше чем локинг VFS не будет (а там все сериализуется одним семафором) - ибо некошерно.

anonymous
()

Хотелось бы что бы кто то сравнил GlusterFS, Ceph, Lustre, Elliptics.

TuLiss
()
Ответ на: комментарий от AnDoR

Если не монтировать через glusterfs, а монтировать как обычную NFS-шару. У гластера есть такая штука - трансляторы. Их можно теоретически как-то там руками настраивать, но я человек ленивый и поэтому просто пользуюсь транслятором в NFS, который настраивается по дефолту (посмотрите ps aux | fgrep nfs.vol). Так-то оно понятно, что гластер не на уровне ядра работает, но ведь это по сути всё-таки и не файловая система, а просто умный механизм репликации файлов, добавляющий один дополнительный уровень абстракции, так что здесь всё равно львиная доля именно «файлосистемной» логики приходится на драйвер ядра для реальной ФС.

DRVTiny ★★★★★
()
Ответ на: комментарий от DRVTiny

Эта логика может быть где угодно, если нет переключения контекстов. А оно есть.

AnDoR ★★★★★
()
Ответ на: комментарий от DRVTiny

>Если не монтировать через glusterfs, а монтировать как обычную NFS-шару.
Плюс прощайте блокировки и расширенные атрибуты. Кроме того, гластер помирает при более-менее высокой нагрузке. Люстре он не конкурент по скорости и надежности.

Marvin
() автор топика
Ответ на: комментарий от Reset

>У нас всё предусмотрено. Если виртуалка хочет интенсивного I/O, то разделы с данными создаются на локальных дисках, а в совсем запущенных случаях на сырых разделах.

да хреновенько выходит. 20 виртуалок сажают локальное хранилище почти в ноль...

AVL2 ★★★★★
()
Ответ на: комментарий от Reset

>а не надо 20 виртуалок пускать на одной машине

а смысл тогда? 48-ядерный узел с хорошим объемом ОЗУ. Все неплохо, но io надо лечить.

AVL2 ★★★★★
()
Ответ на: комментарий от Reset

>На кой? Лучше поставить 8 6ти ядерных.

а место в стойке? а цена восьми серверов вместо одного? а электричество и охлаждение?

AVL2 ★★★★★
()
Ответ на: комментарий от Reset

>Боюсь, что 48 ядерный монстр будет стоить дороже чем 8 обыкновенных серверов.

да ни разу. Он стоит примерно как два 8-ядерных сервера.

AVL2 ★★★★★
()
Ответ на: комментарий от AVL2

Ну допустим. А что ты будешь делать когда эта машинка рухнет?

Reset ★★★★★
()
Ответ на: комментарий от AnDoR

>Gluster есть только через FUSE. И оно несколько иначе работает.

попинал его немного. оказалось 3.2 работает и без FUSE. если монтировать как NFS

Ingwar ★★★★★
()
Ответ на: комментарий от Saloed

Ну, поставил 3.2 на файл-сервер вместо NFS, файлопомойка и NIS, второй день — полет нормальный. Работает однозначно быстрее, чем NFS, пропали глюки с пользовательскими профилями. Очень приятно управляется. Планирую подключить второй сервак(удаленный) через geo-replication.

Ingwar ★★★★★
()
Ответ на: комментарий от Saloed

и каковы проблемы? и версия какая?

А вот я разок попытался положить на неё шаред-контент сайта...

я планирую сейчас сделать то же самое.

Ingwar ★★★★★
()
Ответ на: комментарий от Ingwar

>> А вот я разок попытался положить на неё шаред-контент сайта...

я планирую сейчас сделать то же самое.


Как напробуетесь - сообщите о результатах.

AnDoR ★★★★★
()
Ответ на: комментарий от Ingwar

и каковы проблемы? и версия какая?

Пробовал с одинаковым успехом 3, 3.1, 3.2

я планирую сейчас сделать то же самое.

Ну... Я - не советую. Я пробовал...

Saloed
()
Ответ на: комментарий от Ingwar

Работает крайне медленно и нестабильно, высокая нагрузка на ноды ФС, высокая нагрузка на клиента в режиме FUSE, а в режиме НФС - через 10-15 минут процесс (кажись) klockd отжирал все ресурсы с концами - спасала только перезагрузка.

Saloed
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.