LINUX.ORG.RU
ФорумAdmin

Поясните пожалуйста по вопросу использования LVM

 , ,


1

2

Здравствуйте! Поясните пожалуйста по вопросу использования LVM.
Есть у меня SAN сеть с хранилищем, свитчами,.. Есть десяти серверов к которым на хранилище я примапил LUN на 10 Tb под разные данные.

Хочу раскатать на нем LVM, создать одну PV группу, одну LV и десять VL которые отформатирую и подмонтирую на каждом сервере индивидуальною.
Тесты на 2-х виртуальных хостах показали, что перемонтирование одной VL на разные машины вполне работает.

Интересно ваше мнение, на сколько надежно, а главное верно такое использование LVM в масштабе 10 хостов?
Аналогично, не совсем ясно зачем нужен CLVM если и без него все видно на других хостах.


Аналогично, не совсем ясно зачем нужен CLVM если и без него все видно на других хостах

В теории, могут быть не видны последствия всяких lvchange/vgchange/pvchange. CLVM обеспечивает блокировку (и сохранность метаданных таким образом) на случай одновременного изменения метаданных с нескольки нод. Для разнообразия, сделай на одном хосте lvchange -a n /dev/vgrp/volname - в теории с CLVM том должен отвалиться у всех (аналогично при lvcreate должен создаться у всех), а без CLVM - только у инициатора.

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

В теории, могут быть не видны последствия всяких lvchange/vgchange/pvchange.

Возможно, но использовать такой функционал я не буду.

CLVM обеспечивает блокировку (и сохранность метаданных таким образом) на случай одновременного изменения метаданных с нескольки нод.

В lvm.conf есть параметр: locking_type = 1 (значение «1» озаначает «Defaults to local file-based locking». Для CLVM необходимо ставить значение 3) Скорее всего локинг будет отрабатывать корректно.. Тем более, что операций с изминением или созданием новых PL,VG не будет.

Dr0id
() автор топика

Если хранилка умеет свой «внутренний» lvm, то лучше воспользоваться им. Как минимум выиграешь в управляемости.

cipher ★★★★★
()
Ответ на: комментарий от router

Никогда не пытался так делать. Предлагаю прочитать https://access.redhat.com/site/documentation/en-US/Red_Hat_Enterprise_Linux/6...

Спасибо, читал, но тут у меня такая ситуация, что никак не получилось поднять CLVM на Fedora 19. Т.к там необходимо настроить и Corosync и pacemaker и прочее.. В Centos 6.x все проще в разы, там достаточно написать cluster.conf и поднять демон Cman.

В итоге Fedora19 и Centos6.x в одном кластере не ужились, друг друга не увидели.

Dr0id
() автор топика
Ответ на: комментарий от cipher

Если хранилка умеет свой «внутренний» lvm, то лучше воспользоваться им. Как минимум выиграешь в управляемости.

Не не умеет. HP P2000 там только LUN нарезать ...

Dr0id
() автор топика
Ответ на: комментарий от Dr0id

ну вот чтобы исключить «ну так я» и «никто другой кто будет не вкурсе» или ещё чего. если 1 лун одновременно приезжает на несколько хостов, нужно обезопасить себя и окружающих с помощью кластерной фс.

ukr_unix_user ★★★★
()

ты уже второй раз пытаешься задавать идиотские вопросы вместо того чтобы завести каждую виртуалку на отдельном LUN или проблема гораздо хуже, и ты под словом SAN имеешь в виду что-то нетрадиционное?

anonymous
()
Ответ на: комментарий от anonymous

да, это san, тогда у меня остаётся один вопрос: накой каждую неделю создавать тред с одним и тем же вопросом вместо того чтобы завести на этов редкостном добре тома виртуалок и пользоваться ими?

anonymous
()
Ответ на: комментарий от anonymous

Ну так не могу я просто так завести и успокоиться. У меня требования, чтобы обязательно был LVM. Есть такая штука Как Cinder, вот ей это и нужно!

Dr0id
() автор топика
Ответ на: комментарий от Dr0id

так ты с openctack себе голову сношаешь? а почему ты не видишь ему альтернатив виде поделок на базе open cluster?

anonymous
()
Ответ на: комментарий от anonymous

Именно, и чем больше я узнаю эту платформу, тем больше я понимаю, что она совсем не подходит. У нас руководство накупило дорогостоящего оборудования типа HP Blade C 3000 c топовыми лезвиями и прочее.. Хочет облако именно на OpenStack и никакие альтернативы не рассматривает т.к это уже политический ход. По сути OpenStack хорошая штука, но не на дорогом топовом оборудовании расположенном в одном ЦОД.

Почему до сих пор морочусь с SAN? Хочу сделать все-таки по нормальному. Можно цеплять ноды по iSCSI и это идеально работает в Cinder, но как-то не серьезно это реализовывать на таком оборудовании..

Dr0id
() автор топика
Ответ на: комментарий от anonymous
Cinder <--> LVM <---> iscsi  
  \                    ^
   \                   |
    |>--------------- tgtd
    |
    |
    \> Other NODES (NODE1)
                   (NIDE2)

LVM сам Cinder использует априори, без томов никак. Я просто не хочу гонять scsi по IP..

Ну и он как-то же добивается, чтобы разные ноды монтировали заданные тома для испольования.

Dr0id
() автор топика
Ответ на: комментарий от EvgGad_303

да слышал, но после некоторых событий забыл про него как про страшный сон.

#lsattr -El  hdisk0 | grep reserve_policy 
reserve_policy no_reserve

и никак иначе.

когда я пробовал на линуксе, по дефолту ничего не мешало смонтировать фс на одном луне, на двух разных серверах.

ukr_unix_user ★★★★
()
Ответ на: комментарий от Dr0id

как можно не гонять scsi по ip, если уже купили железку с iscsi? или второй анонимус неправду сказал?

anonymous
()
Ответ на: комментарий от anonymous

Почти правду, железка простецкая.. Только контроллеры разные туда можно вкорячить, у нас не iSCSI, у нас Fibre Channel...

Dr0id
() автор топика
Ответ на: комментарий от Dr0id

раз там fc, то откуда вообще взялось iscsi? какая-то причина мешает fc к блейдам подключить напрямую?

anonymous
()
Ответ на: комментарий от anonymous

Cinder как-то работает с tgtd и пробрасывает созданные LV в каждую удаленную ноду по iscsi на которой работает KVM. CLVM у меня не поднялся, вот по этой причине и вопрос LVM Мапить LUN никто не мешает, я так и делаю.

Dr0id
() автор топика
Ответ на: комментарий от Dr0id

получается, что так и было задумано авторами

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.