LINUX.ORG.RU
ФорумAdmin

Пару вопросов по LUN, к SAN спецам

 , ,


0

2

Приветствую!
Так уж случилось, что столкнулся я с SAN администрированием. Есть у меня  HP  C3000 Blade server с 8-ю лезвиями на борту + Brocade BL SAN switch и отдельный HP SAN switch 8/24.
+ Много хранилок HP MSA P2000 соединенных по FC
Мне для проекта необходимо на одно лезвие залить ОС, чтобы загрузка шла с LUN на хранилище. 
Честно говоря никогда на сталкивался с настройкой SAN поэтому возникли некоторые вопросы:

1)Каким образом создать LUN так чтобы только этот лун был виден лезвию на блейде, а  остальные луны были скрыты.

2)На хранилке можно создать виртуальный диск(raid), а в нем уже Volume определенного размера, это и есть Lun? Или Lun создаётся как-то по другому?

3)На хранилке есть объекты Host, там как я понимаю, указаны все мои лезвия и те луны которые к ним замаплены, я ради эксперимента  размапил у одного лезвия все луны, но почему-то они продолжают быть доступны системе на этом лезвие.. 

4)Не совсем ясно назначение объекта Host на хранилище, зачем нам прописывать все наши лезвия на хранилище по Host ID (WWN/IQN):* ? 

1)Каким образом создать LUN так чтобы только этот лун был виден лезвию на блейде, а остальные луны были скрыты.

На массиве ты презентуешь LUN для определённых клиентов ( обычно по WWN ). Реализация зависит от массива. В частности, на p2000 выбираешь созданный volume, затем затем Provisioning -> Explicit mapping

Но кроме самого хоста есть ещё FC свичи, на которых можно ( читай: необходимо ) настоить зонинг. Зонинг также ограничит область видимости. Насколько я знаю, на большинстве корзин есть встроенные FC свичи, даже если не используются отдельные.

2)На хранилке можно создать виртуальный диск(raid), а в нем уже Volume определенного размера, это и есть Lun? Или Lun создаётся как-то по другому?

Именно так и делают. По-другому у тебя не получится. Сначала ты физические диски объединяешь в Vdisk, затем уже на них нарезаешь Volume'ы

3)На хранилке есть объекты Host, там как я понимаю, указаны все мои лезвия и те луны которые к ним замаплены, я ради эксперимента размапил у одного лезвия все луны, но почему-то они продолжают быть доступны системе на этом лезвие..

Посмотри multipath -ll

Наверняка у тебя на лезвии больше одного fc порта. В p2000 host - это WWN ( грубо говоря - один fc порт ), а не физический сервер как ты возможно подумал.

4)Не совсем ясно назначение объекта Host на хранилище, зачем нам прописывать все наши лезвия на хранилище по Host ID (WWN/IQN):* ?

Чтобы выдавать им диски с массива. Ты же не открываешь к диску доступ с любых WWN ?

router ★★★★★
()

Мне для проекта необходимо на одно лезвие залить ОС, чтобы загрузка шла с LUN на хранилище.

Вот тут кстати будет геморрой. Загрузку будет выполнять прошивка FC адаптера, а настройка multipath на них нетривиальна. Нужно искать официальную документацию, иначе всё это будет шаманством.

router ★★★★★
()
Ответ на: комментарий от router

На массиве ты презентуешь LUN для определённых клиентов >( обычно по WWN ). Реализация зависит от массива. В частности, >на p2000 выбираешь созданный volume, затем затем Provisioning -> Explicit mapping
Но кроме самого хоста есть ещё FC свичи, на которых можно ( читай: необходимо ) настоить зонинг. Зонинг также ограничит >область видимости. Насколько я знаю, на большинстве корзин есть >встроенные FC свичи, даже если не используются отдельные.

Спасибо Вам за ответ, кое-что начинаю понимать.. Я создал LUN, замапил его на два порта, действительно, у нас на каждое лезвие по два FC порта. Есть и встроенный FC switch. Сейчас пытаюсь настроить Zoning на свиче.В процессе я создаю Alias, куда добавляю два FC порта(WWN-ы лезвия) моего лезвия, создаю Zone в которую включаю Alias с моими двумя портами , далее создаю конфиг зоны В которую включаю Zone. После того, как применил правило, все ноды потеряли все хранилища.. Никак не уловлю логики зонирования, почему все ноды отвалились разом..

Dr0id
() автор топика
Ответ на: комментарий от Dr0id

Кроме портов хоста в зоны нужно добавлять порты массива. С точки зрения свича массив - такое же san девайс как и хост.

После того, как применил правило, все ноды потеряли все хранилища..

Изменения обычно тестируются на одном свиче из двух. А потом смотрят на хостах, не отвалилась ли половина путей.

router ★★★★★
()
Ответ на: комментарий от Dr0id

«ты мне не выкай, тоже мне интеллигент нашёлся» ( Teak ) ;)

Когда я в соседней теме цинично нарушаю некоторые правила форума ( интересно, почему до сих пор скор не сняли ) , а тут ко мне обращатся «на Вы», возникает когнитивный диссонанс.

router ★★★★★
()
Ответ на: комментарий от router

SAN админа нет, ну и среда пока не продакшн, можно экспериментировать. С загрузкой не учел, буду думать.. Наверное вероятнее всего стоит ожидать проблем с определением LUN уже на стадии инсталляции ОС?

Dr0id
() автор топика
Ответ на: комментарий от Dr0id

rhel и её клоны почти наверняка увидит диски. Проблемы могут быть именно на этапе загрузки, ещё до того как grub будет запущен.

В общем случае, сначала в bios'е выставляется загрузка через fc адаптер, затем через интерфейс самого адаптера ( тоже что-то похожее на биос, тоже при загрузке ) выставляются параметры в строгом соответствии с официальной документацией производителя этого адаптера.

router ★★★★★
()
Ответ на: комментарий от router

зменения обычно тестируются на одном свиче из двух. А потом >смотрят на хостах, не отвалилась ли половина путей.

У нас один HP StorageWorks 2/24 Edge Switc к которому по FC подключены встроенные в блейды san switch-и. Т.е Логичнее всего зонинг настраивать на корневом san свитче ? Я до этого настраивал san switch, который на блейде.

Dr0id
() автор топика
Ответ на: комментарий от Dr0id

У нас один HP StorageWorks 2/24 Edge Switc к которому по FC подключены встроенные в блейды san switch-и.

Ты же понимаешь что это единая точка отказа? Попробуй убедить начальство одобрить покупку второго, если отказоустойчивость важна.

Т.е Логичнее всего зонинг настраивать на корневом san свитче ?

Основная задача зонинга - не допустить, чтобы одни хосты мешали другим. Например, один сервер сканирует scsi шину по FC, а у другого от пришедших пакетов срывает крышу. Особенно это актуально, если на разных серверах используется железо разных производителей или разные ОСи. Самые большие проблемы - если без зонинга один массив используют хосты с разными архитектурами ( x86_64 и power system, например ).

Наверное можно и на свичах корзины.

router ★★★★★
()
Последнее исправление: router (всего исправлений: 2)
Ответ на: комментарий от Dr0id

*создаю конфиг зоны В* которую включаю Zone.

Создаешь? Тебе по хорошему не создавать новый нужно, а добавлять в уже существующий созданную зону (cfgadd && cfgenable)

Плюс в одной фабрике только один конфиг, если железки одинаковые он разольется на все (я так как-то поправиви конфиг на маленьком свитче в корзине потер все и на большом DCX). Выбивай еще один свитч, что бы не заламывать единственную фабрику.

user_undefined
()
Ответ на: комментарий от user_undefined

Создаешь? Тебе по хорошему не создавать новый нужно, а >добавлять в уже существующий созданную зону (cfgadd && cfgenable)

Зоны нету вообще ни одной, да и конфига.

Dr0id
() автор топика
Ответ на: комментарий от Dr0id

По дефолту скорей всего стояло allaccess, если ты создал зону только для одного инициатора - у него доступ и остался, а остальных в зонинге теперь нет

user_undefined
()
Ответ на: комментарий от user_undefined

Да действительно, allaccess У меня один центральный SAN свитч, к нему подключены модульные SAN-свичи от двух разных блейдов. Я создаю новую зону в которую добавляю два номера WWN портов самого лезвия, и WWN модульного SAN.. Далее я создаю еще одну зону в которую добавляю все что осталось за бортом. Тогда не ясно, как мне создать новую зону с тем же самым модульным SAN свичем если он уже не активен т.к учувствует в первой зоне. ...

Dr0id
() автор топика
Ответ на: комментарий от Dr0id

новую зону с тем же самым модульным SAN свичем если он уже не активен т.к учувствует в первой зоне. ...

Эмм, что-то я не понимаю, зачем тебе зонинг между свитчами? У тебя все свитчи (и в корзине, отдельный) в одной фабрике? Тогда спокойно делаешь зоны вида

zonecreate Z_srv1_fc0, "srv1_fc0; VSP_0A; VSP_1A";
zonecreate Z_srv2_fc0, "srv2_fc0; VSP_0A; VSP_1A";
cfgadd <cfgname> Z_srv1_fc0
cfgadd ...
cfgenable ....
тут srv(1|2)_fc0 - alias на первый порт в лезвии, VSP_* - порты на массиве. На массиве соответственно хостгруппы должны маппиться на порты 0A,1A Делать все можешь с любого свитча, конфиг автоматически переползет на остальные

user_undefined
()
29 ноября 2013 г.
Ответ на: комментарий от user_undefined

Всем доброго времени суток. В наследство от канувшего в лету Citrix Xen осталось 4 сервера DL 585 G5 по 8 дисков на каждом и на каждом по две FC карты, два сторожа HP SW MSA2000 и два HP San Switch 8/24. На свичах почти одинаковые настройки но в Member на обоих свичах добавлен только первый порт. Как это работало раньше я не знаю. Но вот сейчас настало время включать их в работу и хотелось бы задействовать и сичи и сторожи. На всех устройствах обновил прошивки на San обновил версию Fabric OS до v6.4.3e. Зоны не удалял да и вообще на свичах ничего не удалял. Но ни карты в биосе ни сам сторож в Host не видели друг друга. После чего добавил в Member порты и устройства и тут сразу сторож показал в Host новых подключенных, перезагрузил сервера зашел в настройки карт и там тоже сторож появился. Попробовал отключить сторож и Linux тутже вывалил сообщение blocked FC remote port time out: removing target and saving binding . Получается, что система тоже видит сторож. Подскажите как надо сделать правильно. Мне не надо делать каких то ограничений по лунам и загружаться с них я не буду.

vito0000
()
Ответ на: комментарий от vito0000

Забыл добавить, что ранее не сталкивался с подобным, установленая сейчас система Debian

vito0000
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.