LINUX.ORG.RU
ФорумAdmin

Кто использует fibrechannel (скрипт мониторинга IO perf внутри) ?

 , ,


0

2

Добрый вечер, хотелось бы услышать ваши success-story использования fibre channel (можно не только в линуксе).

Перечислите, что система обслуживает (БД, кластерную ФС, виртуалки и т.д.), какие таргеты подключены, сколько каких свитчей и какая архитектура, были ли проблемы с лицензиями на свитчи, какая архитектура SAN. Какие проблемы или интересные моменты возникали?

Ссылка на скрипт для мониторинга IO (выводит порты адаптеров, количество TX/RX мегабайт итого и текущую скорость IO): https://raw.githubusercontent.com/ofalk/Scripts/master/fcstats.pl

Выглядит так:
host5 [0x2000001b320291f3]: Link down
host7 [0x200000e08b18ab33]: Link down
Update interval: 1 seconds

Или так:
host8 [0x2000001b32090564]: RX: 0 MB ( 0.00 MB/s), TX: 0 MB ( 0.00 MB/s)
host9 [0x2001001b32290564]: RX: 0 MB ( 0.00 MB/s), TX: 0 MB ( 0.00 MB/s)
Update interval: 1 seconds

Также доп. команды для получения информации о SCSI-подсистеме и FC:
Get fibre channel related information Linux
Posted on October 7, 2011 by sony sv

Get simple information about the Fibre Channel HBAs in a machine:
# systool -c fc_host -v

Get verbose information regarding the SCSI adapters present on a system:
# systool -c scsi_host -v

See what Fibre Channel devices are connected to the Fibre Channel HBA cards:
# systool -c fc_remote_ports -v -d

Fibre Channel transport information:
# systool -c fc_transport -v

Get information on SCSI disks connected to a system:
# systool -c scsi_disk -v

For more disk information including which hosts are connected to which disks:
# systool -b scsi -v

To view more information about the SCSI map:
# sg_map -x

To obtain driver information, including version numbers and active parameters:
# systool -m lpfc -v —-> emulex
# systool -m qla2xxx -v —-> qlogic

О чем вообще вопрос? FC SAN используется всеми заинтересованными лицами уже очень давно (лет 20+) и успешно. Это большая отдельная тема, если в неё погружаться.

blind_oracle ★★★★★
()

https ://raw.githubusercontent.com/ofalk/Scripts/master/fcstats.pl

###############################################################################
#
# fcstats.pl - Display FC host adapter stats
#
# Copyright (c) by  Oliver Falk, 2012-2013
#                   oliver@linux-kernel.at
#
# Changes are welcome, but please inform me about those!
#
###############################################################################

Я правильно понял, ты дал линк на проприетарный код?

anonymous
()

FC это будни ынтерпрайза
Крутится база и даже раздел для логов
Вряд ли что-то полезное смогу подсказать нищеброду вроде

zolden ★★★★★
()

А что рассказывать-то? Вся инфраструктура на FC, включая ленты и бэкапы. Если и есть в серверах локальные диски, то обычно только парочка в RAID-1 под ОС (в блэйды обычно больше 2-х и не воткнешь), все остальное с SAN, или вовсе без локальных дисков (boot from SAN).
Вот если бы у тебя попросили success-story использования TCP/IP, ты бы что рассказал?
Старая и проверенная временем технология. HP вон вовсю пихает FCoE в свои шасси, скоро наверное будем переходить.

bigbit ★★★★★
()
Ответ на: комментарий от bigbit

HP вон вовсю пихает FCoE в свои шасси, скоро наверное будем переходить.

Говно какое-то этот flexfabric. С FC точно не стоит переходить.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

Зачем ты этот help сюда притащил, тебе дали потыкать san и ты решил выпендриться?

Нет, просто интересно, т.к. в продакшене с FC не работал. Если не считать полтора свитча с библиотекой. Плюс там есть скрипт мониторинга IO по портам, что может быть очень удобно, учитывая, что встроенных утилит для этого нет. Хоть можно через web-интерфейс свитча смотреть.

ktulhu666 ☆☆☆
() автор топика
Последнее исправление: ktulhu666 (всего исправлений: 1)
Ответ на: комментарий от bigbit

Вся инфраструктура на FC, включая ленты и бэкапы.

1. Какие ОС?
2.С виндой есть проблемы?
3. Multipath используется?
4. Какое ПО для бекапов используете?
5. Проблемы возникали?
6. Статистику со свитчей собираете?
7. Фенсинг делаете или нет кластерных ФС?
8. Диски распределяете черед ACL хранилища или зонингом?

ktulhu666 ☆☆☆
() автор топика
Ответ на: комментарий от zolden

Крутится база и даже раздел для логов

Что за БД? Какая ОС? БД в кластерном режиме? Раздел для логов - это для бинарных логов БД или для логов приложений? На какой ФС? Проблемы были?

ktulhu666 ☆☆☆
() автор топика
Ответ на: комментарий от anonymous

Понятия не имею, мне пофиг на этот вопрос. Можешь пересать с нуля на питоне, так логика крайне простая.

ktulhu666 ☆☆☆
() автор топика
Ответ на: комментарий от EvgGad_303

Говно какое-то этот flexfabric. С FC точно не стоит переходить.

Ух ты. А можно поподробнее? На тестах вроде нормально все.

bigbit ★★★★★
()
Ответ на: комментарий от ktulhu666

Откуда столько вопросов?

Тебе уже сказали, что в хранении FC это как стек tcp/ip в сетях, там нет каких-либо значимых проблем - всё работает. И что там по нему бегает абсолютно не важно.

blind_oracle ★★★★★
()
Ответ на: комментарий от ktulhu666

Oracle на ASM + SLES11 + Pacemaker/Corosync, который LVM разделы на ext3 перекидывает между нодами
Проблем не было, это типовой обкатанный скучный солюшен

zolden ★★★★★
()
Ответ на: комментарий от zolden

А зачем Вам ext3+LVM+pacemaker, если есть ASM? Вы там что-то другое храните (логи)?
Каким образом LVM-тома перекидываются? Через cLVM-блокировку и общий ресурс pacemaker?

ktulhu666 ☆☆☆
() автор топика
Ответ на: комментарий от ktulhu666

Да, на LVM хранятся логи, для пары приложений даже есть маленький отдельный раздел с конфигами
Pacemaker активирует и монтирует раздел на активной ноде, т.е. это два ресурса

zolden ★★★★★
()
Ответ на: комментарий от anonymous

А зачем ты принес этот cat /sys/class/fc_hosts/host*/* ?

Удобный скрипт потому что.

ktulhu666 ☆☆☆
() автор топика
Ответ на: комментарий от ktulhu666

FC используют 4 двухнодовых кластера, база только на одном из них
Это блейд-сервера, в шасси FC свич совмещён с ethernet свичом

zolden ★★★★★
()
Ответ на: комментарий от zolden

FC используют 4 двухнодовых кластера, база только на одном из них

Кстати, у ASM фенсинг предусмотрен? И как она себя ведет при вываливалии ноды, но до фенсинга (например, GFS2/OCFS2 будут виснуть, а затем, по таймауту, сделают ребут сервера, если фенсинга так и не случится).

ktulhu666 ☆☆☆
() автор топика
Ответ на: комментарий от ktulhu666

Просто непонятно зачем ты так цепляешься именно за фибру, это просто один из многих протоколов блочного доступа - iscsi/fcoe/sas/infiniband/roce/aoe/nbd/...

И зачем привязывать бэкапилку к протоколу тоже не ясно... Есть, конечно, возможность бэкапить прямо со снапшота схд, но это скорее исключение.

blind_oracle ★★★★★
()
Ответ на: комментарий от blind_oracle

Просто непонятно зачем ты так цепляешься именно за фибру, это просто один из многих протоколов блочного доступа - iscsi/fcoe/sas/infiniband/roce/aoe/nbd/...

Потому что мне инетесна именно фибра. NBD работает, кстати, храйне хреново. Ещё есть GNBD. И причём тут ROCE? Это RDMA over ethernet (есть ещё over tcp: iWARP), он сам не умеет блочные устройства шарить. Может Вы про SRP или iSER говорили?

Встречный вопрос: почему Вы не можете ответить на вопросы, ради которых был тред создан? Над Вам NDA висит?

ktulhu666 ☆☆☆
() автор топика
Последнее исправление: ktulhu666 (всего исправлений: 1)
Ответ на: комментарий от ktulhu666

Особенно интересно по ПО для бекапов.

Уймись болезный. Исп. lan-free backup

# rpm -qa | grep lin_tape lin_tape-2.5.0-1.x86_64 lin_taped-2.5.0-1.x86_64

anonymous
()
Ответ на: комментарий от ktulhu666

# rpm -qa | grep lin_tapeb
lin_tape-2.5.0-1.x86_64
lin_taped-2.5.0-1.x86_64

anonymous
()
Ответ на: комментарий от ktulhu666

Тебе уже привели аналогии - «Success-story TCP/IP». Почему таких тем нет? Потому что оно just works.

blind_oracle ★★★★★
()
Ответ на: комментарий от bigbit

Помогали переводить sybase на новое железо у клиента, с железом поставили по факту - вот вам апупительный блэйд с не менее апупительной 10гб адаптером флекс фабрики, мне не удалось добиться вменяемой скорости на 8гб аплинке.
Так-то вроде ничего, жить можно, но в том шасси всего 2 блэйда, и что будет, если воткнуть 16 и всех пустить в san, я даже думать не хочу.

Есть ещё занимательная история, как я пытался завести всё ту же флексфабрику в соляре, и так крутил, и эдак, и с саппортом вместе, сеть работает, а fcoe нет. Потом мне при встрече один господин из хп нашептал, что оно в общем-то not supported.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

Тогда тебе читнуть чего надо, а не фигню нерелевантную спрашивать. Вот хорошее начало.

PDF-вариант у Вас есть?

ktulhu666 ☆☆☆
() автор топика
Ответ на: комментарий от EvgGad_303

сеть работает, а fcoe нет

А программный FCoE тоже не работает? Или в солярке это не поддерживается?

ktulhu666 ☆☆☆
() автор топика
Ответ на: комментарий от EvgGad_303

мне не удалось добиться вменяемой скорости на 8гб аплинке.

Ну да, если приходиться шарить пропускную способность между FC и Ethernet, то засада. В Gen9 у HP специально для этого есть опции 20Gb CNA и 20Gb VC-модули. По идее они должны позволять полные 8G для и 12G для Ethernet.
У нас есть парочка шасси с FlexFabric, почти полностью набитых - вроде нормально работает. Правда, там 8G и не нужно никому.

Есть ещё занимательная история, как я пытался завести всё ту же флексфабрику в соляре...

А в HCL железо было? Некоторые FlexLOM'ы видны для ОС как родной FC, может для Солярки такая карточка нужна была.

bigbit ★★★★★
()
Последнее исправление: bigbit (всего исправлений: 2)
Ответ на: комментарий от ktulhu666

А программный FCoE тоже не работает? Или в солярке это не поддерживается?

С адаптером flexfabric не работает. В остальном нормально fcoe работает и рулится штатной тулзой fcadm.

PDF-вариант у Вас есть?

Ну вот, приплыли, а сколько пафоса было в том другом треде :D

EvgGad_303 ★★★★★
()
Ответ на: комментарий от bigbit

В Gen9 у HP специально для этого есть опции 20Gb CNA и 20Gb VC-модули

Это и был gen9 в шасси с 10gb VC. Но как бы 16гб уже вовсю используется. Если уж converged, то приличные люди по IB делают, ящитаю :)

А в HCL железо было?

Тоже gen9, сначала стоял 20гб, но его заменили на 10гб из-за отсутствия дров под солярис, а потом всплыло, что в HCL солярка вроде как есть, но работает только сеть. Но у хп пока мозгов хватает вставлять вторым расширением qlogic 16гб практически даром, пришлось раскошелить на fc свичи в шасси, клиенты давно хотели, но боялись признаться, а тут такой катализатор.

EvgGad_303 ★★★★★
()
Последнее исправление: EvgGad_303 (всего исправлений: 2)
Ответ на: комментарий от EvgGad_303

Не знаю, если gtalk это джаббер, то да, но я давно туда не логинился.

А каким мессейнджером Вы пользуетесь?

ktulhu666 ☆☆☆
() автор топика
Ответ на: комментарий от EvgGad_303

Тогда тебе читнуть чего надо, а не фигню нерелевантную спрашивать. Вот хорошее начало.

Страница 74. Как HDD (особенно SATA) подключается сразу к двум экспандерам? Там на каждый диск отдельный свитч-контроллер стоит (вероятно интегрирован внутрь микросхем)?

ktulhu666 ☆☆☆
() автор топика
Ответ на: комментарий от ktulhu666

В SAS-дисках реально 2 порта. В SATA только 1 порт, соответственно подключается только к 1 multiplier'у (экспандер - это в SAS), а перед ним стоит аналог свича (port selector), чтобы 2 HBA могли обращаться к 1 диску.

bigbit ★★★★★
()
Ответ на: комментарий от bigbit

А можно ссылки по этим двум пунктуам: 2 порта в SAS (а когда они подключаются по одному - то он со сдвоенными линиями?) и SATA-port selector-Multiplier.

ktulhu666 ☆☆☆
() автор топика
Ответ на: комментарий от ktulhu666

Надпись «Dual Port» на SAS-диске - вот и вся ссылка =)
Про Port Selector и Port Multiplier написано в спеке SATA II.

bigbit ★★★★★
()
Ответ на: комментарий от bigbit

В SATA только 1 порт

В стораджах обычно NL-SAS используют, он же SATA с интерфейсом и набором команд SAS и порта у них тоже два.
Это я к разъяснению ситуации в книжке, о которой ТС спрашивал.

EvgGad_303 ★★★★★
()
Последнее исправление: EvgGad_303 (всего исправлений: 1)
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.