LINUX.ORG.RU
ФорумAdmin

FCoE на линуксе - кто пробовал?


0

1

Хочу с iSCSI 10Gbit перелазить, вот думаю куда - на FC или FCoE. Второй дороже в плане свичей, но учитывая конвергентность и прочие плюшки предпочтительнее.

Кто-нибудь пробовал сие?

Таргет у меня на линуксе, инициаторы ESXi.

В LIO недавно появилась поддержка FCoE, инициатор в ядре так вроде бы вообще давно есть.

Но у меня их завести не получилось (пробовал без свича, кроссовером по 1Гбит).

Девайс экспортировал, инициатором тыкаюсь, как мёртвое оно, ошибок особо не выдает, но и ничего не делает.

Сейчас уже подумал что забыл в ядре включить Data Center Bridging Ethernet, но заново пробовать лень. Может кто сразу скажет в чем дело :)

таргет:

Apr 25 17:50:22 krvmstor3 lldpad: config file failed to load,
Apr 25 17:50:22 krvmstor3 lldpad: create a new file.
Apr 25 17:50:22 krvmstor3 lldpad: bound ctrl iface to /com/intel/lldpad
Apr 25 17:50:28 krvmstor3 kernel: [   97.840934] netlink: 12 bytes leftover after parsing attributes.
Apr 25 17:50:28 krvmstor3 kernel: [   97.841012] netlink: 12 bytes leftover after parsing attributes.
Apr 25 17:50:28 krvmstor3 kernel: [   97.841194] netlink: 12 bytes leftover after parsing attributes.
Apr 25 17:50:28 krvmstor3 kernel: [   97.841400] netlink: 12 bytes leftover after parsing attributes.
Apr 25 17:50:43 krvmstor3 kernel: [  112.822988] 8021q: adding VLAN 0 to HW filter on device int2
Apr 25 17:50:48 krvmstor3 kernel: [  117.783189] igb: int2 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: RX/TX
Apr 25 17:50:58 krvmstor3 fcoemon: FC_HOST_EVENT 1 at 1366897858 secs on host1:code 4=lip_reset datalen 4 data=0
Apr 25 17:50:58 krvmstor3 kernel: [  127.378417] scsi1 : FCoE Driver
Apr 25 17:50:58 krvmstor3 kernel: [  127.378637] fcoe: No FDMI support.
Apr 25 17:50:58 krvmstor3 kernel: [  127.378716] host1: libfc: Link up on port (000000)
Apr 25 17:51:07 krvmstor3 kernel: [  136.606764] Rounding down aligned max_sectors from 4294967295 to 4294967288
Apr 25 17:51:08 krvmstor3 kernel: [  137.692540] Unable to load target_core_pscsi
Apr 25 17:51:08 krvmstor3 kernel: [  137.698303] Rounding down aligned max_sectors from 4294967295 to 4294967288
Apr 25 17:51:12 krvmstor3 fcoemon: FC_HOST_EVENT 2 at 1366897872 secs on host1:code 4=lip_reset datalen 4 data=0
Apr 25 17:51:26 krvmstor3 fcoemon: FC_HOST_EVENT 3 at 1366897886 secs on host1:code 4=lip_reset datalen 4 data=0
Apr 25 17:51:40 krvmstor3 fcoemon: FC_HOST_EVENT 4 at 1366897900 secs on host1:code 4=lip_reset datalen 4 data=0
Apr 25 17:51:54 krvmstor3 fcoemon: FC_HOST_EVENT 5 at 1366897914 secs on host1:code 4=lip_reset datalen 4 data=0
Apr 25 17:52:08 krvmstor3 fcoemon: FC_HOST_EVENT 6 at 1366897928 secs on host1:code 4=lip_reset datalen 4 data=0
Apr 25 17:52:22 krvmstor3 fcoemon: FC_HOST_EVENT 7 at 1366897942 secs on host1:code 4=lip_reset datalen 4 data=0
Apr 25 17:52:36 krvmstor3 fcoemon: FC_HOST_EVENT 8 at 1366897956 secs on host1:code 4=lip_reset datalen 4 data=0
Apr 25 17:52:50 krvmstor3 fcoemon: FC_HOST_EVENT 9 at 1366897970 secs on host1:code 4=lip_reset datalen 4 data=0
Apr 25 17:53:04 krvmstor3 fcoemon: FC_HOST_EVENT 10 at 1366897984 secs on host1:code 4=lip_reset datalen 4 data=0
...
и так до бесконечности

инициатор:

Apr 25 22:07:03 rrvmstor kernel: [ 1600.277912] scsi4 : FCoE Driver
Apr 25 22:07:03 rrvmstor kernel: [ 1600.278123] fcoe: No FDMI support.
Apr 25 22:07:03 rrvmstor kernel: [ 1600.278204] host4: libfc: Link up on port (000000)
Apr 25 22:07:17 rrvmstor fcoemon: FC_HOST_EVENT 91 at 1366913237 secs on host4:code 4=lip_reset datalen 4 data=0
Apr 25 22:07:31 rrvmstor fcoemon: FC_HOST_EVENT 92 at 1366913251 secs on host4:code 4=lip_reset datalen 4 data=0
Apr 25 22:07:45 rrvmstor fcoemon: FC_HOST_EVENT 93 at 1366913265 secs on host4:code 4=lip_reset datalen 4 data=0
Apr 25 22:07:59 rrvmstor fcoemon: FC_HOST_EVENT 94 at 1366913279 secs on host4:code 4=lip_reset datalen 4 data=0
...
Да, ядра пробовал 3.4, 3.8.

А почему не IB? Стоят примерно одинаково с FC. Если в пределах датацентра/серверной, то лучше соединения, пожалуй, не найти.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

Потому что достаточно слабая поддержка со стороны вендоров. Да и опять получается две отдельных сети.

А я хочу взять парочку Cisco Nexus 5k и объеденить SAN и LAN в единых 10G портах езернет. А с IB доступен только IPoverIB, езрент вроде через него гонять не научились.

blind_oracle ★★★★★
() автор топика
Ответ на: комментарий от blind_oracle

А с IB доступен только IPoverIB, езрент вроде через него гонять не научились.

оракуловый fabric interconnect очень даже умеет )
может кто ещё умеет IB IO-virtualization, особо не слышал.

EvgGad_303 ★★★★★
()
Ответ на: комментарий от EvgGad_303

Ну вот как бы да, местячковая поддержка где-то как-то. Я изначально хотел по IB гонять iSCSI, но потом одумался и не жалею особо :) С IB геморой еще в том, что нужен доп. софт для поддержки сети насколько я помню.

blind_oracle ★★★★★
() автор топика
Ответ на: комментарий от blind_oracle

но потом одумался и не жалею особо :)

главное что бы самого устраивало, душевное равновесие очень важно )

С IB геморой еще в том, что нужен доп. софт для поддержки сети насколько я помню.

я бы не назвал это гемором, хотя кому как. но по-мне так очень удобно рулить всеми соединениями с одного места, а учитывая пропускную способность IB добавление интерфейсов не требует занимательных путешествий в DC и установки дополнительных физических карт, ну и такое маленькое отличие от FCoE - инфа о vNICs и vHBAs хранится не на CNA, что при живых миграциях IO профилей или виртуальных интерфейсов обеспечит трезвость рассудка и, то самое, душевное равновесие, ну и как тут принято говорить, ваши волосы бла-бла-бла ))

EvgGad_303 ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.