LINUX.ORG.RU
ФорумAdmin

VmWare ESX bonding vs. Linux bonding + pass-through NICs


0

1

У меня вопрос к тем у кого есть опыт настройки бондинга на ESX. Как я понял варианта есть два:

1) Добавить в vSwitch два аплинка и сконфигурировать NIC teaming в конфигах vSwitch'а. При этом в VM'ке у нас допустим один (виртуальный) интерфейс подключенный к этому vSwitch'у.

2) Пробросить физические интерфейсы с ESX'а напрямую (pass-through) в VM'ку с Linux и сделать бонд с помощью bonding драйвера. При этом, как и в первом случае, в VM'ке всего один интерфейс, в этом случае bond0.

Собственно вопрос в том, какой вариант более производительный - бондинг средствами ESX и хождение через vSwitch или бондинг средствами Linux прямо на физических интерфейсах? Кто-нибудь сравнивал такие конфигурации? Существенная ли разница по скорости?

P.S. У меня нет сейчас доступа к железу на котором я бы мог сам это проверить.

Быстрее, конечно, пробросить обе сетевухи в виртуалку. Только после этого они другим виртуалкам-то доступны не будут + будет невозможна их миграция на другой хост.

Так что смысла особого нет, да и прирост скорости там не велик.

blind_oracle ★★★★★ ()
Ответ на: комментарий от blind_oracle

после этого они другим виртуалкам-то доступны не будут

У меня весьма экзотический случай когда на ESX'е только одна VM'ка и миграция не требуется

да и прирост скорости там не велик.

Не помнишь случайно порядок цифр? Это 3-5% или 15-20%?

Krivenok_Dmitry ()
Ответ на: комментарий от Krivenok_Dmitry

Если гигабит то разницы никакой почти не будет, если 10ка, то уже процентов 5-10, я думаю. Спецательно не мерял, у вмвары есть где-то документ, поищу.

blind_oracle ★★★★★ ()
Ответ на: комментарий от Krivenok_Dmitry

http://blogs.vmware.com/performance/2010/12/performance-and-use-cases-of-vmwa...

http://www.vmware.com/files/pdf/techpaper/network-io-latency-perf-vsphere5.pdf

Immediately, you can see the benefits of DirectPath I/O at high packet rates (100,000 PPS). However, it is equally clear that at lower packet rates, the benefits of DirectPath I/O are not as significant. At 10,000 PPS, DirectPath I/O can only save about 6% of one core

Бывает даже наоборот:

We also looked at the performance of an OLTP-like workload with SAP and DB2 [4] on a 4-socket Intel X-7550 machine with one 8-vcpu VM. Virtual NIC out-performs DirectPath I/O by about 3% in the default configuration.

blind_oracle ★★★★★ ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.