LINUX.ORG.RU
решено ФорумAdmin

bonding mikrotik + сервер

 ,


1

1

Добрый день, пондобилось мне сделать агрегацию каналов, хоче сделать через микротиковский свитчь. Дано микротик crs 24 порта Сервер СХД 4 сетевых карты и 2 сервера по 2 гбита. Соеденил все это в свитч на серверах настроил bonding 803ad mode но не могу теперь понять как сделать что бы они друг друга все видели, что для этого надо сделать, скажите куда копать, в первый раз с агрегацией сталкиваюсь

http://prntscr.com/8j2tak

★★★

Последнее исправление: Ien_Shepard (всего исправлений: 1)

А в чем собственно проблема ? Все должно работать, видеть друг друга они тоже должны и bonding здесь вообще не причем.

pavel38
()
Ответ на: комментарий от pavel38

так мне надо что бы с свича на схд шел канал в 4 гигабита, так оно не работает, я уже все настройки перелапатил, свитч CRS226-24G-2S

Ien_Shepard ★★★
() автор топика
Ответ на: комментарий от Ien_Shepard

Бондинг надо настраивать на обоих концах линка, т.е. и на каждом сервере, и на коммутаторе. На коммутаторе в результате должно быть настроено три бонда, первый на 4 порта, второй на 2 порта и третий на 2 порта. Все бонды должны быть сбриджованы друг с другом. Хотя на коммутаторах обычно и так все линки сбриджованы по умолчанию.

iliyap ★★★★★
()
Ответ на: комментарий от l0stparadise

та уже напрямую без свича подключил и настроил агригацию, странно просто что никак нельзя объеденить в 1 сеть интерфейсы кроме бриджа, я уже через vlan пробовал и порты транковыми делал, все в пустую. Что то мне кажется что не возможно такое на микроте, модель микрота CRS226-24G-2S

Ien_Shepard ★★★
() автор топика
Ответ на: комментарий от Ien_Shepard

Коммутатор то за 300 долларов. Он вайр спид дает только в простейших случаях, когда коммутацию выполняет микросхема коммутатора. Как только какие сервисы, хоть L2, хоть L3, приходится коммутировать пакеты до CPU, а он там всего то мипс на 400 мегагерц.

iliyap ★★★★★
()
Ответ на: комментарий от Ien_Shepard

4 гигабита бондинг не даст, даже с Jumbo Frame. bonding делается в первую очередь для fault tolerance, а не для скорости. Прирост в лучшем случае будет процентов 30.

sicral
()
Ответ на: комментарий от sicral

спасибо за науку, я ранее не сталкивался и думал будет чудо)))

Ien_Shepard ★★★
() автор топика
Ответ на: комментарий от Ien_Shepard

Тот же, что и на сервере. Ещё проверьте что всё настроено правильно, на виртуальном интерфейсе задан IP и т.п. Больше без вывода /interface bonding print сказать не смогу.

sicral
()
Ответ на: комментарий от sicral

вот на главном сервере
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 200
Down Delay (ms): 200

802.3ad info
LACP rate: slow
Min links: 0
Aggregator selection policy (ad_select): stable
Active Aggregator Info:
Aggregator ID: 1
Number of ports: 2
Actor Key: 17
Partner Key: 17
Partner Mac Address: 00:15:17:7d:30:84

Slave Interface: eth3
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:15:17:37:8f:38
Aggregator ID: 1
Slave queue ID: 0

Slave Interface: eth5
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:15:17:37:8f:3a
Aggregator ID: 2
Slave queue ID: 0

Slave Interface: eth4
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:15:17:37:8f:3b
Aggregator ID: 2
Slave queue ID: 0

Slave Interface: eth2
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:15:17:37:8f:39
Aggregator ID: 1
Slave queue ID: 0

Ien_Shepard ★★★
() автор топика
Ответ на: комментарий от Ien_Shepard

а вот нода которая не видит сервер

Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 200
Down Delay (ms): 200

802.3ad info
LACP rate: slow
Min links: 0
Aggregator selection policy (ad_select): stable
Active Aggregator Info:
Aggregator ID: 2
Number of ports: 2
Actor Key: 17
Partner Key: 17
Partner Mac Address: 00:15:17:37:8f:38

Slave Interface: p1p1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: 00:15:17:00:43:0e
Aggregator ID: 2
Slave queue ID: 0

Slave Interface: p1p2
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: 00:15:17:00:43:0f
Aggregator ID: 2
Slave queue ID: 0

Ien_Shepard ★★★
() автор топика
Ответ на: комментарий от Ien_Shepard

Так.

Во-первых, почему количество интерфейсов разное? На рабочей ноде 4, а на нерабочей два? На схеме этого не было.

Во вторых, учитывая разные имена интерфейсов (классические и systemd-way) могу предположить, что используются разные системы. Разводить зоопарк — это харам.

В-третьих, уберите нетворкменеджер. У всех слэйвов поставьте в конфиге NM_CONTROLLED=NO. Хотя эту гадость лучше удалить совсем, ей на сервере не место.

В-четвёртых, где конфиг микротика? Где конфиги бондов? /proc/net/bonding/bond0 это хорошо, но надо видеть конфиги.

sicral
()
Ответ на: комментарий от sicral

1. На главном 4х портовая интел сетевуха с единым бондом
2. везде убунты 14.04
3. нетворк менеджера нет
4. микротик в данной схеме отсутствует, я подключил все напрямую

Ien_Shepard ★★★
() автор топика
Ответ на: комментарий от sicral

10.0.1.1 это ubuntu с 4х портовой сетевухой, а не коммутатор

Ien_Shepard ★★★
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.