LINUX.ORG.RU
ФорумAdmin

linux arp reply padding

 


0

1

Добрый день. Подскажите как в линуксе задать мимнимальный размер пакета. Дело в том, что у меня через некоторое оборудование похоже(думаю медики) не пролетают мелкие пакеты.

<Ether  dst=00:0e:5e:26:84:5f src=00:00:00:ab:cd:ef type=0x806 |<ARP  hwtype=0x1 ptype=0x800 hwlen=6 plen=4 op=is-at hwsrc=00:00:00:ab:cd:ef psrc=172.19.19.9 hwdst=00:0e:5e:26:84:5f pdst=172.19.19.11 |>>
вот такие 28 байт не долетают до адресата. а вот такие 86
<Ether  dst=00:0e:5e:26:84:5f src=00:00:00:ab:cd:ef type=0x806 |<ARP  hwtype=0x1 ptype=0x800 hwlen=6 plen=4 op=is-at hwsrc=00:00:00:ab:cd:ef psrc=172.19.19.9 hwdst=00:0e:5e:26:84:5f pdst=172.19.19.11 |<Padding  load='ffffffffffffffffffffffffffffffffffffffffffffffffffffffffff' |>>>
долетают. линукс по умолчанию отвечает пакетами без padding, соответственно на удаленном узле не заполняется arp таблица. Прописывать какие-то arp статически на удаленной стороне не вариант. Сейчас буду выяснять кто не пропускает такие пакеты и почему, после - сменю оборудование.


Дело не в длине пакета, просто совпадение, что arp выучился из дилнного, ну или как минимум не только в длине, похоже у когото мозги поехали.

swelf
() автор топика
Ответ на: комментарий от swelf

А что за оборудование? У меня таким страдали 24-портовые старшие D-link'и в связке с Cisco cat2450 с включенным spanning tree. Отключение spanning tree на cisco вылечивало проблему.

slapin ★★★★★
()
Ответ на: комментарий от slapin

там raiscom 2128ea, у меня нет физического доступа пока, но есть ощущение, что он как-то выборочно arp ответы пропускает, ибо от одного из хостов постоянно идут arp request, я ему отвечаю reply, но похоже до него не доходит он. Даже сам свич arp из reply не учит. Если поставить режим reply-all(учить и из запросов) то свич начинает работать. Сейчас я его вобще потерял) надо ногами сходить)

swelf
() автор топика
Ответ на: комментарий от swelf

Реквесты все проходят? Просто ARP-реквесты идут броадкастом, их видят все, а ответы - юникастом, ты как смотришь? Просто если не доходят все ответы, или как-то ненадёжно, это действительно или у свитча мозги поехали, или его нагрузкой положили. Если не доходят с каких-то определённых хостов, может быть до них не доходят сами запросы?

slapin ★★★★★
()
Ответ на: комментарий от slapin

по этому проводу подключено пара вланов, в влане 808 допустим все работает, а в вланах 800 и 813 не работает. Нагрузки сейчас там никакой нету. вланы 808 и 813 транзитные, 800 влан управлния в том числе. Для проверки того, что arp долетают до свича я сделал в scapy

>>sendp(p/pad,iface='eth2.800',loop=1)
т.е. посылал около 1500 арп ответов в секунду, примерно на 500-700кб/с, так как канал там свободен, то я на входящем порту проблемного коммутатора увидел всплеск трафика. Но он ничего не заучил. Потом я сделал arp aging-time = 60 секундам и потерял его. Вобщем без присутсвия на месте и мониторинга трафика, сложно сто-то сказать. Проще пока попробовать заменить коммутатор и потом уже пытаться воспроизвести проблему, если она в нем.

swelf
() автор топика
Последнее исправление: swelf (всего исправлений: 1)
Ответ на: комментарий от swelf

Не, ну в такой ситуации наверное да, или даже попробовать ему питание дёрнуть и посмотреть изменится ли что. Ну и для теста я бы склонировал транк и присмотрелся бы к тому, как там arp ходит...

slapin ★★★★★
()
Ответ на: комментарий от slapin

Дело было в том, что на вышестоящий коммутатор трафик прилетает в двойном влане, и там стоит qinq-loop для снятия влана. но в транковый порт проблемного коммутатора были разрешены все вланы, т.е. туда летел и целевой влан 800, и так же влан 1000.800 с тем же содержимым. В итоге кому-то становилось плохо. Как только на вышестоящем коммутаторе удалил с порта влан 1000, сразу все заработало.

swelf
() автор топика
Ответ на: комментарий от swelf

Да, бывало такое, не все железки нормально воспринимают несколько путей. Spanning tree должно от этого спасать, но на деле создаёт больше проблем если коммутаторы от разных вендоров.

slapin ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.