LINUX.ORG.RU
ФорумAdmin

2+ PPPoE коннектов.


0

3

Здравствуйте! Вынужден обратиться к вам за помощью.

ОС: ubuntu server 11.10

Цель: Proxy сервер с одной сетевой картой на которой поднимается мнжоество PPPoE сессий. Тоесть допустим что мы делаем 10 прокси. Поднимаем для этого 10 PPPoE соединений и на каждый IP вешаем прокси.

Проблема: 1. Не как не получается задать алиас-интерфейс через /etc/network/interaces:

auto eth0
iface eth0 inet dhcp

auto eth0:1
iface eth0:1 inet dhcp

Получается только сделав так:

auto eth0
iface eth0 inet dhcp
up ifconfig eth0:1 x.x.x.x netmask x.x.x.x up
down ifconfig eth0:1 down

Проблема 2. Не получается назнчачить на интерфейс eth0 и алиас eth0:1 разные МАК адреса.

Проблема 3. Пока еще слабо представляю как поднять с каждого алиаса по PPPoE соединению.

Последующие вопросы меня пока интересуют в меньшей степени. Пока необходимо создать несколько алиасов и поднять с каждого PPPoE(маршрутизация пока не интересует).


Пппое работает уровнем ниже чем айпи, так что алиасы тут не помогут. Опять таки поэтому им нельзя разные маки сделать. Как вариант заюзать модуль macvlan, хотя зачем такой огород городить я не понял...

blind_oracle ★★★★★
()

При таком диком количестве PPPoE-соединений, не проще ли прокси-сервер никуда не привязывать? Пусть себе слушает на адресе 0.0.0.0, а лишние, если таковые имеются, зарубить либо файрволом, либо tcp_wrappers'ами.

blexey ★★★★★
()
Ответ на: комментарий от Deleted

Я вот сколько лет ядро собирал видел этот модуль, мельком пробегал описание не вдумываясь и забивал. А тут на днях как раз прочитал внимательно и осознал какая жеж это клёвая хренотень :)

Теперь вот хочу выяснить можно ли macvlan интерфейсы объединять в bonding, если можно, то им вообще цены нет) Хотя я сумневаюсь...

blind_oracle ★★★★★
()
Ответ на: комментарий от TrUnK

Итак. Проблема с множеством PPPoE сессий решена.

Теперь нужно разобраться со следующей проблемой: Шлюзом по-умолчанию прописывается последний PPPoE тунель. Все предыдущие получают пакеты, но ответить не могут.

Пробовал сделать следующее:

iptables -t mangle -A PREROUTING -i ppp0 -j CONNMARK --set-mark 1 iptables -t mangle -A OUTPUT -j CONNMARK --restore-mark

ip rule add fwmark 1 lookup internet1

ip route add default dev ppp0 table internet1 

Не получилось и не смог обнаружить почему, т.к. не знаю как проверять прохождение пакета по таблицам iptables... tshark не помог.

TrUnK
() автор топика
Ответ на: комментарий от TrUnK

Ну, по сути всё что связно с виртуалками я думаю. И не используя всякие tun-tap. Ну и вообще гибкость добавляет конфигурации.

Вот у меня, к примеру, задача - хранилище iSCSI с 4 гигабитными портами. Нужно все 4 канала максимально эффективно использовать. Если тупо их сбондить, то потом задолбаешься подбирать пары IP/MAC адресов, чтобы каждый работал через свой интерфейс. Поэтому выгоднее повесить на каждый порт свой отдельный iSCSI-портал и юзать multipath. Но при этом ты теряешь отказоустойчивость всего остального не-iSCSI траффика. Вот если бы на каждом порту создать по 2 виртуальных интерфейса и их можно было бы отдельно бондить - вот это было бы дело.

blind_oracle ★★★★★
()
Ответ на: комментарий от blind_oracle

Извини, но не понял ничего.

ВМ не хочу мутить. хочу это все на одной системе поднять(благо это вполне реально). Задачу с которой не справляюсь в данный момент я написал.

Проблема в том, что не получается пока пустить трафик по тому интерфейсу с которого он пришел(проблемы с маршрутизацией). Буду благодарен за помощь в этом вопросе.

TrUnK
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.