LINUX.ORG.RU
ФорумAdmin

ovirt 4.2 и его сети

 , ,


0

1

Приветствую, ЛОР!

Пытаясь проникнуться темой с ovirt, поставил последний (ovirt-engine (без --deploy)) на сервер в hetzner и этот же сервер добавил через вебу как хост кластера, после чего он отвалился с концами. Всё это из-за того, что ovirt пытается создать ovirtmgmt бридж куда суёт единственный сетевой интерфейс. Ну да ладно, я его с горем как-то оживил, прибил конфиги гвоздями (chattr) и больше он не суётся в конфигурацию сети. Вопрос, собсно, в другом. У меня на этом хосте есть куча сетей/бриджей/интерфейсов (dummy) и иже с ними. Как сделать, чтоб всё это было в вебе ovirt?

Вот сетевые интерфейсы


1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: enp0s3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 08:00:27:ae:37:c3 brd ff:ff:ff:ff:ff:ff
    inet 192.168.0.77/24 brd 192.168.0.255 scope global enp0s3
       valid_lft forever preferred_lft forever
    inet6 fe80::a00:27ff:feae:37c3/64 scope link 
       valid_lft forever preferred_lft forever
3: dummy0: <BROADCAST,NOARP,UP,LOWER_UP> mtu 1500 qdisc noqueue master br0 state UNKNOWN qlen 1000
    link/ether da:ec:60:9c:fc:91 brd ff:ff:ff:ff:ff:ff
4: dummy1: <BROADCAST,NOARP,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN qlen 1000
    link/ether 72:77:8b:b5:8b:1e brd ff:ff:ff:ff:ff:ff
5: br0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP qlen 1000
    link/ether da:ec:60:9c:fc:91 brd ff:ff:ff:ff:ff:ff
    inet 10.20.0.1/24 brd 10.20.0.255 scope global br0
       valid_lft forever preferred_lft forever
    inet6 fe80::d8ec:60ff:fe9c:fc91/64 scope link 
       valid_lft forever preferred_lft forever
6: tunl0@NONE: <NOARP> mtu 1480 qdisc noop state DOWN qlen 1
    link/ipip 0.0.0.0 brd 0.0.0.0
7: tun0@NONE: <POINTOPOINT,NOARP,UP,LOWER_UP> mtu 1480 qdisc noqueue state UNKNOWN qlen 1
    link/ipip 192.168.0.77 peer 192.168.0.76
    inet 192.168.254.2 peer 192.168.254.1/30 scope global tun0
       valid_lft forever preferred_lft forever
8: br1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UNKNOWN qlen 1000
    link/ether 8a:4e:6e:00:3e:24 brd ff:ff:ff:ff:ff:ff
    inet 10.20.1.1/24 brd 10.20.1.255 scope global br1
       valid_lft forever preferred_lft forever
    inet6 fe80::884e:6eff:fe00:3e24/64 scope link 
       valid_lft forever preferred_lft forever

Как видно тут есть br0 и br1 которые никак не относятся к enp0s3 и этого не нужно. Как мне объяснить это ovirt'у? Любая сеть, по мнению ovirt'а должна быть приаттачена к физическому интерфейсу, но мне этого не нужно. Я хочу чтоб при создании виртуалки из вебы были доступны br0 и br1 которые изолированы от физического интерфейса. Это вообще возможно?

Нет смысла в овирте на мелких инсталяциях, только много боли.

Сеть кластера настраивается на вебморде, никакие местные сети туда не попадают.

Если хочешь тестировать овирт, смотри в авс и поднимай сразу пачку в изолированной сети - хост машину + ноды исполнения, без геморроя с пробросами сети.

stave ★★★★★ ()

Ovirt сам строит сети и сам ими управляет. Самодеятельность он не всегда принимает и лучше в нее не лезть.

Если выложишь четкие требования могу попробовать помочь выполнить их на овирте

dyasny ★★★★★ ()
Ответ на: комментарий от dyasny

Я просто хочу, чтоб интерфесы виртуальных машин при создании оных были в br0 или br1 и при этом я не хочу, чтоб ovirt трогал единственный физический интерфейс машины, как это делается в libvirtd, например. Либо, я был бы Вам признателен, за ссылку на офф. доку где было бы написано, что так делать нельзя и как в проде делать _нужно_. Это мне нужно для обоснования руководству. Сам я, к сожалению, не нашёл.

Grotesque ()
Ответ на: комментарий от Grotesque

A сколько в кластере хостов будет? Ну и вообще, пока что описана техническая хотелка, мне интересно каков конечный результат, как машины должны между собой, внешним миром и машинами на других хостах общаться.

Вообще, стандартная работа овирт это мосты над физ. интерфейсами или виланами, собранные в его собственные логические сети, которые он мониторит и которыми управляет.

Еще можно накрутить сверху OVN или прицепиться к Neutron, но это уже SDN, для более сложных или гораздо более крупных установок

dyasny ★★★★★ ()
Ответ на: комментарий от anonymous

На хосте 2 dummy интерфейса что видно из первого поста. Вопрос в том, как заставить ovirt их увидеть? Статус того, что по ссылке «Dormant» + я не могу найти где там isolated: Defining an isolated (nic-less) network will be possible by checking isolated checkbox during creating the network on the DC level

Grotesque ()
Ответ на: комментарий от dyasny

В кластере один Хост, он же и ovirt-engine, он же и vdsm. Интерфейсы VM я должен видеть в бриджах brctl show и они должны иметь статическую адресацию оттуда же. Общение с другими физическими машинами будет происходить через IPIP-туннель (см. топик) и с внешним миром средствами NAT который я настрою сам на хосте с помощью iptables.

Grotesque ()
Ответ на: комментарий от Grotesque

А какую проблему должен решить именно овирт? Он же тут только мешает - отъедает ресурсы которые можно было дать машинам.

Овирт - система для кластеров а не одного хоста, я бы взял другое решение, или же вообще просто поднял машины libvirt-ом и настроил все как мне надо локально. А так получается из пушки по воробьям

dyasny ★★★★★ ()
Ответ на: комментарий от Grotesque

мне кажется, это бесполезная затея, это не goal of profit овирта. они делают хост как цельный инструмент, натягиваемый на железку и управляемый только из овирта. автоматизация ввода и вывода железа чтоли. а вы хотите кусочек овирта без сети.

зачем так много ресурсов тратить на овирт, а он реально много жрет и цпу и памяти, если один рабочий хост? ради морды управления вм? автоподъем вм ? это можно сделать и прочими средствами...

anonymous ()
Ответ на: комментарий от Grotesque

какая оркестрация? в проде кластеры овирт обычно строятся из десятков или сотен хостов, и без всей этой галиматьи с NATом.

Если хочется просто по быстрому поднимать и убивать машинки локально, то virt-install плюс ansible могут покрыть все стандартные требования. овирт решает другую проблему - центральное управление множеством хостов, стореджей, пользователей и сетей.

Для локального управления и автоматизации есть такие вещи как infrared или linchpin например

dyasny ★★★★★ ()
Ответ на: комментарий от Grotesque

я понимаю, только не получится такой тестовый стенд нормальным.

для тестов я обычно поднимаю несколько VM под либвиртом, с включенным nested kvm, и на них уже разворачиваю кластер овирт. У овирта для этого даже готовая автоматизация есть, называется Lago, хотя я делаю все то же самое гораздо проще

dyasny ★★★★★ ()