LINUX.ORG.RU

Сообщения tarabukinivan

 

Не могу настроить lxc контейнер yf гигтег 20.04, не работает dns

Раньше пользовался lxc контейнером и проблем не бывало. Сейчас в контейнере lxc не работает dns Установил контейнер так:

sudo lxc-create -t download -n my-lxc -- -d ubuntu -r focal -a amd64

установил apparmor. Запустил контейнер lxc-info -n ubuntu-lxc, статус running

config:

lxc.include = /usr/share/lxc/config/common.conf
lxc.arch = linux64

# Container specific configuration
lxc.rootfs.path = dir:/var/lib/lxc/ubuntu-lxc/rootfs
lxc.uts.name = ubuntu-lxc
net.ipv4.conf.[link].forwarding=1
# Network configuration
lxc.net.0.type = veth
lxc.net.0.link = lxcbr0
lxc.net.0.flags = up
lxc.net.0.hwaddr = 00:16:3e:0f:14:e7

Добавил прероутинг:

*nat
:PREROUTING ACCEPT [5470:797203]
:OUTPUT ACCEPT [6156:931073]
-A POSTROUTING -s 10.0.3.0/24 -o enp0s31f6 -j MASQUERADE
COMMIT
*filter
-A INPUT -i lo -j ACCEPT
-A OUTPUT -o lo -j ACCEPT

-A INPUT -i enp0s31f6 -m state --state ESTABLISHED,RELATED -j ACCEPT
-A OUTPUT -o enp0s31f6 -m state --state ESTABLISHED,RELATED -j ACCEPT
-A FORWARD -m state --state ESTABLISHED,RELATED -j ACCEPT
#закрыть
-A INPUT -p tcp -m tcp --dport 33337 -m state --state NEW -j ACCEPT

#нельзя
-A INPUT -s 97.131.142.27/32 -p tcp -m tcp --dport 33337 -m state --state NEW,ESTABLISHED,RELATED -j ACCEPT
-A INPUT -s 97.131.142.27/32 -m state --state NEW -j ACCEPT
#нельзя
-A INPUT -p tcp -m tcp --dport 111 -j DROP
-A INPUT -p udp -m udp --dport 111 -j DROP
#похоже не нужно
-A OUTPUT -p tcp -m tcp --dport 111 -j DROP
-A OUTPUT -p udp -m udp --dport 111 -j DROP
#пиры

#на DROP
:INPUT DROP
:FORWARD ACCEPT

#ACCEPT
:OUTPUT ACCEPT
COMMIT

В nano /etc/sysctl.conf включил net.ipv4.ip_forward=1, net.ipv6.conf.all.forwarding=1 Зашел в контейнер cd /var/lib/lxc/ubuntu-lxc, chroot rootfs/ Задал пароль для рут. И пингую.

ping 8.8.8.8
PING 8.8.8.8 (8.8.8.8) 56(84) bytes of data.
64 bytes from 8.8.8.8: icmp_seq=1 ttl=119 time=6.39 ms
64 bytes from 8.8.8.8: icmp_seq=2 ttl=119 time=6.38 ms
64 bytes from 8.8.8.8: icmp_seq=3 ttl=119 time=6.35 ms
 ping ya.ru
ping: ya.ru: Temporary failure in name resolution

ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: enp0s31f6: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000
    link/ether 90:1b:0e:fe:2f:e9 brd ff:ff:ff:ff:ff:ff
    inet 95.216.241.100/32 scope global enp0s31f6
       valid_lft forever preferred_lft forever
    inet6 2a01:4f9:2b:2388::2/64 scope global
       valid_lft forever preferred_lft forever
    inet6 fe80::921b:eff:fefe:2fe9/64 scope link
       valid_lft forever preferred_lft forever
3: lxcbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 00:16:3e:00:00:00 brd ff:ff:ff:ff:ff:ff
    inet 10.0.3.1/24 brd 10.0.3.255 scope global lxcbr0
       valid_lft forever preferred_lft forever
    inet6 fe80::216:3eff:fe00:0/64 scope link
       valid_lft forever preferred_lft forever
26: vethk1Dp9r@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master lxcbr0 state UP group default qlen 1000
    link/ether fe:d6:d5:77:8c:33 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet6 fe80::fcd6:d5ff:fe77:8c33/64 scope link
       valid_lft forever preferred_lft forever

vi /etc/netplan/10-lxc.yaml

network:
  version: 2
  ethernets:
    eth0:
      dhcp4: true
      dhcp-identifier: mac

Если ставлю вручную так:

network:
  version: 2
  ethernets:
    eth0:
      dhcp4: false
      addresses:
      - 10.0.3.134/24
      gateway4: 10.0.3.1
      nameservers:
        addresses:
          - 8.8.8.8

netplan try выводит:

Failed to connect to bus: No such file or directory

An error occurred: Command '['systemctl', 'daemon-reload']' returned non-zero exit status 1.

Reverting.
Failed to connect to bus: No such file or directory
Failed to connect to bus: No such file or directory
Traceback (most recent call last):
  File "/usr/share/netplan/netplan/cli/commands/try_command.py", line 99, in command_try
    NetplanApply().command_apply(run_generate=True, sync=True, exit_on_error=False, state_dir=self.state)
  File "/usr/share/netplan/netplan/cli/commands/apply.py", line 165, in command_apply
    utils.systemctl_daemon_reload()
  File "/usr/share/netplan/netplan/cli/utils.py", line 120, in systemctl_daemon_reload
    subprocess.check_call(['systemctl', 'daemon-reload'])
  File "/usr/lib/python3.8/subprocess.py", line 364, in check_call
    raise CalledProcessError(retcode, cmd)
subprocess.CalledProcessError: Command '['systemctl', 'daemon-reload']' returned non-zero exit status 1.

During handling of the above exception, another exception occurred:

Traceback (most recent call last):
  File "/usr/sbin/netplan", line 23, in <module>
    netplan.main()
  File "/usr/share/netplan/netplan/cli/core.py", line 50, in main
    self.run_command()
  File "/usr/share/netplan/netplan/cli/utils.py", line 247, in run_command
    self.func()
  File "/usr/share/netplan/netplan/cli/commands/try_command.py", line 81, in run
    self.run_command()
  File "/usr/share/netplan/netplan/cli/utils.py", line 247, in run_command
    self.func()
  File "/usr/share/netplan/netplan/cli/commands/try_command.py", line 113, in command_try
    self.revert()
  File "/usr/share/netplan/netplan/cli/commands/try_command.py", line 143, in revert
    NetplanApply().command_apply(run_generate=False, sync=True, exit_on_error=False, state_dir=tempdir)
  File "/usr/share/netplan/netplan/cli/commands/apply.py", line 173, in command_apply
    utils.systemctl('stop', wpa_services, sync=sync)
  File "/usr/share/netplan/netplan/cli/utils.py", line 89, in systemctl
    subprocess.check_call(command)
  File "/usr/lib/python3.8/subprocess.py", line 364, in check_call
    raise CalledProcessError(retcode, cmd)
subprocess.CalledProcessError: Command '['systemctl', 'stop', 'netplan-wpa-*.service']' returned non-zero exit status 1.

Если прописать днс в vi /etc/systemd/resolved.conf, то systemctl status systemd-resolved выводит:

Failed to connect to bus: No such file or directory

Подскажите пожалуйста как настроить днс сервер. apt install ничего не работает.

apt install net-tools

Reading package lists... Done
Building dependency tree
Reading state information... Done
The following NEW packages will be installed:
  net-tools
0 upgraded, 1 newly installed, 0 to remove and 0 not upgraded.
Need to get 196 kB of archives.
After this operation, 864 kB of additional disk space will be used.
Err:1 http://archive.ubuntu.com/ubuntu focal/main amd64 net-tools amd64 1.60+git20180626.aebd88e-1ubuntu1
  Temporary failure resolving 'archive.ubuntu.com'
E: Failed to fetch http://archive.ubuntu.com/ubuntu/pool/main/n/net-tools/net-tools_1.60+git20180626.aebd88e-1ubuntu1_amd64.deb  Temporary failure resolving 'archive.ubuntu.com'
E: Unable to fetch some archives, maybe run apt-get update or try with --fix-missing?

 , , , ,

tarabukinivan
()

promox. нет соединения с виртуальными машинами через гипервизор

Добрый день! Стоит промох версии 7.1-8. На нем стоят убунту машины. В iptables позакрывал все порты. Пропал доступ к машинам через веб-интерфейс. Сейчас iptables полностью открыл:

root@KiraVal ~ # iptables -S
-P INPUT ACCEPT
-P FORWARD ACCEPT
-P OUTPUT ACCEPT
root@KiraVal ~ # iptables -t nat -S
-P PREROUTING ACCEPT
-P INPUT ACCEPT
-P OUTPUT ACCEPT
-P POSTROUTING ACCEPT
-A POSTROUTING -s 192.168.1.0/24 -o enp0s31f6 -j MASQUERADE
-A POSTROUTING -s 172.16.0.0/12 -o vmbr4000 -j MASQUERADE

Перезагрузил сервер, но доступа к машинам через веб-интерфейс промох нету. Ошибка: TASK ERROR: connection timed out Через ссш все работает. Хочу установить еще одну виртуалку, но из-за этого не могу установить. https://oshi.at/xesJ/akLI.png сеть

source /etc/network/interfaces.d/*

auto lo
iface lo inet loopback
iface lo inet6 loopback

auto enp0s31f6
iface enp0s31f6 inet static
  address 46.4.96.45
#  offload-gso off
#  offload-gro off
#  offload-tso off
#  offload-rx off
#  offload-tx off
#  offload-rxvlan off
#  offload-txvlan off
#  offload-sg off
#  offload-ufo off
#  offload-lro off
  hwaddress 90:1b:0e:8e:45:f8
  netmask 255.255.255.224
  pointopoint 46.4.96.33
  gateway 46.4.96.33
  # route 46.4.96.32/27 via 46.4.96.33
#  up route add -net 46.4.96.32 netmask 255.255.255.224 gw 46.4.96.33 dev enp0s31f6

iface enp0s31f6.4000 inet manual
auto vmbr4000
iface vmbr4000 inet manual
#  offload-gso off
#  offload-gro off
#  offload-tso off
#  offload-rx off
#  offload-tx off
#  offload-rxvlan off
#  offload-txvlan off
#  offload-sg off
#  offload-ufo off
#  offload-lro off
  hwaddress 90:1b:0e:8e:45:f8
  bridge-ports enp0s31f6.4000
  bridge-stp off
  bridge-fd 0
  mtu 1400
  up ip addr add 192.168.100.3/24 dev vmbr4000
  metric 20
  post-up echo 1 > /proc/sys/net/ipv4/ip_forward

iface enp0s31f6 inet6 static
        address 2a01:4f8:172:10de::2/64
        gateway fe80::1

auto vmbr1
iface vmbr1 inet manual
        bridge-ports none
        bridge-stp off
        bridge-fd 0
        up ip addr add 192.168.1.1/24 dev vmbr1
        metric 30
        post-up echo 1 > /proc/sys/net/ipv4/ip_forward
        post-up iptables -t nat -A POSTROUTING -s 192.168.1.0/24 -o enp0s31f6 -j MASQUERADE
        post-down iptables -t nat -D POSTROUTING -s 192.168.1.0/24 -o enp0s31f6 -j MASQUERADE
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
auto vmbr2
iface vmbr2 inet manual
        bridge-ports none
        bridge-stp off
        bridge-fd 0
        up ip addr add 172.20.1.2/12 dev vmbr2
        post-up echo 1 > /proc/sys/net/ipv4/ip_forward
        post-up iptables -t nat -A POSTROUTING -s 172.20.1.0/12 -o vmbr4000 -j MASQUERADE
        post-down iptables -t nat -D POSTROUTING -s 172.20.1.0/12 -o vmbr4000 -j MASQUERADE

Подскажите пожалуйста что проверить?

 ,

tarabukinivan
()

Простой вопрос по iptables

У меня есть такие правила:

*raw
:PREROUTING ACCEPT
:OUTPUT ACCEPT
COMMIT
*filter
-A INPUT -i lo -j ACCEPT
-A OUTPUT -o lo -j ACCEPT

-A INPUT -i enp0s31f6 -m state --state ESTABLISHED,RELATED -j ACCEPT
-A OUTPUT -o enp0s31f6 -m state --state ESTABLISHED,RELATED -j ACCEPT
-A FORWARD -m state --state ESTABLISHED,RELATED -j ACCEPT

-A INPUT -p tcp -m tcp --dport 33335 -m state --state NEW -j ACCEPT
-A INPUT -s 192.168.100.0/24 -j ACCEPT
-A INPUT -s 192.168.1.0/24 -j ACCEPT
-A INPUT -s 172.20.1.0/12 -j ACCEPT
-A FORWARD -p tcp -m tcp --dport 33335 -j ACCEPT
-A FORWARD -p tcp -m tcp --dport 26656 -j ACCEPT
-A FORWARD -p tcp -m tcp --dport 26657 -j ACCEPT
-A FORWARD -s 192.168.100.3 -j ACCEPT
-A FORWARD -s 192.168.1.38 -j ACCEPT
-A FORWARD -s 172.20.1.0/12 -j ACCEPT
#ip с интернета
-A INPUT -s 173.249.42.34 -j ACCEPT
-A INPUT -s 194.163.131.86 -j ACCEPT
-A INPUT -s 144.76.219.187 -j ACCEPT

-A FORWARD -p tcp -m tcp --dport 33331 -j ACCEPT
-A FORWARD -p tcp -m tcp --dport 33333 -j ACCEPT
-A FORWARD -s 192.168.100.0/24 -j ACCEPT
-A FORWARD -s 172.20.1.0/24 -o vmbr4000 -j ACCEPT
-A FORWARD -s 192.168.1.0/24 -j ACCEPT

#закрыть
-A INPUT -p tcp -m tcp --dport 33333 -m state --state NEW -j ACCEPT
-A INPUT -p tcp -m tcp --dport 33331 -m state --state NEW -j ACCEPT
-A INPUT -p tcp -m tcp --dport 8006 -m state --state NEW -j ACCEPT
-A FORWARD -p tcp -m tcp --dport 22 -j ACCEPT
-A INPUT -p icmp -j ACCEPT
#-A FORWARD -s 192.168.1.39 -j ACCEPT

#на DROP
:INPUT DROP
:FORWARD DROP

#ACCEPT
:OUTPUT ACCEPT
COMMIT

*nat

-A PREROUTING -i enp0s31f6 -p tcp --dport 33331 -j DNAT --to 192.168.1.38:22
-A PREROUTING -i enp0s31f6 -p tcp --dport 26656 -j DNAT --to 192.168.1.38:26656
-A PREROUTING -i enp0s31f6 -p tcp --dport 26657 -j DNAT --to 192.168.1.38:26657

-A PREROUTING -i enp0s31f6 -p tcp --dport 33333 -j DNAT --to 192.168.1.39:22

-A PREROUTING -i vmbr4000 -s 192.168.100.3 -m tcp -p tcp --dport 33335 -j DNAT --to 192.168.100.2:33335
-A PREROUTING -i vmbr4000 -s 192.168.100.3 -j DNAT --to 192.168.1.38
-A POSTROUTING -s 172.20.1.0/24 -o vmbr4000 -j MASQUERADE
-A POSTROUTING -s 192.168.1.38/24 -o enp0s31f6 -j MASQUERADE
COMMIT

По таблице iptables видно, что очередь фильтрации такой mangle, nat, filter

То получается пакеты указанные в нат 26656, 26657 они не будут тронуты правилами в filter*? Т.е. все адреса будут проходить через указанные порты? Если я хочу заблокировать все кроме указанных ip т.е. 173.249.42.34,194.163.131.86,144.76.219.187 для портов (33331, 33333, 26656, 26657), то мне нужно их заблокировать на хосте 192.168.1.38? Или можно заблокировать в mangle?

Короче говоря, мне нужно 33331,33333,33335 разрешить для всех ip, а порты 26656, 26657 которые будут перенаправлены в хост 192.168.1.38 разрешить только для 173.249.42.34,194.163.131.86,144.76.219.187

И что за raw, это mangle? Она появилась при сохранении правил (iptables-save)

 

tarabukinivan
()

proxmox периодически падает сеть

Стоит ds на Hetzner. Периодически падает сеть. Пропадает сеть полностью. Приходится перезагружать сервер, потом работает где-то день. Характеристики сервера: Intel Core i7-6700 2x RAM 16384 MB DDR4 2x SSD SATA 512 GB

На сервере подняты 2 виртуальные машины ubuntu 20.04, сети у машин VirtIO (paravirtualized). pveversion:

 pveversion -v
proxmox-ve: 6.4-1 (running kernel: 5.4.157-1-pve)
pve-manager: 6.4-13 (running version: 6.4-13/9f411e79)
pve-kernel-5.4: 6.4-11
pve-kernel-helper: 6.4-11
pve-kernel-5.4.157-1-pve: 5.4.157-1
pve-kernel-4.15: 5.4-19
pve-kernel-4.15.18-30-pve: 4.15.18-58
ceph-fuse: 12.2.11+dfsg1-2.1+b1
corosync: 3.1.5-pve2~bpo10+1
criu: 3.11-3
glusterfs-client: 5.5-3
ifupdown: 0.8.35+pve1
libjs-extjs: 6.0.1-10
libknet1: 1.22-pve2~bpo10+1
libproxmox-acme-perl: 1.1.0
libproxmox-backup-qemu0: 1.1.0-1
libpve-access-control: 6.4-3
libpve-apiclient-perl: 3.1-3
libpve-common-perl: 6.4-4
libpve-guest-common-perl: 3.1-5
libpve-http-server-perl: 3.2-3
libpve-storage-perl: 6.4-1
libqb0: 1.0.5-1
libspice-server1: 0.14.2-4~pve6+1
lvm2: 2.03.02-pve4
lxc-pve: 4.0.6-2
lxcfs: 4.0.6-pve1
novnc-pve: 1.1.0-1
proxmox-backup-client: 1.1.13-2
proxmox-mini-journalreader: 1.1-1
proxmox-widget-toolkit: 2.6-1
pve-cluster: 6.4-1
pve-container: 3.3-6
pve-docs: 6.4-2
pve-edk2-firmware: 2.20200531-1
pve-firewall: 4.1-4
pve-firmware: 3.3-2
pve-ha-manager: 3.1-1
pve-i18n: 2.3-1
pve-qemu-kvm: 5.2.0-6
pve-xtermjs: 4.7.0-3
qemu-server: 6.4-2
smartmontools: 7.2-pve2
spiceterm: 3.1-1
vncterm: 1.6-2
zfsutils-linux: 2.0.6-pve1~bpo10+1

Настройка сети на хосте:

source /etc/network/interfaces.d/*

auto lo
iface lo inet loopback
iface lo inet6 loopback

auto enp0s31f6
iface enp0s31f6 inet static
  address ip-hetzner
  netmask 255.255.255.192
  pointopoint шлюз-хетзнер
  gateway шлюз-хетзнер
  
iface enp0s31f6 inet6 static
  address 2a01:4f8:172:10de::2
  netmask 64
  gateway fe80::1

iface enp0s31f6.4000 inet manual
auto vmbr4000
iface vmbr4000 inet manual
  bridge-ports enp0s31f6.4000
  bridge-stp off
  bridge-fd 0
  mtu 1400
  up ip addr add 192.168.100.2/24 dev vmbr4000
  metric 20
  post-up echo 1 > /proc/sys/net/ipv4/ip_forward

auto vmbr1
iface vmbr1 inet manual
bridge-ports none
  bridge-stp off
  bridge-fd 0
  up ip addr add 192.168.1.1/24 dev vmbr1
  metric 30
  post-up echo 1 > /proc/sys/net/ipv4/ip_forward
  post-up iptables -t nat -A POSTROUTING -s 192.168.1.0/24 -o enp0s31f6 -j MASQUERADE
  post-down iptables -t nat -D POSTROUTING -s 192.168.1.0/24 -o enp0s31f6 -j MASQUERADE

auto vmbr2
iface vmbr2 inet manual
  bridge-ports none
  bridge-stp off
  bridge-fd 0
  up ip addr add 172.20.1.1/12 dev vmbr2
  post-up echo 1 > /proc/sys/net/ipv4/ip_forward
  post-up iptables -t nat -A POSTROUTING -s 172.20.1.0/12 -o vmbr4000 -j MASQUERADE
  post-down iptables -t nat -D POSTROUTING -s 172.20.1.0/12 -o vmbr4000 -j MASQUERADE

Интерфейс enp0s31f6.4000 через vlan коннектится с другим ds с такими же настройками (Только ip на том 192.168.100.3/24). У виртуальной машины 2 сетевых интерфейса: vmbr1 через MASQUERADE идет в интернет, vmbr2 перенаправляется в vlan vmbr4000

Log /var/log/messages

Jan  9 00:00:02 TarabKira rsyslogd:  [origin software="rsyslogd" swVersion="8.1901.0" x-pid="588" x-info="https://www.rsyslog.com"] rsyslogd was HUPed
Jan  9 00:06:10 TarabKira kernel: [294007.528832] vmbr4000: port 1(enp0s31f6.4000) entered disabled state
Jan  9 00:06:14 TarabKira kernel: [294011.622777] e1000e: enp0s31f6 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx
Jan  9 00:06:14 TarabKira kernel: [294011.623071] vmbr4000: port 1(enp0s31f6.4000) entered blocking state
Jan  9 00:06:14 TarabKira kernel: [294011.623172] vmbr4000: port 1(enp0s31f6.4000) entered forwarding state
Jan  9 00:17:37 TarabKira kernel: [294694.616916] vmbr4000: port 1(enp0s31f6.4000) entered disabled state
Jan  9 00:17:41 TarabKira kernel: [294698.226216] e1000e: enp0s31f6 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx
Jan  9 00:17:41 TarabKira kernel: [294698.226502] vmbr4000: port 1(enp0s31f6.4000) entered blocking state
Jan  9 00:17:41 TarabKira kernel: [294698.226604] vmbr4000: port 1(enp0s31f6.4000) entered forwarding state
Jan  9 00:30:28 TarabKira kernel: [295465.420335] vmbr4000: port 1(enp0s31f6.4000) entered disabled state
Jan  9 00:30:32 TarabKira kernel: [295469.117002] e1000e: enp0s31f6 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx
Jan  9 00:30:32 TarabKira kernel: [295469.117302] vmbr4000: port 1(enp0s31f6.4000) entered blocking state
Jan  9 00:30:32 TarabKira kernel: [295469.117403] vmbr4000: port 1(enp0s31f6.4000) entered forwarding state
Jan  9 00:37:31 TarabKira kernel: [295888.581183] vmbr4000: port 1(enp0s31f6.4000) entered disabled state
Jan  9 00:37:35 TarabKira kernel: [295892.728702] e1000e: enp0s31f6 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx
Jan  9 00:37:35 TarabKira kernel: [295892.728950] vmbr4000: port 1(enp0s31f6.4000) entered blocking state
Jan  9 00:37:35 TarabKira kernel: [295892.729053] vmbr4000: port 1(enp0s31f6.4000) entered forwarding state
Jan  9 00:46:08 TarabKira kernel: [296405.436264] vmbr4000: port 1(enp0s31f6.4000) entered disabled state
Jan  9 00:46:12 TarabKira kernel: [296409.495098] e1000e: enp0s31f6 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx
Jan  9 00:46:12 TarabKira kernel: [296409.495416] vmbr4000: port 1(enp0s31f6.4000) entered blocking state
Jan  9 00:46:12 TarabKira kernel: [296409.495517] vmbr4000: port 1(enp0s31f6.4000) entered forwarding state
Jan  9 00:54:57 TarabKira kernel: [296934.583042] vmbr4000: port 1(enp0s31f6.4000) entered disabled state
Jan  9 00:55:01 TarabKira kernel: [296938.678079] e1000e: enp0s31f6 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx
Jan  9 00:55:01 TarabKira kernel: [296938.678357] vmbr4000: port 1(enp0s31f6.4000) entered blocking state
Jan  9 00:55:01 TarabKira kernel: [296938.678458] vmbr4000: port 1(enp0s31f6.4000) entered forwarding state
Jan  9 01:19:54 TarabKira kernel: [298431.641698] vmbr4000: port 1(enp0s31f6.4000) entered disabled state
Jan  9 01:19:58 TarabKira kernel: [298435.717802] e1000e: enp0s31f6 NIC Link is Up 1000 Mbps Full Duplex, Flow Control: Rx/Tx
Jan  9 01:19:58 TarabKira kernel: [298435.718090] vmbr4000: port 1(enp0s31f6.4000) entered blocking state
Jan  9 01:19:58 TarabKira kernel: [298435.718191] vmbr4000: port 1(enp0s31f6.4000) entered forwarding state

незнаю почему здесь показывает e1000e, когда стоит virtio brctl show vmbr4000:

bridge name     bridge id               STP enabled     interfaces
vmbr4000                8000.901b0eaba507       no              enp0s31f6.4000

Какие советы можете дать? Спасибо!

 

tarabukinivan
()

Как перенаправить трафик с виртуалки на виртуалку по vswith

Добрый день! Есть 2 VDS на Hetzner. На хостах стоит promox 6.4-13. Между хостами vswitch id4000. Настройки такие:

source /etc/network/interfaces.d/*

auto lo
iface lo inet loopback
iface lo inet6 loopback

auto enp0s31f6
iface enp0s31f6 inet static
  address 46.4.96.45
  netmask 255.255.255.224
  pointopoint 46.4.96.33
  gateway 46.4.96.33
  # route 46.4.96.32/27 via 46.4.96.33
#  up route add -net 46.4.96.32 netmask 255.255.255.224 gw 46.4.96.33 dev enp0s31f6

iface enp0s31f6.4000 inet manual
auto vmbr4000
iface vmbr4000 inet manual
  bridge-ports enp0s31f6.4000
  bridge-stp off
  bridge-fd 0
  mtu 1400
  up ip addr add 192.168.100.3/24 dev vmbr4000
  echo "1 vswitch" >> /etc/iproute2/rt_tables
  post-up echo 1 > /proc/sys/net/ipv4/ip_forward


iface enp0s31f6 inet6 static
        address 2a01:4f8:172:10de::2/64
        gateway fe80::1

auto vmbr1
iface vmbr1 inet static
        address 192.168.1.3/24
        bridge-ports none
        bridge-stp off
        bridge-fd 0
        post-up echo 1 > /proc/sys/net/ipv4/ip_forward
        post-up iptables -t nat -A POSTROUTING -s '192.168.1.0/24' -o enp0s31f6 -j MASQUERADE
        post-down iptables -t nat -D POSTROUTING -s '192.168.1.0/24' -o enp0s31f6 -j MASQUERADE

и

source /etc/network/interfaces.d/*

auto lo
iface lo inet loopback
iface lo inet6 loopback

auto enp0s31f6
iface enp0s31f6 inet static
  address 138.201.55.223
  netmask 255.255.255.192
  gateway 138.201.55.193
  # route 138.201.55.192/26 via 138.201.55.193
#  up route add -net 138.201.55.192 netmask 255.255.255.192 gw 138.201.55.193 dev enp0s31f6

iface enp0s31f6.4000 inet manual
auto vmbr4000
iface vmbr4000 inet manual
  bridge-ports enp0s31f6.4000
  bridge-stp off
  bridge-fd 0
  mtu 1400
  up ip addr add 192.168.100.2/24 dev vmbr4000

iface enp0s31f6 inet6 static
        address 2a01:4f8:172:10de::2/64
        gateway fe80::1

auto vmbr1
iface vmbr1 inet static
        address 192.168.1.2/24
        bridge-ports none
        bridge-stp off
        bridge-fd 0
#echo "1 vswitch" >> /etc/iproute2/rt_tables
        post-up echo 1 > /proc/sys/net/ipv4/ip_forward
        post-up iptables -t nat -A POSTROUTING -s '192.168.1.0/24' -o enp0s31f6 -j MASQUERADE
        post-down iptables -t nat -D POSTROUTING -s '192.168.1.0/24' -o enp0s31f6 -j MASQUERADE

У гостевых (ubuntu 20.04):

network:
  ethernets:
    ens18:
	  dhcp4: false
	  addresses:
	  - 192.168.1.46/24(192.168.1.138/24 - второй)
	  gateway4: 192.168.1.3(192.168.1.2)
  version: 2

На виртуалках стоят ноды. Пинги с хоста address 46.4.96.45 до 192.168.1.46(гостевой на том же хосте) и 192.168.100.2(локальный ip второго сервера) есть. Ноды имеют доступ к интернету (отключить нельзя), друг с другом должны соединиться по локалке. гостевые друг с другом должны соединиться через хосты. Пробовал просто добавить на гостевых такое:

  vlans:
    enp0s31f6.4000:
      id: 4000
      link: enp0s31f6
      mtu: 1400
      addresses:
        - 192.168.100.46/24 (192.168.100.138/24)

Но при такой конфигурации на интерфейсе хоста обнаруживается трафик с маком виртуалок, что показывает команда:

tcpdump -Q out -ni enp0s31f6 ether host not 90:1b:0e:8e:45:f8 and ether host not 90:1b:0e:8e:45:f8

Подскажите пожалуйста как конфигурировать сеть, чтобы гостевые видели друг друга и не было трафика с гостевыми мак адресами?

 

tarabukinivan
()

hetzner promox и vswitch

Привет! На Хетзнере стоят 2 дедика с ubuntu 20.04. На каждом по 2 виртуалки ubuntu. В личном кабинете поднял vswitch для объединения машин. Дополнительных ip нету. Она вроде не нужна для локальной сети. У обеих стоял vbox. Конфигурация сети такая:

network:
  version: 2
  renderer: networkd
  ethernets:
    enp0s31f6:
      addresses:
        - <ip-хетзнер>/32
      routes:
        - on-link: true
          to: 0.0.0.0/0
          via: 46.4.96.33 <шлюз хетзнер>
      gateway6: fe80::1
      nameservers:
        addresses:
          - 185.12.64.1
          - 185.12.64.2
  vlans:
    enp0s31f6.4000:
      id: 4000
      link: enp0s31f6
      mtu: 1400
      addresses:
        - 192.168.100.2/24

Второй тоже такой же, только ip vlan 192.168.100.3/24

Между ними все работала. Пинги между всеми машинами работали. iptables все поставил ACCEPT и плюс только:

# iptables -t nat -S
-P PREROUTING ACCEPT
-P INPUT ACCEPT
-P OUTPUT ACCEPT
-P POSTROUTING ACCEPT
-A PREROUTING -i enp0s31f6 -p tcp -m tcp --dport 33335 -j DNAT --to-destination 192.168.100.46:33335
-A PREROUTING -i enp0s31f6 -p tcp -m tcp --dport 33337 -j DNAT --to-destination 192.168.100.47:33337
-A PREROUTING -i enp0s31f6 -p tcp -m tcp --dport 33337 -j DNAT --to-destination 192.168.100.138:33338
-A PREROUTING -i enp0s31f6 -p tcp -m tcp --dport 33337 -j DNAT --to-destination 192.168.100.139:33339
-A POSTROUTING -s 192.168.100.0/24 -j MASQUERADE

Все работало. Потом решил перейти на promox. Поставил на втором сервере, первый пока оставлен на vbox

Промох не обновлял. Стоит с коробки installimage Сейчас на promox на хосте сеть такой:

auto lo
iface lo inet loopback
iface enp0s31f6 inet manual
auto vmbr0
iface vmbr0 inet static
        address <хетзнер ip>
        netmask 255.255.255.0
        gateway <хетзнер шлюз>
        bridge_ports enp0s31f6
        bridge_stp off
        bridge_fd 0
iface enp0s31f6.4000 inet manual
auto vmbr4000
iface vmbr4000 inet manual
        bridge_ports enp0s31f6.4000
        bridge_stp off
        bridge_fd 0
        mtu 1400

На виртуалках ubuntu делаю так:

network:
  version: 2
  ethernets:
    enp0s3:
      dhcp4: false
      addresses: [192.168.100.5/24]
      mtu 1400

Но пинга между серверами нет. Проверил все возможные комбинации. Что можно сделать? Спасибо!

 

tarabukinivan
()

Как увеличить место на диске

Доброго времени! Создал виртуальную машину с диском 425Гб. https://ibb.co/XCQcFFq При установке ubuntu выбрал LVM и указал размер 200Гб. fdisk -l: https://ibb.co/L0LBcV0

Думал LVM диск сама растягивается, но когда пробовал заполнить диск копированием данных на 200Гб место закончилось. Подскажите пожалуйста как добавить оставшиеся 200 Гб хотя бы фиксированно или как сделать, чтобы диск растягивался?

 ,

tarabukinivan
()

Проброс портов

Добрый день! Есть 3 удаленных сервера (Ubuntu 20):

  1. с локальным ip - 172.31.18.125 и публ. ip - 18.198.226.57

  2. с ip - 185.214.134.193

  3. с ip - 188.128.75.18 Серверы соединяются через интернет. Нужно настроить так: На 1. локальная карта может общаться только с серверами 2 и 3 2 и 3 могут общаться только с локальной картой 1.

Заранее спасибо!

 ,

tarabukinivan
()

Подключение удаленному серверу через Putty

Добрый день! На работе стоит http прокси сервер 10.14.254.42:3128. Т.е. во всех компьютерах с доступом в интернет в свойствах обозревателя стоит этот прокси. Все филиалы выходят в инет через центральный офис. Мне с работы нужно через SSH выйти на свои удаленные сервера. Сервера к компании не относятся и находяться вне сети компании. С дома выхожу через через Putty либо MobaXterm. Но с работы никак не работают. Как можно настроить Putty либо MobaXterm для работы через прокси сервер?

Захожу с Windows на Linux

 ,

tarabukinivan
()

RSS подписка на новые темы