LINUX.ORG.RU

Сообщения ne-vlezay

 

Frrouting 10

Новости — Интернет
Группа Интернет

Состоялся выпуск программы динамической маршрутизации frrouting 10.0. Вот основные новшества:

  • Возможность анонсирования ip адресов, добавленных через redistribute local;
  • минимальная версия libyang повышена до 2.1.128;
  • поддержка VRF для rpki;
  • поддержка eBGP-OAD;
  • многое другое.

>>> Подробности

 , , ,

ne-vlezay
()

Скрипт для кроссировки сетевых интерфейсов виртуальных машин

Форум — Admin

Сам скрипт: (для распоковки скопировать и сделать cat switch1.txt|base64 -d|tar -xvfz -)

H4sIAAAAAAAAA+1XX2/jNgzvq/UpWMe4NDi0sdOmHXIwbrvtBuxpWPfYFYXOVhoDjt2zlLZb2332
UX9sy7Hb5g44bAPEh8SiqR8pkiJpfpeJZDU74qu9b0Yh0tl8rv6Rtv/PZmfHe9HJaTiLZmF4fLYX
RtE8nO1B+O1MamnDBa0A9qqyFC/Jvfb+f0qj/emnrJh+onxFSMqSnFYMDimsKRes4jaL5/SWcUIT
kZVFHESE5CVNr1Iq6MEEHoiXlwnN4Zeff4+D8R/FuGbkWcFIvVjRIs1ZvcqWBV03q9ssrR9p85A0
MAWCZEu4uIB9OFyCLxgXabk+EvfCh8vLdyBWrCCeVzGxqQqIiLfMcMuyrJQJkBUQHCRUgLVx8g7S
Evdo3EDJxX/DeDS2Eb2kLERWbNBSjdk5KuBJPZrEoXyLyqjSJKEMeI1OE4hjCDvInnZIHFC50uBd
+agrr132gvysK49ObYU9ZWhwcBA80OTpbTSZeMhLy4I1Pjj8CwJtE+LA42PN03q7PMTuKDOePyVG
mbFLivUObhLsbewbdYtahd/dvv8MgE7H/v6FEm9ANgVnQkaKmHO2jCeCKUwrkVytaUGv2VW1yZmd
ypjqMs/NipebKmHZMg5mNSvFTKoDeGwz6yidNLmd00JGYt6gfc44u8+4iBsFaZ+FxUmw+BSjPGLJ
qoQfFhhlAR8WQW0N/LgIWjPgJ70yrvyIzlCKcb8JTkisQFsbO4G1IDr8Rmk3DZSKgSt4aq6gdWun
/E8+xZLC+bRgYho81JBPU5qmFeN8AOdkB5zW5NeRwHLBgUjgc5rxBPiqvMPg3VrHNL5ZIi0mFhwo
8toYhgQMLTPzFsgrWiwn9/XUdqe2CtsLKg/wUvgVW5e3TFZAePNGvWnM6pWPxoqU5dqI1v9wg3W+
ENoIlNWpF7wnO2pNv0SrFa2v1dur96HaUW/oOCEcNAfTpOcEOxJYx69lHm0bVatIv0SFfeJnlOCu
ZZZjVXxmm+0oSFYU20wENxVbwul8fjzHx1KUSYl1K8+xgeNcJx90v4a0Km/63h1Q2SR/R50x2a4Y
jbrvwtlR9Bss8/IOgWQ1uMJyUJcFo1+u4Ka8qdfrrKpYCkwdHvAxqxjGePtmEMviAWMtyZ3NHfKO
tm7DV9C3/Br31e7+SnM6wYp2cea2gV13yRVOGt14tUNKYyOpL0egWLLjZQU+5nmv162blkO8hqd6
dHdk07zu4KZacVdMsQakrBlPI0mG3W99Y6DfXLPouYuvxA3fGvbWav56MAPGxfeXT2YOs4+DQ5Bq
qMH6MdkIOExhvBhjY4kmjWDdw4cFZxNi5j2u9el5xFLnWW5pUPiAOs9y1nOCs1ZQTXTDUsdKaoR5
eQ/S8Tiobs834Mta6uOffUq5tsxtlltvUbVvDZzvVanfGmitWVlPYHrsUr84hrzgsdGuHhvt6DEp
+VJGjHbPidHOWSFF6wh4nlq+EIQtL9vm9GMUtFcGYbVfR9qxeLPXWGP0jdbhUTqwdvjq/shvtc7t
aT7e5KRtFYW2o2714C7eptgZEfQdHQBWPvQ/np//er4wlY6DhHk08KT9mjMnJARbrpAQ//ansyNH
jhw5cuTIkSNHjhw5cuTIkSNHjhw5cvSfpX8AkiRgGwAoAAA=

Дальше создать конфиг в формате:

vm-switch0.1 0
vm-switch0.2 0
vm-ppp0.0 2
vm-border0.0 3

В первой колонке имя интервейса виртуальной машины а во второй vlan id

(многое в скрипте не реализовано)

 , , ,

ne-vlezay
()

Самая первая версия debian на qemu

Галерея — Скриншоты

Ну, собственно, первая версия Debian запущена из под QEMU 2.0 под Windows XP, которая работает из-под QEMU 7.2.7.

>>> Просмотр (1919x1079, 306 Kb)

 ,

ne-vlezay
()

Небольшая локальная сеть в virtualbox на qemu

Галерея — Скриншоты

Хост — всё тот же:

  • CPU: AMD FX-6300;
  • RAM: 24G;
  • SSD: Smartbuy 60G (На виртуалке с xp у меня 8.5GB) (SSD - пока что тестовый);
  • дистрибутив хоста: Devuan Daedalus 5.0;
  • QEMU: 7.2.5;
  • скрипты для управления: самописные.

Но теперь в virtualbox’е под гостевой Windows XP запущена небольшая локальная сеть…

Немного о виртуальных машинах в этой сети:

  • sw – это роутер (debian squeeze 6.0);
  • puppypc – это виртуальная машина с puppyrus 4.2;
  • ws – это виртуальная машина для работы с образами дискет (debian squeeze 6.0);
  • debian server – это виртуальная машина с debian sarge (3.1).

>>> Просмотр (1919x1078, 235 Kb)

 , ,

ne-vlezay
()

debian 3.0 в виртуалбоксе на qemu...

Галерея — Скриншоты

Хост: Devuan Linux Daedalus 5.0

VM: qemu 7.2.5

Гипервизор в VM: Virtualbox 2.0

Система в гипервизоре: debain 3.0

Система на VM: Windows XP sp3

Ядро на хосте: 6.1.0.x

Система управления виртуалками: самописная на bash…

>>> Просмотр (1916x1079, 253 Kb)

 ,

ne-vlezay
()

Ну, почти дефолт

Галерея — Скриншоты

Собчтвенно, установил devuan deadalus 5.0.

Вот, что используется:

Оконный менеджер: i3

Эмулятор терминала: xterm

Шрифты: terminus

Ну, и самописные скрипты… Вот, ещё: https://ibb.co/QkcX4cH

>>> Просмотр (1919x1079, 461 Kb)

 , , ,

ne-vlezay
()

Bird 2.14

Новости — Интернет
Группа Интернет

Вышла новая версия службы динамической маршрутизации bird 2.14.

Основные нововведения:

  • Добавлена подсистема MPLS
  • Поддержка BGP/MPLS VPNs (RFC 4364)
  • Возможность управления неизвестными атрибутами в протоколе BGP
  • Имеется экспериментальная поддержка агрегирования маршрутов

>>> Подробности

 , , ,

ne-vlezay
()

Постоянные ошибки в файловой системе

Форум — Admin

Имеется VPS, на которой периодически файловая система может монтироваться в RO (Read Only). В логах я нашёл:

Filesystem error recorded from previous mount: IO failure

Началось это после того, как восстановил VPS из резервной копии.

Интересно, это ли баг qemu, или же проблема с оборудованием, что где-то там у хостера.

 , ,

ne-vlezay
()

alpine linux перестали работать контейнеры

Форум — Admin

После сегодняшнего обновления, перестали запускаться контейнеры. Вот лог:

lxc gw 20230806072313.419 ERROR    conf - ../src/lxc/conf.c:lxc_map_ids:3701 - newuidmap failed to write mapping "newuidmap: Target process 3137 is owned by a different user: uid:0 pw_uid:0 st_uid": newuidmap 3137 0 100000 65536
lxc gw 20230806072313.419 ERROR    start - ../src/lxc/start.c:lxc_spawn:1788 - Failed to set up id mapping.
lxc gw 20230806072313.419 ERROR    lxccontainer - ../src/lxc/lxccontainer.c:wait_on_daemonized_start:878 - Received container state "ABORTING" instead of "RUNNING"
lxc gw 20230806072313.421 ERROR    start - ../src/lxc/start.c:__lxc_start:2107 - Failed to spawn container "gw"
lxc gw 20230806072313.421 WARN     start - ../src/lxc/start.c:lxc_abort:1036 - No such process - Failed to send SIGKILL via pidfd 45 for process 3137
lxc 20230806072318.542 ERROR    af_unix - ../src/lxc/af_unix.c:lxc_abstract_unix_recv_fds_iov:218 - Connection reset by peer - Failed to receive response
lxc 20230806072318.542 ERROR    commands - ../src/lxc/commands.c:lxc_cmd_rsp_recv_fds:128 - Failed to receive file descriptors for command "get_state"

Дистрибутив у меня: alpine linux 3.18

 , ,

ne-vlezay
()

frrouting не собирается под archlinux

Форум — Admin
gcc: warning: /usr/include/libyang: linker input file unused because linking not done
  CC       tools/gen_northbound_callbacks.o
gcc: warning: /usr/include/libyang: linker input file unused because linking not done
  CC       tools/gen_yang_deviations.o
gcc: warning: /usr/include/libyang: linker input file unused because linking not done
  CC       bgpd/bgp_btoa.o
gcc: warning: /usr/include/libyang: linker input file unused because linking not done
gcc: warning: /usr/include/libyang: linker input file unused because linking not done
  CC       ospfclient/ospfclient.o
gcc: warning: /usr/include/libyang: linker input file unused because linking not done
  CCLD     tools/ssd
/usr/bin/ld: error: /usr/include/libyang: read: Is a directory
collect2: error: ld returned 1 exit status
make[1]: *** [Makefile:8955: tools/ssd] Error 1
make[1]: *** Waiting for unfinished jobs....
make[1]: Leaving directory '/home/user/1/frr'
make: *** [Makefile:6252: all] Error 2

В интернете естественно проблем нет.

 , ,

ne-vlezay
()

Проблема с жёстким диском

Форум — Admin

У меня имеется гипервизор, на котором у меня запускаются виртуальные машины. Недавно все виртуальные машины начали тормазить или же вообще выводить ошибку ввода/вывода.

В логах при этом на самом гипервизоре:

[ 3737.169514] blk_update_request: I/O error, dev sdc, sector 692530183
[ 3737.169519] Buffer I/O error on dev sdc, logical block 86566272, async page read
[ 3737.169537] ata7: EH complete
[ 3739.437775] ata7.00: exception Emask 0x0 SAct 0x20 SErr 0x0 action 0x0
[ 3739.437781] ata7.00: irq_stat 0x40000008
[ 3739.437787] ata7.00: failed command: READ FPDMA QUEUED
[ 3739.437799] ata7.00: cmd 60/08:28:00:2c:47/00:00:29:00:00/40 tag 5 ncq dma 4096 in
                        res 41/40:00:07:2c:47/00:00:29:00:00/40 Emask 0x409 (media error) <F>
[ 3739.437805] ata7.00: status: { DRDY ERR }
[ 3739.437809] ata7.00: error: { UNC }
[ 3739.447097] ata7.00: configured for UDMA/133
[ 3739.447114] sd 6:0:0:0: [sdc] tag#5 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
[ 3739.447118] sd 6:0:0:0: [sdc] tag#5 Sense Key : Medium Error [current] 
[ 3739.447123] sd 6:0:0:0: [sdc] tag#5 Add. Sense: Unrecovered read error - auto reallocate failed
[ 3739.447127] sd 6:0:0:0: [sdc] tag#5 CDB: Read(10) 28 00 29 47 2c 00 00 00 08 00
[ 3739.447130] blk_update_request: I/O error, dev sdc, sector 692530183
[ 3739.447136] Buffer I/O error on dev sdc, logical block 86566272, async page read
[ 3739.447154] ata7: EH complete

Что это и как это исправить?

 ,

ne-vlezay
()

nftables: фильтрация на канальном уровне

Форум — Admin

Пытаюсь сделать:

nft add rule bridge bridge_filter vlan2  arp saddr ether arp saddr ip map  {0a:e8:a4:24:20:e1 :  192.168.1.1}

Получаю:

Error: syntax error, unexpected map, expecting end of file or newline or semicolon

Что не так?

 , ,

ne-vlezay
()

В archlinux виртуализацию KVM сломали

Форум — Admin

https://bugzilla.kernel.org/show_bug.cgi?id=216017

При попытке запустить виртуальною машину, периодически возникает:

[root@router ne-vlezay80]# qemu-system-x86_64 -enable-kvm
qemu-system-x86_64: error: failed to set MSR 0xc0000104 to 0x100000000
qemu-system-x86_64: ../qemu-7.0.0/target/i386/kvm/kvm.c:2996: kvm_buf_set_msrs: Assertion `ret == cpu->kvm_msr_buf->nmsrs' failed.

Также система может уйти в kernel panic, если виртуальная машина будет запущена через некоторое время.

Процессор: AMD Phenom X4

 , , ,

ne-vlezay
()

Странности с локальным DNS

Форум — Admin

Прописываю обратную зону для своих хостов.

Работает через раз.

Когда не работает, в tcpdump наблюдаю:

15:11:51.687943 00:16:3e:42:81:9f > a2:b7:40:1d:a1:44, ethertype IPv6 (0x86dd), length 133: 2a01:d0:xx:82::1:4.39230 > 2a01:d0:xx:82:1::4.53: 38971% [1au] PTR? 33.myvpn.2.18.172.in-addr.arpa. (71)
15:11:53.291341 00:16:3e:42:81:9f > a2:b7:40:1d:a1:44, ethertype IPv6 (0x86dd), length 133: 2a01:d0:xx:82::1:4.38818 > 2a01:d0:xx:82:1::4.53: 17701% [1au] PTR? 33.myvpn.2.18.172.in-addr.arpa. (71)
15:11:56.494670 00:16:3e:42:81:9f > a2:b7:40:1d:a1:44, ethertype IPv6 (0x86dd), length 133: 2a01:d0:xx:82::1:4.52595 > 2a01:d0:xx:82:1::4.53: 84% [1au] PTR? 33.myvpn.2.18.172.in-addr.arpa. (71)

Что это?

 , , ,

ne-vlezay
()

Что случилось с netassist?

Форум — Admin

Где-то 14:00 у туннельного брокера netassist начались проблемы со связонностью. Потом через брокер вообще перестал работать ipv6. Также через некоторых аплинков наблюдается петля на сайт netassist.ua.

Вот трассировка до ya.ru через netassist:

[0]ne-vlezay80@ne-vlezay80:~$ traceroute -6 ya.ru
traceroute to ya.ru (2a02:6b8::2:242), 30 hops max, 80 byte packets
 1  2002::2 (2002::2)  0.061 ms  0.029 ms  0.028 ms
 2  2a01:d0:c353:82::1 (2a01:d0:c353:82::1)  0.548 ms  0.548 ms  0.587 ms
 3  2a01:d0:c353:1:: (2a01:d0:c353:1::)  71.743 ms  71.918 ms  65.690 ms
 4  4xe0-778.APOLLO.iev.ua.29632.as (2a01:d0:0:1c::44)  106.431 ms  108.843 ms  106.457 ms
 5  2a01:d0:0:1c::144 (2a01:d0:0:1c::144)  117.413 ms  120.068 ms  117.290 ms
 6  * * *

Вот трассировка до netassist.ua через один из сервисов:

traceroute to netassist.ua (2001:67c:1874:7::2), 30 hops max, 80 byte packets
 1  2001:2e8:665:0:2:2:0:1 (2001:2e8:665:0:2:2:0:1)  0.106 ms  0.064 ms  0.065 ms
 2  2001:2e8:22:204::2 (2001:2e8:22:204::2)  0.997 ms  1.068 ms  1.110 ms
 3  2001:2e8:20::22:11 (2001:2e8:20::22:11)  1.667 ms  1.531 ms  1.555 ms
 4  xe-0-0-10-1.a02.tokyjp05.jp.bb.gin.ntt.net (2001:218:2000:5000::655)  2.271 ms xe-0-0-15-0.a02.tokyjp05.jp.bb.gin.ntt.net (2001:218:2000:5000::665)  2.051 ms xe-0-0-11-1.a02.tokyjp05.jp.bb.gin.ntt.net (2001:218:2000:5000::659)  1.838 ms
 5  ae-25.r02.tokyjp05.jp.bb.gin.ntt.net (2001:218:0:2000::59)  2.053 ms ae-4.r03.tokyjp05.jp.bb.gin.ntt.net (2001:218:0:2000::95)  1.885 ms  2.168 ms
 6  ae-3.r31.tokyjp05.jp.bb.gin.ntt.net (2001:218:0:2000::116)  1.581 ms  1.453 ms ae-4.r31.tokyjp05.jp.bb.gin.ntt.net (2001:218:0:2000::122)  1.604 ms
 7  * * *
 8  ae-5.r25.asbnva02.us.bb.gin.ntt.net (2001:418:0:2000::1bd)  165.104 ms  172.455 ms  160.172 ms
 9  ae-7.r21.londen12.uk.bb.gin.ntt.net (2001:418:0:2000::5d)  251.179 ms  251.013 ms  250.917 ms
10  ae-16.r20.frnkge13.de.bb.gin.ntt.net (2001:728:0:2000::15e)  258.055 ms  257.017 ms  257.465 ms
11  ae-2.a00.frnkge13.de.bb.gin.ntt.net (2001:728:0:2000::25a)  271.634 ms  271.505 ms  266.665 ms
12  xe-0-0-19-2-276.a00.frnkge13.de.ce.gin.ntt.net (2001:728:0:5000::15eb)  251.029 ms  250.353 ms  250.898 ms
13  2001:67c:1874:313::2 (2001:67c:1874:313::2)  249.704 ms  249.831 ms  250.909 ms
14  2001:67c:1874:313::1 (2001:67c:1874:313::1)  244.812 ms  244.291 ms  239.524 ms
15  2001:67c:1874:313::2 (2001:67c:1874:313::2)  245.398 ms  244.959 ms  244.050 ms
16  2001:67c:1874:313::1 (2001:67c:1874:313::1)  238.417 ms  252.687 ms  252.154 ms
17  2001:67c:1874:313::2 (2001:67c:1874:313::2)  250.755 ms  243.957 ms  248.657 ms
18  2001:67c:1874:313::1 (2001:67c:1874:313::1)  251.964 ms * *
19  2001:67c:1874:313::2 (2001:67c:1874:313::2)  244.214 ms *  250.275 ms
20  * * *
21  2001:67c:1874:313::2 (2001:67c:1874:313::2)  249.781 ms *  244.683 ms
22  2001:67c:1874:313::1 (2001:67c:1874:313::1)  251.539 ms  240.126 ms *
23  2001:67c:1874:313::2 (2001:67c:1874:313::2)  252.012 ms  245.525 ms  250.006 ms
24  2001:67c:1874:313::1 (2001:67c:1874:313::1)  240.333 ms *  251.160 ms
25  2001:67c:1874:313::2 (2001:67c:1874:313::2)  258.434 ms  251.064 ms  244.601 ms
26  2001:67c:1874:313::1 (2001:67c:1874:313::1)  238.591 ms  253.149 ms  244.956 ms
27  2001:67c:1874:313::2 (2001:67c:1874:313::2)  251.393 ms  250.994 ms  245.737 ms
28  2001:67c:1874:313::1 (2001:67c:1874:313::1)  238.550 ms  239.050 ms *
29  2001:67c:1874:313::2 (2001:67c:1874:313::2)  250.199 ms  258.442 ms  249.149 ms
30  2001:67c:1874:313::1 (2001:67c:1874:313::1)  251.243 ms  244.556 ms  252.305 ms

Что случилось у netassist с протоколом ipv6?

 , ,

ne-vlezay
()

Слетела openbsd

Форум — Admin

У меня слетела на роутере openbsd.

Вот лог загрузки:

add net 10.0.0.0/8: gateway 192.168.181.3
fd0 at fdc0 drive 1: density unknown
reordering libraries: done.
starting early daemons: syslogd pflogd nsd unbound ntpd.
starting RPC daemons:.
savecore: /dev/wd0a: Device not configured
kernel: protection fault trap, code=0
Stopped at      copyout+0x53:   repe movsq      (%rsi),%es:(%rdi)
ddb> set $lines = 0 
ddb> set $maxwidth = 0 
ddb>  show panic 
the kernel did not panic
ddb> show trace
No such command
ddb> trace
copyout(2000000000000000,3c,ffff800011edaa08,2000000000000000,4035ae18e9ac3078,1) at copyout+0x53
mmrw(201,ffff800011edaa08,0) at mmrw+0x1b1
spec_read(ffff800011eda8a8) at spec_read+0xa7
VOP_READ(fffffd8027585840,ffff800011edaa08,0,fffffd80317a8de0) at VOP_READ+0x41
vn_read(fffffd802240fbd0,ffff800011edaa08,1) at vn_read+0xa1
dofilereadv(ffff8000ffff4500,5,ffff800011edaa08,1,ffff800011edaae0) at dofilereadv+0xf6
sys_pread(ffff8000ffff4500,ffff800011edaa88,ffff800011edaae0) at sys_pread+0x5c
syscall(ffff800011edab50) at syscall+0x315
Xsyscall(6,c6,2000000000000000,c6,5,1c64e42625c0) at Xsyscall+0x128
end of kernel
end trace frame: 0x7f7ffffd1d90, count: -9
ddb> 

Что здесь не так.

Работал он почти два года и вот.

 ,

ne-vlezay
()

Сыпится файловая система

Форум — Admin

Привет, такая проблема. Есть компьютер, который используется как роутер а также контейнерный сервер. В логах у него такое:

 848.648139] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 18, gen 0
[  849.141432] BTRFS warning (device sda2): checksum error at logical 12112596992 on dev /dev/sda2, physical 12112596992, root 290, inode 2153392, offset 4214378496, length 4096, links 1 (path: var/lib/lxd/disks/default.img)
[  849.141465] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 19, gen 0
[  849.195020] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 20, gen 0
[  852.190183] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 21, gen 0
[  866.312699] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 22, gen 0
[  870.094738] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 23, gen 0
[  874.623532] BTRFS info (device sda2): scrub: not finished on devid 1 with status: -125
[  915.548043] BTRFS info (device sda2): scrub: started on devid 1
[  926.183099] kauditd_printk_skb: 14 callbacks suppressed
[  926.183110] audit: type=1130 audit(1642170476.243:210): pid=1 uid=0 auid=4294967295 ses=4294967295 msg='unit=systemd-tmpfiles-clean comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
[  926.183129] audit: type=1131 audit(1642170476.243:211): pid=1 uid=0 auid=4294967295 ses=4294967295 msg='unit=systemd-tmpfiles-clean comm="systemd" exe="/usr/lib/systemd/systemd" hostname=? addr=? terminal=? res=success'
[  963.509864] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 24, gen 0
[  964.184943] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 25, gen 0
[  964.414589] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 26, gen 0
[  966.260093] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 27, gen 0
[  966.619578] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 28, gen 0
[  967.107493] BTRFS warning (device sda2): checksum error at logical 12112596992 on dev /dev/sda2, physical 12112596992, root 290, inode 2153392, offset 4214378496, length 4096, links 1 (path: var/lib/lxd/disks/default.img)
[  967.107505] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 29, gen 0
[  967.165297] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 30, gen 0
[  970.167824] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 31, gen 0
[  984.112427] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 32, gen 0
[  987.712951] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 33, gen 0
[ 1018.115785] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 34, gen 0
[ 1018.144848] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 35, gen 0
[ 1019.375785] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 36, gen 0
[ 1019.527438] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 37, gen 0
[ 1025.579311] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 38, gen 0
[ 1038.929269] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 39, gen 0
[ 1042.125975] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 40, gen 0
[ 1043.770749] BTRFS error (device sda2): bdev /dev/sda2 errs: wr 0, rd 0, flush 0, corrupt 41, gen 0

На других дисках с btrfs всё вроде-бы нормально. Причём corrupt каждый раз увеличивается. Проблема наблюдается только с тем диском, на котором стоит операционная система. Это ssd.

Ядро: 5.15.11-arch2-1

Тут различные варианты - от самого плохого(летит ssd и рано или поздно либо уйдёт в ro или же вообще перестанет опредилятся) от бага в ядре, который связан с повреждением данных.

 , , ,

ne-vlezay
()

tc-flower не видет 6to4 пакеты

Форум — Admin

Решил настроить антиспуфинг через tc при помощи tc-flower, в результате стали поступать жалобы о том, что люди не могут к туннельном брокерам ipv6 подключится. Когда начали разбираться, то поняли, что проблема в tc-flower. Вот пример конфигурации:

switch@blackmesa1 #> tc -s filter show dev sw0p50 parent ffff:
filter protocol ip pref 1 flower chain 0 
filter protocol ip pref 1 flower chain 0 handle 0x1 
  eth_type ipv4
  src_ip 198.18.250.110
  not_in_hw
	action order 1: gact action pass
	 random type none pass val 0
	 index 2 ref 1 bind 1 installed 640 sec used 640 sec
	Action statistics:
	Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0) 
	backlog 0b 0p requeues 0


filter protocol ip pref 65535 matchall chain 0 
filter protocol ip pref 65535 matchall chain 0 handle 0x1 
  not_in_hw (rule hit 1138)
	action order 1: gact action drop
	 random type none pass val 0
	 index 1 ref 1 bind 1 installed 1162 sec used 0 sec firstused 1161 sec
	Action statistics:
	Sent 141112 bytes 1138 pkt (dropped 1138, overlimits 0 requeues 0) 
	backlog 0b 0p requeues 0

Когда переделал на tc-u32 - всё стало работать нормально.

 , , , ,

ne-vlezay
()

Восстановление файловой системы с BTRFS после аппаратного сбоя хоста

Форум — Admin

Такая проблема:

Имеется виртуальная машина на которой запущенны контейнеры. Один раз отволился на хостовой машине коннектор питания от жёсткого диска. После этого теперь файловая система с этим контейнером уходит в read only. При попытке исправить файловую систему возникает:

root@lxd-two:/var/snap/lxd/common/lxd/disks# btrfs check --repair ./default.img 
enabling repair mode
Opening filesystem to check...
warning, bad space info total_bytes 2147483648 used 2147725312
Checking filesystem on ./default.img
UUID: 5b91b327-bce3-4e45-a7ee-86fa0a774573
[1/7] checking root items
Fixed 0 roots.
[2/7] checking extents
ref mismatch on [3582070784 94208] extent item 0, found 1
data backref 3582070784 root 438 owner 559207 offset 0 num_refs 0 not found in extent tree
incorrect local backref count on 3582070784 root 438 owner 559207 offset 0 found 1 wanted 0 back 0x55b659277050
backpointer mismatch on [3582070784 94208]
repair deleting extent record: key [3582070784,168,241664]
adding new data backref on 3582070784 root 438 owner 559207 offset 0 found 1
Repaired extent references for 3582070784
ref mismatch on [3582164992 114688] extent item 0, found 1
data backref 3582164992 root 516 owner 18532 offset 0 num_refs 0 not found in extent tree
incorrect local backref count on 3582164992 root 516 owner 18532 offset 0 found 1 wanted 0 back 0x55b6790b4a20
backpointer mismatch on [3582164992 114688]
adding new data backref on 3582164992 root 516 owner 18532 offset 0 found 1
Repaired extent references for 3582164992
ref mismatch on [3582279680 12288] extent item 0, found 1
data backref 3582279680 root 516 owner 18591 offset 0 num_refs 0 not found in extent tree
incorrect local backref count on 3582279680 root 516 owner 18591 offset 0 found 1 wanted 0 back 0x55b67ac215c0
backpointer mismatch on [3582279680 12288]
adding new data backref on 3582279680 root 516 owner 18591 offset 0 found 1
Repaired extent references for 3582279680
ref mismatch on [3582291968 12288] extent item 0, found 1
data backref 3582291968 root 542 owner 61178 offset 0 num_refs 0 not found in extent tree
incorrect local backref count on 3582291968 root 542 owner 61178 offset 0 found 1 wanted 0 back 0x55b67b4e5b90
backpointer mismatch on [3582291968 12288]
adding new data backref on 3582291968 root 542 owner 61178 offset 0 found 1
Repaired extent references for 3582291968
ref mismatch on [3582304256 8192] extent item 0, found 1
data backref 3582304256 root 542 owner 61287 offset 0 num_refs 0 not found in extent tree
incorrect local backref count on 3582304256 root 542 owner 61287 offset 0 found 1 wanted 0 back 0x55b67ad842d0
backpointer mismatch on [3582304256 8192]
adding new data backref on 3582304256 root 542 owner 61287 offset 0 found 1
Repaired extent references for 3582304256
Failed to find [29638656, 168, 16384]
btrfs unable to find ref byte nr 29720576 parent 0 root 2  owner 0 offset 0
transaction.c:195: btrfs_commit_transaction: BUG_ON `ret` triggered, value -5
btrfs(+0x3b748)[0x55b6539de748]
btrfs(btrfs_commit_transaction+0x12a)[0x55b6539debcc]
btrfs(+0x55861)[0x55b6539f8861]
btrfs(cmd_check+0x1288)[0x55b6539f9e75]
btrfs(main+0x1f3)[0x55b6539b6e63]
/lib/x86_64-linux-gnu/libc.so.6(__libc_start_main+0xeb)[0x7f08f464409b]
btrfs(_start+0x2a)[0x55b6539b6eaa]
Aborted

Как теперь исправить файловую систему?

 , , ,

ne-vlezay
()

Плохо работает вложенная виртуализация (Nested virtualization)

Форум — Admin

Ядро на хосте: 4.19.188-amd64-cust1

Ядро в виртуальной машине: 5.10+, 5.11+

Версия qemu: 2.8.1

Система: Devuan Ascii

Проблема:

Если пытаться использовать вложенную виртуализацию и на ней запустить linux или openbsd, то система внутри вложенной виртуальной машине периодически зависает. Если смотреть strace, то во время зависания там много timeout’ов. Но, если на хосте использовать ядро от 5.10+ и qemu 5.20, то всё нормально. Вложенная виртуализация (nested virtualization) работает нормально.

 , , ,

ne-vlezay
()

RSS подписка на новые темы