LINUX.ORG.RU

Сообщения Bermut

 

Почему zabbix не может обновить значения в БД после миграции?

Занимаюсь миграцией домашнего zabbix с локальный бд, находящейся на одном хосте с zabbix сервером, на отдельный бд сервер. Инсталяция на psql. Делаю дамп бд вместе с ролями через pg_dumpall, импортирую на новый сервер, все хорошо, все живы, все работают, кроме одного - обновления данных в zabbix, то есть старые данные доступны, но новых нет, при этом если руками подключится к psql с zabbix сервера, естественно с использованием zabbix пользователя, и его пароля, все работает, вызовы select, insert, update, в лог zabbix сыпится ошибка вида:

49573:20240516:034916.555 error reason for "chuk-prom:vfs.dev.util[node_exporter,"sde"]" changed: Cannot perform request: Connection timed out after 3000 milliseconds

В чем может быть проблема? При этом, если вернуть в конфиге сервера обратно локальную бд, все работает(очевидно, но все же).

 , ,

Bermut
()

Почему nvmet_rdma не может добавить subsystem с ошибкой «address family 255 not supported»?

На досуге занимаюсь изучением NVMEoF, и сейчас споткнулся об ошибку «nvmet_rdma: address family 255 not supported» при добавление subsystem к порту через nvmetcli, выражается это так: При вызове команды create <nqn name> nvmetcli пишет ошибку следующего характера: Could not symlink q in configFS: [Errno 22] Invalid argument: '/sys/kernel/config/nvmet/subsystems/q' -> '/sys/kernel/config/nvmet/ports/3/subsystems/q'

В dmesg в этот момент ошибка nvmet_rdma: address family 255 not supported

Сам nvmetcli выглядит так: (скрин) - https://habrastorage.org/webt/66/3f/23/663f231ae5639863609212.png

При этом, при тупом копировании действий из мануала RHEL - все работает. В чем может быть проблема? Хост на CentOS9, ядро 5.14.0-444.el9.x86_64, накопитель INTEL SSDPF2KX038TZ, модуль nvmet_rdma загружен.

 , ,

Bermut
()

Почему в centos lvm не видит pv на shared iscsi lun?

В общем, дома использую shared lun на схд, на луне lvm, и в случае debian-like дистрибутивов все работает без проблем, но вот при подключении того же луна, но к серверам на centos 9, pvs в тупую не видит их, при этом если использовать pvck <блочное устройство> получаю ошибку device is not in devices file., при этом атрибуты selinux совпадают с локальным блочным устройством, на котором так же установлен lvm, проблема точно не в filter, почему еще centos не может увидеть lvm партишен в блочном устройстве? При этом, если собственноручно создать lvm на shared луне, то хост его увидет без каких либо проблем, но если попытаться посмотреть данный лун с другого centos хоста, такая же беда. Почему centos не может увидеть pv?

 

Bermut
()

Почему может не работать iSERt в infiniband?

В общем. Чтобы разобратся с ib, я собрал на домашнем тестовом стенде infiniband среду с коммутатором is5022, и двумя карточками CX2, настроил ipoib, NFSoRDMA, все прекрасно, все работает. Но беда с iser, при добавление iser портала в tgt targetcli выдает ошибку:

Cannot change iser

При этом в dmesg сыпится ошибка

isert: isert_setup_id: rdma_bind_addr() failed: -99

Ясно дело, модуль isert загружен, хост на debian 12, ядро - 6.1.0-18-amd64. При этом такой ошибки небыло при включении NFSoRDMA В чем может быть проблема? Я нашел описание такой же проблемы на форуме sth но там за полгода так и не ответили : /

 ,

Bermut
()

Обьясните, почему не пингуется хост через IB?

Я, юный и отважный, для того, чтобы разобратся с infiniband купил 4 карточки mellanox connect x-2 MHQH29B-XSR (PN: 375-3696-01) и коммутатор mellanox is5022 на 8 портов QDR, соединил qsfp28 dac кабелями. Пролема такова: При ibping другого хоста, подключенного к тому же коммутатору, получаю ошибкy

ibwarn: [16744] sa_rpc_call: only lid routes are supported
ibwarn: [16744] ib_path_query_via: sa call path_query failed
ibping: iberror: failed: can't resolve destination port 0x0021280001a124ac (с guid 0x0021280001a135f4 такая же ошибка)

При этом ibhosts на другом хосте выдает следующее:

Ca      : 0x0021280001a135f4 ports 2 "MT25408 ConnectX Mellanox Technologies"
Ca      : 0x0021280001a124ac ports 2 "MT25408 ConnectX Mellanox Technologies"

iblinkinfo выдает это:

CA: MT25408 ConnectX Mellanox Technologies:
      0x0021280001a124ad      0    1[  ] ==( 4X          10.0 Gbps Initialize/  LinkUp)==>       0    1[  ] "Infiniscale-IV Mellanox Technologies" ( )
Switch: 0x0002c902004c98b8 Infiniscale-IV Mellanox Technologies:
           0    1[  ] ==( 4X          10.0 Gbps Initialize/  LinkUp)==>       0    1[  ] "MT25408 ConnectX Mellanox Technologies" ( )
           0    2[  ] ==(                Down/ Polling)==>             [  ] "" ( )
           0    3[  ] ==( 4X          10.0 Gbps Initialize/  LinkUp)==>       0    1[  ] "MT25408 ConnectX Mellanox Technologies" ( )
           0    4[  ] ==(                Down/ Polling)==>             [  ] "" ( )
           0    5[  ] ==(                Down/ Polling)==>             [  ] "" ( )
           0    6[  ] ==(                Down/ Polling)==>             [  ] "" ( )
           0    7[  ] ==(                Down/ Polling)==>             [  ] "" ( )
           0    8[  ] ==(                Down/ Polling)==>             [  ] "" ( )
CA: MT25408 ConnectX Mellanox Technologies:
      0x0021280001a135f5      0    1[  ] ==( 4X          10.0 Gbps Initialize/  LinkUp)==>       0    3[  ] "Infiniscale-IV Mellanox Technologies" ( )

Хосты на debian 12, на карты залита fw-ConnectX2-rel-2_9_1000-MHQH29B-XSR_A1.bin

Что я делаю не так?

 ,

Bermut
()

Как загружаться с squashfs образа?

Собственно, занимаюсь сборкой собственного iso образа, по инструкции https://habr.com/ru/articles/709528/ благополучно собрал образ с хранением рута файловой системы в initrd, все бы вроде нечего, но во первых, довольно долгая загрузка столь массивного initrd утомляет, во вторых, интересно узнать, как взрослые мальчики типо archlinux или debian пакуют свой root в squashfs образ, а точнее, как с него загружаются. В интернете я не нашел толковых инструкций по сборки своего iso с squashfs, есть ли у кого какие идеи или ссылки на примете?

 ,

Bermut
()

Почему не работают vlan на pve?

Есть debian маршрутизатор, на нем мост из 50 vlan тегов, если мы возьмем и поставим один из этих vlan тегов на мост в pve в конфигурации виртуальной машины, то лосс до виртуалки будет >90%, соседство обнаруживается, мы можем пинговать виртуалку, но из 55 пакетов 50 потеряется(условно). При этом, если vlan убрать из конфигураций vm в pve, и создать интерфейс с этим же тегом в самой виртуалке - все работает прекрасно. В чем может быть проблема? У меня разве что были идеи на счет проблем с mtu, но уменьшение mtu до 1400 внутри vm нечего не дало. При этом, если пинговать одновременно из виртуалки маршрутизатор, и с маршрутизатора виртуаку - проблем нет.

 , ,

Bermut
()

Почему linux bridge не пересылает arp ответы от узлов?

Есть debian, на нем сделан мост из 50-ти vlan, он и выполнят роль маршрутизатора, через vlan гоняется трафик виртуалок, виртуалки нормально пингуют интернет и маршрутизатор, но не могут пинговать другие виртуалки, при это iptables этот трафик не блокирует, если посмотреть tcpdump, то мы видем arp реквесты от одной виртуалки другой, и arp ответы виртуалки, вот только их не получает конечная виртуалка. Все виртуалки в одном L3 домене.

( читать дальше... )

 , ,

Bermut
()

Почему мост с vlan интерфейсами уходит в петлю?

Проблема такова - есть debian 12, есть в нем мост, один интерфейс, и 50 vlan интерфейсов, если закинуть 50 vlan в мост, и включить мост, в dmesg начинает сыпатся ошибки подобны этой -

br-servers: received packet on ens18.900 with own address as source address (addr:b6:31:cb:6f:93:db, vlan:0)

При этом mac b6:31:cb:6f:93:db используется только на этом мосте(я пробовал его менять, все равно петля), пробовал включать/выключать stp на мосту - бестолку, пробовал устанавливать уникальные mac на каждый vlan интерфейс - то же бесполезно. Скрипт, через который я создаю мост -

vlanidstart=900
vlanidend=950
vlan=$vlanidstart
ip l s up ens18
brctl addbr br-servers
brctl stp br-servers on
addvlans () {
        if ! [[ $vlan > $vlanidend ]]; then
                ip l a l ens18 name ens18.$vlan type vlan id $vlan
                ip l s ens18.$vlan master br-servers
                ip l s up ens18.$vlan
                vlan=$((vlan+1))
                addvlans
        fi
}
addvlans

Должен отметить, все дело происходит в виртуалке на pve, и порт ens18 добавлен в бридж с raw интерфейсом на самом хосте, хождение vlan по мосту на хосту разрешено.

Что я делаю не так?

 , ,

Bermut
()

Маршрутизирование подсети через openvpn клиента

В общем, есть openvpn сервер, хочу прописать через клиента определенный маршрут, например 192.168.0.0/24, прописка на сервере ip r a 192.168.0.0/24 via ip client не работает, гугл тоже нечего толкового не дает, спрашивал на qna.habr.com, тоже никто не ответил. Я дурак, или эту темой никто не интересовался? Как можно это сделать?

 , ,

Bermut
()

Проблемы с ipv6 из-за docker моста

В общем, раньше стоял pfsense на физической машине, все работало прекрасно, потом решил перекатиться на виртуальную машину, настроил - ipv4 работает корректно, но вот с ipv6 началась какая-то беда, траффик гонялся между двумя локальными хостами и упирался в 30 прышков, при этом это было только, если оставить статический ipv6 устройства, если ip был получен через SLAAC, то проблем нет. Методом проб и ошибок до меня дошло, что траффик гониться между двумя машинами, где стоит докер, и мост с ipv6 для контейнеров. Как я понимаю, проблема состоит в том, что хосты из локальной сети подключаются к этому мосту, из-за того что ip - fe80::1 этого моста доступен каждому хосту в локалке. А теперь собственно вопрос - как запретить доступ к этому мосту из локальной сети. Вариант отключения ipv6 моста докера не принимается. Ну и доп вопрос - почему это произошло только после смены mac маршрутизатора?

 ,

Bermut
()

RSS подписка на новые темы