LINUX.ORG.RU

Сообщения ant_perch

 

Limux Mint 22 + Docker не стартует

Форум — Admin

Привет сообщество

Поставил новый Минт 22, накатил докер. Докер завелся работает, привет мир скачал и запустил. Ребут и получаю черный экран. Рекавери меню ни как не нашел или не отвечают.

Через лайв диск стянул логи

boot.log

[  OK  ] Started power-profiles-daemon.service - Power Profiles daemon.
[  OK  ] Started systemd-hostnamed.service - Hostname Service.
[  OK  ] Started accounts-daemon.service - Accounts Service.
[  OK  ] Finished gpu-manager.service - Det…s and deal with any system changes.
         Starting NetworkManager-dispatcher…anager Script Dispatcher Service...
[  OK  ] Finished ubuntu-system-adjustments…ervice - Ubuntu system adjustments.
[  OK  ] Started udisks2.service - Disk Manager.
[  OK  ] Started rsyslog.service - System Logging Service.
[  OK  ] Started NetworkManager-dispatcher.… Manager Script Dispatcher Service.
[  OK  ] Started ModemManager.service - Modem Manager.
[  OK  ] Started blueman-mechanism.service - Bluetooth management mechanism.
[  OK  ] Started bolt.service - Thunderbolt system service.
[  OK  ] Started NetworkManager.service - Network Manager.
[  OK  ] Reached target network.target - Network.
         Starting NetworkManager-wait-onlin…ce - Network Manager Wait Online...
         Starting containerd.service - containerd container runtime...
         Starting cups.service - CUPS Scheduler...
         Starting openvpn.service - OpenVPN service...
         Starting systemd-user-sessions.service - Permit User Sessions...
[  OK  ] Finished openvpn.service - OpenVPN service.
[  OK  ] Finished systemd-user-sessions.service - Permit User Sessions.
         Starting lightdm.service - Light Display Manager...
         Starting plymouth-quit-wait.servic…d until boot process finishes up...
[  OK  ] Started cups.service - CUPS Scheduler.

Интересное из syslog

2025-05-20T14:34:02.397921+03:00 test3 kernel: x86/split lock detection: #AC: crashing the kernel on kernel split_locks and warning on user-space split_locks
2025-05-20T14:34:03.559606+03:00 test3 containerd[1061]: time="2025-05-20T14:34:03+03:00" level=warning msg="containerd config version `1` has been deprecated and will be converted on each startup in containerd v2.0, use `containerd config migrate` after upgrading to containerd 2.0 to avoid conversion on startup"
2025-05-20T14:34:03.559676+03:00 test3 containerd[1061]: time="2025-05-20T14:34:03.250362109+03:00" level=info msg="loading plugin \"io.containerd.warning.v1.deprecations\"..." type=io.containerd.warning.v1
2025-05-20T14:35:03.817696+03:00 test3 dockerd[1224]: time="2025-05-20T14:35:03.817618237+03:00" level=warning msg="Error (Unable to complete atomic operation, key modified) deleting object [endpoint_count eba84780e8f864d92a844863467ce5c45028228ccd5b09e69e29b27ee1d2adfd], retrying...."
2025-05-20T16:14:55.801562+03:00 test3 kernel: x86/split lock detection: #AC: crashing the kernel on kernel split_locks and warning on user-space split_locks
2025-05-20T16:14:56.641573+03:00 test3 containerd[1092]: time="2025-05-20T16:14:56+03:00" level=warning msg="containerd config version `1` has been deprecated and will be converted on each startup in containerd v2.0, use `containerd config migrate` after upgrading to containerd 2.0 to avoid conversion on startup"
2025-05-20T16:14:56.641629+03:00 test3 containerd[1092]: time="2025-05-20T16:14:56.441350356+03:00" level=info msg="loading plugin \"io.containerd.warning.v1.deprecations\"..." type=io.containerd.warning.v1
2025-05-20T16:15:45.761269+03:00 test3 kernel: x86/split lock detection: #AC: crashing the kernel on kernel split_locks and warning on user-space split_locks
2025-05-20T16:15:46.604315+03:00 test3 containerd[1071]: time="2025-05-20T16:15:46+03:00" level=warning msg="containerd config version `1` has been deprecated and will be converted on each startup in containerd v2.0, use `containerd config migrate` after upgrading to containerd 2.0 to avoid conversion on startup"
2025-05-20T16:15:46.604368+03:00 test3 containerd[1071]: time="2025-05-20T16:15:46.414369121+03:00" level=info msg="loading plugin \"io.containerd.warning.v1.deprecations\"..." type=io.containerd.warning.v1
2025-05-21T15:58:37.642103+03:00 test3 kernel: x86/split lock detection: #AC: crashing the kernel on kernel split_locks and warning on user-space split_locks
2025-05-21T15:58:38.475423+03:00 test3 containerd[1119]: time="2025-05-21T15:58:38+03:00" level=warning msg="containerd config version `1` has been deprecated and will be converted on each startup in containerd v2.0, use `containerd config migrate` after upgrading to containerd 2.0 to avoid conversion on startup"

и второй момент

2025-05-21T16:39:50.748979+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:50.748903766+03:00" level=info msg="Removing stale sandbox 9e26e03f54a96d24b22cebe39faa49e7cc185d3cff6c5b679d6b7f48279c3625 (18703d81374976c64d265777ba2425f91657695cde9a55f629478c75ba1e08ac)"
2025-05-21T16:39:50.912488+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:50.912390345+03:00" level=warning msg="Failed deleting service host entries to the running container: open : no such file or directory"
2025-05-21T16:39:50.912538+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:50.912440413+03:00" level=warning msg="Error (Unable to complete atomic operation, key modified) deleting object [endpoint c544855cf9617326ac0dbddb1c4eceb1dc874d7096043dbfb162ad88f3aaf278 12a77999f4458efbd865f35f7fbb15d5625fad60d8065baad32371e2d9a59a88], retrying...."
2025-05-21T16:39:50.917898+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:50.917869660+03:00" level=info msg="Removing stale sandbox e5611ed8bf26ff019e2164259b7354d653f32c5fa88f5f3b642eb416f517cb7a (3b332d179dcc5281128a62a204595755c1587242ece3b54cee15e347ab0aed62)"
2025-05-21T16:39:50.922665+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:50.922628368+03:00" level=warning msg="Failed deleting service host entries to the running container: open : no such file or directory"
2025-05-21T16:39:50.922687+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:50.922667509+03:00" level=warning msg="Error (Unable to complete atomic operation, key modified) deleting object [endpoint c544855cf9617326ac0dbddb1c4eceb1dc874d7096043dbfb162ad88f3aaf278 5678114968d1b1f455de9679f79b1971c91774ff9b3f2ee96c6bc4609f3efc22], retrying...."
2025-05-21T16:39:50.927548+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:50.927524640+03:00" level=info msg="Removing stale sandbox 0face5703d654e5ef5de654f83b573534a8c019f673699a873474c81e58831d9 (f4aba3c02f4fb7a4a84b62216efd2b89897f14d44cc04ddd9ddb40e5555752eb)"
2025-05-21T16:39:50.932316+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:50.932269051+03:00" level=warning msg="Failed deleting service host entries to the running container: open : no such file or directory"
2025-05-21T16:39:50.932367+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:50.932305224+03:00" level=warning msg="Error (Unable to complete atomic operation, key modified) deleting object [endpoint c544855cf9617326ac0dbddb1c4eceb1dc874d7096043dbfb162ad88f3aaf278 35d93356c16fb76e524839f3b188259c4cc34867424f43716f6d54ec62e8bdf4], retrying...."
2025-05-21T16:39:50.937314+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:50.937273473+03:00" level=info msg="Removing stale sandbox 3de179b4309d41806c56185f1cba1395346de7083426d73df873a7dde684dc67 (93c32ebc7887698103c8d18f850c2c24458aab452810033937bf056d15f87dc5)"
2025-05-21T16:39:51.008329+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:51.008193375+03:00" level=warning msg="Failed deleting service host entries to the running container: open : no such file or directory"
2025-05-21T16:39:51.008387+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:51.008235241+03:00" level=warning msg="Error (Unable to complete atomic operation, key modified) deleting object [endpoint c544855cf9617326ac0dbddb1c4eceb1dc874d7096043dbfb162ad88f3aaf278 f18f1cd389b784d3a5a26229fe268d0666dca6ce51477ec5ff7ebc7103730d67], retrying...."
2025-05-21T16:39:51.013452+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:51.013396605+03:00" level=info msg="Removing stale sandbox 9d86232a90676779b63d33bb55c86098bc56f555b52261d6a77e41213ef2f927 (38f2e113773919d8499ca58e8b31cccf4b8bb260ebe53804516c06be6cd6ad71)"
2025-05-21T16:39:51.082876+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:51.082825948+03:00" level=warning msg="Failed deleting service host entries to the running container: open : no such file or directory"
2025-05-21T16:39:51.082928+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:51.082846611+03:00" level=warning msg="Error (Unable to complete atomic operation, key modified) deleting object [endpoint c544855cf9617326ac0dbddb1c4eceb1dc874d7096043dbfb162ad88f3aaf278 de0d444834bc871122b2acb134f07eeb0a37a1f4d1ea6911ca28139efd8ba460], retrying...."
2025-05-21T16:39:51.244370+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:51.244245453+03:00" level=warning msg="Error (Unable to complete atomic operation, key modified) deleting object [endpoint_count ebdd2a9ba055e63ec47f79aff5bf2eb45926fc93ef55c9247d50a2aa205c8501], retrying...."
2025-05-21T16:39:51.288624+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:51.288346697+03:00" level=warning msg="error locating sandbox id 9d86232a90676779b63d33bb55c86098bc56f555b52261d6a77e41213ef2f927: sandbox 9d86232a90676779b63d33bb55c86098bc56f555b52261d6a77e41213ef2f927 not found"
2025-05-21T16:39:51.288670+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:51.288376145+03:00" level=warning msg="error locating sandbox id 3de179b4309d41806c56185f1cba1395346de7083426d73df873a7dde684dc67: sandbox 3de179b4309d41806c56185f1cba1395346de7083426d73df873a7dde684dc67 not found"
2025-05-21T16:39:51.288703+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:51.288387023+03:00" level=warning msg="error locating sandbox id 0face5703d654e5ef5de654f83b573534a8c019f673699a873474c81e58831d9: sandbox 0face5703d654e5ef5de654f83b573534a8c019f673699a873474c81e58831d9 not found"
2025-05-21T16:39:51.288731+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:51.288399361+03:00" level=warning msg="error locating sandbox id 9e26e03f54a96d24b22cebe39faa49e7cc185d3cff6c5b679d6b7f48279c3625: sandbox 9e26e03f54a96d24b22cebe39faa49e7cc185d3cff6c5b679d6b7f48279c3625 not found"
2025-05-21T16:39:51.288751+03:00 test3 dockerd[1210]: time="2025-05-21T16:39:51.288407222+03:00" level=warning msg="error locating sandbox id e5611ed8bf26ff019e2164259b7354d653f32c5fa88f5f3b642eb416f517cb7a: sandbox e5611ed8bf26ff019e2164259b7354d653f32c5fa88f5f3b642eb416f517cb7a not found"
2025-05-21T16:39:51.385031+03:00 test3 systemd[1]: Started docker-18703d81374976c64d265777ba2425f91657695cde9a55f629478c75ba1e08ac.scope - libcontainer container 18703d81374976c64d265777ba2425f91657695cde9a55f629478c75ba1e08ac.
2025-05-21T16:39:51.385908+03:00 test3 systemd[1]: Started docker-38f2e113773919d8499ca58e8b31cccf4b8bb260ebe53804516c06be6cd6ad71.scope - libcontainer container 38f2e113773919d8499ca58e8b31cccf4b8bb260ebe53804516c06be6cd6ad71.
2025-05-21T16:39:51.387392+03:00 test3 systemd[1]: Started docker-3b332d179dcc5281128a62a204595755c1587242ece3b54cee15e347ab0aed62.scope - libcontainer container 3b332d179dcc5281128a62a204595755c1587242ece3b54cee15e347ab0aed62.
2025-05-21T16:39:51.388190+03:00 test3 systemd[1]: Started docker-93c32ebc7887698103c8d18f850c2c24458aab452810033937bf056d15f87dc5.scope - libcontainer container 93c32ebc7887698103c8d18f850c2c24458aab452810033937bf056d15f87dc5.
2025-05-21T16:39:51.389074+03:00 test3 systemd[1]: Started docker-f4aba3c02f4fb7a4a84b62216efd2b89897f14d44cc04ddd9ddb40e5555752eb.scope - libcontainer container f4aba3c02f4fb7a4a84b62216efd2b89897f14d44cc04ddd9ddb40e5555752eb.

Вопрос, как можно пофиксить загрузку докера? Каким образом восстановить загрузку системы?

 , , ,

ant_perch
()

Перенос Bareos на новый сервер

Форум — Admin

Добрый день. Есть у меня такая интересная задачка. Имеем сервер с бэкапами в виде Bareos+PostreSQL Но он немножко был бит, бэкапы делает, но не отрабатывает восстановление. Было принято решение попробовать поднять новый контейнер и перенести все на новый. С него восстановить пару машин и старый бэкап сервер. Благо база, конфиги и файлы бэкапов на месте. При переезде, чтении мануалов, доков и форумов я нашел интересный для себя момент. На старом сервере не нахожу файлов bareos-dir.conf, bareos-sd.conf и bareos-fd.conf в /ets/bareos

/etc/bareos# ls -ls
9 drwxr-x--- 14    111    118  14 Aug  9  2018 bareos-dir.d
1 drwxr-x---  3    111    118   3 Aug  9  2018 bareos-dir-export
1 drwxr-x---  5 bareos bareos   5 Aug  2  2018 bareos-fd.d
1 drwxr-x---  6    111    118   6 Aug  9  2018 bareos-sd.d
5 -rw-r-----  1 root      118 236 Aug  9  2018 bconsole.conf

Тут возникает ряд вопросов:

  • 1. У кого есть опыт переезда сервера Bareos?
  • 2. Как можно запустить Bareos без файлов конфигурации в корне каталога установки? Где их можно искать?

 , , , ,

ant_perch
()

Debian 8. First start. Error: bin/sh: can't access tty; lob control turned off

Форум — Linux-install

Возникла такая проблема. Поставил Debian 8 на винт в 2ТБ, с GPT и UEFI. Инсталлер отработал без вопросов, разбивку сделал автоматическую. Но при первом старте bin/sh: can't access tty; lob control turned off Поиском поискал варианты, но они тоже не отработали. Какие будут мысли? Может иначе запустить разбить диск? Или иные подготовительные процессы. Мать ASrock на FM2 с поддрежкой UEFI

 , , , ,

ant_perch
()

Конвертация udp потока в Debian через VLC

Форум — Admin

Вопрос в следующем. Приходи ко мне поток udp на 224.200.200.207, отдают один местный ТВ канал. Мне его надо выкинуть в свою сеть в 239.0.0.3. Поставил Debian и VLC. При попытке конвертировать поток на выходе мы ничего не получаем. По мониторингу и в системе я вижу что поток при запуске конвертации принимается, на выход ничего не идет. Приходит на eth0 - 10.207.5.111, выход - 10.207.5.112. Debian 7, VLC крайний из репозитория. Пробовал на двух машинах сначала без GUI, исключительно через conf. Потом уже с GUI, что бы найти правильный вариант для выхода. Экспериментировал стримить файл видео, он тоже не стримился, сообщений об ошибке нет.

Может быть есть другой вариант для того что бы принять поток и выкинуть его наружу. Параллельно мне надо будет на этой же машине принять еще один канал по http и также выбросить в UDP.

Варианты конфига для выходного потока

1

:sout=#transcode{vcodec=h264,vb=0,scale=0,acodec=mpga,ab=128,channels=2,samplerate=44100}:std{access=udp{ttl=255},dst=239.0.0.3:1234} :sout-keep

2

:sout=#transcode{vcodec=h264,vb=800,scale=1,acodec=mpga,ab=128,channels=2,samplerate=44100}:duplicate{dst=std{access=udp{ttl=255},mux=ts,dst=@239.0.0.1:1234},dst=display} :sout-keep

3

:sout=#transcode{vcodec=h264,vb=800,scale=1,acodec=mpga,ab=128,channels=2,samplerate=44100}:std{access=udp{ttl=255},mux=ts,dst=10.207.5.112@239.0.0.3:1234} :sout-keep

4

:sout=#transcode{vcodec=h264,vb=0,scale=0,acodec=mpga,ab=128,channels=2,samplerate=44100}:duplicate{dst=std{access=udp{ttl=225},dst=udp://10.207.5.112@239.0.0.3:1234},dst=display} :sout-keep

5

:sout=#transcode{vcodec=h264,vb=0,scale=0,acodec=mpga,ab=128,channels=2,samplerate=44100}:duplicate{dst=std{access=udp{ttl=225},dst=udp://10.207.5.112@239.0.0.3:1234},dst=display} :sout-keep

 

ant_perch
()

Debian + KVM + настройка сети

Форум — Admin

Доброго всем! Столкнулся с проблемой при реализации следующей задачи. Есть хост машина под debian 7 с адресом x.y.z.10, установлен KVM, bridge-utils, virt-manager. В KVM надо поднять 2-е Win XP машины. При всем этом у них должны быть адреса из той же подсети что и у хоста x.y.z.11 и x.y.z.12 соответственно. При этом машинки должны иметь доступ в интернет для удаленного доступа на них.

В данный момент проблема с настройкой моста. Много чего прочел здесь и на просторах. Но интерфейс br0 ни как не хочет подниматься.

Ниже привожу то что сконфигурировано на хост машине.

eth0      Link encap:Ethernet  HWaddr 00:25:90:d7:58:e0  
          inet6 addr: fe80::225:90ff:fed7:58e0/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:106 errors:0 dropped:0 overruns:0 frame:0
          TX packets:6 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000 
          RX bytes:14880 (14.5 KiB)  TX bytes:468 (468.0 B)

eth1      Link encap:Ethernet  HWaddr 00:25:90:d7:58:e1  
          inet addr:q.w.e.50  Bcast:q.w.e.255 Mask:255.255.255.0
          inet6 addr: fe80::225:90ff:fed7:58e1/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:87 errors:0 dropped:0 overruns:0 frame:0
          TX packets:46 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000 
          RX bytes:13628 (13.3 KiB)  TX bytes:7569 (7.3 KiB)
          Interrupt:20 Memory:f7200000-f7220000 

lo        Link encap:Local Loopback  
          inet addr:127.0.0.1  Mask:255.0.0.0
          inet6 addr: ::1/128 Scope:Host
          UP LOOPBACK RUNNING  MTU:16436  Metric:1
          RX packets:20 errors:0 dropped:0 overruns:0 frame:0
          TX packets:20 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0 
          RX bytes:1200 (1.1 KiB)  TX bytes:1200 (1.1 KiB)
Как видно eth0 теряет адрес ipv4 при настройке br0 через interfaces

 
# The loopback network interface
auto lo
iface lo inet loopback

# The primary network interface
#allow-hotplug eth0
iface eth0 inet manual

allow-hotplug br0
iface br0 inet static
        address x.y.z.10
        netmask 255.255.255.0
        network x.y.z.0
        broadcast x.y.z.255
        gateway x.y.z.2
        dns-nameserver x.y.z.3 8.8.8.8
        bridge_interface eth0
        bridge_fd 9
        mtu 1500
        bridge_maxage 4
        bridge_stp off

allow-hotplug eth1
iface eth1 inet dhcp

Пробовал поднимать все через командную строку

ifconfig eth0 down
brctl addbr br0
brctl addif br0 eth0
ifconfig br0 up
ifconfig eth0 up
ifconfig br0 promisc
Вроде все поднимается, в ifconfig как надо вывод а толку нету.

P.S. Или для данной задачи лучше попробовать что-то другое?

P.S.S Опыта очень не много. Так что прошу о снисхождении и надеюсь на подробные подсказки

 , ,

ant_perch
()

RSS подписка на новые темы