LINUX.ORG.RU

Сообщения yatakoi

 

Помогите включить wsrep на Galera

Форум — Admin

Всем привет.

Перепробовал массу мануалов по настройке MariaDB Galera и во всех случаях не работает репликация. Мучился с версией 10.5

Сегодня попробовал версию 10.3 и единственно, что появилось так это wsrep_ready | ON На 10.5 и этого не было.

ОС: CentOS 8 Stream

MariaDB:

# mysql -uroot -e 'SELECT version();'
+---------------------+
| version()           |
+---------------------+
| 10.3.36-MariaDB-log |
+---------------------+

Конфиги нод

Нода1:

[mysqld]
max_connections=350
log-bin=/var/log/mysql/mysql-bin
log-bin-index=/var/log/mysql/mysql-bin.index
binlog-format = 'ROW'
default-storage-engine=innodb
#
innodb_autoinc_lock_mode=2
innodb_rollback_on_timeout=1
innodb_lock_wait_timeout=600
innodb_doublewrite=1
#
innodb_flush_log_at_trx_commit=0
bind-address=0.0.0.0
# Galera Provider Configuration
wsrep_provider=/usr/lib/galera/libgalera_smm.so
wsrep_cluster_address="gcomm://10.10.84.200,10.10.84.201,10.10.84.202"
wsrep_on=ON
# Galera Cluster Configuration
wsrep_cluster_name="cluster"
# Galera Synchronization Configuration
wsrep_sst_method=rsync
# Galera Node Configuration
wsrep_node_address="10.10.84.200"
wsrep_node_name="os-controller-01"

Нода2:

[mysqld]
max_connections=350
log-bin=/var/log/mysql/mysql-bin
log-bin-index=/var/log/mysql/mysql-bin.index
binlog-format = 'ROW'
default-storage-engine=innodb
#
innodb_autoinc_lock_mode=2
innodb_rollback_on_timeout=1
innodb_lock_wait_timeout=600
innodb_doublewrite=1
#
innodb_flush_log_at_trx_commit=0
bind-address=0.0.0.0
# Galera Provider Configuration
wsrep_provider=/usr/lib/galera/libgalera_smm.so
wsrep_cluster_address="gcomm://10.10.84.200,10.10.84.201,10.10.84.202"
wsrep_on=ON
# Galera Cluster Configuration
wsrep_cluster_name="cluster"
# Galera Synchronization Configuration
wsrep_sst_method=rsync
# Galera Node Configuration
wsrep_node_address="10.10.84.201"
wsrep_node_name="os-controller-02"

Нода 3:

[mysqld]
max_connections=350
log-bin=/var/log/mysql/mysql-bin
log-bin-index=/var/log/mysql/mysql-bin.index
binlog-format = 'ROW'
default-storage-engine=innodb
#
innodb_autoinc_lock_mode=2
innodb_rollback_on_timeout=1
innodb_lock_wait_timeout=600
innodb_doublewrite=1
#
innodb_flush_log_at_trx_commit=0
bind-address=0.0.0.0
# Galera Provider Configuration
wsrep_provider=/usr/lib/galera/libgalera_smm.so
wsrep_cluster_address="gcomm://10.10.84.200,10.10.84.201,10.10.84.202"
wsrep_on=ON
# Galera Cluster Configuration
wsrep_cluster_name="cluster"
# Galera Synchronization Configuration
wsrep_sst_method=rsync
# Galera Node Configuration
wsrep_node_address="10.10.84.202"
wsrep_node_name="os-controller-03"

Состояние кластера:

MariaDB [(none)]> show status like 'wsrep_%';
+-------------------------------+----------------------+
| Variable_name                 | Value                |
+-------------------------------+----------------------+
| wsrep_applier_thread_count    | 0                    |
| wsrep_cluster_conf_id         | 18446744073709551615 |
| wsrep_cluster_size            | 0                    |
| wsrep_cluster_state_uuid      |                      |
| wsrep_cluster_status          | Disconnected         |
| wsrep_connected               | OFF                  |
| wsrep_local_bf_aborts         | 0                    |
| wsrep_local_index             | 18446744073709551615 |
| wsrep_provider_name           |                      |
| wsrep_provider_vendor         |                      |
| wsrep_provider_version        |                      |
| wsrep_ready                   | ON                   |
| wsrep_rollbacker_thread_count | 0                    |
| wsrep_thread_count            | 0                    |
+-------------------------------+----------------------+
14 rows in set (0.001 sec)

Файрвол отключен.

Помогите настроить репликацию.

 , ,

yatakoi
()

Squid. Везде ошибка 403

Форум — Admin

Всем привет.

Конфиг:

auth_param negotiate program /usr/lib64/squid/negotiate_kerberos_auth -d -k /etc/squid/squid.keytab -s HTTP/squid.corp.domain.ru@CORP.DOMAIN.RU
auth_param negotiate children 100 startup=0 idle=10
auth_param negotiate keep_alive on
acl authenticated_user proxy_auth REQUIRED
http_access deny !authenticated_user

external_acl_type inet_buh ttl=300 negative_ttl=60 %LOGIN /usr/lib64/squid/ext_kerberos_ldap_group_acl -g Internet-buh@CORP.DOMAIN.RU

acl localnet src 172.16.100.0/24

acl buh external inet_buh
acl auth proxy_auth REQUIRED

acl SSL_ports port 443 9443
acl Safe_ports port 80 # http
acl Safe_ports port 21 # ftp
acl Safe_ports port 443 # https
acl Safe_ports port 70 # gopher
acl Safe_ports port 210 # wais
acl Safe_ports port 1025-65535 # unregistered ports
acl Safe_ports port 280 # http-mgmt
acl Safe_ports port 488 # gss-http
acl Safe_ports port 591 # filemaker
acl Safe_ports port 777 # multiling http
acl CONNECT method CONNECT

acl white_list dstdomain "/etc/squid/whitelist.txt"
acl black_list dstdomain "/etc/squid/blocked_http.txt"
dns_nameservers 172.16.100.11


# access rule

http_access allow buh white_list
http_access deny buh all
http_access allow localhost

http_access deny all

http_port 3128

always_direct allow all
sslproxy_cert_error allow all


acl blocked ssl::server_name "/etc/squid/blocked_https.txt"
acl step1 at_step SslBump1
ssl_bump peek step1

ssl_bump terminate blocked
ssl_bump splice all

coredump_dir /var/spool/squid
refresh_pattern ^ftp:           1440    20%     10080
refresh_pattern ^gopher:        1440    0%      1440
refresh_pattern -i (/cgi-bin/|\?) 0     0%      0
refresh_pattern .               0       20%     4320

cache_dir aufs /var/spool/squid 20000 49 256
maximum_object_size 61440 KB
minimum_object_size 3 KB

cache_swap_low 90
cache_swap_high 95
maximum_object_size_in_memory 512 KB
memory_replacement_policy lru
logfile_rotate 4

Если добавляю юзера в AD в группу inet_buh, то в браузере

ОШИБКА
Запрошенный URL не может быть получен

В логах:

1654417319.278      0 172.16.100.101 TCP_DENIED/407 4578 GET http://ya.ru/ - HIER_NONE/- text/html
1654417319.344     42 172.16.100.101 TCP_DENIED/403 7156 GET http://ya.ru/ user01@CORP.DOMAIN.RU HIER_NONE/- text/html
1654417319.474      0 172.16.100.101 TCP_DENIED/403 4629 GET http://squid.corp.viang.ru:3128/squid-internal-static/icons/SN.png user01@CORP.DOMAIN.RU HIER_NONE/- text/html

Указываю в whitelist.txt домен ya.ru, о не помогает.

Если в squid.conf вместо http_access deny all указать http_access allow all, то везде пускает.

В чем может быть ошибка конфига?

 

yatakoi
()

etcnet и редактирование /etc/resolv.conf

Форум — Admin

Всем привет.

Здесь https://www.altlinux.org/Etcnet написано:

Интерфейс default — это не интерфейс, а специальный каталог, файлы в котором обрабатываются следующим образом:

    resolv.conf — если присутствует, то копируется в /etc/resolv.conf.

Мне нужно в resolv.conf заменить domain на search

Сейчас у меня в /etc/resolv.conf:

# Generated by resolvconf
# Do not edit manually, use
# /etc/net/ifaces/<interface>/resolv.conf instead.
domain mydomain.local
nameserver 172.xx.99.2
nameserver 172.xx.99.3
nameserver 172.xx.99.7

Создаю в default файл resolv.conf:

search mydomain.local
nameserver 172.xx.99.2
nameserver 172.xx.99.3
nameserver 172.xx.99.7

Перезагружаю сервер, смотрю на /etc/resolv.conf:

# Generated by resolvconf
# Do not edit manually, use
# /etc/net/ifaces/<interface>/resolv.conf instead.
domain mydomain.local
nameserver 172.xx.99.2
nameserver 172.xx.99.3
nameserver 172.xx.99.7

Ничего не изменилось.

Пробовал тоже самое, но в /etc/net/ifaces/eth0 - не помогает.

 ,

yatakoi
()

megacli показывает Enclosure Device ID всех дисков без ID

Форум — General

Всем привет.

Понадобилось добавить диск в рейд, но чтобы это сделать мне надо знать Enclosure Device ID этого диска, но у меня все диски без ID.

root@truenas[~]# megacli -PDList -aAll | egrep "Enclosure Device ID:|Slot Number:|Inquiry Data:|Error Count:|state"
Enclosure Device ID: N/A
Slot Number: 0
Media Error Count: 0
Other Error Count: 0
Firmware state: Online, Spun Up
Inquiry Data: BTTV423403BA400HGN  INTEL SSDSC2BA400G3                     5DV12270
Enclosure Device ID: N/A
Slot Number: 1
Media Error Count: 0
Other Error Count: 0
Firmware state: Online, Spun Up
Inquiry Data: S2TYNX0K307667      SAMSUNG MZ7LM3T8HMLP-00005              GXT5204Q
Enclosure Device ID: N/A
Slot Number: 2
Media Error Count: 0
Other Error Count: 0
Firmware state: Online, Spun Up
Inquiry Data: S2TYNB0JB03864      SAMSUNG MZ7LM3T8HMLP-00005              GXT5204Q
Enclosure Device ID: N/A
Slot Number: 3
Media Error Count: 0
Other Error Count: 0
Firmware state: Online, Spun Up
Inquiry Data: S2TYNX0KB00446      SAMSUNG MZ7LM3T8HMLP-00005              GXT5204Q
Enclosure Device ID: N/A
Slot Number: 4
Media Error Count: 0
Other Error Count: 0
Firmware state: Unconfigured(good), Spun Up
Inquiry Data: S2TYNX0KA00391      SAMSUNG MZ7LM3T8HMLP-00005              GXT5204Q

Из-за этого не могу добавить диск в массив.

Такой вариант не проходит: megacli -LDRecon -Start -r5 -Add -PhysDrv[:4] -l0 -a0

Почему на всех дисках Enclosure Device ID: N/A?

 

yatakoi
()

Как создать сеть в OpenNebula

Форум — General

Кто-нибудь может сказать как создать такую сеть?

На хосте создан br0 (192.168.10.124). Нужно чтобы br0 мостом привязывался к ВМ. И соответственно ВМ будет получать IP через br0. То есть в Virtual Network не должен задаваться диапазон IP - этот диапазон есть уже на DHCP сервере.

 

yatakoi
()

Как обновить libvirt?

Форум — General

Всем привет.

Использую Opennebula, но это не суть - от этого можно абстрагироваться.

В Opennebula в шаблон виртуалки добавляю

<os  firmware='efi'>
    <type>hvm</type>
    <loader secure='no'/>
</os>

чтобы в неё добавлялся загрузчик UEFI.

Так вот. При создании ВМ получаю ошибку:

error: internal error: process exited while connecting to monitor: 2021-08-01T12:31:34.230725Z qemu-kvm-one: -blockdev {"driver":"file","filename":"/var/lib/libvirt/qemu/nvram/one-15_VARS.fd","node-name":"libvirt-pflash1-storage","auto-read-only":true,"discard":"unmap"}: Could not open '/var/lib/libvirt/qemu/nvram/one-15_VARS.fd': Permission denied

Суть ясна - Permission denied. Это баг QEMU и есть ISSUE этой проблемы с описанием как это исправить https://gitlab.com/libvirt/libvirt/-/issues/159

Месяц назад в этом же ISSUE закоммитили это обновление, но я не могу понять как теперь обновить QEMU с этим исправлением. Гугл выдаёт ссылки на просто установку QEMU+KVM.

 ,

yatakoi
()

Ubuntu 20. Не могу залогиниться через XRDP после того как сессия заблокировалась

Форум — Desktop

Установил XRDP. Первый раз залогинился. Потом заблокировал сессию. Снова подключаюсь, попадаю в окно GNOME с предложением ввести пароль.

Если ввожу неправильный пароль, то система реагирует, если введу правильный, то ничего не происходит, а поле ввода пароля становится неактивным, но можно подсмотреть введенный пароль, нажав на глаз.

Это наблюдается только в XRDP, через Anydesk все нормально проходит.

Удалял xrdp, устанавливал снова - не помогает.

 

yatakoi
()

Помогите настроить проброс устройств в OpenNebula

Форум — Admin

Всем привет.

Писал в группу OpenNebula в телеграме, никто не ответил. Писал на оф. форуме ON, ответил один человек, но тоже не помогает. Гугл вообще молчит. Единственная дока мне не помогла, хоть и по ней делал https://docs.opennebula.io/6.0/open_cluster_deployment/kvm_node/pci_passthrough.html

OpenNebula 6.

Хост OpenNebula
OS: CentOS 8.3
Kernel: Linux 4.18.0-240.22.1.el8_3.x86_64
IP: 192.168.10.171

Установленные компоненты:
yum -y install opennebula opennebula-sunstone opennebula-fireedge opennebula-gate opennebula-flow opennebula-provision

Хост KVM (добавлен в OpenNebula)

OS: CentOS 8.3
Kernel: Linux 4.18.0-240.22.1.el8_3.x86_64
IP: 192.168.10.169

Установленные компоненты:
yum -y install opennebula-node-kvm

Цель: чтобы ON увидел nVidia RTX 2080

Мои действия на хосте KVM:

[root@kvm-gpu-test ~]# lspci -nn | grep -i nvidia
01:00.0 VGA compatible controller [0300]: NVIDIA Corporation TU102 [GeForce RTX 2080 Ti Rev. A] [10de:1e07] (rev a1)
01:00.1 Audio device [0403]: NVIDIA Corporation TU102 High Definition Audio Controller [10de:10f7] (rev a1)
01:00.2 USB controller [0c03]: NVIDIA Corporation TU102 USB 3.1 Host Controller [10de:1ad6] (rev a1)
01:00.3 Serial bus controller [0c80]: NVIDIA Corporation TU102 USB Type-C UCSI Controller [10de:1ad7] (rev a1)
[root@kvm-gpu-test ~]# lspci -vs 01:00.0
01:00.0 VGA compatible controller: NVIDIA Corporation TU102 [GeForce RTX 2080 Ti Rev. A] (rev a1) (prog-if 00 [VGA controller])
        Subsystem: eVga.com. Corp. Device 2489
        Flags: bus master, fast devsel, latency 0, IRQ 141
        Memory at 95000000 (32-bit, non-prefetchable) [size=16M]
        Memory at 80000000 (64-bit, prefetchable) [size=256M]
        Memory at 90000000 (64-bit, prefetchable) [size=32M]
        I/O ports at 6000 [size=128]
        Expansion ROM at 96000000 [disabled] [size=512K]
        Capabilities: [60] Power Management version 3
        Capabilities: [68] MSI: Enable+ Count=1/1 Maskable- 64bit+
        Capabilities: [78] Express Legacy Endpoint, MSI 00
        Capabilities: [100] Virtual Channel
        Capabilities: [250] Latency Tolerance Reporting
        Capabilities: [258] L1 PM Substates
        Capabilities: [128] Power Budgeting <?>
        Capabilities: [420] Advanced Error Reporting
        Capabilities: [600] Vendor Specific Information: ID=0001 Rev=1 Len=024 <?>
        Capabilities: [900] Secondary PCI Express
        Capabilities: [bb0] Resizable BAR <?>
        Kernel driver in use: nouveau
        Kernel modules: nouveau

Сначала добавил vfio-pci:

vi /etc/modprobe.d/vfio.conf
options vfio-pci ids=10de:1e07,10de:10f7,10de:1ad6,10de:1ad7

echo 'vfio-pci' > /etc/modules-load.d/vfio-pci.conf

grubby --update-kernel=ALL --args="rd.driver.blacklist=nouveau nouveau.modeset=0"
mv /boot/initramfs-$(uname -r).img /boot/initramfs-$(uname -r).img.bak
dracut /boot/initramfs-$(uname -r).img $(uname -r)
echo 'blacklist nouveau' > /etc/modprobe.d/nouveau-blacklist.conf

reboot

После ребута kernel driver стал vfio-pci:

[root@kvm-gpu-test ~]# lspci -vs 01:00.0
01:00.0 VGA compatible controller: NVIDIA Corporation TU102 [GeForce RTX 2080 Ti Rev. A] (rev a1) (prog-if 00 [VGA controller])
        Subsystem: eVga.com. Corp. Device 2489
        Flags: fast devsel, IRQ 11
        Memory at 95000000 (32-bit, non-prefetchable) [disabled] [size=16M]
        Memory at 80000000 (64-bit, prefetchable) [disabled] [size=256M]
        Memory at 90000000 (64-bit, prefetchable) [disabled] [size=32M]
        I/O ports at 6000 [disabled] [size=128]
        Expansion ROM at 96000000 [disabled] [size=512K]
        Capabilities: [60] Power Management version 3
        Capabilities: [68] MSI: Enable- Count=1/1 Maskable- 64bit+
        Capabilities: [78] Express Legacy Endpoint, MSI 00
        Capabilities: [100] Virtual Channel
        Capabilities: [250] Latency Tolerance Reporting
        Capabilities: [258] L1 PM Substates
        Capabilities: [128] Power Budgeting <?>
        Capabilities: [420] Advanced Error Reporting
        Capabilities: [600] Vendor Specific Information: ID=0001 Rev=1 Len=024 <?>
        Capabilities: [900] Secondary PCI Express
        Capabilities: [bb0] Resizable BAR <?>
        Kernel driver in use: vfio-pci
        Kernel modules: nouveau

Затем в /etc/libvirt/qemu.conf добавил:

[root@kvm-gpu-test ~]# find /sys/kernel/iommu_groups/ -type l
/sys/kernel/iommu_groups/7/devices/0000:00:17.0
/sys/kernel/iommu_groups/15/devices/0000:03:00.0
/sys/kernel/iommu_groups/5/devices/0000:00:15.1
/sys/kernel/iommu_groups/5/devices/0000:00:15.0
/sys/kernel/iommu_groups/13/devices/0000:00:1f.0
/sys/kernel/iommu_groups/13/devices/0000:00:1f.5
/sys/kernel/iommu_groups/13/devices/0000:00:1f.4
/sys/kernel/iommu_groups/3/devices/0000:00:12.0
/sys/kernel/iommu_groups/11/devices/0000:00:1c.1
**/sys/kernel/iommu_groups/1/devices/0000:00:01.0**
**/sys/kernel/iommu_groups/1/devices/0000:01:00.2**
**/sys/kernel/iommu_groups/1/devices/0000:01:00.0**
**/sys/kernel/iommu_groups/1/devices/0000:01:00.3**
/sys/kernel/iommu_groups/1/devices/0000:01:00.1
/sys/kernel/iommu_groups/8/devices/0000:00:1b.0
/sys/kernel/iommu_groups/16/devices/0000:06:00.0
/sys/kernel/iommu_groups/16/devices/0000:05:00.0
/sys/kernel/iommu_groups/6/devices/0000:00:16.4
/sys/kernel/iommu_groups/6/devices/0000:00:16.0
/sys/kernel/iommu_groups/14/devices/0000:02:00.0
/sys/kernel/iommu_groups/4/devices/0000:00:14.2
/sys/kernel/iommu_groups/4/devices/0000:00:14.0
/sys/kernel/iommu_groups/12/devices/0000:00:1e.0
/sys/kernel/iommu_groups/2/devices/0000:00:08.0
/sys/kernel/iommu_groups/10/devices/0000:00:1c.0
/sys/kernel/iommu_groups/0/devices/0000:00:00.0
/sys/kernel/iommu_groups/9/devices/0000:00:1b.5

vi /etc/libvirt/qemu.conf
cgroup_device_acl = [
    "/dev/null", "/dev/full", "/dev/zero",
    "/dev/random", "/dev/urandom",
    "/dev/ptmx", "/dev/kvm", "/dev/kqemu",
    "/dev/rtc","/dev/hpet", "/dev/vfio/vfio",
    "/dev/vfio/1"
]

Затем на хосте OpenNebula в /etc/libvirt/qemu.conf добавил:

vi /var/lib/one/remotes/etc/im/kvm-probes.d/pci.conf
#                                                                            #
# Unless required by applicable law or agreed to in writing, software        #
# distributed under the License is distributed on an "AS IS" BASIS,          #
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.   #
# See the License for the specific language governing permissions and        #
# limitations under the License.                                             #
#--------------------------------------------------------------------------- #

# This option specifies the main filters for PCI card monitoring. The format
# is the same as used by lspci to filter on PCI card by vendor:device(:class)
# identification. Several filters can be added as a list, or separated
# by commas. The NULL filter will retrieve all PCI cards.
#
# From lspci help:
#     -d [<vendor>]:[<device>][:<class>]
#            Show only devices with specified vendor, device and  class  ID.
#            The  ID's  are given in hexadecimal and may be omitted or given
#            as "*", both meaning "any value"#
#
# For example:
#   :filter:
#     - '10de:*'      # all NVIDIA VGA cards
#     - '10de:11bf'   # only GK104GL [GRID K2]
#     - '*:10d3'      # only 82574L Gigabit Network cards
#     - '8086::0c03'  # only Intel USB controllers
#
# or
#
#   :filter: '*:*'    # all devices
#
# or
#
#   :filter: '0:0'    # no devices
#
:filter:
  - '10de:*'

# The PCI cards list restricted by the :filter option above can be even more
# filtered by the list of exact PCI addresses (bus:device.func).
#
# For example:
#   :short_address:
#     - '07:00.0'
#     - '06:00.0'
#
:short_address: []

# The PCI cards list restricted by the :filter option above can be even more
# filtered by matching the device name against the list of regular expression
# case-insensitive patterns.
#
# For example:
#   :device_name:
#     - 'Virtual Function'
#     - 'Gigabit Network'
#     - 'USB.*Host Controller'
#     - '^MegaRAID'
#
:device_name:
  - 'VGA'

reboot

После ребута хоста KVM, на хосте OpenNebula запустил синхронизацию с хостом KVM:

[oneadmin@on-test ~]$ onehost sync -f
* Adding 192.168.10.169 to upgrade
[========================================] 1/1 192.168.10.169
All hosts updated successfully.
[oneadmin@on-test ~]$ onehost forceupdate
All hosts updated successfully.

Проверяю:

[root@on-test ~]# onehost show 1
HOST 1 INFORMATION
ID                    : 1
NAME                  : 192.168.10.169
CLUSTER               : default
STATE                 : MONITORED
IM_MAD                : kvm
VM_MAD                : kvm
LAST MONITORING TIME  : 05/09 17:16:35

HOST SHARES
RUNNING VMS           : 0
MEMORY
  TOTAL               : 31.1G
  TOTAL +/- RESERVED  : 31.1G
  USED (REAL)         : 388.8M
  USED (ALLOCATED)    : 0K
CPU
  TOTAL               : 400
  TOTAL +/- RESERVED  : 400
  USED (REAL)         : 8
  USED (ALLOCATED)    : 0

MONITORING INFORMATION
ARCH="x86_64"
CPUSPEED="4433"
HOSTNAME="kvm-gpu-test"
HYPERVISOR="kvm"
IM_MAD="kvm"
KVM_CPU_MODEL="Skylake-Client-IBRS"
KVM_CPU_MODELS="486 pentium pentium2 pentium3 pentiumpro coreduo n270 core2duo qemu32 kvm32 cpu64-rhel5 cpu64-rhel6 qemu64 kvm64 Conroe Penryn Nehalem Nehalem-IBRS Westmere Westmere-IBRS SandyBridge SandyBridge-IBRS IvyBridge IvyBridge-IBRS Haswell-noTSX Haswell-noTSX-IBRS Haswell Haswell-IBRS Broadwell-noTSX Broadwell-noTSX-IBRS Broadwell Broadwell-IBRS Skylake-Client Skylake-Client-IBRS Skylake-Client-noTSX-IBRS Skylake-Server Skylake-Server-IBRS Skylake-Server-noTSX-IBRS Cascadelake-Server Cascadelake-Server-noTSX Icelake-Client Icelake-Client-noTSX Icelake-Server Icelake-Server-noTSX Cooperlake athlon phenom Opteron_G1 Opteron_G2 Opteron_G3 Opteron_G4 Opteron_G5 EPYC EPYC-IBPB Dhyana"
KVM_MACHINES="pc-i440fx-rhel7.6.0 pc pc-i440fx-rhel7.0.0 pc-q35-rhel7.6.0 pc-i440fx-rhel7.5.0 pc-q35-rhel8.2.0 q35 pc-i440fx-rhel7.1.0 pc-i440fx-rhel7.2.0 pc-q35-rhel7.3.0 pc-q35-rhel7.4.0 pc-i440fx-rhel7.3.0 pc-q35-rhel8.0.0 pc-i440fx-rhel7.4.0 pc-q35-rhel8.1.0 pc-q35-rhel7.5.0"
MODELNAME="Intel(R) Xeon(R) E-2224 CPU @ 3.40GHz"
RESERVED_CPU=""
RESERVED_MEM=""
VERSION="6.0.0.1"
VM_MAD="kvm"

NUMA NODES

  ID CORES    USED FREE
   0 - - - -  0    4

NUMA MEMORY

 NODE_ID TOTAL    USED_REAL            USED_ALLOCATED       FREE
       0 31G      0K                   0K                   0K

NUMA HUGEPAGES

 NODE_ID SIZE     TOTAL    FREE     USED
       0 2M       0        0        0
       0 1024M    0        0        0

WILD VIRTUAL MACHINES

NAME                                                      IMPORT_ID  CPU     MEMORY

VIRTUAL MACHINES

  ID USER     GROUP    NAME                                                                                                           STAT  CPU     MEM HOST                                                                             TIME
[root@on-test ~]#

В списке должен появиться раздел примерно такого содержания:

PCI DEVICES

   VM ADDR    TYPE           NAME
      00:00.0 8086:0a04:0600 Haswell-ULT DRAM Controller
      00:02.0 8086:0a16:0300 Haswell-ULT Integrated Graphics Controller
  123 00:03.0 8086:0a0c:0403 Haswell-ULT HD Audio Controller
      00:14.0 8086:9c31:0c03 8 Series USB xHCI HC
      00:16.0 8086:9c3a:0780 8 Series HECI #0
      00:1b.0 8086:9c20:0403 8 Series HD Audio Controller
      00:1c.0 8086:9c10:0604 8 Series PCI Express Root Port 1
      00:1c.2 8086:9c14:0604 8 Series PCI Express Root Port 3
      00:1d.0 8086:9c26:0c03 8 Series USB EHCI #1
      00:1f.0 8086:9c43:0601 8 Series LPC Controller
      00:1f.2 8086:9c03:0106 8 Series SATA Controller 1 [AHCI mode]
      00:1f.3 8086:9c22:0c05 8 Series SMBus Controller
      02:00.0 8086:08b1:0280 Wireless 7260

Но как видно, ничего нет ((

 

yatakoi
()

Trying private key: /var/lib/one/.ssh/id_xmss

Форум — Admin

Всем привет.

Домашняя директория юзера oneadmin /var/lib/one там же папка .ssh

[oneadmin@on-test ~]$ ll .ssh
total 40
-rw------- 1 oneadmin oneadmin 1444 Apr 16 00:12 config
-rw------- 1 oneadmin oneadmin 1381 Apr 30 14:32 id_dsa
-rw-r--r-- 1 oneadmin oneadmin  606 Apr 30 14:32 id_dsa.pub
-rw------- 1 oneadmin oneadmin  513 Apr 30 14:33 id_ecdsa
-rw-r--r-- 1 oneadmin oneadmin  178 Apr 30 14:33 id_ecdsa.pub
-rw------- 1 oneadmin oneadmin  411 Apr 30 14:34 id_ed25519
-rw-r--r-- 1 oneadmin oneadmin   98 Apr 30 14:34 id_ed25519.pub
-rw------- 1 oneadmin oneadmin 2602 Apr 16 00:12 id_rsa
-rw-r--r-- 1 oneadmin oneadmin  570 Apr 16 00:12 id_rsa.pub
-rw-rw-r-- 1 oneadmin oneadmin 1680 Apr 30 14:35 known_hosts

Задача: беспарольная авторизация между двумя хостами. 192.168.10.171 - локальный хост 192.168.10.169 - удаленный хост

Делаю:

ssh-keyscan 192.168.10.171 >> /var/lib/one/.ssh/known_hosts
ssh-keyscan 192.168.10.169 >> /var/lib/one/.ssh/known_hosts

Затем: scp -rp /var/lib/one/.ssh root@192.168.10.169:/var/lib/one/

Пробую ssh -v 192.168.10.169

[oneadmin@on-test ~]$ ssh -v 192.168.10.169
OpenSSH_8.0p1, OpenSSL 1.1.1g FIPS  21 Apr 2020
debug1: Reading configuration data /var/lib/one/.ssh/config
debug1: /var/lib/one/.ssh/config line 9: Applying options for *
debug1: Reading configuration data /etc/ssh/ssh_config
debug1: /etc/ssh/ssh_config line 52: include /etc/ssh/ssh_config.d/*.conf matched no files
debug1: Control socket "/run/one/ssh-socks/ctl-M-2e6918e5b83c1898e28a015b55252c7cfd315a7a.sock" does not exist
debug1: Connecting to 192.168.10.169 [192.168.10.169] port 22.
debug1: Connection established.
debug1: identity file /var/lib/one/.ssh/id_rsa type 0
debug1: identity file /var/lib/one/.ssh/id_rsa-cert type -1
debug1: identity file /var/lib/one/.ssh/id_dsa type 1
debug1: identity file /var/lib/one/.ssh/id_dsa-cert type -1
debug1: identity file /var/lib/one/.ssh/id_ecdsa type 2
debug1: identity file /var/lib/one/.ssh/id_ecdsa-cert type -1
debug1: identity file /var/lib/one/.ssh/id_ed25519 type 3
debug1: identity file /var/lib/one/.ssh/id_ed25519-cert type -1
debug1: identity file /var/lib/one/.ssh/id_xmss type -1
debug1: identity file /var/lib/one/.ssh/id_xmss-cert type -1
debug1: Local version string SSH-2.0-OpenSSH_8.0
debug1: Remote protocol version 2.0, remote software version OpenSSH_8.0
debug1: match: OpenSSH_8.0 pat OpenSSH* compat 0x04000000
debug1: Authenticating to 192.168.10.169:22 as 'oneadmin'
debug1: SSH2_MSG_KEXINIT sent
debug1: SSH2_MSG_KEXINIT received
debug1: kex: algorithm: curve25519-sha256
debug1: kex: host key algorithm: ecdsa-sha2-nistp256
debug1: kex: server->client cipher: chacha20-poly1305@openssh.com MAC: <implicit> compression: none
debug1: kex: client->server cipher: chacha20-poly1305@openssh.com MAC: <implicit> compression: none
debug1: kex: curve25519-sha256 need=64 dh_need=64
debug1: kex: curve25519-sha256 need=64 dh_need=64
debug1: expecting SSH2_MSG_KEX_ECDH_REPLY
debug1: Server host key: ecdsa-sha2-nistp256 SHA256:8EEixRjQbwhjriFUpJwj8AjZ7Ps+EP6pjlGIAOosQvs
debug1: Host '192.168.10.169' is known and matches the ECDSA host key.
debug1: Found key in /var/lib/one/.ssh/known_hosts:2
debug1: rekey out after 134217728 blocks
debug1: SSH2_MSG_NEWKEYS sent
debug1: expecting SSH2_MSG_NEWKEYS
debug1: SSH2_MSG_NEWKEYS received
debug1: rekey in after 134217728 blocks
debug1: Skipping ssh-dss key /var/lib/one/.ssh/id_dsa - not in PubkeyAcceptedKeyTypes
debug1: Will attempt key: /var/lib/one/.ssh/id_rsa RSA SHA256:VIVCNHZ8QmZTHhwB8LZtoObaRqpFakDbVYOX1Lk8pxQ
debug1: Will attempt key: /var/lib/one/.ssh/id_ecdsa ECDSA SHA256:rUb3Ra9GI4dQXB4CCYQA6kBlpLhbmQezTYkcYTCk9zk
debug1: Will attempt key: /var/lib/one/.ssh/id_ed25519 ED25519 SHA256:/HPv+7aZRrZ5hoW2GP9gMBMg/bqhtbukqcP7ObZ9WAw
debug1: Will attempt key: /var/lib/one/.ssh/id_xmss
debug1: SSH2_MSG_EXT_INFO received
debug1: kex_input_ext_info: server-sig-algs=<ssh-ed25519,ssh-rsa,rsa-sha2-256,rsa-sha2-512,ssh-dss,ecdsa-sha2-nistp256,ecdsa-sha2-nistp384,ecdsa-sha2-nistp521>
debug1: SSH2_MSG_SERVICE_ACCEPT received
debug1: Authentications that can continue: publickey,gssapi-keyex,gssapi-with-mic,password
debug1: Next authentication method: publickey
debug1: Offering public key: /var/lib/one/.ssh/id_rsa RSA SHA256:VIVCNHZ8QmZTHhwB8LZtoObaRqpFakDbVYOX1Lk8pxQ
debug1: Authentications that can continue: publickey,gssapi-keyex,gssapi-with-mic,password
debug1: Offering public key: /var/lib/one/.ssh/id_ecdsa ECDSA SHA256:rUb3Ra9GI4dQXB4CCYQA6kBlpLhbmQezTYkcYTCk9zk
debug1: Authentications that can continue: publickey,gssapi-keyex,gssapi-with-mic,password
debug1: Offering public key: /var/lib/one/.ssh/id_ed25519 ED25519 SHA256:/HPv+7aZRrZ5hoW2GP9gMBMg/bqhtbukqcP7ObZ9WAw
debug1: Authentications that can continue: publickey,gssapi-keyex,gssapi-with-mic,password
debug1: Trying private key: /var/lib/one/.ssh/id_xmss
debug1: Next authentication method: password
oneadmin@192.168.10.169's password:

Не могу понять, что ему не хватает

 , ,

yatakoi
()

Как найти причину ошибки во время компиляции с помощью make?

Форум — Development

Всем привет.

Пробую собрать вот этот пакет https://sourceforge.net/projects/nvgpu-smi-snmp/

[root@localhost nvgpu-smi-snmp-1.1]# make
cc -g `pkg-config --cflags libxml-2.0` -g -O2 -DNETSNMP_ENABLE_IPV6 -fno-strict-aliasing -DNETSNMP_REMOVE_U64 -g -O2 -Ulinux -Dlinux=linux -I/usr/local/include -fPIC -Wall -Wstrict-prototypes   -c -o nvCtrlTable_interface.o nvCtrlTable_interface.c
In file included from nvCtrlTable_interface.c:33:
nvCtrlTable_interface.c:49:5: error: expected ‘;’ before ‘extern’
     netsnmp_feature_require(row_merge)
     ^~~~~~~~~~~~~~~~~~~~~~~
nvCtrlTable_interface.c:50:5: error: expected ‘;’ before ‘extern’
     netsnmp_feature_require(check_all_requests_error)
     ^~~~~~~~~~~~~~~~~~~~~~~
In file included from nvCtrlTable_interface.c:51:
/usr/include/ctype.h:46:1: error: expected ‘;’ before ‘enum’
 enum
 ^~~~
In file included from /usr/local/include/net-snmp/output_api.h:60,
                 from /usr/local/include/net-snmp/library/snmp_client.h:32,
                 from /usr/local/include/net-snmp/varbind_api.h:102,
                 from /usr/local/include/net-snmp/library/snmp_api.h:33,
                 from /usr/local/include/net-snmp/types.h:425,
                 from /usr/local/include/net-snmp/definitions.h:22,
                 from /usr/local/include/net-snmp/net-snmp-includes.h:24,
                 from nvCtrlTable_interface.c:34:
nvCtrlTable_interface.c: In function ‘_mfd_nvCtrlTable_get_values’:
nvCtrlTable_interface.c:1223:32: warning: cast to pointer from integer of different size [-Wint-to-pointer-cast]
                 "exists %p\n", (void *) rowreq_ctx->column_exists_flags));
                                ^
nvCtrlTable_interface.c:1223:32: warning: cast to pointer from integer of different size [-Wint-to-pointer-cast]
                 "exists %p\n", (void *) rowreq_ctx->column_exists_flags));
                                ^
make: *** [<builtin>: nvCtrlTable_interface.o] Error 1

При этом всякие devel установлены так как перед этим собрал из исходников net-snmp. https://sourceforge.net/projects/net-snmp/

Теперь сижу и не понимаю с чего начать искать проблему.

 

yatakoi
()

SIP over OpenVPN. Не подключается

Форум — Admin

OpenVPN за NAT.

Сеть OpenVPN 10.8.0.0/8 Локальная сеть: 172.16.100.0/24

Если подключаюсь по VPN, то RDP, SSH, пинги и вообще всё работает нормально в сеть 172.16.100.0/24

Но SIP ни в какую не хочет подключаться.

trpdump на хосте с серверной частью openvpn выдаёт такое:

[root@openvpn ~]# tcpdump -i tun0 host 10.8.0.2 -v
tcpdump: listening on tun0, link-type RAW (Raw IP), capture size 262144 bytes
14:52:30.666499 IP (tos 0x68, ttl 64, id 23106, offset 0, flags [DF], proto UDP (17), length 661)
    10.8.0.2.45543 > 172.16.100.15.sip: SIP, length: 633
        REGISTER sip:172.16.100.15 SIP/2.0
        Via: SIP/2.0/UDP 10.8.0.2:45543;branch=z9hG4bK.Rcz8ZKnMl;rport
        From: <sip:100@172.16.100.15>;tag=kdBjmzycF
        To: sip:100@172.16.100.15
        CSeq: 20 REGISTER
        Call-ID: CxSNVzv0PI
        Max-Forwards: 70
        Supported: replaces, outbound, gruu
        Accept: application/sdp
        Accept: text/plain
        Accept: application/vnd.gsma.rcs-ft-http+xml
        Contact: <sip:100@10.8.0.2:45543;transport=udp>;+sip.instance="<urn:uuid:931f46dc-c73c-002b-b695-143ca3d5315c>";+org.linphone.specs="lime"
        Expires: 3600
14:52:34.595384 IP (tos 0x68, ttl 64, id 23390, offset 0, flags [DF], proto UDP (17), length 661)
    10.8.0.2.45543 > 172.16.100.15.sip: SIP, length: 633
        REGISTER sip:172.16.100.15 SIP/2.0
        Via: SIP/2.0/UDP 10.8.0.2:45543;branch=z9hG4bK.Rcz8ZKnMl;rport
        From: <sip:100@172.16.100.15>;tag=kdBjmzycF
        To: sip:100@172.16.100.15
        CSeq: 20 REGISTER
        Call-ID: CxSNVzv0PI
        Max-Forwards: 70
        Supported: replaces, outbound, gruu
        Accept: application/sdp
        Accept: text/plain
        Accept: application/vnd.gsma.rcs-ft-http+xml
        Contact: <sip:100@10.8.0.2:45543;transport=udp>;+sip.instance="<urn:uuid:931f46dc-c73c-002b-b695-143ca3d5315c>";+org.linphone.specs="lime"
        Expires: 3600
14:52:38.675018 IP (tos 0x68, ttl 64, id 23493, offset 0, flags [DF], proto UDP (17), length 661)
    10.8.0.2.45543 > 172.16.100.15.sip: SIP, length: 633
        REGISTER sip:172.16.100.15 SIP/2.0
        Via: SIP/2.0/UDP 10.8.0.2:45543;branch=z9hG4bK.Rcz8ZKnMl;rport
        From: <sip:100@172.16.100.15>;tag=kdBjmzycF
        To: sip:100@172.16.100.15
        CSeq: 20 REGISTER
        Call-ID: CxSNVzv0PI
        Max-Forwards: 70
        Supported: replaces, outbound, gruu
        Accept: application/sdp
        Accept: text/plain
        Accept: application/vnd.gsma.rcs-ft-http+xml
        Contact: <sip:100@10.8.0.2:45543;transport=udp>;+sip.instance="<urn:uuid:931f46dc-c73c-002b-b695-143ca3d5315c>";+org.linphone.specs="lime"
        Expires: 3600

Пробовал VPN по протоколу PPTP - софтофон сразу же подключается к SIP-серверу, но и PPTP-клиент получает IP из сети 172.16.100.0/24.

 ,

yatakoi
()

Управление кулерами через SNMP

Форум — Admin

Всем привет.

Кто-нибудь управлял скоростью вращения кулеров через SNMP? Что-то не получается нагуглить.

Плата у меня такая https://www.asrockrack.com/general/productdetail.asp?Model=3U8G%2B/C621#Specifications

 ,

yatakoi
()

SSH. При авторизации по ключу все равно просит пароль

Форум — Admin

Всем привет.

Сгенерировал пару ключей. Соответственно ключи появились здесь:

[root@centos-2gb-hel1-1 ~]# ll .ssh/
total 16
-rw-------. 1 root root  395 Mar 22 00:33 authorized_keys
-rw-------  1 root root 1675 Mar 22 01:00 id_rsa
-rw-r--r--  1 root root  395 Mar 22 01:00 id_rsa.pub
-rw-r--r--  1 root root  174 Mar 22 01:22 known_hosts

Пробую по ключу подключиться к самому себе:

[root@centos-2gb-hel1-1 ~]# ssh -i .ssh/id_rsa 65.xx.55.236
root@65.xx.55.236's password:

Почему просит пароль?

Права:

[root@centos-2gb-hel1-1 ~]# ll .ssh/
total 16
-rw-------. 1 root root  395 Mar 22 00:33 authorized_keys
-rw-------  1 root root 1675 Mar 22 01:00 id_rsa
-rw-r--r--  1 root root  395 Mar 22 01:00 id_rsa.pub
-rw-r--r--  1 root root  174 Mar 22 01:22 known_hosts

Ключи в authorized_keys и в id_rsa.pub - совпадают.

 

yatakoi
()

KVM. Меняются права файла диска на root при попытке запустить виртуальную машину

Форум — Admin

Всем привет.

KVM. CentOS 8. Kernel 5.11

Диск машины vm3.

Даю ему владельца qemu

[root@kvm-gpu-node-9 vm]# chown qemu:qemu /mnt/vm/kvm-gpu-node-9/vm3

Все ок:

[root@kvm-gpu-node-9 vm]# ll /mnt/vm/kvm-gpu-node-9/vm3
-rw-------. 1 qemu qemu 15111880704 Mar 14 13:13 /mnt/vm/kvm-gpu-node-9/vm3

Пробую запустить машину и получаю permission denied.

Смотрю снова:

[root@kvm-gpu-node-9 vm]# ll /mnt/vm/kvm-gpu-node-9/vm3
-rw-------. 1 root root 15111880704 Mar 14 13:13 /mnt/vm/kvm-gpu-node-9/vm3

Он снова стал рутом. В чем может быть причина?

 

yatakoi
()

CentOS 8 не видит сетевую карту QLogic 1010/1020/1007/1741 10Gbps CNA

Форум — Linux-hardware

Всем привет.

CentOS 8

Ядро: [root@localhost ~]# uname -r 4.18.0-240.10.1.el8_3.x86_64

Подключили карту. Загрузились. Карта в списке.

[root@localhost ~]# lshw -C network
  *-network
       description: Ethernet interface
       product: 82579LM Gigabit Network Connection (Lewisville)
       vendor: Intel Corporation
       physical id: 19
       bus info: pci@0000:00:19.0
       logical name: enp0s25
       version: 06
       serial: 34:17:eb:dc:bf:41
       size: 1Gbit/s
       capacity: 1Gbit/s
       width: 32 bits
       clock: 33MHz
       capabilities: pm msi bus_master cap_list ethernet physical tp 10bt 10bt-fd 100bt 100bt-fd 1000bt-fd autonegotiation
       configuration: autonegotiation=on broadcast=yes driver=e1000e driverversion=3.2.6-k duplex=full firmware=0.13-4 latency=0 link=yes multicast=yes port=twisted pair speed=1Gbit/s
       resources: irq:41 memory:fb800000-fb81ffff memory:fb828000-fb828fff ioport:f040(size=32)
  *-network:0 UNCLAIMED
       description: Ethernet controller
       product: 1010/1020/1007/1741 10Gbps CNA
       vendor: Cavium QLogic
       physical id: 0.2
       bus info: pci@0000:06:00.2
       version: 01
       width: 64 bits
       clock: 33MHz
       capabilities: pm msix pciexpress vpd bus_master cap_list
       configuration: latency=0
       resources: memory:fb540000-fb57ffff memory:fb604000-fb607fff memory:fb200000-fb2fffff
  *-network:1 UNCLAIMED
       description: Ethernet controller
       product: 1010/1020/1007/1741 10Gbps CNA
       vendor: Cavium QLogic
       physical id: 0.3
       bus info: pci@0000:06:00.3
       version: 01
       width: 64 bits
       clock: 33MHz
       capabilities: pm msix pciexpress vpd bus_master cap_list
       configuration: latency=0
       resources: memory:fb500000-fb53ffff memory:fb600000-fb603fff memory:fb100000-fb1fffff

Но ни в nmtui ни в ip a её нет. Я так понимаю драйвер нужен, но что-то нагулить его не получается.

 

yatakoi
()

Установка драйверов Fusion ioMemory для контроллера sandisk

Форум — Linux-hardware

Всем привет.

ОС:

[root@localhost ~]# cat /etc/centos-release
CentOS Linux release 7.9.2009 (Core)

Ядро:

[root@localhost ~]# uname -r
3.10.0-1160.15.2.el7.x86_64

Установлен контроллер

[root@localhost ~]# lspci -nn | grep -i sandisk
04:00.0 Mass storage controller [0180]: SanDisk ioDimm3 [1aed:1005] (rev 01)

Задача: Установить драйвера на этот контроллер

Я так понимаю, что надо установить Linux Fusion ioMemory VSL. У меня есть официальный мануал, но чтобы скачать исходники этого по, надо зайти на https://link.sandisk.com/commercialsupport , но чтобы туда попасть нужен логин и пароль, который выдают партнёрам. А просто так скачать пакет не получится так как надо компилировать под конкретное ядро.

Кто-нибудь устанавливал драйвера на этот контроллер? Поделитесь как это сделать.

 

yatakoi
()

gmail блокирует все письма

Форум — General

Всем привет.

На моем домене злоумышленник начал спам-рассылку на ящики gmail и теперь с моего домена нельзя отправлять письма на gmail.

В гугл постмастер домен добавил и подтвердил. Прошел месяц, но до сих пор домен залочен. Пробовал к домену привязать другой IP, но не помогает.

Как уже говорил в постмастере домен висит уже месяц, но картина одна: Нет данных. Попробуйте позже. Скрин: http://images.vfl.ru/ii/1611895980/6e5de744/33137457.jpg

Куда уж позже?

В куче баз на черные списки проверил свои IP и домен - всё чисто.

Все записи моего домена. Файл в PDF https://yadi.sk/i/WKM3jDAKf-vKzA

 

yatakoi
()

Замена текста в virsh edit

Форум — Admin

Всем привет.

Как с помощью команды sed попасть в XML виртуальной машины и заменить текст?

К примеру вот эта команда sed -i "s/<type arch='x86_64' machine='pc-i440fx-rhel7.6.0'>hvm/<type arch='x86_64' machine='pc-q35-rhel8.2.0'>hvm/g" Должна заменить <type arch="x86_64" machine="pc-i440fx-rhel7.6.0">hvm</type> на <type arch="x86_64" machine="machine='pc-q35-rhel8.2.0">hvm</type>

Можно конечно напрямую залезть в XML файл машины, которые вот здесь:

[root@localhost libvirt]# ll /etc/libvirt/qemu | grep xml
-rw------- 1 root root 8444 Jan 25 14:40 3_feldgrau_alabandine.xml
-rw------- 1 root root 6694 Jan 26 04:22 6_rose_dravite.xml
-rw------- 1 root root 5756 Jan 10 09:48 Win10.xml

Но мне надо именно через virsh edit vm.

 ,

yatakoi
()

При переключении eno1 в vmbr0 теряю связь

Форум — Admin

Всем привет.

Есть два интерфейса

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: eno1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq master vmbr0 state UP group default qlen 1000
    link/ether ac:1f:6b:01:db:02 brd ff:ff:ff:ff:ff:ff
3: eno2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether ac:1f:6b:01:db:03 brd ff:ff:ff:ff:ff:ff
    inet 192.168.10.137/24 brd 192.168.10.255 scope global dynamic noprefixroute eno2
       valid_lft 256sec preferred_lft 256sec
    inet6 fe80::28e1:276f:4747:7db3/64 scope link noprefixroute
       valid_lft forever preferred_lft forever

Создаю мост vmbr0 и добавляю туда eno1. Прописываю на vmbr0 белый IP, но связи нет.

Если eno1 выведу из vmbr0 и добавлю на eno1 тот же белый IP, то связь есть.

В чем моя ошибка, что на vmbr0 нет связи?

 

yatakoi
()

После ребута загружаюсь в emergency mode

Форум — General

Всем привет. Прошу помочь.

CentOS 8. Подключился к чистой и установил netstat и cockpit. Ребут и попадаю в emergency mode.

Логи показали вот это (скриншот) http://images.vfl.ru/ii/1610030592/51343553/32878304.jpg

В fstab закомментировал /dev/mapper/cl-home /home xfs defaults 0 0 и смог нормально загрузиться.

Сейчас fstab выглядит так:

#
# /etc/fstab
# Created by anaconda on Mon Jan  4 17:08:39 2021
#
# Accessible filesystems, by reference, are maintained under '/dev/disk/'.
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info.
#
# After editing this file, run 'systemctl daemon-reload' to update systemd
# units generated from this file.
#
/dev/mapper/cl-root     /                       xfs     defaults        0 0
UUID=54591a35-eff9-46cb-8942-1bc20b747e02 /boot                   xfs     defaul                                                                                                                                                             ts        0 0
#/dev/mapper/cl-home     /home                   xfs     defaults        0 0
/dev/mapper/cl-swap     none                    swap    defaults        0 0
lvs
  LV   VG Attr       LSize    Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  root cl -wi-ao---- <214.71g
  swap cl -wi-ao----   <7.86g

Подскажите, в чем может быть причина? Спасибо.

 ,

yatakoi
()

RSS подписка на новые темы