LINUX.ORG.RU
ФорумAdmin

Failed to start LVM event activation on device

 , ,


0

1

Обновил proxmox с 5 до 6 а потом сразу до 7 , всё прошло отлично , веб морда обновилась, решил ребутнуть и вот тут появилась эта беда [FAILED] Failed to start LVN event activation on device 253:10. [ TINE ] Timed out waiting for device /dev/sdel. [DEFEND] Dependency failed for /var/lib/qmsr1. [DEFEND] Dependency failed for Local File Systems. [DEFEND] Dependency failed for File system check on /dev/sde1. Give root password for maintenance (or press control-D to continue): Reloading system manager configuration Starting default target You are in emergency mode. Hfter logging in, type «Journalctl -xb» to view system logs, "systemctl reboot“ to reboot. «systemctl default» or «exit» to boot into default mode. Give root password for maintenance (or press control-D to continue): rootOKod-huawei—pmx:


Ответ на: комментарий от zimniy

Система в аварийном режиме стартует. Мне надо в обычном загрузиться . Я к серверу смог подключиться по VNC, не могу скопировать вывод команд с терминала. Скрины здесь https://drive.google.com/drive/folders/1baunD_blFbF5dHxa6rp3VMpUl57U_FOG?usp=sharing ( сама ошибка, lsblk, lvs)

SysAdm
() автор топика
Ответ на: комментарий от SysAdm
  1. Ты заголовок этого своего сообщения в поисковик забей и изучи результаты (Это ведь сообщение от systemd)

  2. Зайди в консоль и командами LVM посмотри, виден ли диск и т.д. и т.п.

futurama ★★★★★
()
Последнее исправление: futurama (всего исправлений: 1)
Ответ на: комментарий от futurama

Благодарю, Диски доступны, в fstab закоментил #/dev/sde1 /var/lib/qmsr1/ ext4 defaults,errors=remount-ro 0 1 Система загрузилась подрубился по ssh в логах всёравно есть проблема

Mar 29 17:59:54 kod-huawei2-pmx systemd[1]: lvm2-pvscan@253:10.service: Main process exited, code=exited, status=5/NOTINSTALLED
░░ Subject: Unit process exited
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ An ExecStart= process belonging to unit lvm2-pvscan@253:10.service has exited.
░░
░░ The process' exit code is 'exited' and its exit status is 5.
Mar 29 17:59:54 kod-huawei2-pmx systemd[1]: lvm2-pvscan@253:10.service: Failed with result 'exit-code'.
░░ Subject: Unit failed
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ The unit lvm2-pvscan@253:10.service has entered the 'failed' state with result 'exit-code'.
Mar 29 17:59:54 kod-huawei2-pmx systemd[1]: Failed to start LVM event activation on device 253:10.
░░ Subject: A start job for unit lvm2-pvscan@253:10.service has failed
░░ Defined-By: systemd
░░ Support: https://www.debian.org/support
░░
░░ A start job for unit lvm2-pvscan@253:10.service has finished with a failure.
░░
░░ The job identifier is 189 and the job result is failed.

root@kod-huawei2-pmx:~# lsblk
NAME                                MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda                                   8:0    0   809G  0 disk
├─vg0-lv0                           253:0    0   809G  0 lvm   /mnt/hp-data-h2
└─hpeva-h2-data                     253:10   0   809G  0 mpath
sdb                                   8:16   0 371.6G  0 disk
├─sdb1                                8:17   0  1007K  0 part
├─sdb2                                8:18   0   512M  0 part
└─sdb3                                8:19   0 371.1G  0 part
  ├─pve-swap                        253:1    0     8G  0 lvm   [SWAP]
  ├─pve-root                        253:2    0  92.8G  0 lvm   /
  ├─pve-data_tmeta                  253:3    0   2.5G  0 lvm
  │ └─pve-data-tpool                253:5    0 249.3G  0 lvm
  │   ├─pve-data                    253:6    0 249.3G  1 lvm
  │   ├─pve-vm--101--disk--0        253:7    0   100G  0 lvm
  │   └─pve-vm--102--disk--0        253:8    0   100G  0 lvm
  └─pve-data_tdata                  253:4    0 249.3G  0 lvm
    └─pve-data-tpool                253:5    0 249.3G  0 lvm
      ├─pve-data                    253:6    0 249.3G  1 lvm
      ├─pve-vm--101--disk--0        253:7    0   100G  0 lvm
      └─pve-vm--102--disk--0        253:8    0   100G  0 lvm
sdc                                   8:32   0 371.6G  0 disk
└─3670c7f268f8f20002887aca001a46746 253:9    0 371.6G  0 mpath
sdd                                   8:48   0   1.7T  0 disk
└─sdd1                                8:49   0   1.7T  0 part
sde                                   8:64   0   809G  0 disk
└─hpeva-h2-data                     253:10   0   809G  0 mpath

Кстати у sde был другой диск замонтирован (локальный ssd рейд) и он работает, но почемуто после ребута sde сменился на диск с СХД Быть может проблема както связана с тем что диск монтируется с СХД в multipath ?

SysAdm
() автор топика
Ответ на: комментарий от SysAdm

я proxmox не знаю, соотв. не знаю его подход к дисками. если данные физически на дисках доступны, то смотри что поменялось в логике между версиями

futurama ★★★★★
()
Последнее исправление: futurama (всего исправлений: 1)

То что у тебя называлось sde1 сейчас имеет какую-то другую букву. Найди и исправь в /etc/fstab

Nastishka ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.