Клонировал систему, в новой машине появились nvme-накопители. Не загружается, вываливается в dracut, не может найти LVM. blkid не показывает nvme.
Загрузчик на SATA-накопителе (включая /boot).
При этом, если загрузится с установочного диска в режиме Troubleshhoting, то система полностью подхватывается, и nvme, и lvm есть.
initrd обновлял, драйвер nvme добавлял. Что я мог упустить?
Утянул DEB-репозиторий, развернул в локальной сети. Машина пытается скачать файл из репозитория, подставляя неверное название. Например:
Оригинальное название файла:
Неожиданно, при запуске Remmina начал запрашиваться пароль «Связки ключей». Вроде и не плохо, но вот пароли от всех RDP-сеансов перестали сохранятся. И случилось это после того, как я зашёл на SMB-шару и сохранил пароль.
Покопался, и просмотрел содержимое этой связки ключей при помощи команды fly-secrets -c Основная -l. Были отображены только пароли на SMB-шару.
Установил seahorse, fly-secretsservice была удалена. Запустил графическую оснастку, разблокировал «Пароли»/«Вход», ура, пароли в Remmina стали сохранятся.
Вопрос: я сделал правильно, или же надо было как-то по-особому настроить fly-secretsservice? Всё же когда запрашивается пароль для доступа к хранилищу паролей - правильно.
Имеется сервер CentOS 7.9.2009 с контроллером LSI и дисковая полка с 58-ю дисками. Контроллер работает в режиме JBOD, multipath включен, на 58 дисках создан ZFS-массив из 4-х raidz2, два диска использованы как spare.
Спустя 90 дней аптайма, ZFS начал сильно тормозить. Клиенты NFS могут получить список файлов, но приходится долго ждать. Локально тоже.
zpool status показывает лишь 4 файла с ошибками (были проблемы с питанием), но на этом всё.
storcli64 рапортует, что все диски на месте.
Знаю, что перезагрузка поможет (хотя zpool import будет минут 40 выполнятся).
Куда посмотреть?
Как только я запускаю сеть NAT для виртуальных машин, Касперский начинает ругаться на сертификаты WEB-страниц.
Причина в том, что хост начинает тоже работать через NAT? И можно-ли это пофиксить?
В девичестве - Астра Линукс SE 1.7.3. После скачал установочный ISO, примонтировал как репозиторий и:
apt-get update
apt-get-upgrade
Техподдержка сказала, что так неправильно, но уже поздно. После много часов ковыряний, доустановка
apt install libcgroup1 cgroup-tools cgroup-bin cgroupfs-mount libpam-cgroup cgmanager cgmanager-tests libcgmanager0, и почти всё хорошо.
Проблема такая: загружается графический диспетчер пользователей, и если попытаться сразу залогинится, то тупёж и перезапуск графического диспетчера пользователей (иногда зависание). Раза с третьего логинится с сообщением, что предыдущий раз произошло аварийное завершение сессии.
Но если перезапустить графическое окружение (доступно в меню графического диспетчера пользователей), то всё проходит как по маслу. Добавление в /lib/systemd/system/user@.service строки Restart=on-failure помогло лишь частично - раньше и перезапуск графического окружения не помогал.
Куда смотреть?
Окончательно запутался. Обновив Астра Линукс до версии 1.7.4, получил таки ускорение графики. Unigine Valley неплохо крутится. Но также получил артефакты на рабочем столе и при ускорении видео.
Удалил файл /etc/X11/xorg.conf.d/20-intel.conf, который, по инструкции, нужно было создать. С удивлением обнаружил, что ускорение по-прежнему работает, и видео ускоряется: VLC не глючит между оконным и полноэкранным режимом, на YouTube крутится 4K-видео (intel_gpu_top чётко показывает загрузку GPU, да и видео не тормозит).
По той же инструкции, нужно было установить пакет xserver-xorg-video-intel, однако, по информации с сайта Debian, это артефакт, который максимум под первые C2D подходит. Вспоминая артефакты, удалил. Ничего не поменялось. Для ускорения видео, я так понял, есть intel-media-va-driver-non-free.
Вопрос - как, блин, X11 взаимодействует с драйвером? Если ему достаточно того драйвера, что использует MESA, нахрена xserver-xorg-video-intel? Как оно работает?
Добавил в cron выполнение скрипта, который выполняет проверки и шлёт уведомления по почте. Для отправки я настроил postfix. При нормальных условиях, никаких сообщений не отсылается.
Каждый раз при отработке письма, cron шлёт stdout отработки скрипта мне на почту. Я этого не настраивал, куда смотреть, чтобы отключить?
Сервер Gigabyte с RAID1 из пары SATA SSD.
Сначала была установлена Windows 2016, затем Centos 7 2009. Последняя подменила загрузчик по-умолчанию на свой, положив его в /EFI/Boot/bootx64.efi
Но сервер упорно загружает загрузчик Windows по пути EFI/Microsoft/Boot/…
Задача - создать ZFS из 58 дисков. И я немного запутался.
В материале на Хабре (https://habr.com/ru/post/504692/) рассказывается о различных уровнях ZFS. Там же есть фраза: «Одиночные vdev по своей сути опасны. Такое виртуальное устройство не переживёт ни одного сбоя — и если используется в качестве хранилища или специального vdev, то его сбой приведёт к уничтожению всего пула. Будьте здесь очень, очень осторожны».
Так вот вопрос: когда я создаю zpool, что у меня получается?
Как правильно создавать эти пулы? 1 пул на все 58 дисков, или же разбить их? Как это влияет на отказоустойчивость и на время ребилда?
Поднял тестовое хранилище на CEPH. Теперь не знаю, как его смонтировать (правильно). Через ceph-fuse получилось (стащил ceph.client.admin.keyring на узел, где монтирую). Но:
Суть такая: пользователь запускает на узле какую-то задачу. Сервер, работающий на другом узле от root, должен зарегистрировать этот запуск. В частности - каталог, из которого пользователь запустил задачу.
Как это можно сделать?
Неожиданно, отвалился SSH (файл PAM не мог найти), войти в систему непосредственно тоже не удалось - ребут.
Начинает грузится - kernel panic, почти сразу. Ругается на initrd.
Указываю grub2 расположение файлов руками:
grub> linux (hd0,msdos1)/boot/...
grub> initrd (hd0,msdos1)/boot/....img
grub> boot
Грузится, ошибка на стадии chroot, говорит проверить статус одноименного сервиса. Там ошибка - /sysroot пуста. Смонтировал туда раздел, запускаю chroot.service и получаю kernel panic.