LINUX.ORG.RU

Сообщения spijet

 

Контрольные группы и pf-kernel.

$ sudo cast post-factum

По мотивам нашего недавнего разговора.

❯ uname -a
Linux orages 4.12.0-pf5 #2 SMP PREEMPT Mon Aug 7 01:01:07 +08 2017 x86_64 Intel(R) Core(TM) i3-4010U CPU @ 1.70GHz GenuineIntel GNU/Linux

~
❯ mount | grep cgroup
tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755)
cgroup on /sys/fs/cgroup/unified type cgroup2 (rw,nosuid,nodev,noexec,relatime)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,name=systemd)
cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_cls,net_prio)
cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids)
cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)

Конфиг ядра здесь.

Вот такой вывод получаю, когда пробую запустить свой скрипт (в качестве примера взял Telegram):

❯ bash -x ~/bin/telegram                             
++ basename /home/spijet/bin/telegram
+ CGROUP=telegram
+ TASKFILE=/sys/fs/cgroup/memory/telegram/tasks
+ MEM_MB=200
+ PROGRAM=/usr/bin/telegram-desktop
+ PRIVATE_DIR=/home/spijet/.cache/firejail-private/telegram
+ '[' -f /sys/fs/cgroup/memory/telegram/tasks ']'
+ sudo /usr/bin/cgcreate -a spijet:spijet -t spijet:spijet -g memory,cpu:telegram
/usr/bin/cgcreate: can't create cgroup telegram: Cgroup one of the needed subsystems is not mounted
+ /usr/bin/cgset -r memory.limit_in_bytes=209715200 telegram
+ /usr/bin/firejail --cgroup=/sys/fs/cgroup/memory/telegram/tasks /usr/bin/telegram-desktop
Error: invalid cgroup

/usr/bin/cgcreate — часть пакета libcg, который, судя по SourceForge, давно не обновлялся. Почитаю больше про CGroups v2 и попробую переработать скрипт.

 , ,

spijet
()

ZFS, MDRAID, или LVM?

Доброе утро, ЛОР!

Есть три жестких диска: 2 по 1,5ТБ и один на 3ТБ. Из этого добра я хочу сделать себе «нехилый пулец» для хранения всего подряд, в том числе образа\тома с оффтопиком для KVM. Также есть диск на 320GB, на котором на данный момент живёт хостовая система (Gentoo ~amd64). Споткнулся я на вопросах «какую схему массива использовать» и «чем создавать пул»:

  • ZFS:
    • ++ ZVOL показался очень крутым и не особо тормозным решением для VM;
    • ++ ARC это офигенно (если докупить оперативки, чтоб и для VM хватило);
    • ++ Управляет массивами сама;
    • ?? Можно расшаривать тома по NFS или iSCSI средствами самой ZFS;
    • ?? ФС использует доп.прослойку в виде куска ядра Solaris;
    • -- RAIDZ требует дисков одинакового размера, и его потом (как я понял) невозможно нарастить.
    • -- Развитие ZFS on Linux остановилось на Zpool версии 28 (где-то прочитал, что Oracle начали жадничать).
  • LVM:
    • ++ Нативное линуксовое решение, включен в ядро;
    • ++ Для каждого тома можно задать нужную конфигурацию stripes/mirrors отдельно;
    • ++ Можно использовать LV как блочное устройство (для VM);
    • ?? Не ФС, а просто менеджер томов, фичи вроде сжатия зависят от выбора ФС;
    • -- Говорят, что LVM коряво работает с RAID (например, не читает данные параллельно с зеркала), сам не проверял.
  • MDRAID:
    • ++ Проверенное «веками» продакшна и энтерпрайза нативное решение для RAID, делает то, что от него требуется;
    • -- Поверх всё равно придётся поднимать LVM или ZFS.

С таким набором дисков не получится собрать прекрасный RAID10, поэтому в голове родилась адовая схема:

|-------------[RAID 1]-------------|
||------[RAID 0]------|            |
||[-1.5TiB-][-1.5TiB-]|[---3TiB---]|

В идеале, при такой схеме я получу скорость чтения трёх дисков (параллельное чтение) и скорость записи чуть выше, чем у одного (3ТБ-зеркало будет тормозить, конечно же). Однако, ни ZFS, ни MDRAID не умеют добавлять единичное зеркало к целому RAID0, им подавай зеркало к каждому из дисков. Родилась не менее адовая схема:

|----------[zpool mirror]----------|
||-----[/dev/md0]-----|            |
||[-1.5TiB-][-1.5TiB-]|[---3TiB---]|
Вроде бы то, что мне нужно, но так я потеряю фичу ZFS со stripe'ами переменного размера.

Что же делать, как же быть? Пилить 3ТБ-диск на два раздела, и каждый раздел делать зеркалом? Достать из загашника аналогичный 1,5ТБ-диск и собрать-таки RAIDZ, забыв при этом про 3ТБ-диск? Городить схему «MDRAID+ZFS», или вовсе делать RAID5 на LVM? Отрезать 1,5ТБ от большого диска под LVM для хостовой системы (с потенциальной потерей производительности у ZFS)?

Вообще, пул планируется использовать для хранения образа VM, всякого кина и музыки, торрентов, и местами более-менее критичной инфы.

 , , , ,

spijet
()

Невидия + DVI/HDMI - проприетарный драйвер = головная боль

Доброе утро, ЛОР!

Вкратце описал ситуацию в заголовке. При использовании подключения по DVI или HDMI монитор зверски сжимает картинку (похоже на underscan, по краям экрана черные полосы, а ужатая картинка показывает установленное разрешение), но только если не используется закрытый драйвер или nouveau, с которыми картинка выводится на весь экран, без всяких проблем. При подключении по VGA такой траблы нет, но с моим кабелем становятся заметны огрехи картинки, прошедшей через RAMDAC. Что самое интересное, на оффтопике (и в принципе везде) такая же проблема. Грешил на корявый EDID монитора, но он недавно приказал долго жить, а на новом проблема сохраняется.

ADD: карта — nVidia GeForce 750Ti от Gigabyte, монитор — LG 23MP65HQ-P.

 , , ,

spijet
()

Fujitsu FMV-610NU2 и Linux

Решил поставить линукс на старый-престарый ноутбук из интереса. Главный подводный камень ноута (и главная беда для Linux, устанавливаемого на него) - глюкавый чипсет Intel 830m, чья видеокарта при использовании новых интеловских модулей\драйверов показывает всю кривизну собственного устройства и вместо изображения выводит цветовую кашу, которая начинает выцветать в белый, а затем в чёрный экран. Первые две установки (Debian, Ubuntu) загнулись на этапе загрузки этим самым багом. Некогда используемый мной на десктопе Arch удалось запустить, установить и даже загрузиться с него (моя дырявая голова вспомнила про параметр nomodeset). И всё вроде бы хорошо, но это ровно до попытки запуска иксов, где проблема повторяется, вне зависимости от установленного драйвера (xf86-video-{vesa,intel}). Есть ли какая-нибудь возможность указать драйверу intel не использовать ту часть чипсета, из-за которой начинается эта беда? Почему проблема может повторяться и в vesa, если в консоли (параметр gfxmode передаётся из GRUB2) всё нормально? Стоит ли ставить xf86-video-fbdev?

 , , ,

spijet
()

RSS подписка на новые темы