LINUX.ORG.RU

25
Всего сообщений: 59

ZFS Docker

Здарова лоровцы!

Есть ubuntu 17.10 на zfs, внезапно встала нужда заюзать docker-ce, однако с zfs он сильно плохо работает без настройки. Собственно настройка описана тут.

Как я понял, в доке сказано, что делать если у Вас отдельное запоминающее устройство, но отдельного нет в моём случае.

Итак, конфигурация сервера такая:

# zfs list
NAME                USED  AVAIL  REFER  MOUNTPOINT
rpool               384G  4,87T   128K  /
rpool/ROOT         7,19G  4,87T   128K  none
rpool/ROOT/ubuntu  7,19G  4,87T  6,55G  /
rpool/home          915M  4,87T   128K  /home
rpool/home/anton    915M  4,87T   915M  /home/anton
rpool/home/root     165K  4,87T   165K  /root
rpool/srv          52,4M  4,87T  52,4M  /srv
rpool/storage       370G  4,87T   370G  /storage
rpool/swap         4,25G  4,87T  2,86G  -
rpool/var          1,94G  4,87T   128K  /var
rpool/var/cache     758M  4,87T   758M  /var/cache
rpool/var/log      1,18G  4,87T  1,18G  legacy
rpool/var/mail      128K  4,87T   128K  /var/mail
rpool/var/spool    24,1M  4,87T  24,1M  /var/spool
rpool/var/tmp       181K  4,87T   181K  legacy

«/var/lib/docker» я так понимаю, что нужно сделать как отдельный раздел (датасет), но что-то не получается:

# zfs create -o mountpoint=/var/lib/docker rpool/var/lib/docker
cannot create 'rpool/var/lib/docker': parent does not exist

Собственно, вопросы. В том ли направлении я мыслю? И какого рожна не могу сделать датасет?

 ,

AntonyRF ()

zsf-pool backup

Привет. У меня вопрос, если, допустим, у меня есть zsf-pool , размер которого равен почти полному объему реального диска. Больше дисков в системе нет. Допустим, lxc контейнер заполнил датой весь пул.

И вот в этот момент, я, предположим, хочу экспортировать lxc контейнер в виде имиджа на /webdav/smb/nfs шару. У меня получится? Или там экспорт только через снепшот , которого я не смогу сделать, потому что нет места?

 , ,

constin ()

zfs востановление

Добрый день.

Был пул из двух дисков raid-1 на ZFS.

На обоих дисках была очищена таблица разделов.

Какие есть варианты восстановить?

testdisk ничего не находит.

 ,

el_paso ()

zfs не создаёт /dev/zvol/...

debian8

root@debian:~# zpool create -f tank raidz3 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
root@debian:~# zfs create tank/disk0 

тут я ожидаю, что у меня будет устройство

/dev/zvol/tank/disk0
а его нет.

Но вот есть получаю смонтированный раздел

root@debian:~# df -h|fgrep tan
tank            472M     0  472M   0% /tank
tank/disk0      472M     0  472M   0% /tank/disk0

в устройствах ничего

root@debian:~# ls /dev/z*
/dev/zero  /dev/zfs

и вообще ничего

root@debian:~# du -a / 2>/dev/null|fgrep disk0
0	/sys/fs/cgroup/systemd/system.slice/tank-disk0.mount/tasks
0	/sys/fs/cgroup/systemd/system.slice/tank-disk0.mount/cgroup.procs
0	/sys/fs/cgroup/systemd/system.slice/tank-disk0.mount/cgroup.clone_children
0	/sys/fs/cgroup/systemd/system.slice/tank-disk0.mount/notify_on_release
0	/sys/fs/cgroup/systemd/system.slice/tank-disk0.mount
1	/tank/disk0

как получить устройство?

debian 8 чистый никаких других манипуляций с ним не производил до описанного кроме утановки пакетов zfs-dkms zfsutils-linux

 , , , ,

VoDD87 ()

Gentoo + ZFS

Кто-нибудь использует gentoo + нативное шифрование в zfs? Сам использую gentoo + luks. Интересует производительность и стабильность.

 , , ,

hardentoo ()

В ZFS (ZoL) добавили нативный encryption

 ,

ahdenchik ()

релиз ZFSonLinux 0.7.0


Добавлена возможность делегирования непривилегированному пользователю прав на администрирование файловых системам ZFS. Управление правами осуществляется при помощи команд «zfs allow» и «zfs unallow»;
Непривилегированные пользователи теперь могут выполнять команды «zpool list», «zpool iostat», «zpool status», «zpool get», «zfs list», «zfs get» без необходимости добавления в /etc/sudoers;
Поддержка аккаунтинга и квот для объектов отдельных пользователей и групп. Для установки лимитов и просмотра состояния предлагается использовать команды «zfs userspace» и «zfs groupspace»;
Поддержка хранения контрольных сумм с использованием более надёжных криптографических хэшей SHA-512, Skein и Edon-R;
Поддержка прерывания работы команд zfs send/receive (например, из-за сетевого сбоя или проблем на удалённой системе) c последующим возобновлением выполнения операции;
Возможность переноса сжатых данных из одного пула в другой при помощи команд zfs send/receive (данные напрямую обрабатываются в сжатом виде без промежуточной распаковки). Для включения сжатия представлена опция "-c";
Обеспечена защита операций импорта пула в отказоусточивых конфигурациях - совместно используемый пул теперь одновременно не может быть импортирован на разные хосты (перед началом операции импорта теперь выполняется проверка, не запущен ли уже импорт на другой хост);
Возможность настройки параметров, отображаемых в столбцах со статистикой, выводимой командами «zpool iostat» и «zpool status». Например, в вывод теперь можно включить данные мониторинга SMART, параметры датчиков температуры, статус индикаторов и т.п.
В команду «zpool iostat» добавлены опции "-l", "-w" и "-r", позволяющие наглядно оценить задержки и размер обрабатываемых в данный момент запросов в привязке к отдельным дискам;
В команду «zpool scrub» добавлена опция "-p", позволяющая приостановить выполнение проверки целостности без её полной отмены (для возмобновления проверки нужно ещё раз запустить «zpool scrub -p»);
Поддержка больших dnode, позволяющих увеличит производительность работы с метаданными за счёт сохранения внутри dnode расширенных атрибутов, ACL и символических ссылок, связанных с длинными именами файлов. Выигрыш особенно ощутим в системах с SELinux и распределёнными ФС, такими как Lustre и Ceph;
Новые возможности режима JBOD (представление нескольких дисков как одного целого с резервированием): автоматический перевод новых дисков в режим online; автоматическая замена выведенного из пула диска на новый диск; автоматическое подключение дисков для горячей замены в случая сбоя; индикация сбоев при помощи светодиодов; мониторинг проблем и автоматический перевод диска в состояние сбоя при превышении порога несоответствия контрольных сумм; возможность ручной пометки диска сбойным (zpool offline -f); режим multipath;
Порция оптимизаций:
Новый метод выделения буферов ARC, минимизирующий фрагментацию структур в оперативной памяти;
По умолчанию хранение данных в кэше с использование сжатия с распаковкой налету; задействование векторных SIMD-инструкций CPU (sse2, ssse3, avx2, avx512f, avx512bw, neon, neonx2) в реализации RAIDZ и в коде расчёта контрольных сумм;
Возможность применения аппаратного ускорения GZIP-сжатия (QAT);
Ускорение работы с метаданными за счёт более активного использования многопоточности, пакетного выполнения операций и упреждающего запроса данных;
Ускорение процесса восстановления избыточности в RAIDZ - теперь проверяется только целостность секций, подлежащих перестроению;
Число фоновых обработчиков теперь выбирается динамически в зависимости от нагрузки, рабочие потоки создаются и отключаются по мере возникновения необходимости;
Добавлено 42 новых параметра для тонкой настройки работы модуля ядра.
Поддерживаются ядра c 2.6.32 по 4.12

 ,

King_Carlo ()

Добавить дисков в raidz

Решил применить zfs под хранилку ибо задолбал железный рейд и нужен контроль целостности бэкапов.
ZFS умеет добавлять/убавлять диски в массиве, расширяться/убавляться ?
В тред призываются zfs проповедники.

 ,

bdfy ()

ZFS on Linux отвалился после обновления

Debian stable, подключен jessie-backports. После обновления (и автоматической пересборки) DKMS модуля ZFS этот модуль перестал загружаться . modprobe zfs выдаёт modprobe: ERROR: could not insert 'zfs': Unknown symbol in module, or unknown parameter (see dmesg). В dmesg zfs: Unknown symbol setattr_prepare (err 0)

Что делать? У меня паника

 , , , ,

MrClon ()

Zfsonlinux 0.6.5.9

Уже 11 дней прошло с релиза версии 0.6.5.9, а на этом уважаемом ресурсе ни гугу. Пофикшена пачка багов, с которыми, впрочем, мало кто сталкивался, но тем не менее релиз состоялся.
https://github.com/zfsonlinux/zfs/releases/tag/zfs-0.6.5.9

 , ,

King_Carlo ()

ZoL Encryption

Я правильно понимаю, что рассчитывать на ключик zfs create -o encryption=on на онтопике бесполезно?

 ,

Ingwar ()

zpool status отображает не те устройства пула, с которыми он был создал

Чистая установка Gentoo на ZFS mirrored pool из двух дисков. Пул создавался с полными устройствами из /dev/disk/by-id. Всё поставилось нормально, но в zpool status устройства стали называться sda,sdb. В zpool.cache - sda,sdb.
Выдернул один винт, воткнул обратно, подключил к пулу, в zpool status - sdb и имя-by-id. В zpool.cache - sdb, имя-by-id, после ребута в zpool status опять sda,sdb.
Погуглил, загрузился с лайва, zpool import -d /dev/disk-by-id, в zpool.cache - имя-by-id1, имя-by-id2. Копирую zpool.cache в систему, ребут, в zpool.cache - имя-by-id1, имя-by-id2, в zpool status опять sda,sdb.
Это нормально, что имена меняются?
Если я хочу имена из by-id/ при корне на этом пуле, я хочу странного?
Нужно/можно ли с этим что-то делать?

 , ,

GAMer ()

Как построить ZFS 32 bit в Debian Wheezy?

пробовал из src репозитария
выдает ошибки при компиляции
все нужные пакеты поставил

может быть есть репозитарий с готовыми пакетами?

 

sanyock ()

ZFS on Linux

Кто пользовался? Можно ли использовать на боевом сервере? Интересует конкретно сабж (не пишите: ... поставь лучше ...fs).

 , , , ,

blue-coke ()

Подвисает Atom ITX во время длительной работы rm в ZFS директории

ZFS используется в основном только ради зеркала и снэпшотов ну и в общем для унификации, сколько-нибудь значительной нагрузки на дисковую подсистему нет, оперативки 4 гига, обычно свободно примерно половина оперативки.

Диски - древние, пара почти одинаковых Seagate Momentus 80G в zmirror.

До недавнего времени эта шарманка работало относительно стабильно, но недавно после перезагрузки комп начал попискивать, сначала думал, что-то с материнкой, потому пошевелил SATA шлейф - и писки прекратились, пошла загрузка.

После этого компик стал еженочно подвисать во время rm в каталоге с большим количеством мелких файлов.

Сразу же после запуска rm появляются сообщения примерно такого содержания:
kernel «BUG: soft lockup - CPU#1» «stuck for 22s!».

Debian Jessie 8.x latest
пробовал ядра: 4.5, 3.16 - разницы никакой

подобное гуглится: https://www.google.com/search?as_q="BUG: soft lockup - CPU#1" "stuck for 22s!...

По словам Behlendorf «где-то что-то тормозит и мешает ZFS».

Я такого никогда раньше не видел ни на одном компе.

С моей точки зрения виноват один из SATA интерфейсов или дисков.

Припоминаю, как то давно однажды неудачно схватил один из этих дисков во время его работы, было не до осторожности, да и стоимость у него копеечная, обычно при низкой стоимости и доступности запчастей в первую очередь экономлю свое время.

Крышка легко продавливается, он завизжал, наверно своей механикой, но скорее всего не поверхностью, потому что bad блоков нет, ремапов тоже нет, поверхности по смарту у обоих дисков чистые, но очень много Hardware_ECC_Recovered, причем у одного из дисков на порядок больше другого.

Утилизация дисков около 5% иногда всплески до 50%.

dstat почти по нулям показывает при этом каждые 5 минут сыпятся сообщения soft lockup - CPU#1" «stuck,

Через несколько часов шарманка виснет.

Из идей:

1) Поменять шлейф SATA, диска, предположительно который попискивал на старте.

2) Попробовать на одтельных частях зеркала без второго диска.

Ну и вопрос как обычно в том, что делать :)

 ,

sanyock ()

Не получается загрузиться из ZFS пула на SAS контроллере

Грузиться пытаюсь с помощью grub4dos с флэшки, на флэшке: загрузчик, ядро, initrd

системный корневой раздел в ZFS dataset: data/system

При старте ядра и initrd появляется такое сообщение:
http://picpaste.com/pics/2quDoY6w.1468301139.jpg
на любом сервере с SAS контроллером
дрова в initrd есть

root (hd0,0)/xxx/debian
kernel /vmlinuz-3.16.0-0.bpo.4-amd64 boot=zfs root=data/system ro vga=785 selinux=0 ipv6.disable=1
initrd /initrd.img-3.16.0-0.bpo.4-amd64

аналогичный конфиг на ура работает на десктопе с SATA контроллером

rootdelay=30, секунд через 10 ожидания вижу появление всех sd*, подключенных к HBA LSI

проблему легко обойти, добавив еще один винт для системы, подключенный к SATA, но хотелось бы загрузиться из пула, Dataset: data/system

 

sanyock ()

Почему SSD тормозят при добавлении их разделов в разные пулы и их кэш?

Причем утилизация SSD по dstat от нескольких % до примерно 10%.

При использовании отдельных устройств в зеркале ZIL (SLOG)

и в L2ARC

тормоза не проявляются, а происходит ускорение работы, чего собственно и хотелось.

Но ведь жалко, если почти весь объем SSD будет зря пропадать, если их использовать только в SLOG и так самые маленькие по объему взяли (полтерабайта).

Нагрузка в основном random read/write, несколько баз данных по 100-200Гб .

 

sanyock ()

Низкая производительность LinuxZFS

Думаю кто-то уже сталкивался, по этому решил задать вопрос здесь, копаю уже давно но пока не могу понять что именно дает проблему. Есть 3 сервера: 1. Торент качался, около 0.7Тб в раздаче, ОС Proxmox4 zfs, 4диска, WD 500Enterprise. Intel(R) Xeon(R) CPU E31260L @ 2.40GHz/8GB SSD Crucial BX100 120GB 2.5" SATAIII MLC в качестве cache и logs

2. Proxmox4 zfs , 20 клинтских серверов с FreeBSD 8.4, система на SSD, zfs из 4х дисков 1ТБ WD Ent 64Mb в raid 10, в качестве cache для zfs Solid State Drive DC S3510 120GB Intel(R) Xeon(R) CPU E5620 @ 2.40GHz x2, итого 16 ядер. 48GB памяти.

3. Proxmox Zfs, система на SSD Intel 530, 4диска 1TB WD, zfs без кэша на ssd. 48GB памяти.

*******

Сервер 1, Torrent:

 
|---------------------------------------------------------------------------------------------------------------------|
|l1reads    l1miss     l1hits     l1hit%     size  |  l2reads    l2misses   l2hits     l2hit%     size   disk_access% |            
|---------------------------------------------------------------------------------------------------------------------|
|3975337678 124722716  3850614962 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337691 124722716  3850614975 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337691 124722716  3850614975 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337697 124722716  3850614981 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337697 124722716  3850614981 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337697 124722716  3850614981 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337714 124722716  3850614998 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337714 124722716  3850614998 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337717 124722716  3850615001 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         

options zfs zfs_arc_min=536870912
options zfs zfs_arc_max=2147483648
options zfs zfs_prefetch_disable=1
options zfs zfs_vdev_max_pending=1
Этот тазик работает как часы, раздает и принимает не убивая диски и не перегружая систему, все абсолютно ровно и гладко.

Проблемы начинаются с сервером где находятся клиентские виртуалки, дисковая подсистема значительно тормозит, периодами диски стоят в полке по загрузки и ничего не сделаешь, бэкапы идут очень медленно. Тут началось самое интересное, сначала создавал виртуалки на разделе который был прописан в интерфейсе как zfs, если правильно скажу, то создавал отдельный dataset под каждую виртуалку.

3й сервер, zfs настроенна также как и там где клиентские виртуалки, опытным путем сделано на нем несколько тестов и выявленны такие же проблемы с производительностью как и сервера с клиентскими виртуалками, усе тормозит. Убрал хранение виртуалок как отдельный zvol для каждой машины и сделал как обычная директория с raw файлами внутри, скорость внутри машин поднялась, но только на уровне кэшей системы, хотя прирост значительный.

Дальше начались эксперементы, сейчас вышел к такому:

fio --name fio_test_file --direct=0 --rw=randwrite --bs=32768 --size=10G --numjobs=16 --time_based --runtime=180 --group_reporting                                                             
fio_test_file: (g=0): rw=randwrite, bs=32K-32K/32K-32K/32K-32K, ioengine=sync, iodepth=1
...
fio-2.1.11
Starting 16 processes
Jobs: 16 (f=16): [w(16)] [100.0% done] [0KB/13216KB/0KB /s] [0/413/0 iops] [eta 00m:00s]
fio_test_file: (groupid=0, jobs=16): err= 0: pid=4930: Sun Apr 24 13:29:15 2016
  write: io=2514.8MB, bw=14299KB/s, iops=446, runt=180097msec
    clat (usec): min=19, max=752004, avg=35792.66, stdev=53199.98
     lat (usec): min=20, max=752005, avg=35793.85, stdev=53199.95
    clat percentiles (usec):
     |  1.00th=[   36],  5.00th=[  724], 10.00th=[ 1112], 20.00th=[ 8096],
     | 30.00th=[11328], 40.00th=[14272], 50.00th=[18048], 60.00th=[23168],
     | 70.00th=[31616], 80.00th=[47360], 90.00th=[86528], 95.00th=[132096],
     | 99.00th=[288768], 99.50th=[346112], 99.90th=[444416], 99.95th=[493568],
     | 99.99th=[569344]
    bw (KB  /s): min=   58, max= 2163, per=6.33%, avg=904.52, stdev=356.82
    lat (usec) : 20=0.01%, 50=2.44%, 100=0.17%, 250=0.01%, 750=3.20%
    lat (usec) : 1000=3.68%
    lat (msec) : 2=1.69%, 4=1.43%, 10=13.05%, 20=28.46%, 50=26.88%
    lat (msec) : 100=11.02%, 250=6.55%, 500=1.38%, 750=0.04%, 1000=0.01%
  cpu          : usr=0.03%, sys=0.31%, ctx=79487, majf=0, minf=106
  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=80473/d=0, short=r=0/w=0/d=0
     latency   : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
  WRITE: io=2514.8MB, aggrb=14298KB/s, minb=14298KB/s, maxb=14298KB/s, mint=180097msec, maxt=180097msec
Как видно 446iops на random write предел, в принципе результат идентичный как и у проблемного второго сервера, от куда взял цифру: 32768 согласно manual:
https://www.freebsd.org/cgi/man.cgi?newfs%288%29

     -b	block-size
	     The block size of the file	system,	in bytes.  It must be a	power
	     of	2.  The	default	size is	32768 bytes, and the smallest allow-
	     able size is 4096 bytes.  The optimal block:fragment ratio	is
	     8:1.  Other ratios	are possible, but are not recommended, and may
	     produce poor results.
Таким образом я подозреваю размер блока файловой системы внутри виртуалок что именно он виновен в падении производительности файловой системы виртуальных машин, во время теста скорость файловых операций на каждом диске не выходила за 40-50мегайт сумарно со всего массива.
                                                  capacity     operations    bandwidth
pool                                           alloc   free   read  write   read  write
---------------------------------------------  -----  -----  -----  -----  -----  -----
data0                                          63.8G  1.75T      0  1.67K      0  69.7M
  mirror                                       31.9G   896G      0  1.14K      0  49.2M
    ata-WDC_WD1002FAEX-00Z3A0_WD-WCATR9310670      -      -      0    464      0  20.1M
    sdd                                            -      -      0    564      0  49.2M
  mirror                                       31.9G   896G      0    546      0  20.5M
    ata-WDC_WD1002FAEX-00Z3A0_WD-WCATR9151303      -      -      0    454      0  20.5M
    sde                                            -      -      0    573      0  4.93M
---------------------------------------------  -----  -----  -----  -----  -----  -----

Может у кого-то будут мысли почему еще может обрущиться производительность файлвой системы?

3й сервер

root@virt03:~# zfs get all data0                                                                                                                                                                              [7/7]
NAME   PROPERTY              VALUE                  SOURCE
data0  type                  filesystem             -
data0  creation              Fri Apr 22 15:21 2016  -
data0  used                  63.5G                  -
data0  available             1.69T                  -
data0  referenced            63.4G                  -
data0  compressratio         1.90x                  -
data0  mounted               yes                    -
data0  quota                 none                   default
data0  reservation           none                   default
data0  recordsize            128K                   default
data0  mountpoint            /data0                 default
data0  sharenfs              off                    default
data0  checksum              on                     default
data0  compression           lz4                    local
data0  atime                 off                    local
data0  devices               on                     default
data0  exec                  on                     default
data0  setuid                on                     default
data0  readonly              off                    default
data0  zoned                 off                    default
data0  snapdir               hidden                 default
data0  aclinherit            restricted             default
data0  canmount              on                     default
data0  xattr                 on                     default
data0  copies                1                      default
data0  version               5                      -
data0  utf8only              off                    -
data0  normalization         none                   -
data0  casesensitivity       sensitive              -
data0  vscan                 off                    default
data0  nbmand                off                    default
data0  sharesmb              off                    default
data0  refquota              none                   default
data0  refreservation        none                   default
data0  primarycache          all                    local
data0  secondarycache        all                    default
data0  usedbysnapshots       0                      -
data0  usedbydataset         63.4G                  -
data0  usedbychildren        38.1M                  -
data0  usedbyrefreservation  0                      -
data0  logbias               latency                default
data0  dedup                 off                    default
data0  mlslabel              none                   default
data0  sync                  standard               default
data0  refcompressratio      1.90x                  -
data0  written               63.4G                  -
data0  logicalused           121G                   -
data0  logicalreferenced     120G                   -
data0  filesystem_limit      none                   default
data0  snapshot_limit        none                   default
data0  filesystem_count      none                   default
data0  snapshot_count        none                   default
data0  snapdev               hidden                 default
data0  acltype               off                    default
data0  context               none                   default
data0  fscontext             none                   default
data0  defcontext            none                   default
data0  rootcontext           none                   default
data0  relatime              off                    default
data0  redundant_metadata    all                    default
data0  overlay               off                    default

 , ,

InventoR ()

Не создаётся zpool

# zpool create -f zroot /dev/disk/by-id/ata-INTEL_SSDSA2CW080G3_CVPR12250026080BGN-part2
cannot open '/dev/disk/by-id/ata-INTEL_SSDSA2CW080G3_CVPR12250026080BGN-part2': Device or resource busy
cannot create 'zroot': one or more vdevs refer to the same device, or one of
the devices is part of an active md or lvm device

/dev/disk/by-id/ata-INTEL_SSDSA2CW080G3_CVPR12250026080BGN-part2 это /dev/sda2

# mount | grep sda2

ничего не выводит. Что за тупняк?

 , ,

alexferman ()

ZFSonLinux на SSD

Подскажите как отконфигурировать ZFS для SSD, чтобы trim работал и вообще.

 , , ,

alexferman ()