LINUX.ORG.RU

История изменений

Исправление axelroot, (текущая версия) :

про volblocksize здесь сказано

http://forum.ixbt.com/print/0011/045837.html

http://forum.ixbt.com/topic.cgi?id=11:45837:2409#2409

а сколько лучше делать для NTFS ? по размеру кластера - 4к или лучше размер кластера подогнать под размер volblocksize ? На самом деле это очень хороший вопрос И ответ на него будет зависеть от конфигурации vdev входящих в пул.

В качестве примера возьмём весьма распространённый vdev - raidz2 4+2. Механизм распределения Full Stripe (терминология традиционных RAID-систем) по дискам vdev всех типов raidz описан в заметке (http://uadmin.blogspot.ru/2006/07/raid-and-raidz-details.html) создателя zfs Джефа Бонвика. В ней же, попутно, раскрыт смысл термина динамический размер сегмента (https://blogs.oracle.com/bonwick/entry/raid_z_russian) zfs. В нашем примере запрос к vdev на запись 128КБ-го блока zfs вызовет запись 32КБ на 4 (четыре) data-диска + запись двух parity. Кстати, ИМХО во многом именно этим вызвана рекомендация о кратности степени 2 для data-дисков, преформат каждого диска vdev на блоки размером [128/кол-во data-дисков] КБ происходит при создании vdev. А вся «динамичность» размера сегмента (т.е. Full Stripe) в нашем случае будет заключаться в том, что без потери скорости и объёма на vdev будут записаны блоки объёмом 32, 64, 96 и 128КБ - и то хлеб в сравнении с записью только Full Stripe в традиционных RAID. Поэтому, очевидно, что наиболее релевантными размерами volblocksize для zvol и кластера NTFS в нашем случае будут 32 и 64КБ.

Исходная версия axelroot, :

про volblocksize здесь сказано

http://forum.ixbt.com/topic.cgi?id=11:45837:2409#2409