История изменений
Исправление axelroot, (текущая версия) :
про volblocksize здесь сказано
http://forum.ixbt.com/print/0011/045837.html
http://forum.ixbt.com/topic.cgi?id=11:45837:2409#2409
а сколько лучше делать для NTFS ? по размеру кластера - 4к или лучше размер кластера подогнать под размер volblocksize ? На самом деле это очень хороший вопрос И ответ на него будет зависеть от конфигурации vdev входящих в пул.
В качестве примера возьмём весьма распространённый vdev - raidz2 4+2. Механизм распределения Full Stripe (терминология традиционных RAID-систем) по дискам vdev всех типов raidz описан в заметке (http://uadmin.blogspot.ru/2006/07/raid-and-raidz-details.html) создателя zfs Джефа Бонвика. В ней же, попутно, раскрыт смысл термина динамический размер сегмента (https://blogs.oracle.com/bonwick/entry/raid_z_russian) zfs. В нашем примере запрос к vdev на запись 128КБ-го блока zfs вызовет запись 32КБ на 4 (четыре) data-диска + запись двух parity. Кстати, ИМХО во многом именно этим вызвана рекомендация о кратности степени 2 для data-дисков, преформат каждого диска vdev на блоки размером [128/кол-во data-дисков] КБ происходит при создании vdev. А вся «динамичность» размера сегмента (т.е. Full Stripe) в нашем случае будет заключаться в том, что без потери скорости и объёма на vdev будут записаны блоки объёмом 32, 64, 96 и 128КБ - и то хлеб в сравнении с записью только Full Stripe в традиционных RAID. Поэтому, очевидно, что наиболее релевантными размерами volblocksize для zvol и кластера NTFS в нашем случае будут 32 и 64КБ.
Исходная версия axelroot, :