LINUX.ORG.RU

Сравнение файловых систем

 , , , ,


0

0

На фороникс иногда бывает, но тестят что-то не то, мне кажется.

Вопрос: а чтобы вы протестировали?

Мои идеи и соображения:

  1. File write amplification - дописываем к файлу 4KB - смотрим, сколько записалось на винт вообще.

  2. File creation overhead: создаём ~10K файлов (100 каталогов по 100 файлов) размером от 4KB до 1MB и смотрим сколько реально записалось на винт.

  3. То же самое, что выше, но просто создаём 10K директорий.

  4. File deletion overhead: создаём файл на 10GB и просто его удаляем. Смотрим сколько записано на винт, сколько по времени занимает.

Какие ещё есть предложения? И какие FS тестировать? ZFS сразу не хочу, ибо она через одно место работает, какие-то там проблемы с лицензиями. Хочу протестировать ntfs3, потому что она вполне катит как родная нынче.



Последнее исправление: tempuser003 (всего исправлений: 2)

Вопрос: а чтобы вы протестировали?

Да почти всё, что есть в fio/examples и filebench/workloads. :)

И какие FS тестировать?

BTRFS без сжатия и с разными степенями сжатия.

dataman ★★★★★
()
Последнее исправление: dataman (всего исправлений: 1)

Нашёл что тестировать ))

File write amplification - дописываем к файлу 4KB - смотрим, сколько записалось на винт вообще.

max(размер_сектора_диска,размер_блока_фс)

File creation overhead: создаём ~10K файлов (100 каталогов по 100 файлов) размером от 4KB до 1MB и смотрим сколько реально записалось на винт.

См. п.1. и п.3

То же самое, что выше, но просто создаём 10K директорий.

Размер метаданных. И кстати учти, что некоторые ФС его резервируют при создании ФС, а некоторые - при создании объектов

File deletion overhead: создаём файл на 10GB и просто его удаляем. Смотрим сколько записано на винт, сколько по времени занимает.

Размер метаданных

router ★★★★★
()

File creation overhead: создаём ~10K файлов (100 каталогов по 100 файлов) размером от 4KB до 1MB и смотрим сколько реально записалось на винт.

Такой себе тест, потому как многое зависит от настроек (время коммита, atime/noatime, сжатия, версия кеша и размер файлов, которые хранятся в дереве, а не отдельных блокАХ)

ZFS сразу не хочу, ибо она через одно место работает, какие-то там проблемы с лицензиями

у btrfs преимущество, что она есть в ядре, а для работы zfs нужно специальное патченное ядро. там есть openzfs. https://github.com/openzfs/zfs/issues/14346 а так говно полнейшее

хотя и в btrfs с какой-то версией ядра была такая же ужасная регрессия

https://fsbench.filesystems.org/

uwuwuu
()
Последнее исправление: uwuwuu (всего исправлений: 1)

Какие-то странные тесты. Зачем они? Во-первых, эта инфа и так понятна, если знать, как работает та или иная ФС, даже тестов не надо. Во-вторых, это же метаданные, оверхед на уровне погрешности. Если уж что и сравнивать бенчами, то скорость чтения/записи, каким образом влияет фрагментация и через какое время активной записи/удаления разнообразных файлов, и другие значимые параметры.

CrX ★★★★
()

Создать много файлов, и рандомно добавлять в каждые по рандомному куску. Смотри только что бы рандом повторялся для всех файловых систем.

MOPKOBKA ★★★★
()

Вопрос: а чтобы вы протестировали?

Прикладное ПО, которое будет работать на определённой фс. Тот же pgbench, к примеру. А в случае десктопа вообще есть смысл выбирать самую удобную файловую систему, а не самую быструю

GLaDOS
()