LINUX.ORG.RU

Canonical объявила о поддержке файловой системы ZFS в Ubuntu 16.04 LTS

 , , ,


1

3

Canonical обещает предложить долгосрочную поддержку для файловой системы ZFS в Ubuntu 16.04 LTS которая будет получать заплатки безопасности и обновления в течение пяти лет, до апреля 2021, также ZFS будет файловой системой по умолчанию для контейнеров в Ubuntu 16.04 LTS.

На вопросы о возможном лицензионном конфликте Дастин Киркленд объяснил, почему это не является проблемой:

Эквивалентные исключения существуют уже много лет, для различных других автономных, самодостаточных, не GPL и даже фирменных (привет, nvidia.ko) модулей ядра. Наш вывод, что хорошо для пользователей Ubuntu, хорошо для Linux, и хорошо для всего свободного и открытого программного обеспечения

По мнению разработчиков различия в лицензии не мешают распространять поддержку ZFS в виде двоичного модуля или в виде исходного кода.

ZFS Licensing and Linux

ZFS is *the* FS for Containers in Ubuntu 16.04

В основу положен проект ZFS on Linux (он же OpenZFS)

Ответ на: комментарий от shlag

Во фряхе все ж другая тема: функциональные проблемы при размещении zpool на zvol в пределах одного экземпляра ОС.

Эта проблема существует не только на фряхе, вообще-то.

anonymous ()
Ответ на: комментарий от alkash

ПМСМ, ровным счетом - ничего хорошего.

Исправил, не благодари

Из плохого - пример

Ну и что же там плохого? Топикстартер свои данные спас? Спас. Это главное. А с причиной сбоя можно было бы и дальше поразбираться, но, похоже, тот пул больше не существует. От некоторых подобных ситуаций можно восстановиться и без пересоздания пула.

anonymous ()
Ответ на: комментарий от alkash

ZoL попробовал и... Написал предъяву разработчику. Носом в тесты натыкал. Это перебор - 64% фрагментация и скорость чтения упала до 6 Мбит/с. Диск в прямом смысле слова трещал.

Ты балабол и кукаретик, текущая реализая ZoL работает также как bsd-шный порт. Можешь спросить iZen, то де самое бывает на bsd если руки из жопы.

anonymous ()
Ответ на: комментарий от intelfx

Если «гостевая ФС всегда считает, что рядом лежащие секторы действительно рядом лежащие», то это проблема исключительно этой самой гостевой ФС. Ибо это даже для одиночных физических носителей уже очень давно не так. Не говоря уже про всякие массивы и, тем более, бэкэнды для виртуальных носителей.

anonymous ()
Ответ на: комментарий от anonymous

Ибо это даже для одиночных физических носителей уже очень давно не так.

На этом месте не помешал бы пример такого носителя, для которого это «не так».

Для любых шпиндельных дисков сейчас это именно так (за исключением переходов между головками, наверное, но они не влияют на общую статистику), для известных мне типов массивов — тоже. Для твердотельных дисков — вообще любые два сектора «находятся рядом» (с точки зрения времени доступа). Остаются лишь бэкенды для виртуальных носителей, но я про них как раз и говорю: не следует в качестве такого бэкенда использовать ФС, конструктивной особенностью которых является значительная фрагментация файлов.

intelfx ★★★★★ ()
Ответ на: комментарий от intelfx

Для любых шпиндельных дисков сейчас это именно так

Квантор всеобщности - штука мощная, применять следует с осторожностью. Ибо шпиндельные диски - один из примеров. Про ремаппинг плохих секторов слышал?

anonymous ()
Ответ на: комментарий от anonymous

Ремаппинг — очень большое исключение. Есть мнение, что диски с бэдами нужно при первой возможности менять (я не к тому, что это мнение правильное/неправильное, а к тому, что наличие бэдов — исключительная и во многом внештатная ситуация).

intelfx ★★★★★ ()
Последнее исправление: intelfx (всего исправлений: 3)
Ответ на: комментарий от intelfx

Ремаппинг — очень большое исключение.

Ну да, ну да. Ты, конечно же, написал микрокод для кучи дисков и точно знаешь, что это большое исключение. Или ты свой этот вывод делаешь на основе того, что тебе показывает S.M.A.R.T?

anonymous ()
Ответ на: комментарий от anonymous

Ну вот у меня есть хард с двумя плохими секторами (переназначенными). Я беру обычный гномдисковский бенчмарк и вижу два стабильных проседания в throughput на 10 MiB/s каждое, при этом при покупке диска их не было.

Понятно, что есть заводские дефекты и так далее. Даже если так, их количество всё равно ничтожно по сравнению с общим количеством секторов на диске. Т. е. фрагментация ФС гораздо сильнее влияет на throughput, чем десяток бэдов, раскиданных по поверхности.

intelfx ★★★★★ ()
Последнее исправление: intelfx (всего исправлений: 1)
Ответ на: комментарий от intelfx

Для любых шпиндельных дисков сейчас это именно так

И как Вы для этих «шпиндельных дисков сейчас» определяете рядом оно или не очень?

anonymous ()
Ответ на: комментарий от anonymous

1) из здравого смысла, 2) по звуку актуаторов магнитных головок; 3) см. одно сообщение выше.

intelfx ★★★★★ ()
Ответ на: комментарий от intelfx

А если порассуждать в контексте темы? ZFS крайне редко, точнее только в целях ознакомления, используется на одном шпинделе, рабочие конфигурации - это различные типы массивов raid-z, raid-z2 и т.п. Есть мнение, что влияние фрагментации в массивах ZFS крайне не очевидно и даже не заметно.

anonymous ()
Ответ на: комментарий от anonymous

Количество дисков в массиве тут ни при чём. Если данные в страйпе не фрагментированы, то чтение с каждого из дисков всё равно выполняется строго по порядку. А если фрагментированы, то каждый диск будет хреначить головками туда-сюда в одном и том же паттерне.

Но даже если принять твои условия — я наблюдал деградацию ZFS на четырёх дисках (страйп, не raidz) своими глазами. Нужно всего-то забить массив где-то на 80%. И это при том, что я не храню на ней образы дисков и так далее; из горячих данных там ровно одна БД sqlite размером в 1.5GiB. Что вполне согласуется с моими представлениями о том, как эта ФС устроена.

intelfx ★★★★★ ()
Последнее исправление: intelfx (всего исправлений: 2)
Ответ на: комментарий от anonymous

Да уж. Совсем незаметно. Особенно когда скорость чтения стремится к нулю. Это я про ZoL. Если на одном пуле свободного пространства будет менее 30%, то он вообще еле шевелится на свежих записях.
Что касаемо FreeBSD - под СУБД тоже фрагментация имеет место быть. В остальном - не очень заметно.

alkash ()
Ответ на: комментарий от alkash

20% свободного места в пуле zfs - одна из особенностей о которой сказано, между прочим, в документации, но не баг. Что касается рассуждений о разнице реализаций zfs в ZoL или bsd - это чушь, они работают идентично.

anonymous ()
Ответ на: комментарий от intelfx

«Вопросов больше не имею.» (И.Ильф,Е.Петров)

anonymous ()
Ответ на: комментарий от anonymous

Что касается рассуждений о разнице реализаций zfs в ZoL или bsd - это чушь, они работают идентично.

Не могут они работать идентично хотя бы потому, что vfs подсистемы там разные

anonymous ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.