LINUX.ORG.RU

[zfs][бесполезные вопросы] Инкрементальные бэкапы

 


0

3

Хей.

В очередной раз прогадив ценный файлик после сбоя питания (несмотря на довольно сложные политики резервирования с rdiff-backup), задумался о нормальных инкрементальных снэпшотах.

Если я правильно понимаю, сейчас только две ФС это поддерживают - btrfs и zfs. С обоими поигрался (ради zfs попробовал наконец фряху), зфс нравится, особенно сенд/рисивом (прямо то, что доктор прописал) но мигрировать целиком на фряху как-то неприятно. Во-первых, больно уж порты вещь убогая после портажа. Ну, если точнее, то, конечно, куда приятнее любой бинарной пакетной системы, но, все же совсем не то. А во-вторых, слегка пугает отставание в плане юзерлэнда - засилие хала (вспомнил линукс давности так пятилетней), например. В общем, имею я несколько вопросов:

1) Кто имеет опыт организации удобных инкрементальных бэкапов в линуксе и какими средствами? rdiff-backup не устраивает. Во-первых, скоростью, во-вторых, жутко неудобной работой с версиями, в-третьих, своей нелюбовью к модификации данных в процессе копирования. Важное примечание: бэкапить желательно на удаленный хост. Еще лучше, чтобы на той стороне не требовалось ничего, кроме ssh.

2) В каком состоянии сейчас находится драйвер zfs под линукс? Насколько стабилен? Можно ли ему доверить гигабайты порнухи^W ценных-ценных данных?

2.1) Откуда брать актуальные ебилды для зфс? Свои мейнтейнить не хочется, содержимое текущих доверия не внушает (часть не собирается, часть грязная - не делает проверок конфига ведра, например).

2.2) А чего там слышно с добавлением zfs в портаж? В багзилле тикет как бы принят и приоритет высокий, но копошения незаметно.

3) А как оно там, на фряхе-то? С автомонтированием, например, с апгрейдами?

3.1) Можно ли допинать gentoo/kfreebsd до работы только на zfs и до восьмого или даже девятого (предпочтительно) ядра. Проект-то какой-то полумертвый, хоть восьмое ядро в портаж и добавили недавно.

3.2) А что там в будущем будет с фряхой? Линукс как-то начал обрастать симпатичными инфраструктурными поделиями навроде dracut/systemd/udev/udisks/upower/*kit и прочими, девелоперы софта радостно начали под эти поделия затачиваться, а на фряхе их как-то особо и не видать. Не планируется ли туда каким-нибудь макаром всё это счастье портировать? Судя по ихнему форуму да рассылкам будущее очень-очень туманно.

3.3) А почему девелоперы того же KDE не стали делать devd-бэкенд под solid? Так-то, как я сделал вывод, почитав про фряху, этот самый devd ничем не хуже, а может даже и лучше ud*-поделий.

4) А как вообще эта самая btrfs? В принципе, мне она не понравилась только отсутствием сенд/рисив. Так вроде ничего. Не падает она? Файлы не теряет? Не подтормаживает неожиданным образом?

Ну и вообще, если тянет в сторону фряхи (привлекают очень zfs и ossv4 без геморроя) - лучше лечиться, или же ставить?

P.S. самым большим потрясением на фряхе был эффект от shutdown -h now. Она действительно сделала halt.



Последнее исправление: wolfy (всего исправлений: 2)

Я знаю людей, которые используют ZFS на Debian/kFreeBSD. Впрочем, после Gentoo тоже переучиваться...

JackYF ★★★★
()
Ответ на: комментарий от JackYF

Ну с дебиана я начинал, даже щас вот эту фряховетку в виртуалочку воткнул (очень понравилось, как на распаковке опенофиса инсталлятор намертво фризнулся, памяти там было 1.5 Гб)

Но на кой нужен бинарный дистр, если есть обычный?

wolfy
() автор топика
Ответ на: комментарий от anonymous

Читать умеем? Я про зфсонлинупс вроде в курсе. Я даже генту на корень с ним влепил по гайду с гитхаба. Вопрос в стабильности.

wolfy
() автор топика
Ответ на: комментарий от anonymous

Упс-то стоит недорого, но проблем решает не так много. Потому, что кроме блэкаутов бывает еще, например, паника ведра при выдергивании моей замечательной флешки (пофиксили в 3.1), полный фриз ведра при попытке отрендерить ролик в pitivi (буквально неделю назад было, как юзерленд может повесить ведро не понимаю, с железом вроде все окей, под нагрузкой бегает без проблем, проблемы именно в отдельных софтинах) и прочие подобные радости.

wolfy
() автор топика

> 2.1) Откуда брать актуальные ебилды для зфс? Свои мейнтейнить не хочется, содержимое текущих доверия не внушает (часть не собирается, часть грязная - не делает проверок конфига ведра, например).

https://github.com/pendor/gentoo-zfs-overlay

Adjkru ★★★★★
()

В очередной раз прогадив ценный файлик..

порты вещь убогая после портажа. Ну, если точнее, то, конечно, куда приятнее любой бинарной пакетной системы

упомянутое как-бэ взаимосвязные вещи. Нехочешь «прогаживать ценные файлики» бери stable бинарные сборки и серьёзные дистрибутивы, Хочешь максимального чего-то и острых ощущений - source-based, компиль и борись с багами сам. Первое - для серьёзной работы, второе just-for-fun.

MKuznetsov ★★★★★
()
Ответ на: комментарий от Adjkru

> Хочешь максимального чего-то и острых ощущений - source-based, компиль и борись с багами сам

Чувствуется мнение настоящего специалиста (тм).

Первое - для серьёзной работы, второе just-for-fun.

Это какой, например?

https://github.com/pendor/gentoo-zfs-overlay

Ну таки похоже да, ничего более адекватного я не находил. Не нравится, что этот чувак держит свои клоны репозов вместо патчсетов хотя бы, а так да.

wolfy
() автор топика
Ответ на: комментарий от Ygor

>KDE

KDE я не использую. Просто, согласно прочитанному, там есть дополнительный слой абстракции - solid, который может адаптирован к devd. И если выбирать между урезанным гномом и неурезанным кде, я таки выберу кде. Другое дело, что бэкенда к девд никто не делает. Интересно почему.

wolfy
() автор топика

>1) Кто имеет опыт организации удобных инкрементальных бэкапов в линуксе и какими средствами?

У меня скрипт на cp -l + rsync, всё работает. А ещё можно снэпшоты LVM.

legolegs ★★★★★
()
Ответ на: комментарий от xorik

Я тоже этим вопросом задавался. Вот мои мысли:
btrfs - вечная альфа + куча метаданных + ловил с ней глюки, пока фтопку
zfs - не получилось собрать нативную, поэтому не пробовал
NILFS2 - выглядит перспективно, но снапшоты не именованые, плюс нужен демон, который вычищает старые данные

Еще в ближайшее время хочу потрогать это: http://www.opennet.ru/opennews/art.shtml?num=30826 выглядит очень вкусно

xorik ★★★★★
()
Ответ на: комментарий от xorik

Это небезопасное и нестабильное поделие на данный момент. Я тоже смотрел, но с этим надо любиться, а не работать и быть уверенным, что все не навернется.

wolfy
() автор топика
Ответ на: комментарий от wolfy

Было бы круто, если бы такое в основную ветку ядра включили как экспериментальное, куча бы тестеров появилось

xorik ★★★★★
()
Ответ на: комментарий от xorik

Блин, было бы круто, если бы в генте были нормальные ебилды зфс, было бы круто, если бы бтрфс допилили, было бы круто, если бы...

Вопрос, что щас делать. В прекрасном светлом будущем и так все будет хорошо.

wolfy
() автор топика
Ответ на: комментарий от wolfy

>Вопрос, что щас делать.
Если есть место под бэкапы - использовать rsnapshot, если нет места, btrfs на свой страх и риск

xorik ★★★★★
()
Ответ на: комментарий от wolfy

>В прекрасном светлом будущем и так все будет хорошо.
Я год назад также думал, а воз и ныне там :) Видимо это никому не нужно

xorik ★★★★★
()
Ответ на: комментарий от xorik

> rsnapshot

+1

> Если есть место под бэкапы

А ещё лучше - на другой хост/винт.

backbone ★★★★★
()
Ответ на: комментарий от xorik

btrfs не умеет посылать снэпшоты на удаленный хост, а так да - неплоха. Собственно, мне и интересны отзывы о ее стабильности.

wolfy
() автор топика
Ответ на: комментарий от xorik

Вот насчет rsnapshot - интересно, спасибо за наводку.

Вряд ли будет принципиально лучше rdiff-backup да и после снапшотов зфс выглядит смешно, но гляну.

wolfy
() автор топика
Ответ на: комментарий от wolfy

>Собственно, мне и интересны отзывы о ее стабильности.
Я юзал как-то 2 месяца на корне, потом перестали создаваться файлы в /etc, хотя свободное место было и в других каталогах файлы создавались. После этого плюнул и вернул ext4

xorik ★★★★★
()
Ответ на: комментарий от xorik

Ну, значит бтрфс - закопать пока что.

wolfy
() автор топика

tl;dr

Если действительно сверхценные данные, я бы вообще не связывался с чем-либо кроме простых проверенных ФС (ext3 например). zfs, btrfs - только ЧСВ потешиться годится на локалхосте, не более.

Для реально ценных данных не жалко и поднять распределенное хранилище, в котором одни и те же файлы лежат в нескольких местах. Я видел решения на rsync, hdfs, glusterfs, riak+luwak. riak - без единой точки отказа, hdfs - тоже около того, но на жабе, гластерфс довольно гибкая, нативная и C. Как плюсы - можно объединять место на разных машинах. А инкрементальность бэкапов должна в этом случае обеспечиваться какой-то тулзой, хотя бы той же xdelta/diff/etc.

shahid ★★★★★
()
Ответ на: tl;dr от shahid

> zfs, ...- только ЧСВ потешиться годится на локалхосте, не более.

Обоснование?

Для реально ценных данных не жалко и поднять распределенное хранилище,

Жалко. Не настолько ценные, чтобы тратить на них больше двух машин.

в котором одни и те же файлы лежат в нескольких местах.

zfs?

wolfy
() автор топика
Ответ на: tl;dr от shahid

> обеспечиваться какой-то тулзой

Ну сверху вон уже два названия прозвучало. Во-первых, rdiff-backup, который я щас и использую. Во-вторых, rsnapshot, с которым планирую поиграться.

простых проверенных ФС (ext3 например)

Временем проверил. Г-но, если честно. Файлы теряет. Про упс не надо говорить, почему - уже выше сказал. Ведро бывает в панику падает, например.

wolfy
() автор топика
Ответ на: комментарий от wolfy

zfs?

Повторяю, что она немасштабируема в широком смысле. Для описанного мной решения она не подходит. Но мое решение не подходит и для этих не-столь-важных данных.

простых проверенных ФС (ext3 например)

Временем проверил. Г-но, если честно. Файлы теряет.

Вообще, я не встречал ФС нижнего уровня, которые не теряют данные. Их просто не может существовать. Для любой ФС есть оптимальные условия работы, при которых вероятность потери данных минимальна. Одни фс теряют файлы чаще, другие попадают в энтерпрайс-дистрибутивы RHEL с ярлычком «ынтерпрайс» и гарантией работы на серверах. Чтобы хранить данные с 99,(9)% надежностью и эффективно с ними работать создаются системы (RAID,etc) и сети (SAN), mount -o sync в конце концов. Если внезапно железо глючит, ведро падает, то какие-то данные при изолированном хранении будут теряться.

zfs, ...- только ЧСВ потешиться годится на локалхосте, не более.

Обоснование?

Sun, iZEN, Oracle,... Разве этих причин не достаточно? Вроде sun даже свою кластерную ФС Lustre разрабатывала как раз для 99.9999%-надежного хранения с балансировкой и масштабированием, ибо zfs не канает. Я и сам часто не понимаю, зачем zfs реально может быть нужна в настоящее время. В рамках локалхоста она будет не более и не менее надежнее ФС нижнего уровня, т.е. обладать рандомной надежностью.

В zfs есть куча фишек, которые на локалхосте избыточны и не нужны. С другой стороны, в ней нет кучи вещей которые нужны сегодняшнему среднестатистическому продакшену. ZFS создавалась, когда маркетологи активно продвигали баззворд «аппаратная виртуализация» и дорогущее железо, т.е. когда некоторые блочные устройства абстрагированы от клиентов, а клиенты подключены по файберу или infiniband. Но эта модель хранения данных не прижилась в широком смысле. Безусловно, zfs целенаправлено используется кое-где, но это очень узкоспецифические задачи с большими деньгами. И далеко не факт что zfs там приносит удовлетворение.

shahid ★★★★★
()
Ответ на: комментарий от shahid

fixes

Чтобы хранить данные с 99,(9)% надежностью и эффективно с ними работать создаются системы (RAID,etc) и сети (SAN),

(системы и сети хранения)

В рамках локалхоста она будет не более и не менее надежнее ФС нижнего уровня, т.е. обладать рандомной надежностью

* не более и не менее надежнее любой другой ФС нижнего уровня, ибо обладает рандомной надежностью. Надежностью, которая задается ванильным ядром (или даже из git), железом без контроля четности, незарезервированным питанием и другими совсем ненадежными вещами.

shahid ★★★★★
()

Во-первых, лично я не использую снапшоты ZFS для бэкапа, а использую их на живой ФС для фиксации точки отката при установке/обновлении ПО — каталоги /usr/local и /var/db/pkg как раз подходят для этого — чтобы в случае неудачного обновления и/или глючности нового ПО была возможность сделать zfs rollback poolname/usr/local@snappointtimestamp && zfs rollback poolname/var/db/pkg@snappointtimestamp.

Во-вторых, для инкрементного бэкапа (9 уровней) хорошо подходят традиционные ФС XFS и UFS2 с их утилитами снятия и восстановления дампов с живой файловой системы — xfsdump/xfsrestore и dump/restore, соответственно.

В-третьих, касательно надёжности. ZFS уже несколько лет в продакшене и подтвердила свою неубиваемость и стойкость к различным пертурбациям касательно оборудования и ПО. Btrfs ещё в стадии альфа-тестирования, дистрибуторы всё ещё отказываются от включения её в дистрибутив на правах полноценной загрузочной ФС, на которую можно ставить ОС.

iZEN ★★★★★
()
Ответ на: комментарий от shahid

> Я и сам часто не понимаю, зачем zfs реально может быть нужна в настоящее время.

В настоящее время ZFS нужна на локалхосте:
1) Для создания изолированных файловых систем, претендующих на всё пространство пула, а не раздела. Плюс: размер отдельной ФС можно квотировать.
2) Для создания отказоустойчивых хранилищ со сквозным контролем целостности как данных, так и метаданных без задействования часто несовместимых от вендора к вендору аппаратных решений (RAID, два и более винчестеров на десктопе — не редкость).
3) Для однозначного подтверждения порчи данных в случае каких-либо сбоев и вывода списка запорченных файлов поимённо.
4) Для простого отката изменений файлового хранилища (zfs rollback) в случае неудачного обновления.

iZEN ★★★★★
()
Ответ на: комментарий от iZEN

XFS со своей любовью к нулям мне никуда не впилась, правда. На кой ляд это щастье.

М, похоже надо таки ноги в руки и на фряху, все задрало. Как вы там живете-то без удисков да удевов? Чем флешки монтируете? Как по скайпу трындите? Чем ютуб смотрите?

wolfy
() автор топика
Ответ на: комментарий от xorik

Я хала обожрался в свое время, не очень хочется снова. Впрочем, вай нот.

wolfy
() автор топика
Ответ на: комментарий от wolfy

Как вы там живете-то без удисков да удевов?

devd(8).

Чем флешки монтируете?

Настроенный devd или HAL/PolicyKit/Xfce4.6.2. В последней Xfce 4.8 через HAL не монтируется — использую Xfce 4.6.2.

Как по скайпу трындите?

Есть порт skype 2.1.0.81,1. Не пользуюсь, ничего не могу сказать о его работе.

Чем ютуб смотрите?

В Midori, Chromium, Firefox, например, на страничке http://www.youtube.com/html5 можно присоединиться к тестированию HTML5 и смотреть видеоролики через эту технологию подачи контента. Можно поставить Gnash из порта. Можно задействовать бинарную совместимость с Linux ABI и поставить Adobe Flash Plug-in (linux-f10-flashplugin10 10.3r183.7)

iZEN ★★★★★
()
Ответ на: комментарий от iZEN

> В последней Xfce 4.8 через HAL не монтируется — использую Xfce 4.6.2

Вот я же не зря свои вопросы про инфраструктуру-то задал. Через три года тоже будешь на 4.6 сидеть? Или сдвиги планируются?

По поводу настройки девд - вспомнились старые недобрые времена, когда я руками писал правила для удева и обрабатывающие скрипты.

совместимость с Linux ABI и поставить Adobe Flash Plug-in (linux-f10-flashplugin10 10.3r183.7)

Т.е. адоб-плешь-проел там вполне нормально работает? Гнаша не хотю, хтмл5 тоже как-то не очень.

wolfy
() автор топика
Ответ на: комментарий от shahid

>>Вроде sun даже свою кластерную ФС Lustre разрабатывала как раз для 99.9999%-надежного хранения с балансировкой и масштабированием, ибо zfs не канает.

то-то они всё собирались добавить поддержку zfs в люстру, да не успели. ибо нет гарантии целостности данных, т.е. ext3/4 не канает.

но это очень узкоспецифические задачи с большими деньгами.


очень даже широкого применения фс, как для внешних массивов, так и для внутренних дисков, а задачи не только деньгами меряются.
удовлетворение от удобства и возможностей нереальное ;)

EvgGad_303 ★★★★★
()
Ответ на: комментарий от wolfy

Через три года тоже будешь на 4.6 сидеть?

Вот когда что-то существенно в функционале Xfce поменяется, тогда и посмотрю, стоит ли менять ещё РАБОТАЮЩУЮ среду на что-то новое.

iZEN ★★★★★
()
Ответ на: комментарий от iZEN

Ну, xfce и в 4.8 с двумя мониторами не дружит, падла. Панельки глючат. Кстати да, как там во фряхе с открытыми дровами на ати и двухмониторными конфигами? Бывает?

wolfy
() автор топика
Ответ на: комментарий от wolfy

Посмотри тут насчёт дройверов: http://www.freshports.org/search.php?stype=name&method=match&query=xf...

У меня xf86-video-ati 6.14.2 для AMD 785G. Инфраструктура собрана (WITHOUT_NOUVEAU=true в /etc/make.conf) без поддержки устаревшего DRI API, который нужен для гадости-диверсанта-засланного казачка под названием nouveau. С устаревшим API (по умолчанию) вся идиллия рушится — воспроизведение фильмов превращается в слайдшоу. А если подходить с умом — всё отлично на Full-HD мониторе.

Разбор полётов: http://izenfire.blogspot.com/2010/03/amd-785g-phenom-ii-x4-810.html

iZEN ★★★★★
()
Ответ на: комментарий от iZEN

Почти всё из перечисленного реально не нужно. На локалхосте точно. Если нужно, то только 0,00001% пользователей, если они этого сильно захотят.

Для создания изолированных файловых систем, претендующих на всё пространство пула, а не раздела. Плюс: размер отдельной ФС можно квотировать.

Как плюс, такая формулировка из умных баззвордов поможет впарить заказчику систему.

Для создания отказоустойчивых хранилищ со сквозным контролем целостности как данных, так и метаданных без задействования часто несовместимых от вендора к вендору аппаратных решений (RAID, два и более винчестеров на десктопе — не редкость).

Я уже давно не видел внешнего рейда, который не может этого делать сам. Лет восемь наверное. Так и запишем: zfs годится для пионерский рейдов типа «шкаф из IKEA + 32 винча со свалки».

Для однозначного подтверждения порчи данных в случае каких-либо сбоев и вывода списка запорченных файлов поимённо.

Подтверждение порчи. Когда будешь заказчикам говорить, что система обеспечивает подтверждение порчи, они начнут улыбаться.

Для простого отката изменений файлового хранилища (zfs rollback) в случае неудачного обновления.

Согласен, это плюс. Хотя почти никогда не было надобности.

shahid ★★★★★
()
Ответ на: комментарий от iZEN

> Добрый день, уважаемый. Может быть Вы поможете, пятый день бьюсь над запуском 3D аппаратного на Radeon 5850. Гугл курил, Ваш мануальчик тоже. Увы...

Логи(конфиги) какие надо - дам.

Буду очень признателен

Звучит на редкость интригующе.

А так - попробую, наверное эту вашу фряху. Конец, так сказать, эволюции айтишника.

wolfy
() автор топика
Ответ на: комментарий от shahid

Ну, видимо я попадаю в твои ноль-ноль-ноль процента, такие дела. Опять мне больше всех надо.

wolfy
() автор топика
Ответ на: комментарий от EvgGad_303

ибо нет гарантии целостности данных, т.е. ext3/4 не канает.

Что вы с iZEN имеете в виду под гарантией целостности? Если данные повредятся на уровень ниже ФС, то тут сработает RAID. Если программы/кривые руки повредят данные, то спасут только бэкапы. Или в zfs есть телепатический интерфейс, поддерживающий правильность внутреннего содержимого каждого файла? За ответ «контрольные суммы» слив засчитывается автоматом.

очень даже широкого применения фс,

Под linux нет нормального билда, долгосрочная надежность во фряхе абсолютно ничем не подтверждена, кроме редких заявлений на лоре: ни конторами, ни временем, ни бумажками. Если сильно захочешь, поставить дадут только для внутреннего пользования внутри конторы для личного пользования, на локалхост. Вобщем, вздрочнуть на локалхосте и понтанутся только годится.

то-то они всё собирались добавить поддержку zfs в люстру

Уже не следил за событиями, ибо обе убоги.

задачи не только деньгами меряются.

Да, как BSD, с божей помощью.

shahid ★★★★★
()
Ответ на: комментарий от shahid

Что вы с iZEN имеете в виду под гарантией целостности?

Индикация конкретных файлов, которые повредились, чтобы знать, что именно восстанавливать из бэкапа.

Или в zfs есть телепатический интерфейс, поддерживающий правильность внутреннего содержимого каждого файла?

Да, механизм подтверждения целостности существует — дерево Меркле и свойство ZFS для отдельной ФС, отличное от «checksum=off».

Уже не следил за событиями, ибо обе убоги.

Lustre — это слой кластеризации для ФС, которые не поддерживают кластеризацию, в частности, для Ext3 и ZFS.

iZEN ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.