LINUX.ORG.RU
ФорумAdmin

home light backup

 , ,


0

1

Товарищи линуксоиды, подскажите какую-нибудь легковесную, консольную систему бэкапа?
В идеале систему вижу так:
1. Раз в неделю пробуждается сервер бэкапа.
2. сохраняемые каталоги сравниваются по новым/пропавшим файлам:

2.1 если на основной системе файл пропал:

2.1.1 Если файл «появился в новом месте», проверяем имя и размер, если совпадает - то переносим бэкапный файл в новое место.
2.1.2 Если файл удален и не встречается, то на системе бэкапа файл переименовывается в точку в начале. (чтоб не отсвечивал)
2.1.3 если файл появился в новом месте, то рассматриваем его как 2 разных файла - «удаленный» и «новый»(п.2.1.2 и 2.2)

2.2 если на основной системе появился новый файл - копируем на резервную систему.

3. Проверяем дату модификации для всех файлов, при различии сверяем размер(может md5?), если изменен - копируем, с сохранением одной старой версии (*.bak)
4. Один раз в месяц особо важные файлы (указываемые пользователем) копируются в облако.
5. выключаем backup-сервер на неделю.

Вероятнее всего, как обычно, изобретаю велосипед. Направьте в нужную сторону.

Объем данных около 100 Гб.
Какой носитель лучше выбрать для такого бэкапа классический hdd, usb 3.0-hdd, ssd, другое?


Слишком хитрую ты систему придумал, процедура бекапа должна быть максимально проста, чем проще - тем надёжнее же.

Раз в неделю - откуда взят период? Если у тебя есть невосстановимая важная инфа, например, научная работа, копируй хоть каждый день, если она меняется каждый день, когда ты её пишешь. Если это сериал про поней - неделя слишком часто.

А вообще мне кажется тебе какой-нибудь Deja Dup подойдет.

Alve ★★★★★ ()
Ответ на: комментарий от Alve

А что хитрого? Мне не нужно десятки версий одного и того же файла от разных дат. То есть бэкапить нужно только при изменении самого файла или пути его хранения.

Раз в неделю - мне достаточно. Я бэкаплю домашние файлики, семейные фото, mp3-ки и прочее. Чаще - нет смысла. Реже - высокий риск потерять, уже грохнутые с флэшки файлы. Поэтому раз в неделю только проверка изменений, а копирование только по необходимости (Считать и сравнить файловые системы это же не 3 часа нужно?)

Пошел гуглить Deja Dup...

Tohin ()

rsnapshot может быть?

Hoodoo ★★★★★ ()

Не страдай фигней и используй Duplicity. Работает и с локальными носителями и с облаками.

Harliff ★★★★★ ()
Ответ на: комментарий от Harliff

Один раз в месяц особо важные файлы (указываемые пользователем) копируются в облако.

Отдельный список файлов/каталогов/регулярных выражений, отдельное задание для бэкапа.

Harliff ★★★★★ ()
Ответ на: комментарий от Alve

важная инфа, например, научная работа, копируй хоть каждый день, если она меняется каждый день, когда ты её пишешь. Если это сериал про поней - неделя слишком часто.

Я бы поспроил, что важнее...

anonymous ()
Ответ на: комментарий от Tohin

А что хитрого? Мне не нужно десятки версий одного и того же файла от разных дат. То есть бэкапить нужно только при изменении самого файла или пути его хранения.

кто сказал rsync ?

anc ★★★★★ ()

Рассмотрим результаты.

Поправьте меня если я не прав (изучал бегло):

rsync - умеет просто копировать на другую машину. так это и scp вроде умеет. Меня больше интересует описанная мной логика синхронизации каталогов.

Deja Dup - мой косяк, забыл сказать, что бэкаплю домашнюю файлопомойку и там нету Х'ов. нужен только консольный вариант. UPD: Пока писал, обнаружил, что это просто оболочка для Duplicity.

rsnapshot - если сильно прищуриться, то очень похоже. Плохо, что он бэкапит каждое изменение файла. То есть я 5 раз изменил файл, он 5 раз отпечатается в бэкапах.

Duplicity - Не увидел разницы с rsync, кроме шифрования. А оно мне не надо.

Хотя тут написали, что у Duplicity самый компактный архив... Непонятно.

Tohin ()
Ответ на: Рассмотрим результаты. от Tohin

rsync - умеет просто копировать на другую машину. так это и scp вроде умеет.

Неверно. Изменения. Хотя конечно можно из него и вариант cp сделать, все от ключей зависит. Внимательно читаем документацию которой просто «много».

anc ★★★★★ ()
Последнее исправление: anc (всего исправлений: 2 )
Ответ на: комментарий от anc

Суть то не меняется?

Не сосвсем понял. Можно на примере? Допустим имеется файл File весом в 3 Мб. При первом запуске rsynk скопирует ее на удаленную машину. При втором запуске rsynk проверит идентичность файлов и ничего делать не будет. Потом File изменился и подрос до 3,5 Мб. При запуске rsynk внесет соответствующие изменения в File на удаленной машине.

Итого я буду иметь 2 идентичных файла. А по моим «хотелкам» их должно стать трое. Два идентичных File и один File.bak на удаленной машине.

Tohin ()

duply/duplicity

2.1.1 Если файл «появился в новом месте», проверяем имя и размер, если совпадает - то переносим бэкапный файл в новое место.

Ничего, что это вообще никакого отношения к бэкапу не имеет?

5. выключаем backup-сервер на неделю.

Это бред, cron просто запустит как ты задашь, хоть на следующий понедельник, который внезапно всего один каждую неделю!

anonymous_sama ★★★★★ ()
Ответ на: комментарий от anonymous_sama

2.1.1 Если файл «появился в новом месте», проверяем имя и размер, если совпадает - то переносим бэкапный файл в новое место.

Ничего, что это вообще никакого отношения к бэкапу не имеет?

Ничего, что мне не нужно десяток копий одного и того же файла в разных местах в бэкапе? Мне нужна актуальная версия текущего состояния с откатом в один шаг по каждому файлу.

Как только появится время, буду ковырять rsnapshot.

To anonymous_sama:

duply/duplicity

Кроме шифрования, есть отличия от rsnapshot?

Tohin ()
Ответ на: комментарий от Tohin

Ты можешь восстановить по числу с duply. Т.е если файл изменился, то у тебя будет две копии, до и после изменения. Правда тебе нужно знать дату изменения, плюс само собой когда у тебя заменятся full бэкапы новыми, то ты уже не восстановишь копию старого файла, потому-что ротация уже случилась. rsnapshot я не пользовался. Шифрование опционально.

anonymous_sama ★★★★★ ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.