LINUX.ORG.RU
ФорумAdmin

Простенький наколеночный бэкап?

 


0

3

Есть условно два места размером 100 ГБ (рабочая директория в которой лежат крупные файлы) и 200 ГБ (архив — доступен напрямую или через scp).

Нужно организовать автоматический бэкап (не синхронизацию) рабочей директории так, чтобы бэкап не превышал физический размер архива. Нужно что-нибудь простое, чтобы запускать через crontab, можно было собрать локально и умел копировать/проверять/восстанавливать бэкап.

★★★★★

Последнее исправление: Evgueni (всего исправлений: 1)

перечитал несколько раз, но не понял основной фишки данной проблемы; 100GB запаковать в архив (еженедельный 2 раза) и скопировать по scp.

пример https://habrahabr.ru/post/136313/

anonymous
()
Ответ на: комментарий от anonymous

Файлы большие и уже по сути являются архивами. Обновляются не особо часто (три-четыре раза в год), перезаписывая предыдущие версии, которые тоже внезапно могут потребоваться (не более одной версии назад).

Evgueni ★★★★★
() автор топика
Последнее исправление: Evgueni (всего исправлений: 1)
Ответ на: комментарий от anonymous_sama

Удаление старых версий файлов в случае превышения лимита для архива там разве есть? Конечно можно следить ручками, глазками и самому старые бэкапы удалять, но не хочется.

Evgueni ★★★★★
() автор топика

backup-manager
тред не читал, оп пост тоже.

xtraeft ★★☆☆
()
Ответ на: комментарий от Evgueni

Ты должен понимать, что это совсем не совсем стандартный случай. И из изначального поста это не было понятно. Но ты можешь сделать удаление старых версий скриптом на cron или описать это логику в pre/post файлах. Фактически же ты, напрашивается решение либо перепаковывать, в duply/duplicity легко меняется размер на которое разделяются файлы можно указать. Но фактически, по хорошему тебе нужен один full backup, а потом можешь бэкапить только изменения. Да и похоже ты хочешь просто что-то вроде ZFS snapshots'ов.

anonymous_sama ★★★★★
()
Ответ на: комментарий от anonymous_sama

Ну да — случай не стандартный по причине ограниченности размера архивного пространства. В принципе мне сгодилось что-то вроде с использованием hard линков и директорий с датами где эти линки организуются, но проблема в том, что на архивном диске нет поддержки hard линков. То есть нужна какая-то ДБ, которая отслеживает когда и какие файлы были удалены/изменены и убивала старые версии. Шаг бэкапа не чаще раза в сутки.

Так же подошла бы какая-нибудь надстройка на git, но git annex я чего-то так и не осилил настроить для хранения больших файлов и чистки их при необходимости. Видимо надо опять помедетировать.

Evgueni ★★★★★
() автор топика
Последнее исправление: Evgueni (всего исправлений: 1)
Ответ на: комментарий от Evgueni

Файлы большие и уже по сути являются архивами. Обновляются не особо часто (три-четыре раза в год), перезаписывая предыдущие версии, которые тоже внезапно могут потребоваться (не более одной версии назад).

Если все прям как описано, но вообще не вижу проблемы. tar+cron

anc ★★★★★
()
Ответ на: комментарий от anc

Не понятно как организовать автоматическую чистку старых файлов при превышении ограничения на размер архивного пространства. Я не знаю утилит с таким функционалом.

Evgueni ★★★★★
() автор топика
Ответ на: комментарий от greenman

Ну да — именно потому и возможно. В принципе сохранять старую копию достаточно месяц. Если за это время не было обнаружено проблем в новой итерации данных, то они либо не нужны, либо всё всех устраивает.

Evgueni ★★★★★
() автор топика
Ответ на: комментарий от Evgueni

Вы написали что вам нужно «не более одной версии назад» так и создавайте через один backup1.tar backup2.tar backup1.tar... надеюсь мысль понятна.

anc ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.