LINUX.ORG.RU
ФорумAdmin

Как данные бэкапить?..


0

0

Есть сервер, хранящий довольно много инфы. Эта инфа не то, чтобы очень важна, но если она потеряется, восстановить ее будет тяжело. Конечно, если делать по уму, надо что-то типа стримака покупать, ставить и не знать проблем. Но начальство денег на дополнительное оборудование не дает. А если харды навернутся, гимор огребу я. Таким образом надо придумать способ сохранения. Сейчас я делаю так - раз в сутки по cron запускается процесс, который tarит это все, а потом валит по сети на другую машину. Вроде бы все хорошо, но проблема в том, что данные могут изменяться в процессе архивирования, а потому tar получается "битым" довольно часто. Вопрос - что делать? (с) Чернышевский.

а ничего, кроме как захлопывать прикладные процессы во время архивации тут предложить нельзя. единственное что могу посоветовать, так это минимизировать время архивации, для чего стоит использовать incremental backup ( man [r]dump, [r]restore ).

Z0termaNN
()

Оки, спасибо за ответ.. Мои данные разбросаны по различным каталогам. А что если каждый каталог копировать в /tmp, а оттуда уже архивировать? Мне кажется, что так должно работать.

BigError
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.