LINUX.ORG.RU
ФорумAdmin

Backup на ftp server


0

1

Доброго всем времени суток. Имеется рабочий сервер и сервер ftp необходимо организовать резервного копирование с одного на другой. Какая программа способна делать целевое резервирование всей системы, желательно с архивированием и с последующей передачей на ftp сервер. Какие есть варианты?


Ответ на: комментарий от pre-theorum

Да это не так важно, просто есть сервер свободный, который либо будет стоять выключенным, либо приносить пользу в качестве ftp под бэкап

OxOyD
() автор топика
Ответ на: комментарий от OxOyD

ну хз — я просто написал скриптец на пхп который начиная с корня все файлы передает по rsync на бэкап сервер

можно на баше/перле и тп

pre-theorum
()
Ответ на: комментарий от pre-theorum

аналогично, просто у моих серверов объем жестких немного не совпадает)

OxOyD
() автор топика
Ответ на: комментарий от pre-theorum

Можешь пример своего скрипта выложить?

OxOyD
() автор топика
Ответ на: комментарий от OxOyD

Я бы только советовал таки архивировать перед этим...

pekmop1024 ★★★★★
()
Ответ на: комментарий от pekmop1024

curlftpfs — очень, очень не советую. Особенно если гонять большие архивы. Эта зараза, curlftpfs, складывает файлы сначала в памяти, прежде чем отправить их по сети. Последствия, если архив больше RAM представить себе не сложно.

beastie ★★★★★
()
Ответ на: комментарий от pekmop1024

Архивы больше RAM? Скорей всего ты просто не замечал. Вся «бяка» в том, что «фича» эта не документирована. Я один раз по незнанию напоролся. С тех пор сильно его не люблю.

beastie ★★★★★
()
Ответ на: комментарий от beastie

Да, в виртуалке рамы 4ГБ, она вообще 32-битная, и через нее спокойно ходят архивы 10+ ГБ. Возможно, ты напоролся на баг, который свойственен какой-то старой версии curl'а.

pekmop1024 ★★★★★
()
Ответ на: комментарий от pekmop1024

Точно уже не помню. Если не ошибаюсь это «баг» проявляется, если писать архивы на примонтированную партицию. Т.е.:

tar zcf /mount_point_of_curlftpfs/archive.tgz /whatever
По моему пониманию байты сразу (или кусками) в сеть уходить должны (curl кстати поддерживает partial file transfer), но они сначала складываются в RAM и только по завершению архивации уходят в сеть. Вот такой вот use-case, который надо избегать.

beastie ★★★★★
()
Ответ на: комментарий от beastie

Зря ты не подумал о том, что это не полноценная фс, а всего лишь curl-враппер, со всеми вытекающими недостатками типа отсутствия поблочного доступа.

pekmop1024 ★★★★★
()

Вроде Clonezilla это умеет.

Deleted
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.