LINUX.ORG.RU

Неполное копирование сайтов


0

0

Возникла одна проблема, которую не удается красиво решить. Иногда удобно производить неполное копирование какового либо сайта. Причем, если сайт постоянно обновляется, хорошо бы делать update интересующей информации. Чаще всего это wiki. wget решает проблему, но не полностью. Если его использовать с изменением скачанных файлов для локального просмотра, то удваивается размер информации, хранящийся на локальном разделе и нельзя прервать работу wget, если процесс слишком затянулся (не будет выполнено преобразование).

Возникла идея отказаться от преобразования файлов, а файлы сгружать на локальный web сервер. Но такой сервер один, а сайтов интересных для копирования - много.


Ответ на: комментарий от Xellos

А какую из проблем решит squid?

EM
() автор топика
Ответ на: комментарий от home_user

Вроде то, что нужно. Хотя работает значительно медленнее чем wget.

EM
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.