LINUX.ORG.RU

Копирование страниц сайта

 , ,


0

1

Задумываюсь над поднятием копии сайта (не ЛОРа, к сожалению). Сайт без Js, статичные простые HTML странички. Если сайт весь можно дернуть даже wget, то как найти скрипт, который через N времени, дергал новые появляющиеся статьи, и вкладывал в определенный каталог на VPS? Или если платно, то подскажите как более развернуто сформировать ТЗ под хотелку свою.

Или можно сделать по другому и проще?

★★★

то как найти скрипт…
…дергал новые появляющиеся статьи, и вкладывал в определенный каталог на VPS?

Тупо script.sh с командой wget'а

который через N времени

man crontab

najlus ★★★★★
()
Ответ на: комментарий от Riniko

Чего? Нет. Скрипт, состоящий из одной лишь команды wget'а, запускаемый по крону (гугли линукс cron/crontab - статей, в т.ч. и на великом и могучем уйма).

P.S. естественно скрипт будет висеть на VPS, а не на домашнем компе.

najlus ★★★★★
()
Ответ на: комментарий от najlus

А как скрипт поймет, какие статьи новые, а какие старые? Или не заморачиваться, и условно в 3:00 каждый день копировать весь сайт и перезаписывать?

Riniko ★★★
() автор топика

Если сайт весь можно дернуть даже wget

Или HTTrack.

dataman ★★★★★
()

дергал новые появляющиеся статьи

RSS/Atom для получения нового, полученные адреса всё так же, как вручную.

mord0d ★★★★★
()
Для того чтобы оставить комментарий войдите или зарегистрируйтесь.