LINUX.ORG.RU

Wget и web.archive.org


0

1

Здравствуйте! Вопрос такой: как при помощи wget выкачать архивы давно умерших сайтов с web.archive.org, и возможно ли это вообще? Как делал я: #wget -r -k -l 6 -p -E -nc -np http://web.archive.org/web*/http://site/*. В общем, так не работает. Скачивает он один файл index.html размером 40-50 кб, в нем- заглавная страница сайта с той точки восстановления, которую выбрал, ссылки не работают. Читал, что при указании пути скачивания в ссылке после web* надо добавлять sr1_nr_1000 (или 600, 800, неважно), где последние цифры- количество url, тоже не помогло. Я понимаю, что это я что-то делаю не так, путь неправильно прописываю наверно, должно по идее скачиваться, вот никак не дотумкаю, как заставить wget вытащить из веб-архива все страницы копии сайта на выбранное число, а не одну, чтобы он походил на то время, когда он еще был функционирующим сайтом. Или это no parrents виноват, хотя без него wget весь веб-архив станет выкачивать, нет? я уже и без -np пробовал, и так, и сяк. В общем, помогите советом. P.S. О существовании специально предназначенного для моей цели RoboTools мне известно, но там хоть цены и недорогие (порядка 15-20 у.е. за восстановленный сайт, у них так написано), но все же хотелось бы православным wgetом: и привычнее, и даром.

Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.