LINUX.ORG.RU

Хитрый wget

 , , ,


1

2

Доброго дня.
Никак не могу додуматься как заставить wget или curl рекурсивно выкачивать файлы по ссылке с определенным описанием.
Например на сайте 200 картинок, каждую можно скачать нажав на ссылку «скачать картинку», которая в свою очередь выдаёт файл. Т.е. в коде html нет вообще линков на картинки, линки генерятся динамически. Есть вариант заставить wget или curl «пожамкать» все ссылки с текстом «скачать картинку» на сайте ?

★★★★★

Ответ на: комментарий от mittorn

Да, внезапно. Он теперь даже стал конкурентоспособен по отношению к хромиуму, глупо от него отказываться только потому что это мозилла уволила вот его https://ru.wikipedia.org/wiki/Эйх,_Брендан (толстый намёк).

anonymous ()

Я делал так: открывал картинку в хроме. Потом на ней правой кнопкой и =Копировать URL картинки=. В ней обычно прописан путь. Ну и потом скриптик например на sh который парсит этот каталог. Если конечно все картинки лежат в одном месте.

Bootmen ★★ ()

Проблему решил довольно тупо, но относительно малой кровью. Просто начал выкачивать всё что есть и периодически удалять все ненужные типы файлов.

bdfy ★★★★★ ()