Форум — Development wget скачать все фото и вывести адреса фото в файл wget 0 1 Можно ли с помощью wget скачать все фото и слить адреса(каждого скачанного фото) в файл? Ссылка
Ответ на: комментарий от d_Artagnan 08.07.13 02:01:45 MSK я немного неправильно выразился.(исправил шапку) точно можно? kalter (08.07.13 02:33:56 MSK) автор топика Показать ответ Ссылка
Ответ на: комментарий от kalter 08.07.13 02:33:56 MSK А эта ссылка Объясните, пожалуйста, насчёт wget разве вам не видна? d_Artagnan ★★ (08.07.13 03:00:12 MSK) Показать ответ Ссылка
Ответ на: комментарий от d_Artagnan 08.07.13 03:00:12 MSK троль чтоли? не можешь ничего скозать по теме ,не розбираешься в вопросе — проходи мимо. anonymous (08.07.13 09:12:34 MSK) Ссылка
Ответ на: комментарий от d_Artagnan 08.07.13 02:01:45 MSK ты посмотришь в букварь? Да, значение слово «советы». drBatty ★★ (08.07.13 13:01:54 MSK) Ссылка
Можно ли с помощью wget скачать все фото и слить адреса(каждого скачанного фото) в файл?нет. ВСЕ фото нельзя.Можно некоторые, но ты не сказал какие и откуда.Проще всего скачать галерею как HTML, выдрать sed'ом ссылки в файл, а потом качать по этим ссылкам. В некоторых случаях можно и без sed'а. drBatty ★★ (08.07.13 13:03:48 MSK) Показать ответ Ссылка
Ответ на: комментарий от drBatty 08.07.13 13:03:48 MSK Можно некоторые, но ты не сказал какие и откуда.c тумблера, например этого:http://kingdom-of-animals.tumblr.com/Проще всего скачать галерею как HTML, выдрать sed'ом ссылки в файл, а потом качать по этим ссылкам. В некоторых случаях можно и без sed'а.подход я понял,спасибо:} kalter (08.07.13 14:48:49 MSK) автор топика Показать ответы Ссылка
Ответ на: комментарий от kalter 08.07.13 14:48:49 MSK c тумблера, например этого:http://kingdom-of-animals.tumblr.com/не. Там не HTML, а что-то другое. Это разбираться надо.В любом случае, тебе тут не wget нужен. drBatty ★★ (08.07.13 16:21:27 MSK) Ссылка
Ответ на: комментарий от kalter 08.07.13 14:48:49 MSK #!/bin/bash ua="Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.6) Gecko/20070725 Firefox/2.0.0.6" page=1 while [ true ]; do cnt=0 echo "page=$page" wget -q --user-agent="$ua" \ --header="Accept-Encoding: gzip,deflate" \ http://kingdom-of-animals.tumblr.com/page/$page -O- 2>/dev/null | gzip -d | sed 's/</\n</g' | grep "single_image.*http" | sed 's/.*single_image" href="//' | sed 's/".*//' | { while read url; do wget -q --user-agent="$ua" \ $url echo $url echo $url >>url.list cnt=$((cnt+1)) done if [ $cnt -eq 0 ]; then exit 1 fi } if [ $? -eq 1 ] ; then exit; fi sleep 1 page=$((page+1)) done anonymous (08.07.13 16:57:05 MSK) Показать ответ Ссылка
Ответ на: комментарий от anonymous 08.07.13 16:57:05 MSK вообще замечательно! спасибо тебе, анон. kalter (08.07.13 17:11:17 MSK) автор топика Ссылка