LINUX.ORG.RU

Ответ на: комментарий от d_Artagnan

троль чтоли? не можешь ничего скозать по теме ,не розбираешься в вопросе — проходи мимо.

anonymous
()

wget, cat, grep. Дальше сам разберёшься.

anonymous
()

откуда качать фото? как будешь получать линк на фото?

dikiy ★★☆☆☆
()
Ответ на: комментарий от d_Artagnan

ты посмотришь в букварь? Да, значение слово «советы».

drBatty ★★
()

Можно ли с помощью wget скачать все фото и слить адреса(каждого скачанного фото) в файл?

нет. ВСЕ фото нельзя.

Можно некоторые, но ты не сказал какие и откуда.

Проще всего скачать галерею как HTML, выдрать sed'ом ссылки в файл, а потом качать по этим ссылкам. В некоторых случаях можно и без sed'а.

drBatty ★★
()
Ответ на: комментарий от drBatty

Можно некоторые, но ты не сказал какие и откуда.

c тумблера, например этого:http://kingdom-of-animals.tumblr.com/

Проще всего скачать галерею как HTML, выдрать sed'ом ссылки в файл, а потом качать по этим ссылкам. В некоторых случаях можно и без sed'а.

подход я понял,спасибо:}

kalter
() автор топика
Ответ на: комментарий от kalter
#!/bin/bash

ua="Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.6) Gecko/20070725 Firefox/2.0.0.6"
page=1
while [ true ]; do
  cnt=0
  echo "page=$page"
  wget -q --user-agent="$ua" \
    --header="Accept-Encoding: gzip,deflate" \
    http://kingdom-of-animals.tumblr.com/page/$page -O- 2>/dev/null |
  gzip -d |
  sed 's/</\n</g' |
  grep "single_image.*http" |
  sed 's/.*single_image" href="//' |
  sed 's/".*//' | {
  while read url; do
    wget -q --user-agent="$ua" \
      $url
    echo $url
    echo $url >>url.list
    cnt=$((cnt+1))
  done
  if [ $cnt -eq 0 ]; then
    exit 1
  fi
  }
  if [ $? -eq 1 ] ; then exit; fi
  sleep 1
  page=$((page+1))
done
anonymous
()
Ответ на: комментарий от anonymous

вообще замечательно! спасибо тебе, анон.

kalter
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.