LINUX.ORG.RU

GNU Wget 1.11


0

0

GNU Wget - консольная утилита для неинтерактивной загрузки файлов из сети. GNU Wget поддерживает HTTP и FTP протоколы, работу через прокси, умеет возобновлять прерванную закачку и многое другое.
Предыдущая версия GNU Wget вышла 13 октября 2005 года. В новой версии лицензия была изменена на GPLv3+, усовершенствован механизм аутентификации в HTTP (теперь он ближе к RFC), введена базовая поддержка файлов с "контенто-зависимыми" ("Content-Disposition") заголовками, были внесены другие изменения и дополнения, исправлено много ошибок.

Список изменений: http://hg.addictivecode.org/wget/1.11...
Взять GNU Wget можно здесь: http://ftp.gnu.org/gnu/wget/

>>> Подробности

Что за повальное воскрешение мёртвых пошло? Сначала KMyFirewall, теперь wget...

Ждём mc 4.7!

Ну и, конечно, ждём дебов.

Sikon ★★★
()
Ответ на: комментарий от Sikon

> Что за повальное воскрешение мёртвых пошло? Сначала KMyFirewall, теперь wget...
похоже ради "лицензия была изменена на GPLv3+"

shurph
()
Ответ на: комментарий от Sikon

> Что за повальное воскрешение мёртвых пошло? Сначала KMyFirewall, теперь wget...

Ты совсем дурак или притворяешься? Вгету есть нормальные альтернативы?

А гпл3+ - это очень хорошо.

ChALkeR ★★★★★
()
Ответ на: комментарий от Sikon

Хренасе "воскрешение мертвых". Хоть в одном нормальном десктопном дистре нет вгета?

ist76 ★★★★★
() автор топика
Ответ на: комментарий от Sikon

>Что за повальное воскрешение мёртвых пошло? Сначала KMyFirewall, теперь wget...

WHILE true;

DO nice n=5 wget http://nehoroshij_sajt/index.php &

Так что не надо, вгет рулит )

anonymous
()
Ответ на: комментарий от ChALkeR

Смотря для чего альтернативы собственно говоря.
curl, lftp, rsync :)

odip ★★
()

>исправлено много ошибок. А в каком месте chacgelog'а говорится об исправлении многих ошибок?

anonymous
()
Ответ на: комментарий от anonymous

>А в каком месте chacgelog'а говорится об исправлении многих ошибок?

обнаружен нуб, читать не умеет.

>** Fixed some minor bugs

eR ★★★★★
()
Ответ на: комментарий от eR

>обнаружен нуб, читать не умеет.

>>** Fixed some minor bugs

слово "some" перевести?

Muromec ☆☆
()
Ответ на: комментарий от eR

На ЛОРе персональная версия some, означающая "многих"?

anonymous
()
Ответ на: комментарий от eR

>обнаружен нуб, читать не умеет. >** Fixed some minor bugs

У какой версии, профессионал? ;)

anonymous
()
Ответ на: комментарий от marsijanin

Смотря что за оболочка )

#!/bin/sh
while true;
do nice n=5 wget <сайт> &;
done

Приоритет повышать, чтобы не повиснуть раньше сервака :D
Выбирать хорошо нагружающую БД станичку, и вперед... Мускуль и похапе на говенных хостингах валятся на раз-два.

anonymous
()

Отлично!! Похоже именно из-за этого у меня иногда файло недокачивалось.. Уже тяну. :d

>** Timestamping now uses the value from the most recent HTTP response, rather than the first one it got.

anonymous
()

о, wget научился правильным таймаутам. Гуд.

kuruu
()

оно уже большие файлы с ftp качает? А то надо тут было 60-гигабайтный образ диска по сети слить на машину, загруженную с livecd, так я жестоко обломался с wget`ом.

вот кстати ссылка в тему: http://software.lpetrov.net/wget-LFS/

deadman ★★
()
Ответ на: комментарий от marsijanin

>Тогда --retry-connrefused не помешает.

Это немного не то. У меня длинный список закачек бывает, зачем мне трупа пинать, лишнее время тратить. Пусть лучше дальше качает, а там разберемся. 8)

anonymous
()
Ответ на: комментарий от anonymous

Я так, обычно, библиотеки выкачиваю. На ночь оставил, вечером с работы пришёл и всё ОК.

marsijanin ★★
()
Ответ на: комментарий от anonymous

>Например, Xvnc + какой-нибудь d4x. wget глючит при ненадежной связи.

какой ужас.

url=http://...

while /bin/true; do wget -c "${url}"; usleep 5; done

AVL2 ★★★★★
()
Ответ на: комментарий от Sikon

> Что за повальное воскрешение мёртвых пошло? Сначала KMyFirewall, теперь wget...

Здрасьте! wget для меня самая популярная GNU утилита, которую я даже в винду тащу. Привык настолько что другие качалки просто не могу юзать.

anonymous
()
Ответ на: комментарий от anonymous

ононимусов с кривыми руками точно в печь

svr4
()

По теме: mpg123, coreutils, теперь wget... Такими темпами глядишь вайн 1.0.0 выпустят :)

svr4
()
Ответ на: комментарий от ChALkeR

Под мёртвыми я имею в виду давно не обновлявшихся.

Sikon ★★★
()
Ответ на: комментарий от eR

Хм. Посмотрел curl --help, не понял, какие параметры мне надо этому курлу передать чтобы рекурсивно выкачать весь сайт и автоматом заменить ссылки на относительные, чтобы работало с компа. Или рекурсивно выкачать все pdf-ки с сайта. Или картинки. Как?

ChALkeR ★★★★★
()
Ответ на: комментарий от anonymous

> Оно так и не умеет файлы больше 2 гигабайт?

Уже несколько лет, как умеет, обновись.

> * Changes in Wget 1.10.

> ** Downloading files larger than 2GB, sometimes referred to as "large files", now works on systems that support them. This includes the majority of modern Unixes, as well as MS Windows.

А 1.10 когда вышел у нас? Вот-вот ).

ChALkeR ★★★★★
()
Ответ на: комментарий от ChALkeR

> Ты совсем дурак или притворяешься? Вгету есть нормальные альтернативы?

d4x

anonymous
()
Ответ на: комментарий от marsijanin

>А как ещё прикажите оставит на ночь список закачек на удалённой машине?

Не осилил вопроса. =( Можно подробнее?

anonymous
()
Ответ на: комментарий от ChALkeR

> Вгету есть нормальные альтернативы?

Последний месяц пользуюсь aria2c. Главная фишка - bittorrent! :)

Shakyamuni
()

some сусам, дело не меняет.

[read rules noob]

eR ★★★★★
()

Одобрямс!
Полезная прога , регулярно пользуюсь

KUser
()
Ответ на: комментарий от magesor

Вот вот! Я тоже раньше многопоточный proz использовал

Но его чего-то из дебиана выкинули.
Жалко что wget так не умеет

sergom
()
Ответ на: комментарий от sergom

эхх, как оно там? wget -c -r -P /home/unname/downloads -nd -nH http://... лучше качалки и не придумать

unname
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.