LINUX.ORG.RU

Aria2 0.14.0

 


0

0

Вышла новая версия Aria2, 0.14.0.

Aria2 — это утилита для скачивания файлов. Поддерживаются протоколы HTTP(S), FTP, BitTorrent, Metalink. Возможно скачивание файла с нескольких источников и протоколов, что позволяет использовать пропускную способность по максимуму.

>>> Подробности

Ответ на: комментарий от dikiy

> bash-скрипт только задает последовательность действий

я такого скрипта не видел. может займешься, выложишь его рядом с aria2 на sourceforge? А мы тут сравним их по удобству использования, требовательности к ресурсам и кросс-платформенности. Не забудь что кроме закачки в несколько потоков aria2 ещё много чего умеет такого чего у wget нет.

anonymous
()
Ответ на: комментарий от anonymous

>> Все качалки под Линукс полное унылое и бесповоротное говно. Даже >> по сегментную закачку только Арея2 и осилила. Но Гуй к ней убогий >> шо ппц. Вот и приходится Flashget под Wine держать, хорошо, что >> он без проблем работает. Капча // lovned

Специально для унылых и убогих анонимусов-виндузятников не осиливающих кроме дырко продуктов еще даже и гугл - есть d4x (downloader for X)

anonymous
()

Утилита для скачивания говорите =)) Это не в честь Aria Giovanni оно названо =))

dmitry_kuzmenko
()
Ответ на: комментарий от anonymous

>я такого скрипта не видел. может займешься, выложишь его рядом с aria2 на sourceforge? А мы тут сравним их по удобству использования, требовательности к ресурсам и кросс-платформенности. Не забудь что кроме закачки в несколько потоков aria2 ещё много чего умеет такого чего у wget нет.

http://linuxforum.ru/index.php?showtopic=3159&hl=%EC%ED%EE%E3%EE%EF%EE%F2...

Все есть. Правда этот скрипт можно улучшить. А если wget на curl заменить, то и вообще красиво все можно оформить.

dikiy ★★☆☆☆
()
Ответ на: комментарий от anonymous

> Ему бы ещё научиться cookies сохранять -- будет полноценная замена wget.

какой у неё ключ, чтобы был аналогом вгетовского --base?

как у неё с рекурсивной выкачкой?

GuttaLinux
()
Ответ на: комментарий от dikiy

>Все есть. Правда этот скрипт можно улучшить. А если wget на curl заменить, то и вообще красиво все можно оформить.

ЗАЧЕМ???

памяти этот скрипт жрет как $(1+\varepsilon)*wget*(number of threads)$, плюс ещё накладные расходы на несколько (неявных) вызовов bash, и как на том форуме замечено не всегда работает (надо править в зависимости от версии wget). Плюс лишний (небольшой, но всё же) трафик и нагрузка на fs и harddisk.

Так ЗАЧЕМ??? Только для того чтобы показать что с wget тоже можно? Так никто не сомневается. Для такой тривиальной много-поточности можно просто axel использовать, он по-любому самый маленький и экономнее этого монструозного скрипта, да и просто wget-a с aria2. Но например одновременную закачку по ftp и torrent скриптом точно не осилить. Так что такой скрипт рассматриваю не более чем домашнее задание для студентов изучающих bash и wget.

anonymous
()
Ответ на: комментарий от GuttaLinux

> какой у неё ключ, чтобы был аналогом вгетовского --base?

вроде нет, но это не такая важная плюшка

> как у неё с рекурсивной выкачкой?

согласен, этого тоже нет, и это серьёзный кусок кода, в отличие от сохранения cookies (для cookies я даже сам собирался patch написать, дя руки пока не дошли).

anonymous
()
Ответ на: комментарий от anonymous

>памяти этот скрипт жрет как $(1+\varepsilon)*wget*(number of threads)$, плюс ещё накладные расходы на несколько (неявных) вызовов bash, и как на том форуме замечено не всегда работает (надо править в зависимости от версии wget). Плюс лишний (небольшой, но всё же) трафик и нагрузка на fs и harddisk.

Мне почему-то кажется, что даже 10 wget'ов сожрут памяти не намного больше, чем один :)

Лишние вызовы не страшны. Проц не жрут.

нагрузка на harddisk и fs у aria2 точно такая же.

>Так ЗАЧЕМ??? Только для того чтобы показать что с wget тоже можно? Так никто не сомневается. Для такой тривиальной много-поточности можно просто axel использовать, он по-любому самый маленький и экономнее этого монструозного скрипта, да и просто wget-a с aria2. Но например одновременную закачку по ftp и torrent скриптом точно не осилить. Так что такой скрипт рассматриваю не более чем домашнее задание для студентов изучающих bash и wget.

Этот скрипт всего лишь пример. Есть куча возможностей его улучшить, если сделать файлы с "дырками" и использовать curl. Тогда можно избавится от костыля в виде проверок (это таки недоделка wget).

dikiy ★★☆☆☆
()
Ответ на: комментарий от dikiy

> нагрузка на harddisk и fs у aria2 точно такая же.

если запускать с опцией "--file-allocation=none" то aria2 диск нагружает точно также как при скачивании в один поток (правда файл получается очень фрагментированый :)).

Вообще, я для практических нужд изучал этот "рынок", и выбрал aria2. А вы, если честно, тут просто теоретизируете или реально используете wget+скрипт и собираетесь со временем "избавится от костыля в виде проверок"?

anonymous
()
Ответ на: комментарий от anonymous

>Вообще, я для практических нужд изучал этот "рынок", и выбрал aria2. А вы, если честно, тут просто теоретизируете или реально используете wget+скрипт и собираетесь со временем "избавится от костыля в виде проверок"?

Я не использую многопоточную закачку в принципе.

И просто сказал, что если надо, то можно наваять и скрипт. Ну и начал из интереса делать. Под конец возник вопрос в том, что wget нельзя заставить скачать определенное заранее количетво байт. Посмотрел, как другие решили - решили через "жопу". Но таки решили. но это недостаток wget. надо фичреквест написать.

Если кому надо, то скрипт улучшить можно, конечно. Просто curl туда вкрутить. Он это умеет. И скрипт получится маленький.

dikiy ★★☆☆☆
()
Ответ на: комментарий от dikiy

> Я не использую многопоточную закачку в принципе. > Если кому надо, то скрипт улучшить можно, конечно.

ну так я и говорю что все эти разглагольствования ни о чём. Вы этот скрипт ни писать ни использовать не будете, а значит вообще не в теме.

P.S. А с тривиальной много-поточной закачкой с наименьшими затратами лучше всего справляется даже не aria2, а axel.

P.P.S. я aria2 в основном для torrent'ов использую.

anonymous
()
Ответ на: комментарий от anonymous

>> какой у неё ключ, чтобы был аналогом вгетовского --base?

> вроде нет, но это не такая важная плюшка

может подскажете волшебный perl -e или sed или ещё чего, чтобы заменить

file1 file2 file3

на

http://base.url/file1 http://base.url/file2 http://base.url/file3

?

GuttaLinux
()
Ответ на: комментарий от anonymous

>ну так я и говорю что все эти разглагольствования ни о чём. Вы этот скрипт ни писать ни использовать не будете, а значит вообще не в теме.

ну почему же. Уже почти закончил писать.

dikiy ★★☆☆☆
()
Ответ на: комментарий от anonymous

>а использовать будете?

да. в хозяйстве пригодится. Бывает надо с нескольких зеркал слить.

dikiy ★★☆☆☆
()
Ответ на: комментарий от GuttaLinux

> как заменить "for n" на связку "cat file.txt" и "xargs"

тогда смотри первый вариант с sed, только ".*" в маске замени на что-то более подходящее.

anonymous
()
Ответ на: комментарий от GuttaLinux

> как заменить "for n" на связку "cat file.txt" и "xargs"?

и вообще сначала определись чего ты хочешь. чем тебе

for n in `cat file.txt`; do echo http://base.url/$n; done

не нравится?

anonymous
()

wget отлично справляется и более богаты функционал предоставляет

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.