LINUX.ORG.RU

aria2 0.12.1+1

 , ,


0

0

aria2 - консольная утилита для скачивания файлов. Аналог wget, но, в отличие от него, поддерживает:

  • сегментированную закачку (иногда называют многопоточной)
  • BitTorrent
  • Metalink
  • Автоматическую докачку (без указания дополнительных ключей)
В этой версии исправлены некоторые критические уязвимости. Добавлена http / ftp / BitTorrent интеграция и способность обнаруживать Metalink / Torrent на основе типа контента. Также добавлены некоторые локализации.

>>> Подробности

метки неосилил

wfrr ★★☆
() автор топика
Ответ на: комментарий от wfrr

несовместимость с макаронами?

anonymous
()

ммм... вкусняшка! фтопку wget!

OzOx
()

мне одному кажется, что сегментированные закачки, они же многопоточные, это зло? кстати, автоматическая докачка без ключей у wget достигается, например, с помощью alias.

anonymous
()

> Автоматическую докачку (без указания дополнительных ключей)

alias wget='wget -c'

ip1981 ☆☆
()
Ответ на: комментарий от anonymous

> мне одному кажется, что сегментированные закачки, они же многопоточные, это зло?

Это почему? Это быстрее, к тому же пользователи не должны покупать дорогостоящий хостинг, чтобы поделиться фильмом и песней.

DOKA
()
Ответ на: комментарий от anonymous

> мне одному кажется, что сегментированные закачки, они же многопоточные, это зло?

А если лить с двух разных зеркал?

anonymous
()
Ответ на: комментарий от MiracleMan

Жаль пока флашгот не умеет с Арией2 обращаться :(

anonymous
()

Интересно, а какие были причины, что бы писать новую качалку, а не докрутить wget?

ASM ★★
()

Она Арийская?

anonymous
()
Ответ на: комментарий от anonymous

> мне одному кажется, что сегментированные закачки, они же многопоточные, это зло

Думаю, что далеко не одному :)

Автоматическая докачка без предупреждения imho тоже зло. Например, если файл уже есть, но другой версии, меньшего размера. Впрочем, это уже определяется задачами. Можно было бы вообще сделать обязательный ключ, определяющий поведение в такой ситуации, что-то типа --exists=replace --exists=resume --exists=skip-and-process --exists=skip-recursively --exists=rename --exists=fail. (Две опции skip полезны при рекурсивной закачки http).

А ещё, наверное, неплохо было бы файл скачивать не сразу в целевой, а в *.part, а потом переименовать. Это вообще сильно облегчило бы проблему распознания недокачанных файлов.

alexsaa
()
Ответ на: комментарий от anonymous

>> мне одному кажется, что сегментированные закачки, они же многопоточные, это зло?

> А если лить с двух разных зеркал?

А она так умеет?

alexsaa
()
Ответ на: комментарий от anonymous

сегментированче закачки -- зло. Лимит числа соединений достигается моментально, поэтому на многих сайтах не более одного соединения.

sh_topor
()
Ответ на: комментарий от alexsaa

> А она так умеет?

aria2c http://host1/file.zip ftp://host2/file.zip

anonymous
()
Ответ на: комментарий от sh_topor

>сегментированче закачки -- зло. Лимит числа соединений достигается моментально, поэтому на многих сайтах не более одного соединения.

ну и в чем зло-то? Выстави в 5 потоков и живи себе, а если сайт дает только 1 то, опять-таки - что ты потерял? Будет как вгет работать.

Лишь бы обо**ать что-нибудь, ага...

anonymous
()
Ответ на: комментарий от anonymous

> мне одному кажется, что сегментированные закачки, они же многопоточные, это зло?

Нет, не одному. Мне вот, например, тоже.

AS ★★★★★
()
Ответ на: комментарий от anonymous

> ну и в чем зло-то? Выстави в 5 потоков и живи себе, а если сайт дает только 1 то, опять-таки - что
> ты потерял? Будет как вгет работать.

в том, что нормальный человевек вторым-третьим-четвёртым потоком мог бы ещё что-то делать, а так - 1 и баста. И всё из-за гадов многопоточников.

AS ★★★★★
()
Ответ на: комментарий от dragon_djanic

> мда, wget судя по всему уже не рулит..

как раз рулит. :-)

AS ★★★★★
()
Ответ на: комментарий от anonymous

плюсдофига. потому в syren их нет, не было и не будет (пеар, пеар! %-)

mirage
()
Ответ на: комментарий от anonymous

кажется?!! Креститься надо! ... по-пользуй --тогда раскажешь че тебе кажется

anonymous
()

ей можно давать текстовый файл со ссылками, как wget -i?

zodiac ★★
()
Ответ на: комментарий от anonymous

>ну и в чем зло-то? Выстави в 5 потоков и живи себе, а если сайт дает только 1 то, опять-таки - что ты потерял? Будет как вгет работать.

>Лишь бы обо**ать что-нибудь, ага...

Ну допустим в чем вред и его отсутствие мы поняли, а в чем практическая польза кроме теоретической возможности качать с двух зеркал?

chig00
()

>>в том, что нормальный человевек вторым-третьим-четвёртым потоком мог >>бы ещё что-то делать, а так - 1 и баста. И всё из-за гадов >>многопоточников.

прежде чем такое заявлять надо быть в теме --поковыряй исходники... О многопоточности там речи нет --все работает красиво в одном --коректней говорить многоСегментированной закачке

anonymous
()
Ответ на: комментарий от Muromec

> кгет - не интерфейс к вгету. и не был

Лет 7 назад я здавал курсач с kget. Он был именно интерфейсом для wget (правда он назывался немного по другому: проект был переименован). Как сейчас не знаю.

Yurand
()
Ответ на: комментарий от anonymous

>>у допустим в чем вред и его отсутствие мы поняли, а в чем практическая польза кроме теоретической возможности качать с двух зеркал?

теоретической??? По макси использовать канал связи --Ширина канала=X, а зеркало1 дает скорость X/n ( и хоть ты тресни), а на другом еще че-то -->> в итоге канал загружен

anonymous
()
Ответ на: комментарий от anonymous

>>>у допустим в чем вред и его отсутствие мы поняли, а в чем практическая польза кроме теоретической возможности качать с двух зеркал?

>теоретической??? По макси использовать канал связи --Ширина канала=X, а зеркало1 дает скорость X/n ( и хоть ты тресни), а на другом еще че-то -->> в итоге канал загружен

Во первых это помогает только если узкое место прямо возле сервера, если же ограничивает канал пользователя (что у меня обычно случается) то очевидно что эффект будет скорее отрицательный. Ну и большинство закачек не имеют зеркал чтоб ими воспользоваться

chig00
()
Ответ на: комментарий от anonymous

о, вот это мне и нужно. Жалко, на сайте нету готовык сборок под одну проприетарную ОС, мне очень нужно

zodiac ★★
()
Ответ на: комментарий от DOKA

>Это почему?

Для таких "умных" ключики в wsftpd придуманы, чтоб канал в одно рыло не забивали...

Оч. хорошо рога обламывает и моск прочищает...

AVL2 ★★★★★
()

А чем она лучше d4x? Велосипедостроение нынче в моде?

anonymous
()
Ответ на: комментарий от anonymous

Флешгет рулит. Искал долго аналог в linux. Так ничего и не нашел. В итоге нашел компромис... Flashget под wine. Идет на ура. Aria2 тоже рулит. Только Gui под неё нет нормальных. А консольный download-eр неудобно, ИМХО.

anonymous
()

Вопрос: есть ли что-то умное для работы с ссылками внутри сложных форматов? (умеет ли это сабж?)

Самый очевидный случай - HTML - скачал один файл, а потом захотелось скачать всё из него. Менее очевидные - ссылки в некотором текстовом документе (без какой-либо разметки, например ссылки в коментариях в .wxm файле wxMaxima), в XML (читай - OpenDocument), и т.п.

А то каждый раз велосипедирую...

voronaam ★★
()
Ответ на: комментарий от anonymous

ага, а curl в умелых руках нето еще сделает

anonymous
()

Господа, многопоточная закачка должна умереть.

anonymous
()

> Аналог wget ... BitTorrent ...

unix улититы должны быть маленькими и делать только одно дело, но делать его очень хорошо

поэтому у меня wget -- отдельно, bittorrent -- отдельно

vadiml ★★★★★
()

> сегментированную закачку (иногда называют многопоточной)

и что она дает, кроме лишней нагрузки на сервер, за что некоторые сервера банят?

wget и в один поток выбирает под себя всю доступную пропускную способность

vadiml ★★★★★
()

Отличная софтина. В своё время, когда у меня была gentoo я нашел в инете небольшой питоновский скриптик, который при emerge world скачивал пакеты не с помощью wget, а как раз с помощью aria2 - причем он брал список зеркал и качал пакеты в два-три потока с разных ftp/http

Получалось гораздо быстрее, чем с wget'ом А те, кто считают многопоточные закачки злом - просто не умеют их готовить :-P

jodaka
()
Ответ на: комментарий от jodaka

> А те, кто считают многопоточные закачки злом - просто не умеют их готовить :-P

Нет, они просто сидят со стороны сервера.

AS ★★★★★
()
Ответ на: комментарий от voronaam

> Самый очевидный случай - HTML - скачал один файл, а потом захотелось скачать всё из него.

что касается html, то wget.

AS ★★★★★
()
Ответ на: комментарий от AVL2

> Для таких "умных" ключики в wsftpd придуманы, чтоб канал в одно рыло не забивали...

То есть, он там именно многопоточную качку умеет отсекать, а не банально по количеству сессий с одного ip ?

AS ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.