LINUX.ORG.RU

Закачка файла с нескольких компьютеров


0

0

Как можно качать один большой файл с нескольких точек доступа в инет одновременно?

Т.е что-то по типу разбить файл на куски и скачивать кусками на разных компах, потом объеденить?

Хотелось бы скрипт, который разбивал файл по кускам 100мб, потом каждый отдельно закачивал, потом они объединялись в один файл.

Как скачать кусок файла? В wget такого не нашёл

★★★★★

man curl


Вот что-то из старого архива
$ cat mult_dnl.sh 
#! /bin/bash

if [ $# -ne 2 ]; then
        echo "Usage: $0 <URL> <filesize>"
        exit 1
fi

URL="$1"
size="$2"
threads=4
fname=`basename $URL`

part_size=$[$size/$threads]

for i in `seq $threads` 
do
        if [ $i -eq $threads ]; then
                echo "screen curl -o ${fname}_part_$i -r \"$[$part_size*($i-1)]-
$size\" $URL" >> screenrc.$$
        else
                echo "screen curl -o ${fname}_part_$i -r \"$[$part_size*($i-1)]-
$[$part_size*$i-1]\" $URL" >> screenrc.$$
                echo 'split' >> screenrc.$$
                echo 'focus' >> screenrc.$$
        fi
done

screen -c screenrc.$$
cat ${fname}_part_* > $fname
rm screenrc.$$ ${fname}_part_*

sdio ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.