LINUX.ORG.RU

curl box.com загрузчик, проблема

 , ,


0

1

Как-то раз написал я самопис для залития бекапов на box.com ( там халявный акаунт через нексус 4 на 50 гб! ) но ограничение 250 мб легко обошел через split, вчера переустановил сервак.. вот тебе раз, тот же скрипт выдает ошибку! Помогите понять, почему curl стал ругаться

curl --version
curl 7.26.0 (x86_64-pc-linux-gnu) libcurl/7.26.0 OpenSSL/1.0.1e zlib/1.2.7 libidn/1.25 libssh2/1.4.2 librtmp/2.3
Protocols: dict file ftp ftps gopher http https imap imaps ldap pop3 pop3s rtmp rtsp scp sftp smtp smtps telnet tftp
Features: Debug GSS-Negotiate IDN IPv6 Largefile NTLM NTLM_WB SSL libz TLS-SRP
debian 7. ( был debian 6 )

Ругань такая:

> User-Agent: curl/7.26.0
> Host: www.box.com
> Accept: */*
> Content-Length: 250000000
> Expect: 100-continue
>
* additional stuff not fine transfer.c:1037: 0 0
* HTTP 1.1 or later with persistent connection, pipelining supported
< HTTP/1.1 100 Continue
* additional stuff not fine transfer.c:1037: 0 0
* additional stuff not fine transfer.c:1037: 0 0
* additional stuff not fine transfer.c:1037: 0 0
* additional stuff not fine transfer.c:1037: 0 0
* additional stuff not fine transfer.c:1037: 0 0
* additional stuff not fine transfer.c:1037: 0 0

А сам скрипт такой:

#/bin/bash
# ___box.com cloud uploader v 0.1
DIR="тут исходная папка с бекапами"
DIR2="тут временная"
cd $DIR
NAME=$(find -mtime -1 -type f -printf "%f\n")
if [ -d $NAME ]
then
echo NOT FOUND #тут можно вписать алерт на почту, например.
else
split -b 250000000 $NAME /временная папка/${NAME}_part_
for FN in `ls /временная папка`; do
curl --user логин:пароль -v -T /временная папка/$FN https://www.box.com/dav/удаленная папка на сервере/$FN
done
cd /временная папка
rm *.*
fi
echo $NAME



Последнее исправление: cetjs2 (всего исправлений: 3)

Ответ на: комментарий от alozovskoy

re:

Спасибо, я тут уже был. Курлопроблемы исправить не удалось :-( libcurl переустановил, пробовал все версии, дергал так же сам curl. не помню какая версия курл стояла на debian 6 ((( Может еще какие-то варианты есть? То, что гугл выдает - ТОП30 я весь изучил.. в основном там одни багрепорты бородатых 2010-2011 годов. Я думаю, что проблема где-то иначе..

sleepnow
() автор топика
Ответ на: комментарий от Deleted

кактус вполне вкусный ранее был и работал (((

PaulCarroty, а чем в mega.co.nz отгружать? И чем с ПК синхронизировать? Подскажите, пожалуйста.

sleepnow
() автор топика
Ответ на: re: от sleepnow

Там вроде с юникодом какие-то проблемы

alozovskoy ★★★★★
()
Ответ на: re от sleepnow

хз, наверное надо писать багрепорт. я как-то укоротил названия файлов и все получилось.

Deleted
()
Ответ на: комментарий от Deleted

re

Пересобрать просто надо было)) я бинарник заюзал готовый.. А вот баг, который ща поймал - не могу добить (( Не заливает файл ( # 6.34 % of 4.6GB at 17MB/s 38s ) f Фризит четко на 6.43% для этого файла ( ни пут, ни синк.. ) Для 15 гб тоже свой процент есть.. и размер тут не имеет значения. где-то грабли. Не сталкивались с этим? 1 гб файлы - улетают легко. Выход - или как-то фиксить, или дробить опять по 1 гб (( есть кактус.

sleepnow
() автор топика
Ответ на: re от sleepnow

поддержка хттп конвеера заявлена но она липовая, не ?

anonymous
()
Ответ на: комментарий от anonymous

re

Сори, карма не программиста. Это Вы про зависоны? :) Подскажите, как жить то теперь с этим megacmd.) бакипы хочется делать ((

sleepnow
() автор топика
Ответ на: re от sleepnow

попробую, пока что таких больших не приходилось заливать.

Deleted
()
Ответ на: комментарий от anonymous

re

Там не пауза.. или я вас не понимаю. Там например заливается файл 5 гб, и бац застывает на 6-7 %. ( для именно конкретноого файла.. ) и все. больше он не пойдет. сбрасываешь соединение.. пытаешься еще раз туда же его -зависнет ровно на 6-7%.

Причем проблемы нет в собранном бинарнике на git. ( но там есть проблема с длинными именами.. ) А если собрать из сурцов последнюю - там есть.

sleepnow
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.