LINUX.ORG.RU

Опубликована стабильная версия HTTraQt 1.0

 , opeource,


0

1

Опубликована стабильная версия программы HTTraQt, которая является клоном WinHTTrack. Проект написан на библиотеке Qt4 и является пользовательским интерфейсом программы httrack.

HTTrack — свободный кроссплатформенный оффлайн-браузер. Он позволяет загружать веб-сайты из Интернета на локальный компьютер. Также он может обновлять существующее зеркало сайта и возобновлять прерванные закачки.

Исходники публикуются под лицензией GPL3, Программу можно запустить на любой платформе с предустановленной библиотекой Qt4. Проект написан и протестирован на Linux системах.

На странице проекта есть скриншоты и установочные файлы для Ubuntu-базированных систем, Debian 7, OpenSUSE, Fedora.

Страница на qt-apps

>>> Сайт проекта

anonymous

Проверено: tazhate ()
Последнее исправление: tazhate (всего исправлений: 6)

Хотя бы пара слов о том, зачем это нужно, явно прибавили бы новости информативности.

trex6 ★★★★★
()
Ответ на: комментарий от bhfq

учитывая сложность и завязку на серверную сторону современных сайтов, это очередная ненужность, но я буду рад если кому-то пригодится

I-Love-Microsoft ★★★★★
()
Ответ на: комментарий от trex6

Например есть книга http://www.gentoo.org/doc/en/handbook/handbook-amd64.xml?full=0

которая доступна только в виде похожего сайта. Эта штука поможет скачать все html страницы. Бывает очень полезным и ранее я пользовался WinHTTrack. Но это же можно сделать и с помощью curl,wget

frozenix ★★★
()
Ответ на: комментарий от I-Love-Microsoft

учитывая сложность и завязку на серверную сторону не нужных сайтов

починил

buddhist ★★★★★
()
Ответ на: комментарий от I-Love-Microsoft

Завязка на серверную сторону никак не помешает этой программе скачать, например форум или какой-нить каталог. Она же все-равно просто ходит по линкам, как например бот поисковой машины. Весьма полезная штуковина. Когда то пользовался Winhtttrack

FedeX ★★
()

мне нравится идея offline браузера. перед поездкой грузишь нужны нужные станички и есть что почитать в дороге.

BillDver ★★★
()

Попробуем, тем более ПО за авторством лоровца.

science ★★☆
()

Да на кой черт это нужно? Чтобы отграббить веб-страницы - всегда под рукой есть scrapbook+. Чтобы миррорить или граббить автономно и без браузера - есть wget с туевой хучей опции. Ну а если нужна Тьюринг-полнота - есть libwww-* . Кто скажет где тут необходимость в таких поделиях?

anonymous
()
Ответ на: комментарий от unC0Rr

лучше khttrack тем, что нет зависимостей по KDE библиотекам, так что можно без заморочек закомпилить на OSX. одни программеры собрали программу даже на OS/2 ну и в отличие от khttrack программка доделана, поддерживаются все параметры, которые есть в WinHTTrack

anonymous
()

Downloader for X (aka nt) уже вспоминали?

hobbit ★★★★★
()

про wget, там нет функционала который позволяет и умеет WinHTTrack или его клон. Причем настолько всго много что не сравнимо =), я уж не говорю про настройку этих параметров

mingtom
()
Ответ на: комментарий от mingtom

судя по сайту, отличие от голого wget - это только мультипоточность. может есть более полный набор фич?

anonymous
()

На самом деле, веб-интерфейса HTTrack хватает [хоть он и страшный], а клон WinHTTrack - это плохо, просто потому что без переработки GUI (а не простого копирования) особого смысла в нем нет.

X-Pilot ★★★★★
()
Ответ на: комментарий от anonymous

судя по сайту, отличие от голого wget - это только мультипоточность. может есть более полный набор фич?

wget умеет выставлять User Agent или следовать правилам robots.txt?

X-Pilot ★★★★★
()

HTTrack была годной под оффтопик. Когда я пересел на Linux - искал подобное недолго - мне хватило wget с ключами -rpk, ну и соответствующие --include/--exclude по доменам :-)

Pinkbyte ★★★★★
()
Ответ на: комментарий от anonymous

или следовать по ссылкам на внешние источники, до заданного уровня, исключая определенные?

а быстро сказать что нужно по типам файлов качать, а что нет?

mingtom
()
Ответ на: комментарий от X-Pilot

Дай-ка я grep-ну man wget за тебя :-)

While doing that, Wget respects the Robot Exclusion Standard (/robots.txt)
-U agent-string
       --user-agent=agent-string
           Identify as agent-string to the HTTP server.

           The HTTP protocol allows the clients to identify themselves using a "User-Agent" header field.  This enables distinguishing the WWW software, usually for
           statistical purposes or for tracing of protocol violations.  Wget normally identifies as Wget/version, version being the current version number of Wget.
Pinkbyte ★★★★★
()
Ответ на: комментарий от mingtom

да, согласен, есть дико замороченные сайты, где просто http-crawler может и соснуть

Pinkbyte ★★★★★
()
Ответ на: комментарий от mingtom

мне хватило минуты вдумчивого поиска по ключевым словам по ману - когда у меня был диалап я инкрементально выкачивал кое-какие сайты там, где был более быстрый канал

Pinkbyte ★★★★★
()
Последнее исправление: Pinkbyte (всего исправлений: 1)
Ответ на: комментарий от markevichus

Вот-вот, у него wget. А рядовому юзверю качать локально втентакли и долбоклассники всё-равно нужды нету...

erfea ★★★★★
()
Ответ на: комментарий от mingtom

наверно wget не для меня в данных вопросах =)

Ты выглядишь как [censored]. Скажи как есть: я не осилил wget.

anonymous
()
Ответ на: комментарий от FedeX

как проходить форму авторизации?

завязка серверную сторон - не всегда помеха, это понятно... но вот - сабж!

предположим форум требует авторизации, и предлагает ввести форму логин-пароль, а анонимусам ничего не показывает. как быть? у нас вот например корпоративная вики так настроена))

рассмотрим 2 варианта: (1) форма авторизации - это обычная post-форма, и (2) форма авторизации отдает данные на сайт через какой-нибудь jQuery

ну и рукинеизжопывладельцев спрошу как быть в такой ситуации с wget?

PS: тем кто успешно ответил на вопросы выше - вопрос 2-го тура: как быть с форумами, которые работают с сервером постредством jQuery и не перегружают страницу, а просто обновляют содержимое какого-нить div на странице. т.е. как скачать форум, который не работает без работающего javascript.

PPS: ну и если я спрашиваю что-то само-собой понятное, вы уж простите, и расскажите))) я вот пока не знаю как быть в таких случаях))

Denjs
()
Ответ на: как проходить форму авторизации? от Denjs

+ UPD:

и да, я не говорю что все вышеописанное умеет топиковая HTTraQt. я просто спрашиваю «как быть хоть с чем-либо» в такой ситуации)))

Denjs
()
Ответ на: как проходить форму авторизации? от Denjs

еще всегда можно огрести кучу дублирующих страниц. Так у меня сайтик в 10 метров (поставил вгетом на закачку и ушел домой) стал весить несколько гигов (и то остановил закачку), а дело то в дублях страниц отличающихся только параметрами и бесконечным календарем на странице =)

mingtom
()
Ответ на: комментарий от anonymous

конечно «я не осилил wget для скачивания сложнозамороченных сайтов», я разве не так сказал?)

mingtom
()
Ответ на: комментарий от Axon

а сделать слепок сайта с контентом при его невозможности получить на руки с исходным кодом (для последующего наполнения и восстановления информации после разработки нового)? Есть интересные и странные разработчики с единой админкой на все сайты клиентов, отличающихся только логинами-паролями в систему управления. Мало ли задач может быть

mingtom
()
Ответ на: комментарий от mingtom

а сделать слепок сайта с контентом при его невозможности получить на руки с исходным кодом (для последующего наполнения и восстановления информации после разработки нового)? Есть интересные и странные разработчики с единой админкой на все сайты клиентов, отличающихся только логинами-паролями в систему управления.

Попросить такого разработчика выслать бекап нельзя, что ли?

Axon ★★★★★
()
Ответ на: комментарий от Axon

не надо иронии - смотрите вокруг! 8-)

ну даилап не диалап, а жопорез вполне себе похуже диалапа будет иногда))). даже не по скорости в оных метах, а привлекательности из-за стоимости.

Denjs
()
Ответ на: не надо иронии - смотрите вокруг! 8-) от Denjs

ну даилап не диалап, а жопорез вполне себе похуже диалапа будет иногда)

Угу. В деревне скорость 3G - порядка 50-200 кбайт/сек = 400 килобит/сек - 1.5 мегабит/сек.
Если бы «Мегафон» не просаживал скорость во второй половине месяца (даже без исчерпания трафика) - можно бы было качать за 400 руб/мес. А так ... лишь в городе есть нормальный Интернет.

pacify ★★★★★
()
Ответ на: не надо иронии - смотрите вокруг! 8-) от Denjs

ну даилап не диалап, а жопорез вполне себе похуже диалапа будет иногда)))

Там оплата по траффику, а не повременная. Для жопореза такие приблуды не только не полезны, но и вредны.

Axon ★★★★★
()
Ответ на: комментарий от mingtom

вот такие вот разработчики и хитрый договор, к сожалению встречаются

ССЗБ, чо. Странно, что для таких целые программы пишут.

Axon ★★★★★
()
Ответ на: комментарий от Deleted

Я использовал и wget и сабж - субьективно сабж использует более умные алгоритмы и ситуации с

сайтик в 10 метров (поставил вгетом на закачку и ушел домой) стал весить несколько гигов

встречаются реже. Ну и все же это GUI - нафиг в наш век в консоль лезть? Может тогда сразу перфокарты достанем?

FedeX ★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.