LINUX.ORG.RU

работа с вебархивами


0

0

Внезапно столкнулся с проблемой - надо перенести некоторые веб-страницы, скачанные из инета (документация, html+css+картинки), на машины, где нет интернета. Избалованный постоянным высокоскоростным доступом пришёл в некоторое замешательство - как это всё организовать наиболее правильно. Цепочка получается такая - скачать сайт (кусок сайта) - упаковать в некий архив - открыть. Скачать сайт - наверное, всемогущий wget мне поможет (вопрос - как быть с внутренними ссылками? Куда они будут вести?) Упаковать и смотреть - знаю, есть chm, mht - но упаковку в эти форматы, судя по всему, есть только в виде плагинов к браузерам и они позволяют упаковать только текущую страницу, а не некий набор вебсраниц на винте... Какое ПО есть для организации работы с веб-архивами? Заранее благодарен за помощь.

Фокс может экспортировать в pdf. Через Файл -> Печать -> Печатать (в файл).

wyldrodney
()

Добавь при закачке wget'ом параметр "k"

ILLIOS
()

Самый стандартный вариант - это .mht (оно, хоть, RFC-шное и реально мультиплатформенное). Но смотреть придётся только в Opera, а она показывает корректно не все виды .mht или в Firefox с плагином.

KRoN73 ★★★★★
()
Ответ на: комментарий от Bod

Не, это понятно. Я имею ввиду, как сохранить в такой архив уже скачанный _сайт_ - набор связанных страничек. Все они предлагают только _текущую_

Unnamed_Hero ★★★
() автор топика

поступал проще. качал wget-ом с конвертацией ссылок, потом загонял в squashfs и не парился (особенно если squashfs идёт с lzma).

sda00 ★★★
()
Ответ на: комментарий от sda00

Не вариант для меня. данные могут быть востребованы на разных компьютерах, причём на разных системах...

Придётся хранить свалку из файлов

Unnamed_Hero ★★★
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.