LINUX.ORG.RU
ФорумAdmin

Сохранять страницы форума

 


0

2

Допустим, что я старался, жёг глаголом, а модераторы взяли и удалили тему. На ЛОР-е можно как-то посмотреть, какой там был текст, но так бывает не на всех сайтах.

Хотелось бы поставить что-то такое локальное (вероятно squid), чтобы оно запоминало все версии страниц, которые были загружены когда либо (чтобы можно было историю каждого изменения посмотреть, как на web.archive.org).

Как бы это сделать? У кого такое есть? Помогает ли?

Ответ на: комментарий от AKonia

Хотелось бы ещё прозрачности. Т.е. что в браузере видел юзер, то и запоминается в кеше. А некий скачиватель + git, это значит, что скачиватель надо запускать вручную и нет интеграции с браузером.

Shushundr ★★★
() автор топика

я старался, жёг глаголом, а модераторы взяли и удалили тему

Что мешает отжечь ещё разок-другой?

Во-вторых, необходимо общаться с модераторами, они тоже люди, могут восстановить или задуматься в следующий раз, если донесёшь нормальным языком свои простые человеческие чувства.

papin-aziat ★★★★★
()

Я пользовался в своё время wwwoffle. Работает как proxy-сервер, отдает страницу по URL как есть, кэшируя у себя. В случае отсутствия интернета - отдаёт из кэша. Проект придумали во времена диалапа: чтоб можно было подключиться, накачать страниц, отцепиться от Интернета и уже потом вдумчиво их читать.

Не совсем то, что ты хочешь, да. Но если его можно скриптовать(я не проверял, мне описанного выше функционала хватало) - попробуй.

Pinkbyte ★★★★★
()
Ответ на: комментарий от Pinkbyte

Version 2.9j of WWWOFFLE released on Sat Mar 23 2016
Version 2.9i of WWWOFFLE released on Mon Oct 15 2012

В дереве нет версии 2.9j, есть только 2.9i (которой уже 10 лет).
вот почти уверен, что не установится...

Крооме того, я не понимаю, в чём принципиальная разница со squid. И то и другое - прокси сервера для кеширования. Только squid широкоиспользуемый, а этот - редкий (не мейнстримный, одним словом)...

Shushundr ★★★
() автор топика
Последнее исправление: Shushundr (всего исправлений: 1)
Ответ на: комментарий от Pinkbyte

рекомендуют ещё какой-то плагин для firefox:
https://addons.thunderbird.net/en-us/firefox/addon/scrapbookx-autosave/

Использовать плагин это очень правильно, потому что сейчас везде HTTPs, и расшифровывается он только внутри браузера. А всякие прокси и снифферы будут мучаться (с подменой сертификатов, или ещё как).

Но хорошо бы чтобы плагин сохранял это всё в централизованное сетевое место. Я не думаю, что этот так умеет...

Shushundr ★★★
() автор топика
Ответ на: комментарий от Shushundr

Использовать плагин это очень правильно, потому что сейчас везде HTTPs, и расшифровывается он только внутри браузера. А всякие прокси и снифферы будут мучаться (с подменой сертификатов, или ещё как).

Если прокси обычный(а не прозрачный) - то ничего он мучаться не будет. Так как по факту запрос сайту отправляет именно прокси-сервер. Для прозрачного режима работы надо городить SSL bump, а это считай что MitM, поэтому работает не всегда(и местами хреново).

Pinkbyte ★★★★★
()
Ответ на: комментарий от Shushundr

Крооме того, я не понимаю, в чём принципиальная разница со squid. И то и другое - прокси сервера для кеширования.

Если тебе удобно вручную выдергивать страницы из развесистой иерархии директорий кэша сквида - то пожалуйста

Pinkbyte ★★★★★
()
Последнее исправление: Pinkbyte (всего исправлений: 1)
Ответ на: комментарий от Pinkbyte

Если прокси обычный(а не прозрачный) - то ничего он мучаться не будет.

Если прокси обычный, то надо будет ещё ставить AddOn, который для одних сайтов его использует, для других не использует (FoxyProxy по-моему называется). Так что какой-нибудь аддон всё равно будет, а если так, то можно сразу использовать аддоны WebScrapBook или ScrapBee.

На странице https://en.wikipedia.org/wiki/ScrapBook рекомендуют ещё какой-то «zotero», но блин, это слишком много всего надо изучать, я не осилю…

Shushundr ★★★
() автор топика
Последнее исправление: Shushundr (всего исправлений: 1)