LINUX.ORG.RU
ФорумAdmin

Сохранение страниц проходящих через squid

 squid html


1

1

Добрый день!

Есть необходимость сохранять html страницы с определенного сайта из трафика проходящего через squid в отдельную папку. Интересует только html без картинок, css и прочего. Подскажите, пожалуйста, как лучше это реализовать: можно ли это сделать с помощью squid и его extensions или следует использовать какие то другие средства?

Спасибо!


Ответ на: комментарий от cbl

Если это твой домашний прокси на одного человека, то этот может больше подойти. А так — можно и с помощью wget забирать периодически.

sin_a ★★★★★
()
Ответ на: комментарий от sin_a

К сожалению, это корпоративный прокси на 100+ пользователей с авторизацией, и сайт дергать wget не получится, так как: 1. на сайте есть авторизация; 2. нужно сохранить не просто сайт, а именно страницы посещенные нашими пользователями.

cbl
() автор топика
Ответ на: комментарий от sin_a

А странички динамические? если да, то они в кэше не осядут. тут может просто снифить сеть и записывать и парсить трафик к этому сайту надо?

victorb ★★
()
Ответ на: комментарий от victorb

Странички динамические, по GET запросам типа index.php?param1=xxx&param2=yyy и мне необходимо именно соотношение запроса к html. GET же вроде должен хорошо кешироваться по логике или я ошибаюсь?

cbl
() автор топика

1) mitmdump/mitmproxy

2) acl dstdomain (dst, url_regex) желаемого сайта

3) cache_peer + parent

4) cache_peer_access/cache_peer_domain по acl'у

anonymous
()
Ответ на: комментарий от anonymous

parent'ом естественно же выступит mitmdump/mitmproxy

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.