LINUX.ORG.RU

[Поиск программы] Индексация посещаемых веб-страниц

 


0

0

Гуглю-гуглю и не могу ничего найти. Может быть здесь эксперты по всем программам подскажут?

Хочу нечто, что бы индексировало веб-страницы во время хождения по ним по HTTP, потом давая возможность удобно смотреть историю (а не как в браузерах какое-то уныние ужасное), и, самое главное — делать полнотекстовый поиск по базе.

Под оффтопиком такое давно делает Google Desktop Search. Но он проприетарен. Следовательно, не нужен.

Как это будет огранизовано — не принципиально. Можно HTTP-прокси, можно прозрачный прокси,, можно пристройку к какому-нибудь Squid, можно плагин к браузеру.

HTTPS — не нужно. Хотя, если будет уметь (в случае с браузерным плагином, MITM-атак не нужно, спасибо) с whitelisting'ом (только разрешенные сайты) то не откажусь.

В общем, хочется:

  • Свободную программу, индексирующую содержимое посещенных сайтов и позволяющую вести по нему полнотекстовый поиск с ранжированием результатов по релевантности, дате визитов и всяким другим параметрам.
  • Чтобы была разумно быстро отключаемая индексируемость (режим приватности).
  • Чтобы был blacklisting по URI. Определенные сайты (например, рекламные фреймы, хостинги картинок или админки рабочих ресурсов) индексировать смысла не имеет.

Заранее спасибо!

anonymous

Можно чтонибудь типа squid+sarg+beagle

Canor
()
Ответ на: комментарий от snizovtsev

> Вроде beagle это умеет и без сквида, плагином к FF.

Оппа. А слона-то я и не приметил!... Поставил, посмотрел, не нашел ничего и удалил.

Погуглил — оказывается, действительно, умеет.

Спасибо большое.

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.