История изменений
Исправление LINUX-ORG-RU, (текущая версия) :
По мере надобности, доработалось немного, теперь ещё и «само» может через curl вытягивать, а не только собирать блоб из того что скачал браузер. Теперь может впихивать в 1 файл
- css-стили (как есть)
- скрипты (как есть)
- изображения (base64 кодирование, в том числе из внешних CSS)
- шрифты (base64 кодирование, в том числе из внешних CSS)
- видео (base64 кодирование)
- аудио (base64 кодирование)
Можно отключать ненужное ключами, отключается только то что по ссылкам, уже изначально встроенное в страницу не исключается.
Утилита как была кривой, так и осталась. Но работает и ладно.
По умолчанию сначала пробует дёрнуть локальный файл, если нету, то лезет в сеть за ним, можно этот порядок поменять (или запретить скачку или/и локальные файлы). Даже если скачать браузером например, тот не скачает реально всё что надо, а ссылки в css например оставит, а там могут быть картинки и например стилизованные шрифты.
Так как некоторые страницы хитрые и их попытка скачать просто через pagepack приводит к кривости, то идеальный вариант, это скачать страницу с ресурсами браузером, а потом скормить её pagepack тот соберёт все файлы что есть в блоб, и ещё сам попутно докачает то что не докачал браузер.
Но для строгих и классических веб страничек типа ЛОРа, можно тупо скармливать ссылку.
P.S. Ой, я что-то сломал… P.P.S А не, всё нормально, утилита же кривая, пойдёт.
Исправление LINUX-ORG-RU, :
По мере надобности, доработалось немного, теперь ещё и «само» может через curl вытягивать, а не только собирать блоб из того что скачал браузер. Теперь может впихивать в 1 файл
- css-стили (как есть)
- скрипты (как есть)
- изображения (base64 кодирование, в том числе из внешних CSS)
- шрифты (base64 кодирование, в том числе из внешних CSS)
- видео (base64 кодирование)
- аудио (base64 кодирование)
Можно отключать ненужное ключами, отключается только то что по ссылкам, уже изначально встроенное в страницу не исключается.
Утилита как была кривой, так и осталась. Но работает и ладно.
По умолчанию сначала пробует дёрнуть локальный файл, если нету, то лезет в сеть за ним, можно этот порядок поменять (или запретить скачку или/и локальные файлы). Даже если скачать браузером например, тот не скачает реально всё что надо, а ссылки в css например оставит, а там могут быть картинки и например стилизованные шрифты.
Так как некоторые страницы хитрые и их попытка скачать просто через pagepack приводит к кривости, то идеальный вариант, это скачать страницу с ресурсами браузером, а потом скормить её pagepack тот соберёт все файлы что есть в блоб, и ещё сам попутно докачает то что не докачал браузер.
Но для строгих и классических веб страничек типа ЛОРа, можно тупо скармливать ссылку.
Ой, я что-то сломал…
Исходная версия LINUX-ORG-RU, :
По мере надобности, доработалось немного, теперь ещё и «само» может через curl вытягивать, а не только собирать блоб из того что скачал браузер. Теперь может впихивать в 1 файл
- css-стили (как есть)
- скрипты (как есть)
- изображения (base64 кодирование, в том числе из внешних CSS)
- шрифты (base64 кодирование, в том числе из внешних CSS)
- видео (base64 кодирование)
- аудио (base64 кодирование)
Можно отключать ненужное ключами, отключается только то что по ссылкам, уже изначально встроенное в страницу не исключается.
Утилита как была кривой, так и осталась. Но работает и ладно.
По умолчанию сначала пробует дёрнуть локальный файл, если нету, то лезет в сеть за ним, можно этот порядок поменять (или запретить скачку или/и локальные файлы). Даже если скачать браузером например, тот не скачает реально всё что надо, а ссылки в css например оставит, а там могут быть картинки и например стилизованные шрифты.
Так как некоторые страницы хитрые и их попытка скачать просто через pagepack приводит к кривости, то идеальный вариант, это скачать страницу с ресурсами браузером, а потом скормить её pagepack тот соберёт все файлы что есть в блоб, и ещё сам попутно докачает то что не докачал браузер.
Но для строгих и классических веб страничек типа ЛОРа, можно тупо скармливать ссылку.