История изменений
Исправление wandrien, (текущая версия) :
Нагрузку на СУБД можно снизить разными способами.
Можно. Года два назад мы уже хорошо так оптимизировали движок, существенно снизив потребление CPU и выведя сайт в зелёные показатели метрик отзывчивости поисковых систем.
Теперь, имея примерно тоже самое количество живых посетителей (ну может процентов на 30 больше), заказчик снова должен заплатить за оптимизацию?
Вторая, очевидно, будет дороже.
А когда число ботов снова возрастёт на порядок, тогда что делать?
Например, можно кешировать сгенерированный HTML и отдавать как статику, а при любом событии как-то влияющим на контент страницы (редактирование страницы админом, редактирование страницы из категории оглавлением которой является эта страница, оставление комментария юзером и т. д.) удалять страницу из кеша
Механика кэшей и их выборочного сброса частично уже есть, но под данный кейс придётся дорабатывать. Она несколько другие задачи решает.
На сайте около 3 миллионов валидных URL.
Размер HTML-страницы порядка 380 KB, или если сжать - около 60 KB. Итого потребуется около 180 МБ для хранения кэша сжатых страниц. Приемлемо.
Вариант кэшировать всё ради Гугла уже даже рассматриваю.
При чем реально если это делать, то придётся делать ТОЛЬКО ради ботов Гугла. Потому что ни живые люди, ни Яндекс соизмеримую нагрузку не создают.
Проблема только одна: этот код надо написать и отладить. Ну если владелец сайта согласится, сделаем.
Исходная версия wandrien, :
Нагрузку на СУБД можно снизить разными способами.
Можно. Года два назад мы уже хорошо так оптимизировали движок, существенно снизив потребление CPU и выведя сайт в зелёные показатели метрик отзывчивости поисковых систем.
Теперь, имея примерно тоже самое количество живых посетителей (ну может процентов на 30 больше), заказчик снова должен заплатить за оптимизацию?
Вторая, очевидно, будет дороже.
А когда число ботов снова возрастёт на порядок, тогда что делать?
Например, можно кешировать сгенерированный HTML и отдавать как статику, а при любом событии как-то влияющим на контент страницы (редактирование страницы админом, редактирование страницы из категории оглавлением которой является эта страница, оставление комментария юзером и т. д.) удалять страницу из кеша
Механика кэшей и их сбора частично уже есть, но под данный кейс придётся дорабатывать. Она несколько другие задачи решает.
На сайте около 3 миллионов валидных URL.
Размер HTML-страницы порядка 380 KB, или если сжать - около 60 KB. Итого потребуется около 180 МБ для хранения кэша сжатых страниц. Приемлемо.
Вариант кэшировать всё ради Гугла уже даже рассматриваю.
При чем реально если это делать, то придётся делать ТОЛЬКО ради ботов Гугла. Потому что ни живые люди, ни Яндекс соизмеримую нагрузку не создают.
Проблема только одна: этот код надо написать и отладить. Ну если владелец сайта согласится, сделаем.