К работавшим с zk/hadoop вопрос. Есть проект, в нем уже используется zk, поскольку данные сервак частично получает через apache kafka. Адекватно ли будет его так-же использовать под кэш некоторго, не очень большого по объему количества данных (веб-сессии, справочники, к которым часто обращается сервак для вычислений итд.)? Или все таки лучше прикрутить под это что-то отедльное, типа редиски?