LINUX.ORG.RU
ФорумAdmin

Эмуляция кластера


0

1

Изучаю популярные нынче NoSQL и Comet. Написал веб-приложение на яве, использующее Cassandra.
Теперь хочется научиться все это масштабировать. Идея - собрать кластер на виртуальных машинах, сильно ограничить им ресурсы (чтобы можно было их нагрузить с обычного компьютера) и смотреть, будет ли меняться производительность от добавления новых узлов.
Пока есть мысли только использовать VMWare server, в остальных виртуализаторах я не нашел ограничения скорости процессора.
Есть варианты, как сделать это проще или быстрее?

★★★★★

Ответ на: комментарий от note173

С помощью limits.conf нельзя урезать скорость процессора. Гугли по настройкам qemu-kvm. Там процы очень подробно настраиваются, может и частоту снижать можно.

Reset ★★★★★ ()
Ответ на: комментарий от Reset

не несите бред. в случае, если не используется аппаратная виртуализация, то 100%, что limits.conf на хостовой машине будет ограничивать виртуалки в процессорном времяни.

ktulhu666 ☆☆☆ ()
Ответ на: комментарий от note173

нет, на хостовой. также можете загуглить про openvz. но это потребует загрузки с openvz-ядром хостовой машины (хотя можете извратиться и поднять его не виртуалке, всяко будет ресурсов жрать меньше, чем несколько отдельных виртуалок). думаю, для вашей задачи паравиртуализация вполне пойдёт.

но, лично я бы, юзал именно варианл с virtualbox без аппаратной виртуализации + limits.conf. однако, если Вы работаете на говне (нетбук, ноут 2005-го года с целкой, старинный десктоп с атлоном и т.д.), то лучше Вам посмотреть на openvz. это Вам позволит вообще не заботиться о потреблении оперативы, т.к. её потребляется ровно столько, сколько потребляют приложения и не мегабайтом больше.

ktulhu666 ☆☆☆ ()
Ответ на: комментарий от ktulhu666

сам не неси чуши и почитать что такое cpu time limit — по достижению hard limit'а виртуалке будет послан SIGKILL со всеми вытекающими

Reset ★★★★★ ()
Ответ на: комментарий от ktulhu666

Тогда для virtualbox придется все равно добавлять несколько пользователей, чтобы получить несколько узлов? При этом не так просто получить ssh к headless машине. Для такого варианта все-таки быстрее поднять VMWare server, у него ограничение скорости встроенное.

OpenVZ тоже интересно. Какой лучше дистрибутив использовать?

// Мне это нужно не для продакшн, а поиграться, приоритетнее - легче и быстрее настроить

note173 ★★★★★ ()
Ответ на: комментарий от note173

не для продакшн... убунту на гостя openvz. а на хост либо убунту, либо спец дистрибутив с заточкой под openvz. мало того, я тебе посоветую именно последнее (и там что-то RHEL-производное, если не ошибаюсь), т.к. в ubuntu старое openvz-ядро и там не работают лимиты на проц.

ktulhu666 ☆☆☆ ()
Ответ на: комментарий от ktulhu666

А насколько работоспособно будет обычная убунту на хост, в ней на VBox дистрибутив с OpenVZ, а в нем несколько убунт?

note173 ★★★★★ ()
Ответ на: комментарий от note173

на 100% работоспособно. если что-нибудь получится, то реквестирую кулстори со скриншотами, неймфаг!

ktulhu666 ☆☆☆ ()
Ответ на: комментарий от ktulhu666

Сессия у меня, отложил.

На vbox поставил centos, как единственную умеющую ограничивать процессор для openvz.
В openvz - две убунты 11.04. Сеть настроил, кассандру тоже, кольцо работает.

note173 ★★★★★ ()
Ответ на: комментарий от ktulhu666

Кассандра в кластере самоорганизовывается в кольцо.
Не тормозит, но памяти дофига ест - кассандре только для запуска не меньше 650 мб надо. IP из реальной сети работают.

note173 ★★★★★ ()
Ответ на: комментарий от note173

вообще чистой столько жрет? или она ещё кэш/БД подгружают? а зачем оно тебе вообще при таких ресурсах? mysql уже давным-давно поддерживает кластеризацию.

ktulhu666 ☆☆☆ ()
Ответ на: комментарий от ktulhu666

Сообщение потерялось.

Чистой, это настраивается. В перспективе рассчитываю на хотя бы 4гб оперативки, сейчас я просто играюсь с кластеризацией, т.к. до этого дело с ней не имел.

О кластеризации с mysql хороших отзывов намного меньше, чем у кассандры.
И мне абсолютно не нужна консистентность.

note173 ★★★★★ ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.