LINUX.ORG.RU
ФорумAdmin

VMWare vs. KVM

 , , , ,


0

4

Хочу устроить натуральный срачь на заданную тему.

За что платить VMWare, если можно получить то же самое, просто почитав документацию?

Вот мой коллега не вдохновлен KVM, ему командная строка не нравится, ну а еще что?

Очень хочется историй про переход как туда так и обратно, с причинами перехода.

Для затравки оставлю ссылочку, может кого то вдохновит

https://www.youtube.com/watch?v=HqsxBkxGxqg

PS. Все как говорится для пользы дела, не только ради спора.

UPD: Прошу отписаться тех, у кого KVM в проде

Перемещено leave из talks



Последнее исправление: Shulman (всего исправлений: 3)

Ответ на: комментарий от xwicked

Если ты ищешь софт для домохозяек то тебе не нужна виртуализация

dyasny ★★★★★
()
Ответ на: комментарий от pekmop1024

Ну вот решения вроде RHV или openshift c CNV и надо сравнивать. Еще есть опенстак но там немного иной подход

dyasny ★★★★★
()
Ответ на: комментарий от t184256

чудеса какие-то (или мы говорим о разном). Backing file это опция -b в qemu-img. To есть образ уже является снепшотом с этого самого backing file. И я все еще не понимаю в чем проблема снять еще один снепшот в цепочке живьем. В доках никаких ограничений нет. Единственное что - надо или строить цепочку на отдельных qcow2 файлах (самый первый может быть raw), или на снепшотах упакованных в один файл, вроде как смешивать нельзя.

dyasny ★★★★★
()
Ответ на: комментарий от dyasny

В доках никаких ограничений нет, а если попытаешься сделать live-snapshot, а затем от него сделать зависимый образ, то юзать зависимый образ сможешь только как cold shapshot, а того снапшота RAM будто и не было. Проверь, если не веришь.

t184256 ★★★★★
()
Ответ на: комментарий от pekmop1024

Т.е. в саппорт не ходили? Ну эт зря на самом деле(разработчики поделки не телепаты если что), но с другой стороны кто как хочет тот так и виртуализирует.

pon4ik ★★★★★
()
Ответ на: комментарий от t184256

RAM? Я не думал что он там критичен. Если дойдут руки гляну конечно, но я из этой кухни сбежал два года назад

dyasny ★★★★★
()
Ответ на: комментарий от ugoday

Докер прекрасно запускается на виндовсе!

Через, Hyper-V, ага :)

anonymous
()
Ответ на: комментарий от Pinkbyte

Kvm/libvirt умеет Storage vmotion . если не умеете в консоль, то ovirt делает это также легко как и в сфере в пару кликов

apmucm
()

На предприятии думать надо, в зависимости от задачи. На домашнем компе KVM, конечно. Т.к.бесплатный и откыто-исходничный. Но под специфические задачи варя будет лучше. У меня, например, хост тупо падал время от времени. Сначала не понимал в чем дело, потом понял - проблема в nested виртуализации в KVM, винда10 ложит не только себя, но и хост. Нормальный бридж с картой wifi на KVM невозможен. На варе и боксе он неплохо эмулируется. И когда надо юзать готовые образы. Но у себя можно и все 3 держать, в чем проблема?

explorer
()
Ответ на: комментарий от apmucm

Я умею в консоль, спасибо. Весь вопрос в том, что ванильный libvirt с хранилищем на ceph как раз этого не умеет(образ в файле или на LVM - не интересует, у меня если и есть подобные инсталляции, то они мелкие и там нет миграции вообще). Так что если это работает в oVirt поверх ceph - значит они там постарались, спасибо буду знать.

Pinkbyte ★★★★★
()

Кстати, заметил, что cloud flare детектит, когда я пользуюсь Hyper-V. Как с этим у VMware,kvm?

chkalov
()
Ответ на: комментарий от explorer

У меня нестед ничего не ложил никогда. На самом деле его вообще использовать не надо нигде и никогда.

Бридж с беспроводной картой работать не будет, но при чем тут kvm? Поставь OVS или просто гоняй все через nat.

Готовых образов тоже сколько угодно под kvm.

dyasny ★★★★★
()
Ответ на: комментарий от Pinkbyte

Цеф не пробовал но iscsi, fc, nfs отлично мигрирует. Непонятно зачем вы привели в пример цеф, если вмварь его вообще не умеет. А vmfs файловая система, это не тоже самое что ceph - блочное хранилище, А если вы про cephfs - файловая система , то под диски виртуалок его никто в своем уме не использует. Лично из своего опыта эксплуатации ovirt/proxmox/всфера считаю что покупать вмварь сейчас странно, ну если тока за откаты или по инерции так как уже много вмвари в инфре.для чего то маленького пойдет проксмокс, для посерьезней овирт. Ну а вообще кубернетес и итд скоро и эту нишу подрежет сильно

apmucm
()
Последнее исправление: apmucm (всего исправлений: 1)
Ответ на: комментарий от dyasny

Поставь OVS

А с этого места по-подробнее. Вайфайка, сунутая в OVS, будет работать нормально, в отличие от прямого бриджа?

pekmop1024 ★★★★★
()
Ответ на: комментарий от apmucm

Цеф не пробовал но iscsi, fc, nfs отлично мигрирует. Непонятно зачем вы привели в пример цеф, если вмварь его вообще не умеет.

Потому что, как я уже сказал, у меня нет общего хранилища(да, вот такие мы бомжи) в том кластере(в отличие от кластера с VMWare), поэтому остальные предложенные варианты мне не подходят.

для посерьезней овирт.

oVirt я не осилил, у меня OpenNebula - в ней я хотя бы смог разобраться, когда что-то отваливается

Pinkbyte ★★★★★
()
Последнее исправление: Pinkbyte (всего исправлений: 1)
Ответ на: комментарий от apmucm

умеют миграцию без общего хранилища

Где об этом почитать?

На всякий случай уточняю что надо:

1) Миграция самой виртуалки на другую ноду(такое есть везде, даже в голом KVM);
2) Минимальное время такой миграции. Вариант - делаем снапшот RAM виртуалки, переносим жесткий диск на другую ноду, запускаем - не подходит - ибо это простой;
3) Миграция жесткого диска виртуалки в другое хранилище(пусть хотя бы того же типа, то есть файл -> файл, LVM-том -> LVM-том) БЕЗ выключения или остановки виртуалки.

Все доки по KVM и сопутствующим рулилкам как правило гарантируют п.1.
90% рулилок гарантируют п.2.
п.3 не видел НИ У КОГО, отсюда и мой интерес.

Обычно п.3 нивелируют тем что «ну у вас же общий сторадж, зачем оно вам?». В принципе вопрос верный, ровно до того момента когда количество этих самых стораджей начинает быть больше одного.

Pinkbyte ★★★★★
()
Последнее исправление: Pinkbyte (всего исправлений: 1)
Ответ на: комментарий от apmucm

Спасибо. oVirt я в своё время не осилил, теперь хоть появился повод попробовать его снова :-)

Pinkbyte ★★★★★
()
14 сентября 2020 г.
Ответ на: комментарий от Pinkbyte

Вроде бы в proxmox’e такое есть. См. Storage replication. Работает поверх zfs.

Harliff ★★★★★
()
Ответ на: комментарий от pekmop1024

@pekmop1024

Очень интересен Ваш опыт, спасибо, что делитесь.

Какую систему управления виртуалками (kvm) Вы используете? (oVirt/proxmox/OpenNebuda/OpenStack/…)

Harliff ★★★★★
()
Ответ на: комментарий от Harliff

Самописное на Python и автоматизация на Jenkins. Мониторинг отдельно, на check_mk. Плюс используем для оперативного доступа к вмкам Kimchi/Wok.

pekmop1024 ★★★★★
()
Ответ на: комментарий от Harliff

Есть vCenter, с которого уезжаем по мере списания старых серверов.

pekmop1024 ★★★★★
()

Юзаю proxmox в проде 3+ месяца аптайма 3 железных ноды 2 супер микры свежих на 10 ядерных ксеонах по 2 шт 1 нода ibm 2011 сокет. В качестве стораджа xigmanas по isci (xigmanas потому что freenas порезан в бесплатной версии и сыпет ошибками от iscsi инициатора который юзает прокс) сторадж набит hdd и ссд- 4u корпус от супер микры мать тоже супер микра 2011 128 ГБ памяти. 2 сторадж под бекапы тоже xigmanas microserver от HP. Сеть 10gb. Melanox3 карты + коммутатор mikrotik CRS309-1G-8S+IN на spf+ портах. Dac кабеля. Все выше перечисленное не есть бест практикс по всем гайдам но работает стабильно. Сейчас стабильно работают: Терминальный сервер на примерно 80 юзеров. Крутят 1с 8.3 Open connect server около 60 подключений. Сервер приложений всякая хрень типо тайм контрола и т.д и т.п. Доменный сервер. Общая шара. Сервер 1с (сами базы висят на железке с постгри) Asterisk 100+ активных sip клиентов zabbix и прочая мелочь типо ERA esset.

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.