LINUX.ORG.RU

XEN vs KVM и их оптимизация

 , ,


1

4

Решил задаться вопросом виртуализации сервера 1C8.2 Сервер + MSSQL2008 в режиме общей памяти под Windows 2003(гость). Для оценки производительности использовал тест от Гилева, нагуглив файлик tpc82.rar версии от сентября 2009г. Железная платформа: i7 2600/16Гб, для гостя выделялось 8Гб памяти и 8 виртуальныз ядер, в качестве дисковой подсистемы использовался SSD диск от intel 320 серии на 128Гб. ОС хоста, openSUSE 12.2, и OracleVM(XEN 4.1.2). В гостях были установлены соответствующие драйвера (virtio). Режим кеширования writeback.
Результаты тестирования(не вникал в каких попугаях цифры но 60 и более считается очень хорошо):
Hardware : 54 (без виртуализации)
openSUSE XEN : 23 (pv драйвера от XenSource)
openSUSE KVM : 27 (драйвера virtio-win-0.1-30.iso 15-Jul-2012)
OracleVM XEN : 38 (pv драйвера от Oracle)
получив результаты задумался - А откуда такая производительность у OracleVM - хитросделанные драйвера(на обычный Xen их не поставишь) или еще какие оптимизации?...
для доп статистики запустил эту же виртуалку под Archlinux(KVM) (на момент тестированиябыл обновлен до 10.11.2012) и получил удручающие 20 попугаев...
Отсюда вопрос: какие параметры хост системы нужно оптимизировать?

З.Ы. просьба не высказываться по теме неоправданности виртуализации MSSQL.

просьба не высказываться по теме неоправданности виртуализации MSSQL

Выскажемся по поводу неоправданности использования Windows - сервер 1С уже давно портирован на Linux.

RussianNeuroMancer ★★★★★ ()

для начала kvm надо проверять на тех дистрах где он пишется и оптимизируется. все остальное зачастую бывает очень кривым.

вообще, данных маловато, точнее их практически нет.

dyasny ★★★★★ ()
Ответ на: комментарий от RussianNeuroMancer

это так же отдельная тема, хотелось бы конкретики по оптимизации linux хоста именно по заданной связке для гостя Windows сервер 1С + MSSQL.

SergeSH ()
Ответ на: комментарий от dyasny

Результаты для KVM на Centos 6.3 и Proxmox - так же ложаться в 25-27 попугаев. какие данные конкретно нужны?

SergeSH ()
Ответ на: комментарий от SergeSH

драйвер virtio не означает такой же девайс

8 виртуальных ядер при четырех физических - тоже не самый умный ход

какой формат виртуального диска и где он располагался не указано

data-plane, я подозреваю, не был использован

Результаты для KVM на Centos 6.3 и Proxmox - так же ложаться в 25-27 попугаев. какие данные конкретно нужны?

вы так предполагаете, или на самом деле проверили? если не сложно проверять, попробуйте Федору, для чистоты эксперимента

dyasny ★★★★★ ()
Ответ на: комментарий от dyasny

прошу прощения, 8 виртуальных ядер - это всего (HT-включен), гостю дается 4, Centos и Proxmox тестировал, диск raw - физический. Федору для чистоты - попробую.

SergeSH ()
Ответ на: комментарий от SergeSH

диск raw - физический

весь диск отдан ВМ? если и на федоре не будет оптимально, покажите строку запуска ВМ (ps -ef|grep qemu)

dyasny ★★★★★ ()
Ответ на: комментарий от SergeSH

В целом если правильно понимаю, нужно оптимизировать в сторону повышения IOPS, но что конкретно - пока не знаю.

SergeSH ()

Добрый человек, а сделай хорошее дело - прогони этот тест еще и под virtualbox'ом. Очень интересно было бы сравнить, а тестовую платформу собирать лень и долго.

thesis ★★★★★ ()
Ответ на: комментарий от thesis

Тестировал и VBOX и VMPlayer: 23-24 попугая, просто эти системы для поставленной задачи я сейчас не хочу рассматривать.

SergeSH ()
Ответ на: комментарий от pekmop1024

при cash=none, теряется 1 попугай, либо тжс. IO mode использую native, иначе результаты процентов на 25 значительно хуже.

SergeSH ()
Ответ на: комментарий от SergeSH

при cash=none

...нет риска потерять данные с диска при внештатном отключении

dyasny ★★★★★ ()

redhat virtio попробуй. ps: настоящие поцы гоняют 1Сэ под линуксом.

AlexVIP ()
Ответ на: комментарий от kerneliq

А что меня звать? Я так и не асилил 1С8.2 в KVM... Есть правда тестовый сервер под ESXi, можно прогнать - посмотреть на кол-во попугаев.

DALDON ★★★★★ ()

Что нужно сделать чтобы запустить: tpc82.rar? Много телодвижений? Если интересно могу потестить в ESXi, написать конфиг машины и выложить сюда.

DALDON ★★★★★ ()

А теперь попробуй на голом железе в файловом варианте, у меня попугаи были чуть ли не в разы выше.

GAMer ★★★★★ ()
Ответ на: комментарий от DALDON

В файлике tpc82.rar просто файл конфигураци. чуть позже дам линк.

SergeSH ()
Ответ на: комментарий от GAMer

конечно в файловом варианте результаты лучше: 76 против 54...

SergeSH ()
Ответ на: комментарий от kerneliq

Нет, работу всеже нужно делать))) снова добрался до тестирования: Fedora 17 - 20 баллов - хуже suse??? /usr/bin/qemu-kvm -S -M pc-0.15 -cpu core2duo,+lahf_lm,+rdtscp,+avx,+osxsave,+xsave,+aes,+tsc-deadline,+popcnt,+x2apic,+sse4.2,+sse4.1,+pdcm,+xtpr,+cx16,+tm2,+est,+smx,+vmx,+ds_cpl,+dtes64,+pclmuldq,+pbe,+tm,+ht,+ss,+acpi,+ds -enable-kvm -m 4096 -smp 4,sockets=4,cores=1,threads=1 -name vm01 -uuid abf36e20-e5e8-2d1e-6512-f3f1a65be171 -nodefconfig -nodefaults -chardev socket,id=charmonitor,path=/var/lib/libvirt/qemu/vm01.monitor,server,nowait -mon chardev=charmonitor,id=monitor,mode=control -rtc base=localtime -no-shutdown -device piix3-usb-uhci,id=usb,bus=pci.0,addr=0x1.0x2 -device virtio-serial-pci,id=virtio-serial0,bus=pci.0,addr=0x4 -drive file=/dev/disk/by-id/ata-INTEL_SSDSA2CW120G3_CVPR120202XU120LGN-part1,if=none,id=drive-virtio-disk0,format=raw,cache=writeback,aio=native -device virtio-blk-pci,scsi=off,bus=pci.0,addr=0x5,drive=drive-virtio-disk0,id=virtio-disk0,bootindex=1 -drive file=/home/ctrl/virtio-win-0.1-30.iso,if=none,media=cdrom,id=drive-ide0-1-0,readonly=on,format=raw -device ide-drive,bus=ide.1,unit=0,drive=drive-ide0-1-0,id=ide0-1-0 -netdev tap,fd=20,id=hostnet0,vhost=on,vhostfd=21 -device virtio-net-pci,netdev=hostnet0,id=net0,mac=52:54:00:3d:6f:65,bus=pci.0,addr=0x3 -chardev pty,id=charserial0 -device isa-serial,chardev=charserial0,id=serial0 -chardev spicevmc,id=charchannel0,name=vdagent -device virtserialport,bus=virtio-serial0.0,nr=1,chardev=charchannel0,id=channel0,name=com.redhat.spice.0 -device usb-tablet,id=input0 -spice port=5900,addr=127.0.0.1,disable-ticketing -vga qxl -global qxl-vga.vram_size=67108864 -device virtio-balloon-pci,id=balloon0,bus=pci.0,addr=0x6

SergeSH ()
Ответ на: комментарий от SergeSH

http://i.imm.io/NjWQ.png железо тоже. Т.е. обычный HDD 7200 rpm, на котором ещё крутится пять вирт. машинок - одна из которых довольно нагружена на i/o.

DALDON ★★★★★ ()
Последнее исправление: DALDON (всего исправлений: 1)
Ответ на: комментарий от DALDON

Правильно ли я понимаю: данный результат получен на ВМ которая выступает в роли сервера SQL и сервера 1С, а также клиента 1С?

SergeSH ()
Ответ на: комментарий от SergeSH

Да. Данная VM расположена вместе с ещё пятком VM на одном диске 7200 rpm.

DALDON ★★★★★ ()
Ответ на: комментарий от DALDON

проверил те же тесты на обычном жестком диске -действительно результаты не намного хуже, отключил кеширование - результаты значительно ухудшились, судя по всему кэш данный тест хорошо вытягивает. Но все же изначальный вопрос не в этом, а - почему XEN от Oracle с их же драйверами показывает результаты лучше чем KVM(openSUSE,CentOS,Fedora) и не важно будут это драйвера virtio от fedora или redhat? Причем подняв под XEN от suse(потом в fedore под XEN тоже ее тестил) чистую виртуалку и установив в ней драйвера от ORACLE -баллов к результатам тестирования не добавилось... - значит идет какой то доп тюнинг хоста, следовательно можно как то и KVM подтянуть, почитал Best practices for KVM, но пока профита нет... huge page тоже существенного прибавления не дал.

SergeSH ()
Ответ на: комментарий от SergeSH

А чёрт его знает почему оно так если честно... Меня в целом удивляет, почему без прокладки в виде виртуализации 54, а с ней 25 (средне), почему все тогда кричат, что виртуализация уже готова для СУБД?

P.S. - у меня машинка то была с одним ядром. А ведь ещё можно добавить, ибо одно ядро было на 100% занято. Но я не уверен что WinXP будет корректно работать с ним. Ибо у меня там она и стоит.

DALDON ★★★★★ ()
Последнее исправление: DALDON (всего исправлений: 1)
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.