LINUX.ORG.RU

Как увеличить количество ядер гостя KVM?

 ,


0

1

<domain type='kvm' xmlns:qemu='http://libvirt.org/schemas/domain/qemu/1.0'>
<name>one-94</name>
<cputune>
<shares>1024</shares>
</cputune>
<memory>8388608</memory>
<os>
<type arch='x86_64'>hvm</type>
</os>
<devices>
<emulator><![CDATA[/usr/bin/qemu-system-x86_64]]></emulator>
<disk type='file' device='disk'>
<source file='/var/lib/one//datastores/102/94/disk.0'/>
<target dev='vda'/>
<boot order='1'/>
<driver name='qemu' type='qcow2' cache='writeback'/>
</disk>
<disk type='file' device='cdrom'>
<source file='/var/lib/one//datastores/102/94/disk.1'/>
<target dev='hda'/>
<readonly/>
<driver name='qemu' type='raw'/>
</disk>
<interface type='bridge'>
<source bridge='br0'/>
<mac address='02:00:c0:a8:00:64'/>
<target dev='one-94-0'/>
</interface>
<graphics type='vnc' listen='0.0.0.0' port='5994'/>
</devices>
<features>
<pae/>
<acpi/>
<apic/>
</features>
<cpu mode='host-model'><topology sockets='1' cores='1' threads='1'/><model fallback='allow'/></cpu>
<metadata>
<system_datastore><![CDATA[/var/lib/one//datastores/102/94]]> </system_datastore>
</metadata>
</domain>

★★

Пытаюсь:

RAW = [
DATA = «<cpu mode='host-model'><topology sockets='1' cores='6' threads='1'/></cpu>»,
TYPE = «kvm» ]

Выдает ошибку:

unsupported configuration: CPU topology doesn't match maximum vcpu count

sanyock ★★ ()
Ответ на: комментарий от sanyock

AMD X6
ессно хочется задействовать все ядра

если указать в OpenNebula VCPU=6, то получим 2 максимально разрешенных (видимых и используемых) в венде сокета:
http://picpaste.com/pics/CPU-RrT6Ac5q.1501785073.jpg

в линукс их будет 6 в таком конфиге


дальше пробуем сделать так:
RAW = [
DATA = «<cpu mode='host-model'><topology sockets='1' cores='6' threads='1'/><model fallback='allow'/></cpu>»,
TYPE = «kvm» ]

В линукс (livecd) опять получаем 6 vcpu, но на этот раз в виде ядер одного сокета, вирт проц опознается как Opteron 23xx кажется

Дальше грузим венду в том же конфиге, и она видит только одно ядро и один сокет!

Пробуем оригинальный проц без моделирования
RAW = [
DATA = «<cpu mode='host-passthrough'><topology sockets='1' cores='6' threads='1'/></cpu>»,
TYPE = «kvm» ]

и венда уходит в recovery из которого не может выползти

Так как же все таки в венде получить 6 ядер???!

sanyock ★★ ()
Последнее исправление: sanyock (всего исправлений: 3)
Ответ на: комментарий от sanyock

венда уходит в recovery из которого не может выползти

А ты уверен, что без реинсталла винда переживет такие эксперименты? Старым версиям нужно было подсовывать другой HAL-модуль при настолько радикальной смене процессора. Я бы на твоём месте ставил эксперимент на вендовом Live-е каком-нибудь

Pinkbyte ★★★★★ ()
Последнее исправление: Pinkbyte (всего исправлений: 1)
Ответ на: комментарий от Pinkbyte

Однако при установке VCPU>=2 и удалении кастом топологии венда показывает аж целых 2 проца, разрешенных моей лицухой

с удивительным названием QEMU Virtual CPU version 2.5

http://picpaste.com/pics/CPU2-qmvSScny.1501831659.jpg

Очень радует производительность, впечатление, что даже 2 ядра в KVM работают веселее 6-и ядер в VirtualBox, но в принципе понятно, если одно ядро KVM получается производительнее одного ядра VBox, и при этом приложения однопоточные.

sanyock ★★ ()
Последнее исправление: sanyock (всего исправлений: 1)
Ответ на: комментарий от anonymous

Фуфикс? С ними же судились, на самом деле 3cores 6threads.

нет AMD Phenom II, настоящие ядра у него,

а толку то, виртуальные у FX 8350 получаются быстрее, чем у моего

sanyock ★★ ()
Последнее исправление: sanyock (всего исправлений: 2)
Ответ на: комментарий от sanyock

помоему KVM работает даже быстрее, чем ESXi, не то что VirtualBox

Только вот на поднятие бесплатного ESXi хоста и настройку виртуалки в нем у меня ушло даже в первый раз меньше одного рабочего дня, все как то интуитивно понятно.

А OpenNebula я уже с января 2017 пытаюсь поставить по мере появления свободного времени, и вот только сейчас настроил эту штуковину, их форум и чат почти не помогают, высокомерно молчат почти на любой мой вопрос.

Зато удалось настроить распределенное хранилище на разных хостах разные ZFS пулы, их небулинский ZFS драйвер не получилось использовать, ошибки всякие лезут. Да и предназначен он для ZVols, что мне как раз не нравится.

Зато получается делать обычные ZFS снэпшоты и стартовать виртуалки на одних симлинках по NFS (причем даже на localhost, что позволяет избавить от проблемы с O_DIRECT на ZFS без ZVol+extX)

Вообщем удалось настроить почти все так как я хотел.

Осталось: 1) Увеличить количество ядер в венде 2) Прикрутить LXDone в том числе на хостингах

sanyock ★★ ()
Последнее исправление: sanyock (всего исправлений: 3)
Ответ на: комментарий от anonymous

а вот еще вопрос, нельзя ли как-то ускорить NFS когда монтируется localhost

типа монтирования localhost:/mnt/xxx_zfs на /mnt/xxx

чтобы потом стартовать виртуалку с /mnt/xxx вместо /mnt/xxx_zfs, что избавляет от ошибки O_DIRECT

может быть можно по какому-нибудь другому протоколу не TCP/UDP ?
типа local pipe?

sanyock ★★ ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.