LINUX.ORG.RU

10
Всего сообщений: 38

Proxmox 5.3-11 проблема с производительностью сети

Доброго времени суток, имеется Proxmox 5.3-11 на обычном десктопном железе, висят 2 виртуалки. Проблема с сетью, входящий трафик без проблем, а вот исходящий ведет себя странно: стоит какой либо файл побольше 50гб например поставить на скачивание в какой то момент сеть отключается на виртуалках и на proxmox на несколько сек. соединение сбрасывается. Сеть обычная локалка 1Gb. На виртуалках сетевая Virtio, пробовал срезать скорость 512kb результат тот же. Обе гостевые системы лежат на разных массивах, одна лежит на zfs вторая на mdraid. Есть идеи?

 , , ,

aleks_spv ()

Нумерация версий VirtIO

Не пойму, по какой схеме определяется стабильность/нестабильность версий VirtIO.

У них в архиве есть:

  • Стабильная версия:
    • virtio-win-0.1.171-1
  • Непонятно какие версии:
    • virtio-win-0.1.172-1
    • virtio-win-0.1.173-1
    • virtio-win-0.1.173-2
    • virtio-win-0.1.173-3
    • virtio-win-0.1.173-4
    • virtio-win-0.1.173-5
    • virtio-win-0.1.173-6
    • virtio-win-0.1.173-7
    • virtio-win-0.1.173-8
    • virtio-win-0.1.173-9
  • Последняя версия:
    • virtio-win-0.1.185-1

Почему у них стабильной версией называется .171-1 а не .173-9 или хотя бы не .172-1?

Или они просто забыли обновить ссылку в документации?

 , ,

Harliff ()

Не возможно установить win7 в качестве гостевой ОС

Создаю виртуальную машину virt-install -n win7
–network=bridge:br0
–ram 4096 –arch=x86_64
–vcpus=2 –cpu host –check-cpu
–disk path=/dev/virt_hdd/win7,format=raw,bus=virtio,cache=none
–cdrom /mnt/Data-1/kvm/iso/‘RUS_Windows_7_Ultimate_64bit_activat_free(3,47Gb)_v2.iso’
–graphics vnc,listen=0.0.0.0,password=123
–boot cdrom,hd,menu=on
–hvm
–accelerate

Процесс установки win7 начинается, диск не виден. Устанавливаю драйвера virtio, далее установщик widows видит диск, делаю его разметку, но установку не могу продолжить т.к. выдается ошибка о не возможности установить windows в данный раздел. Код ошибки 0x803000001. Что я делаю не так?

 , , ,

krendelw ()

Не работает alt+ЛКМ в virt-manager, spice, virtio

Всем привет. В прошлом своём треде спрашивал, как можно получше изолировать рабочие и нерабочие приложения друг от друга, спрашивал про видео в виртуалках - и решился поставить себе debian buster в qemu.

Видео настроил virtio, в настройках spice включил поддержку opengl, всё на виртуальной машине подцепилось, с этим всё ок.

Проблема в другом - не могу использовать привычный для меня жест для переноса окон в кедах - когда зажимаешь альт, нажимаешь на окне ЛКМ - и окно начинает передвигаться вместе с курсором, в виртуалке это просто не работает, ничего не происходит. Похоже что основная система перехватывает это действие, хотя экран виртуальной машины развёрнут в virt-manager на полный экран, все клавиши перехватываются.

Как быть и что делать?

 , , , ,

mahalaka ()

red hat virtio scsi disk device windows guest

Привет ЛОР! Прошу поделитесь опытом, как у вас работает Windows 10 в quemu/kvm.
Есть у меня lvm том. Устанавливаю туда Windows 10. Драйвер диска выбираю virtio. Windows устанавливается, драйвер работает, диск работает.
Но по впечатлениям, работает медленнее, чем драйвер sata.
Том lvm на ssd диске.

 , ,

SergeyF ()

Стоит доверять жёсткие диски windows?

Добрый вечер.
Поясняю.
Вопрос по производительности.
Есть KVM-виртуалка. Надо решить, какой вариант будет быстрее работать.
1. Самый очевидный и вроде бы быстрый вариант: я отдаю весь новый диск, как устройство целиком, в гостевую виндовс. Сырой, без ФС.

Но. винда всегда херово работала с винтами. Помню, в вайне, когда играл в обливион, изумлялся удивительно быстрой подгрузке локаций. Изумлялся, потому что в винде, на том же самом винте локации грузились раза в полтора медленнее.
Поэтому я задумываюсь ещё и над вторым вариантом:

2. Форматнуть этот новый винт в ext4, и создать файл-образ диска. Добавив его в virt-manager, c virtio-драйвером и режимом кеширования по умолчанию.

Так стоит ли доверить винт виндовс или всёж создать файл-образ с ФС?

 , , ,

darkenshvein ()

KVM Проблема с дисками

Имеем Ubuntu 14 и KVM 1.3.2

Гостевые машины под WIN 2008R2 диски в формате qcow2 работают под родным драйвером virtio.

У ВМ с большими дисками (более 1ТБ) и активным дисковым обменом наблюдается непонятный глюк. KVM регулярно ставит такую машин на паузу со статусом I/O Error. Сначала помогает простая перезагрузка ВМ, но вскоре ситуация повторяется до тех пор пока машина сразу же начинает падает в паузу на этапе загрузке ОС и всё. Если проблемный раздел перевести в read only ВМ стартует и работает. Данные можно качнуть но раздел приходится грохать и пересоздавать.

Что было предпринято: 1.Заменены все диски, заменены целиком платформы. Проблема продолжает воспроизводится на разных площадках и серверах. 2.Идеальные показатели в тестах SMART 3.badblocks по проблемным физическим дискам - 0 ошибок 4.qemu-img check 0 ошибок 5.В логах qemu 0 ошибок 6.На физическом диске места более чем достаточно

Я не понимаю что еще можно посмотреть и предпринять. Похоже это какой то глубинный глюк в KVM ?

 , ,

Air777 ()

qemu virtio (win guest)

Ubuntu 16.04 - хост. Ставлю на qemu win7:

qemu-system-x86_64 -drive file=qemu_image,if=virtio \
-drive file=Win7_Max_SP1_Russian_x64.iso,media=cdrom \
 -drive file=virtio-win-0.1.126.iso,media=cdrom -m 8000 -boot order=c -enable-kvm
Пробовал использовать stable и latest vertio. Все одно - не находит драйвер при выборе устройства для установки. Ром с virtio есть, ставлю оттуда вручную, диск не находит. Автоматом также. С ide все работает. ЧЯДНТ?

UPD. Не знаю почему, на выбрав x86 вместо amd64 драйвер vertio, все завелось сразу.

 , ,

RenardL ()

SAMBA прячет файлы

Привет всем!

На гипервизор(Gentoo), посредством libvirtd работает виртуальная машина KVM(Gentoo + Samba). ВМ запускается через virt-install с опцией --filesystem /mnt/data. Таким образом с помощью virtio(9p)-драйверов данные с папки /mnt/data гипервизора видны в /mnt/data в гостевой ВМ. ВМ держит только сервис Samba и SSH. Такая связка проработала 1,5 месяца. Теперь начинаются чудеса - Заходим в шару через проводник Windows - видим 439 файлов, через Total Commander на примонтированном диске - 107 файлов, Консоль Windows на примонтированном диске - 693 файла. Идем в shell ВМ или гипервизора - видим порядка 750 файлов.

Еще есть такой эффект: заходим в проблемную шару через проводник и создаем 10 новых папок, жмем F5 и новая папка (2) куда-то исчезла.Но если указать полный путь: //share/новая папка(2) - в папку мы попадем. В это же время через shell ВМ будут видны все созданные папки и файлы. Такое поведение наблюдается только у 2-х расшаренных папок из 10. Настройки идентичны для всех шар, права и владелец идентичны.

В качестве клиентов WinXp, Win7. Делал в linux-клиенте mount -t cifs ....и видел порядка 100 файлов.

tcpdump отлавливает много таких вещей :

15:52:23.284757 IP (tos 0x0, ttl 64, id 50856, offset 0, flags [DF], proto TCP (6), length 117) 10.10.10.18.445 > 10.10.10.31.50102: Flags [P.], cksum 0xcc9c (incorrect -> 0x1b4e), seq 178031:178108, ack 5174, win 8196, length 77 SMB-over-TCP packet:(raw data or continuation?)

ifconfig

( читать дальше... )

smb.conf
workgroup = BLABLA
server string = data
server role = member server
hosts allow = 10.10.10. 10.10.11.
log file = /var/log/samba/log.%m
log level = 2
max log size = 50
interfaces = 10.10.10.18/24
dns proxy = no
Machine -d /dev/null -s /bin/false %u

security = user
map to guest = Bad Password
map to guest = Bad User
guest account = nobody
netbios aliases = server1 server2

printcap name = /dev/null
load printers = no
printing = bsd

kernel oplocks = no
nt acl support = no
strict locking = no
acl map full control = yes
os level = 255

name resolve order = lmhosts bcast host
kernel change notify = yes

Шара
path = /mnt/data/folder/share
csc policy = disable
valid users = nobody
public = yes
guest ok = yes
writable = yes
create mask = 0664
directory mask = 0775
level2 oplocks = no
locking = no
strict locking = no
oplocks = no

правил iptables нет

 , , , ,

BedNuzFany ()

Принудительно отключить virtio диск

Не могу найти как принудительно отключить virtio диск vda. Для обычного sata это

echo 1 > /sys/block/sda/device/delete
Для vda нет delete

 ,

sany0k ()

Уменьшить IO гостя KVM/Qemu

Устанавливал и использовал Windows 7 в Virtualbox - хард использовался очень спокойно и тихо. Сейчас установил ту же Windows 7 в KVM/Qemu - хард трещит как бешеный, винда дёргается и тупит.

Настройки накопителя такие, virtio-дрова в винде установлены.

Мне нужно чтобы хард использовался так же быстро и спокойно, как в Virtualbox.

 , , , ,

Deleted ()

кэш дисков в proxmox/гостевых ОС. Как правильно?

Приветствую!

Имеется proxmox с 2-мя виртуалками windows server 2012 r2:

1) md0 - virtio - диск raw - cache(no cache) - винда(контроллер домена); md1 - virtio - проброшен физически - cache(no cache) - файловое хранилище; под виндой на этих дисках включен кеш в политиках диска.

2) md0 - virtio -диск raw - cache(no cache) - винда(терминал сервер); md0 - virtio -диск raw - cache(no cache) - файловое хранилище; ssd - sata - проброшен физически - cache(no cache) - базы 1с. под виндой на этих дисках включен кеш в политиках диска, кроме ssd.

Вопрос. Включать ли кэш на дисках в proxmox и в гостевой ОС. Если да, то на каких дисках и какой вид кэша(write through или write back).

P.S. Сервак на ИБП. Нужна скорость на дисках и целостность данных.

Спасибо!

 , , ,

golive ()

Загрузка процессора разными драйверами диска

Здравствуйте. Моя ленивая жопа не хочет проверять всё подряд.
Посему спрошу тут. Вчера ковырял винду, диск был с драйвером virtio. Мне или показалось, или этот драйвер жрёт дофига процессора? Начал дум3 распаковывать, аж 30-40 ЦПУ.
Образ диска на нфс-шаре. Под неё нашёл только твики по кешу - отключать его надо. Может кто ещё что подскажет по производительности?

 , , ,

darkenshvein ()

Виртуализация Proxmox VE и большие объёмы хранимых данных

Есть физический сервер на xeon с 2x8ТБ HDD в raid0, сделан огромный LVM том на ext4. На нём нужно поднять 3 виртуалки на 2ТБ/2ТБ/10ТБ. Виртуалка на 10ТБ должна работать на винде, остальное линукс. С виртуализацией я никогда ранее не работал, нужен ваш совет. Как добиться максимальной производительности системы в такой ситуации, это вобще возможно или затея полный провал?

Пока я остановился на вполне понятном и удобном Proxmox VE, основанном на KVM/LXC. В настройках имеются разные конфигурации «эмуляции» дисков: IDE/SATA/VirtIO/SCSI + куча видов кеширования к ним. Если кто-то имел с этим дело - буду рад любой информации, особенно про VirtIO.

P.S. Машина под личные нужды, никакой балансировки нагрузок и «безопасной» среды мне не нужно, упор на производительность.

 , , ,

drelatus ()

Как можно удалить virtio драйверы?

поставил на жёсткий диск в виндовс драйверы, вернее на контроллер. Как удалить? диспетчер устройств пишет, что драйвер стандартный.

 ,

darkenshvein ()

Самый свежий форк Solaris для работы c virtio-устройствами в виртуальной машине

Здравствуйте,

Подскажите, какой из форков Solaris взять для тестирования в qemu/kvm ?

Ближайшее, что смотрел — Open Solaris. Но он достаточно старый. У самой Solaris нет поддержки virtio-устройств, а варианты, что представлены в сети меня не устраивают.

Перемещено JB из talks

 , ,

int13h ()

Не запускается virtrio GPU на qemu после перезагрузки

Возникает следующия ошибка:

virtio_gpu failed to find virt queues
Операционная система Debian sid

 , , , ,

ne-vlezay ()

Низкая скорость на чтение с диска в KVM

Есть сервантик с убунтой 16:04, на нём виртуалка с Debian testing.
В виртуалку прокинуто два lvm-тома c хоста, обозначены как vda и vdb, первый под систему, второй подмонтирован в /mnt/samba
Сеть 100Mb, при заливке файла(scp, samba) что в /tmp на vda, что в /mnt/samba/tmp на vdb показывает ~11-12 MB/s, при чтении с vda - так же.
Но вот читает оно с vdb на жалких 100-300 KB/s.
RAID-контроллер на хосте не крутили, диски в виртуалке используют virtio-драйвер.

Спасибо за внимание.

 ,

Yustas ()

virtio tcp resransmission

Сегодня в virtio-net обнаружил косяк:

Connecting to host 89.84.127.61, port 5201
[  4] local 10.194.1.13 port 54480 connected to 89.84.127.61 port 5201
[ ID] Interval           Transfer     Bandwidth       Retr  Cwnd
[  4]   0.00-1.00   sec  7.18 MBytes  60.3 Mbits/sec    0   2.72 MBytes       
[  4]   1.00-2.00   sec  8.75 MBytes  73.4 Mbits/sec    0   3.24 MBytes       
[  4]   2.00-3.00   sec  8.75 MBytes  73.4 Mbits/sec    0   3.33 MBytes       
[  4]   3.00-4.00   sec  8.75 MBytes  73.4 Mbits/sec    0   3.59 MBytes       
[  4]   4.00-5.00   sec  8.75 MBytes  73.4 Mbits/sec    0   3.71 MBytes       
[  4]   5.00-6.00   sec  10.0 MBytes  83.9 Mbits/sec    0   3.82 MBytes       
[  4]   6.00-7.00   sec  8.75 MBytes  73.4 Mbits/sec    0   3.98 MBytes       
[  4]   7.00-8.00   sec  8.75 MBytes  73.4 Mbits/sec   16   2.01 MBytes       
[  4]   8.00-9.00   sec  7.50 MBytes  62.9 Mbits/sec   19   1.01 MBytes       
[  4]   9.00-10.00  sec  10.0 MBytes  83.9 Mbits/sec    0   1.02 MBytes       
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth       Retr
[  4]   0.00-10.00  sec  87.2 MBytes  73.1 Mbits/sec   35             sender
[  4]   0.00-10.00  sec  84.8 MBytes  71.2 Mbits/sec                  receiver

iperf Done.
Вот с хоста:
Connecting to host 4.testdebit.info, port 5201
[  4] local 10.247.1.10 port 54948 connected to 89.84.127.61 port 5201
[ ID] Interval           Transfer     Bandwidth       Retr  Cwnd
[  4]   0.00-1.00   sec  5.56 MBytes  46.6 Mbits/sec    0   1011 KBytes       
[  4]   1.00-2.00   sec  9.35 MBytes  78.4 Mbits/sec    0   1.44 MBytes       
[  4]   2.00-3.00   sec  9.27 MBytes  77.7 Mbits/sec    0   1.75 MBytes       
[  4]   3.00-4.00   sec  9.27 MBytes  77.8 Mbits/sec    0   1.83 MBytes       
[  4]   4.00-5.00   sec  8.43 MBytes  70.8 Mbits/sec    0   1.86 MBytes       
[  4]   5.00-6.00   sec  9.28 MBytes  77.8 Mbits/sec    0   1.86 MBytes       
[  4]   6.00-7.00   sec  9.28 MBytes  77.9 Mbits/sec    0   1.86 MBytes       
[  4]   7.00-8.00   sec  8.43 MBytes  70.8 Mbits/sec    0   1.86 MBytes       
[  4]   8.00-9.00   sec  9.27 MBytes  77.8 Mbits/sec    0   1.86 MBytes       
[  4]   9.00-10.00  sec  9.27 MBytes  77.8 Mbits/sec    0   1.86 MBytes       
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth       Retr
[  4]   0.00-10.00  sec  87.4 MBytes  73.3 Mbits/sec    0             sender
[  4]   0.00-10.00  sec  87.0 MBytes  73.0 Mbits/sec                  receiver

iperf Done.

Нормальное ли такое поведение сети в виртуальной машине?

 , , , ,

ne-vlezay ()

vIrtio-gpu/virgil3d/virglrender guest MacOSX

Кто-нибудь пробовал сие чудо в qemu/kvm под гостём MacOSX? Как обстоят дела с ускорением? Или всё сыро, так же как и с драйвером под оффтопик?

 , , ,

snatch3r ()