LINUX.ORG.RU

11
Всего сообщений: 35

Не работает alt+ЛКМ в virt-manager, spice, virtio

Всем привет. В прошлом своём треде спрашивал, как можно получше изолировать рабочие и нерабочие приложения друг от друга, спрашивал про видео в виртуалках - и решился поставить себе debian buster в qemu.

Видео настроил virtio, в настройках spice включил поддержку opengl, всё на виртуальной машине подцепилось, с этим всё ок.

Проблема в другом - не могу использовать привычный для меня жест для переноса окон в кедах - когда зажимаешь альт, нажимаешь на окне ЛКМ - и окно начинает передвигаться вместе с курсором, в виртуалке это просто не работает, ничего не происходит. Похоже что основная система перехватывает это действие, хотя экран виртуальной машины развёрнут в virt-manager на полный экран, все клавиши перехватываются.

Как быть и что делать?

 , , , ,

mahalaka ()

red hat virtio scsi disk device windows guest

Привет ЛОР! Прошу поделитесь опытом, как у вас работает Windows 10 в quemu/kvm.
Есть у меня lvm том. Устанавливаю туда Windows 10. Драйвер диска выбираю virtio. Windows устанавливается, драйвер работает, диск работает.
Но по впечатлениям, работает медленнее, чем драйвер sata.
Том lvm на ssd диске.

 , ,

SergeyF ()

Стоит доверять жёсткие диски windows?

Добрый вечер.
Поясняю.
Вопрос по производительности.
Есть KVM-виртуалка. Надо решить, какой вариант будет быстрее работать.
1. Самый очевидный и вроде бы быстрый вариант: я отдаю весь новый диск, как устройство целиком, в гостевую виндовс. Сырой, без ФС.

Но. винда всегда херово работала с винтами. Помню, в вайне, когда играл в обливион, изумлялся удивительно быстрой подгрузке локаций. Изумлялся, потому что в винде, на том же самом винте локации грузились раза в полтора медленнее.
Поэтому я задумываюсь ещё и над вторым вариантом:

2. Форматнуть этот новый винт в ext4, и создать файл-образ диска. Добавив его в virt-manager, c virtio-драйвером и режимом кеширования по умолчанию.

Так стоит ли доверить винт виндовс или всёж создать файл-образ с ФС?

 , , ,

darkenshvein ()

KVM Проблема с дисками

Имеем Ubuntu 14 и KVM 1.3.2

Гостевые машины под WIN 2008R2 диски в формате qcow2 работают под родным драйвером virtio.

У ВМ с большими дисками (более 1ТБ) и активным дисковым обменом наблюдается непонятный глюк. KVM регулярно ставит такую машин на паузу со статусом I/O Error. Сначала помогает простая перезагрузка ВМ, но вскоре ситуация повторяется до тех пор пока машина сразу же начинает падает в паузу на этапе загрузке ОС и всё. Если проблемный раздел перевести в read only ВМ стартует и работает. Данные можно качнуть но раздел приходится грохать и пересоздавать.

Что было предпринято: 1.Заменены все диски, заменены целиком платформы. Проблема продолжает воспроизводится на разных площадках и серверах. 2.Идеальные показатели в тестах SMART 3.badblocks по проблемным физическим дискам - 0 ошибок 4.qemu-img check 0 ошибок 5.В логах qemu 0 ошибок 6.На физическом диске места более чем достаточно

Я не понимаю что еще можно посмотреть и предпринять. Похоже это какой то глубинный глюк в KVM ?

 , ,

Air777 ()

qemu virtio (win guest)

Ubuntu 16.04 - хост. Ставлю на qemu win7:

qemu-system-x86_64 -drive file=qemu_image,if=virtio \
-drive file=Win7_Max_SP1_Russian_x64.iso,media=cdrom \
 -drive file=virtio-win-0.1.126.iso,media=cdrom -m 8000 -boot order=c -enable-kvm
Пробовал использовать stable и latest vertio. Все одно - не находит драйвер при выборе устройства для установки. Ром с virtio есть, ставлю оттуда вручную, диск не находит. Автоматом также. С ide все работает. ЧЯДНТ?

UPD. Не знаю почему, на выбрав x86 вместо amd64 драйвер vertio, все завелось сразу.

 , ,

RenardL ()

SAMBA прячет файлы

Привет всем!

На гипервизор(Gentoo), посредством libvirtd работает виртуальная машина KVM(Gentoo + Samba). ВМ запускается через virt-install с опцией --filesystem /mnt/data. Таким образом с помощью virtio(9p)-драйверов данные с папки /mnt/data гипервизора видны в /mnt/data в гостевой ВМ. ВМ держит только сервис Samba и SSH. Такая связка проработала 1,5 месяца. Теперь начинаются чудеса - Заходим в шару через проводник Windows - видим 439 файлов, через Total Commander на примонтированном диске - 107 файлов, Консоль Windows на примонтированном диске - 693 файла. Идем в shell ВМ или гипервизора - видим порядка 750 файлов.

Еще есть такой эффект: заходим в проблемную шару через проводник и создаем 10 новых папок, жмем F5 и новая папка (2) куда-то исчезла.Но если указать полный путь: //share/новая папка(2) - в папку мы попадем. В это же время через shell ВМ будут видны все созданные папки и файлы. Такое поведение наблюдается только у 2-х расшаренных папок из 10. Настройки идентичны для всех шар, права и владелец идентичны.

В качестве клиентов WinXp, Win7. Делал в linux-клиенте mount -t cifs ....и видел порядка 100 файлов.

tcpdump отлавливает много таких вещей :

15:52:23.284757 IP (tos 0x0, ttl 64, id 50856, offset 0, flags [DF], proto TCP (6), length 117) 10.10.10.18.445 > 10.10.10.31.50102: Flags [P.], cksum 0xcc9c (incorrect -> 0x1b4e), seq 178031:178108, ack 5174, win 8196, length 77 SMB-over-TCP packet:(raw data or continuation?)

ifconfig

( читать дальше... )

smb.conf
workgroup = BLABLA
server string = data
server role = member server
hosts allow = 10.10.10. 10.10.11.
log file = /var/log/samba/log.%m
log level = 2
max log size = 50
interfaces = 10.10.10.18/24
dns proxy = no
Machine -d /dev/null -s /bin/false %u

security = user
map to guest = Bad Password
map to guest = Bad User
guest account = nobody
netbios aliases = server1 server2

printcap name = /dev/null
load printers = no
printing = bsd

kernel oplocks = no
nt acl support = no
strict locking = no
acl map full control = yes
os level = 255

name resolve order = lmhosts bcast host
kernel change notify = yes

Шара
path = /mnt/data/folder/share
csc policy = disable
valid users = nobody
public = yes
guest ok = yes
writable = yes
create mask = 0664
directory mask = 0775
level2 oplocks = no
locking = no
strict locking = no
oplocks = no

правил iptables нет

 , , , ,

BedNuzFany ()

Принудительно отключить virtio диск

Не могу найти как принудительно отключить virtio диск vda. Для обычного sata это

echo 1 > /sys/block/sda/device/delete
Для vda нет delete

 ,

sany0k ()

Уменьшить IO гостя KVM/Qemu

Устанавливал и использовал Windows 7 в Virtualbox - хард использовался очень спокойно и тихо. Сейчас установил ту же Windows 7 в KVM/Qemu - хард трещит как бешеный, винда дёргается и тупит.

Настройки накопителя такие, virtio-дрова в винде установлены.

Мне нужно чтобы хард использовался так же быстро и спокойно, как в Virtualbox.

 , , , ,

alexferman ()

кэш дисков в proxmox/гостевых ОС. Как правильно?

Приветствую!

Имеется proxmox с 2-мя виртуалками windows server 2012 r2:

1) md0 - virtio - диск raw - cache(no cache) - винда(контроллер домена); md1 - virtio - проброшен физически - cache(no cache) - файловое хранилище; под виндой на этих дисках включен кеш в политиках диска.

2) md0 - virtio -диск raw - cache(no cache) - винда(терминал сервер); md0 - virtio -диск raw - cache(no cache) - файловое хранилище; ssd - sata - проброшен физически - cache(no cache) - базы 1с. под виндой на этих дисках включен кеш в политиках диска, кроме ssd.

Вопрос. Включать ли кэш на дисках в proxmox и в гостевой ОС. Если да, то на каких дисках и какой вид кэша(write through или write back).

P.S. Сервак на ИБП. Нужна скорость на дисках и целостность данных.

Спасибо!

 , , ,

golive ()

Загрузка процессора разными драйверами диска

Здравствуйте. Моя ленивая жопа не хочет проверять всё подряд.
Посему спрошу тут. Вчера ковырял винду, диск был с драйвером virtio. Мне или показалось, или этот драйвер жрёт дофига процессора? Начал дум3 распаковывать, аж 30-40 ЦПУ.
Образ диска на нфс-шаре. Под неё нашёл только твики по кешу - отключать его надо. Может кто ещё что подскажет по производительности?

 , , ,

darkenshvein ()

Виртуализация Proxmox VE и большие объёмы хранимых данных

Есть физический сервер на xeon с 2x8ТБ HDD в raid0, сделан огромный LVM том на ext4. На нём нужно поднять 3 виртуалки на 2ТБ/2ТБ/10ТБ. Виртуалка на 10ТБ должна работать на винде, остальное линукс. С виртуализацией я никогда ранее не работал, нужен ваш совет. Как добиться максимальной производительности системы в такой ситуации, это вобще возможно или затея полный провал?

Пока я остановился на вполне понятном и удобном Proxmox VE, основанном на KVM/LXC. В настройках имеются разные конфигурации «эмуляции» дисков: IDE/SATA/VirtIO/SCSI + куча видов кеширования к ним. Если кто-то имел с этим дело - буду рад любой информации, особенно про VirtIO.

P.S. Машина под личные нужды, никакой балансировки нагрузок и «безопасной» среды мне не нужно, упор на производительность.

 , , ,

drelatus ()

Как можно удалить virtio драйверы?

поставил на жёсткий диск в виндовс драйверы, вернее на контроллер. Как удалить? диспетчер устройств пишет, что драйвер стандартный.

 ,

darkenshvein ()

Самый свежий форк Solaris для работы c virtio-устройствами в виртуальной машине

Здравствуйте,

Подскажите, какой из форков Solaris взять для тестирования в qemu/kvm ?

Ближайшее, что смотрел — Open Solaris. Но он достаточно старый. У самой Solaris нет поддержки virtio-устройств, а варианты, что представлены в сети меня не устраивают.

Перемещено JB из talks

 , ,

int13h ()

Не запускается virtrio GPU на qemu после перезагрузки

Возникает следующия ошибка:

virtio_gpu failed to find virt queues
Операционная система Debian sid

 , , , ,

ne-vlezay ()

Низкая скорость на чтение с диска в KVM

Есть сервантик с убунтой 16:04, на нём виртуалка с Debian testing.
В виртуалку прокинуто два lvm-тома c хоста, обозначены как vda и vdb, первый под систему, второй подмонтирован в /mnt/samba
Сеть 100Mb, при заливке файла(scp, samba) что в /tmp на vda, что в /mnt/samba/tmp на vdb показывает ~11-12 MB/s, при чтении с vda - так же.
Но вот читает оно с vdb на жалких 100-300 KB/s.
RAID-контроллер на хосте не крутили, диски в виртуалке используют virtio-драйвер.

Спасибо за внимание.

 ,

Yustas ()

virtio tcp resransmission

Сегодня в virtio-net обнаружил косяк:

Connecting to host 89.84.127.61, port 5201
[  4] local 10.194.1.13 port 54480 connected to 89.84.127.61 port 5201
[ ID] Interval           Transfer     Bandwidth       Retr  Cwnd
[  4]   0.00-1.00   sec  7.18 MBytes  60.3 Mbits/sec    0   2.72 MBytes       
[  4]   1.00-2.00   sec  8.75 MBytes  73.4 Mbits/sec    0   3.24 MBytes       
[  4]   2.00-3.00   sec  8.75 MBytes  73.4 Mbits/sec    0   3.33 MBytes       
[  4]   3.00-4.00   sec  8.75 MBytes  73.4 Mbits/sec    0   3.59 MBytes       
[  4]   4.00-5.00   sec  8.75 MBytes  73.4 Mbits/sec    0   3.71 MBytes       
[  4]   5.00-6.00   sec  10.0 MBytes  83.9 Mbits/sec    0   3.82 MBytes       
[  4]   6.00-7.00   sec  8.75 MBytes  73.4 Mbits/sec    0   3.98 MBytes       
[  4]   7.00-8.00   sec  8.75 MBytes  73.4 Mbits/sec   16   2.01 MBytes       
[  4]   8.00-9.00   sec  7.50 MBytes  62.9 Mbits/sec   19   1.01 MBytes       
[  4]   9.00-10.00  sec  10.0 MBytes  83.9 Mbits/sec    0   1.02 MBytes       
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth       Retr
[  4]   0.00-10.00  sec  87.2 MBytes  73.1 Mbits/sec   35             sender
[  4]   0.00-10.00  sec  84.8 MBytes  71.2 Mbits/sec                  receiver

iperf Done.
Вот с хоста:
Connecting to host 4.testdebit.info, port 5201
[  4] local 10.247.1.10 port 54948 connected to 89.84.127.61 port 5201
[ ID] Interval           Transfer     Bandwidth       Retr  Cwnd
[  4]   0.00-1.00   sec  5.56 MBytes  46.6 Mbits/sec    0   1011 KBytes       
[  4]   1.00-2.00   sec  9.35 MBytes  78.4 Mbits/sec    0   1.44 MBytes       
[  4]   2.00-3.00   sec  9.27 MBytes  77.7 Mbits/sec    0   1.75 MBytes       
[  4]   3.00-4.00   sec  9.27 MBytes  77.8 Mbits/sec    0   1.83 MBytes       
[  4]   4.00-5.00   sec  8.43 MBytes  70.8 Mbits/sec    0   1.86 MBytes       
[  4]   5.00-6.00   sec  9.28 MBytes  77.8 Mbits/sec    0   1.86 MBytes       
[  4]   6.00-7.00   sec  9.28 MBytes  77.9 Mbits/sec    0   1.86 MBytes       
[  4]   7.00-8.00   sec  8.43 MBytes  70.8 Mbits/sec    0   1.86 MBytes       
[  4]   8.00-9.00   sec  9.27 MBytes  77.8 Mbits/sec    0   1.86 MBytes       
[  4]   9.00-10.00  sec  9.27 MBytes  77.8 Mbits/sec    0   1.86 MBytes       
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth       Retr
[  4]   0.00-10.00  sec  87.4 MBytes  73.3 Mbits/sec    0             sender
[  4]   0.00-10.00  sec  87.0 MBytes  73.0 Mbits/sec                  receiver

iperf Done.

Нормальное ли такое поведение сети в виртуальной машине?

 , , , ,

ne-vlezay ()

vIrtio-gpu/virgil3d/virglrender guest MacOSX

Кто-нибудь пробовал сие чудо в qemu/kvm под гостём MacOSX? Как обстоят дела с ускорением? Или всё сыро, так же как и с драйвером под оффтопик?

 , , ,

snatch3r ()

Разделение ресурсов видеокарты

Вот смотрите, в ЭВМ есть всякие ресурсы: центральный процессор, ОЗУ, ввод-вывод на НЖМД или ТТН, сетевой-ввод вывод, видеокарта. Все ресурсы кроме последнего мы можем распределить между большим количеством потребителей: запустить 50 процессов, загрузить в ОЗУ 50 программ или писать на НЖМД в 50 потоков. А что с видеокартой? Насколько её ресурсы разделяемы?

Если у нас есть видеокарта с 2 мониторными выходами, то, понятно, мы не можем подключить к ней 50 физических мониторов. Но можем ли мы запустить 50 виртуалок с virtio-gpu и в каждой запустить Nexuiz. Здесь и далее я имею в виду запустить с 3D-ускорением. Можем ли мы запустить 50 виртуалок и в каждой запустить проигрываение VLC с аппаратным декодированием?

Можем ли мы без всяких виртуалок запустить 50 Nexuiz'ов с выводом на разные дисплеи X'ов? Можем ли так же сделать с VLC?

Можем ли мы запустить в виртуалках или не в виртуалках 50 GIMP'ов с фильтрами использующими OpenCL?

 , ,

Camel ()

Протестировал qemu virtio-gpu

Конечно есть еще куда расти, но llvmpipe кажется реальным тормозом в сравнении. В общем уже можно и без проброса жить в линях, для кого критична скорость 3д.

https://www.youtube.com/watch?v=Ir_to-SuwXE

 , , , ,

Novell-ch ()

Баг в ядре 4.3.x драйвер virtionet

Добрые ночи, я сегодня обновил ядро на госте под KVM с virtio, и обнаружил что на интерфейсе появилось много дропнутых пакетов.

 , , , ,

ne-vlezay ()