LINUX.ORG.RU

Сообщения poedyatel

 

Как пользоваться IVR Break Out Menu в Asterisk

Форум — General

Приветствую, друзья! Не могу осилить одну фигню в астериске.

Задача: есть входящий звонок который сразу улетает в очередь, необходимо чтобы у звонящего была возможность перейти в голосовую почту если ему надоедает ждать. Погуглив нарыл только совет «гуглите IVR Break Out Menu» ну и обилие руководств для FreePBX где это накликивается чекбоксами и ни одного примера с консольным астериском, не могу найти что и куда вписать, подсобите.

Вот мой extension.conf

[from-internal]
exten => 111,1,Answer()
exten => 111,n,Ringing
exten => 111,n,Wait(2)
exten => 111,n,Queue(support)
exten => 111,n,Hangup

[ivr-menu]
exten => s,1,Answer()
exten => s,2,Background(custom/wlc)
exten => s,3,WaitExten(7)

вот queue.conf

[support]
strategy = ringall
announce-frequency = 45
member  => SIP/777,1

Здесь при звонке на номер 111 звонящий улетает в очередь [support], необходимо чтобы он теперь мог перепрыгнуть в меню [ivr-menu]

 

poedyatel
()

zfs у кринку не лизе

Форум — General

Друзья, подскажите в чем проблема. Пытаюсь по ssh забрать снепшот zfs, не получается.
Есть рабочий сервер с Proxmox 7 (имя server). На нём имеется zfs-pool.
Есть бекап-сервер тоже с Proxmox 7 (имя backup-server). С него есть ssh-доступ по ключу к рабочему серверу.
Команда для репликации снепшота которую я запускаю на бекап-сервере:

root@backup-server:~# ssh server zfs send zfs-pool/ds.test@01 | zfs recv -F zfs-backup/ds.test
cannot receive: invalid stream (bad magic number)

Погуглил, но ничего особо не нашёл, правда в процессе поиска выяснилось что у меня разные версии zfs на хостах. Я сделал там и там zpool upgrade, однако итог получился неожиданным. zfs status больше не сообщает о возможности обновиться, но обновление прошло до разных версий:
root@server:~# zfs version
zfs-2.0.6-pve1~bpo10+1
zfs-kmod-2.0.6-pve1

root@backup-server:~# zfs version
zfs-2.0.5-pve1
zfs-kmod-2.0.6-pve1

репозитории у хостов одинаковые, стандартные, хосты обновлены. Но наверное дело и не в этом, потому что если отправлять снепшот с сервера на бекап-сервер то работает:

root@server:# zfs send zfs-pool/ds.test@01 | ssh backup-server zfs recv -F zfs-backup/ds.test
но не хочу чтобы у сервера был ssh-доступ к бекап-серверу

РЕШЕНИЕ:

на рабочем сервере в .bashrc была строка приветствия добавлена - echo 'Hello World!' При ssh подключении она попадала в поток и reсeive это поломало.

 zfs ssh

poedyatel
()

А как в Apt-x то в новом блестящем PulseAudio 15?

Форум — Desktop

Привет народ! Подскажите как вообще активируется и где мониторится что Apt-x активен? У меня наушники при подключении к устройствам с Apt-x прям об этом противным голосом сообщают - Apt-X active, но при подключении компа такого не говорят.

У меня kubuntu 21.10 В настройках звуковых устройств есть мои наушники и есть на выбор пара профилей - «воспроизведение высокого качества (приёмник A2DP)» и «Гарнитура (HFP)»

в выводе pactl ничего ни про какое Apt-X нету

Источник №3
        Состояние: IDLE
        Имя: bluez_sink.00_22_BB_71_18_2A.a2dp_sink.monitor
        Описание: Monitor of Amiron wireless
        Драйвер: module-bluez5-device.c
        Спецификация отсчётов: s16le 2-канальный 4410
        Схема каналов: front-left,front-right
        Модуль-владелец: 30
        Звук выключен: нет
        Громкость: front-left: 65536 / 100% / 0,00 dB,   front-right: 65536 / 100% / 0,00 dB
                баланс 0,00
        Базовая громкость: 65536 / 100% / 0,00 dB
        Является монитором аудиоприёмника: bluez_sink.00_22_BB_71_18_2A.a2dp_sink
        Задержка: 0 мкс, настроено на 45317 мкс
        Флаги: DECIBEL_VOLUME LATENCY 
        Свойства:
                device.description = "Monitor of Amiron wireless"
                device.class = "monitor"
                device.string = "00:22:BB:71:18:2A"
                device.api = "bluez"
                device.bus = "bluetooth"
                device.form_factor = "headphone"
                bluez.path = "/org/bluez/hci0/dev_00_22_BB_71_18_2A"
                bluez.class = "0x240418"
                bluez.alias = "Amiron wireless"
                device.icon_name = "audio-headphones-bluetooth"
        Форматы:
                pcm

 

poedyatel
()

Может ли ZFS снепшоты как LVM в Proxmox?

Форум — Admin

Друзья, подскажите можно ли в Proxmox используя zfs как хранилище образов делать снимки с возможностью ветвления и отката машины к любому снимку. С хранилищем на LVM работает именно так - я могу вернуться к любому раннему состоянию и начать от него новую ветку. С ZFS я могу вернуться к s1 только удалив все промежуточные снимки s2, s3 и s4 https://i.postimg.cc/6QXnyCqX/snap.png

 , ,

poedyatel
()

Проблемы с двумя QXL мониторами в госте Win

Форум — General

Друзья, пытаюсь наладить два виртуальных монитора в виндовом госте. На сайте spice-space.org сказано, что для винды нужны несколько QXL-девайсов, это сработало, но мышь после подключения второго QXL-устройства стала вести себя крайне неадекватно. Играл с настройками ускорения, пробовал tablet\просто_мышь, не помогло. Вот тут stackoverflow.com заявлено, что в винде теперь тоже поддерживается несколько выходов для QXL, я подправил xml (heads=«2») и поставил в гостя драйвер QXL и vdagent-win-0.10.0, но это не сработало, в меню remote-viewer’a второй дисплей не появился. Для контроля загрузил линуксового гостя, второй дисплей работает. Гость у меня Win8.1_x64. Какой ещё специи не хватает в блюде?

 , ,

poedyatel
()

Last что-то скрывает...

Форум — Security

Друзья, обнаружил в локалке брутфорсер, начал судорожно проверять серверную инфраструктуру. В первую очередь гипервизор, у команды last странный вывод, у некоторых записей отсутствуют ip, хотя вход вроде как по сети.

( читать дальше... )

Это её нормальный вывод, или однозначно взломан? Команда lastb, говорит всего о 3-х неудачных входах за 3,5 месяца существования сервера, подозреваю, что я ошибался с паролем почаще, но может и кажется.

 

poedyatel
()

Владельцы топовых MINI-ITX плат, отзовитесь!

Форум — Linux-hardware

Всех с наступающим! Здоровья и счастья! =)
Нужно получить некоторую инфу с различных конфигураций, больше всего интересует ASRock Z390 Phantom Gaming-ITX и ASRock X299E-ITX, но и кое-какие другие материнки тоже подходят, критерии в пояснении, а сейчас тест:

на ubuntu можно так:
- в BIOS включить VT-x и VT-d (для ASUS это обычно Advanced -> cpu configuration и systen agent (sa) configuration)
- открыть для правки конфиг grub:

sudo nano /etc/default/grub
добавить intel_iommu=on iommu=pt в строку чтобы вышло как то так
GRUB_CMDLINE_LINUX_DEFAULT="quiet splash intel_iommu=on iommu=pt"
обновить grub и перезагрузиться:
   sudo update-grub
   reboot
Выполнить в консоли однострочник и вывод запостить, прямо с названием метеринки и процессора
echo ;cat /proc/cpuinfo | grep "model name" | uniq ; cat /sys/devices/virtual/dmi/id/board_{vendor,name,version} ; echo ; dmesg | grep ecap ; echo ; for dp in $(find /sys/kernel/iommu_groups/*/devices/*); do ploc=$(basename $dp | sed 's/0000://'); igrp=$(echo $dp | awk -F/ '{print $5}'); dinfo=$(lspci -nn | grep -E "^$ploc"); echo "[IOMMU $igrp] $dinfo" ; done

На этом всё, спасибо!

А теперь необязательная часть, можно не читать. Мне нужно купить материнку, в связи с парой закидонов подходит не любая, фичи десктоп-маркетологами не облизаны и потому на коробках и в обзорах не красуются. Выяснить работает ли оно так как нужно возможно уже только запустив на собранной системе линукс. Как и говорил, больше всего меня интересует получить результаты с ASRock Z390 Phantom Gaming-ITX, но в целом мне подходят другие материнки 2017-2018 годов на топовых чипсетах под LGA1151 v1 (под мой проц). Обязательно наличие хотя бы 1 слота под NVME-накопитель, но лучше 2.
Искомые закидоны таковы:
1) для PCI passtrought необходима работоспособность ремапинга прерываний.
2) так же мне требуется пробрасывать в таком же режиме звуковую USB-карту, обычные способы проброса USB имеющиеся в гипервизорах подходят много для чего, кроме профессиональных звуковух. Для их полноценной работы требуется чтобы в госте работал родной драйвер разработчика карты, обычно писанный только под винду и макггбр. Потому пробрасывать надо весь USB-контроллер, в который и втыкать карту. И не любой контроллер, а тот что на материнской плате физически разработчиком был подключен через собственную PCI линию, изолированно от корневой. Обычно это в лучшем случае 1-2 USB-разъёма на задней панели. Их и ищем.

Вот пример вывода на текущей системе где всё это работает как надо, хоть и на грани =)

ASUS ROG Strix Z270I Gaming
Core i7-7700K

[    0.004000] DMAR: dmar0: reg_base_addr fed90000 ver 1:0 cap 1c0000c40660462 ecap 19e2ff0505e
[    0.004000] DMAR: dmar1: reg_base_addr fed91000 ver 1:0 cap d2008c40660462 ecap f050da

В этих строках шестнадцатеричное значение после «ecap» указывает, поддерживается ли ремапинг прерываний. Это так если последним символом этого значения является 8, 9, a, b, c, d, e или f.

А это вывод lspci -nn c внедрением в строки назначенной устройству группы IOMMU.

[IOMMU 0] 00:00.0 Host bridge [0600]: Intel Corporation Intel Kaby Lake Host Bridge [8086:591f] (rev 05)
[IOMMU 10] 00:1c.4 PCI bridge [0604]: Intel Corporation 200 Series PCH PCI Express Root Port #5 [8086:a294] (rev f0)
[IOMMU 11] 00:1d.0 PCI bridge [0604]: Intel Corporation 200 Series PCH PCI Express Root Port #9 [8086:a298] (rev f0)
[IOMMU 12] 00:1f.0 ISA bridge [0601]: Intel Corporation 200 Series PCH LPC Controller (Z270) [8086:a2c5]
[IOMMU 12] 00:1f.2 Memory controller [0580]: Intel Corporation 200 Series PCH PMC [8086:a2a1]
[IOMMU 12] 00:1f.4 SMBus [0c05]: Intel Corporation 200 Series PCH SMBus Controller [8086:a2a3]
[IOMMU 13] 00:1f.6 Ethernet controller [0200]: Intel Corporation Ethernet Connection (2) I219-V [8086:15b8]
[IOMMU 14] 04:00.0 Non-Volatile memory controller [0108]: OCZ Technology Group, Inc. RD400/400A SSD [1b85:6018] (rev 01)
[IOMMU 15] 06:00.0 USB controller [0c03]: ASMedia Technology Inc. Device [1b21:2142]
[IOMMU 16] 07:00.0 Non-Volatile memory controller [0108]: Samsung Electronics Co Ltd NVMe SSD Controller SM961/PM961 [144d:a804]
[IOMMU 1] 00:01.0 PCI bridge [0604]: Intel Corporation Skylake PCIe Controller (x16) [8086:1901] (rev 05)
[IOMMU 1] 01:00.0 VGA compatible controller [0300]: NVIDIA Corporation GF119 [GeForce GT 610] [10de:104a] (rev a1)
[IOMMU 1] 01:00.1 Audio device [0403]: NVIDIA Corporation GF119 HDMI Audio Controller [10de:0e08] (rev a1)
[IOMMU 2] 00:02.0 VGA compatible controller [0300]: Intel Corporation HD Graphics 630 [8086:5912] (rev 04)
[IOMMU 3] 00:14.0 USB controller [0c03]: Intel Corporation 200 Series PCH USB 3.0 xHCI Controller [8086:a2af]
[IOMMU 4] 00:16.0 Communication controller [0780]: Intel Corporation 200 Series PCH CSME HECI #1 [8086:a2ba]
[IOMMU 5] 00:17.0 SATA controller [0106]: Intel Corporation 200 Series PCH SATA controller [AHCI mode] [8086:a282]
[IOMMU 6] 00:1b.0 PCI bridge [0604]: Intel Corporation 200 Series PCH PCI Express Root Port #17 [8086:a2e7] (rev f0)
[IOMMU 7] 00:1b.3 PCI bridge [0604]: Intel Corporation 200 Series PCH PCI Express Root Port #20 [8086:a2ea] (rev f0)
[IOMMU 8] 00:1b.4 PCI bridge [0604]: Intel Corporation 200 Series PCH PCI Express Root Port #21 [8086:a2eb] (rev f0)
[IOMMU 9] 00:1c.0 PCI bridge [0604]: Intel Corporation 200 Series PCH PCI Express Root Port #1 [8086:a290] (rev f0)

Здесь видно, что практически все устройства пересекаются на корневой шине с номером 00, а так же многие собраны в общие IOMMU группы. Это значит что их нельзя будет передать в гостя так чтобы управлять родным драйвером гостя. Но GeForce GT 610 находится на персональной шине 01:00.0, а так же в собственной группе IOMMU 1, которую делит лишь с встроенной в неё же звуковой картой. Это значит что видеокарты на этой материнке будут пробрасываться на ура. Так же видно что USB controller ASMedia Technology Inc. Device тоже висит на персональной PCI линии и IOMMU группе. К несчастью этот контроллер не был выведен на заднюю панель и даже привычный штырьковый разъём на материнке оказался не им. Им оказался инопланетный USB3.1 Gen2, визуально похожий больше на sata, проводок для него только на али есть по 1500 руб. Но с ним таки звуковую карту в гостя я наконец пробросил.

 , , ,

poedyatel
()

Загрузка GRUB'ом из матрёшки блочных устройств

Форум — Admin

Господа, подскажите можно ли реализовать то что я хочу и как именно это сделать. Дабы избежать ошибки XY точно сформулирую конечную цель: Я хочу на одном диске иметь и линукс и винду, причём вторую с возможностью загрузки или в гипервизоре или напрямую на железе.
Решаю так:
Имею диск /dev/sda разбитый на 4 раздела

# lsblk
sda      8:0    0 119,2G  0 disk 
├─sda1   8:1    0   190M  0 part /boot/efi
├─sda2   8:2    0  19,1G  0 part /
├─sda3   8:3    0  47,7G  0 part /home
└─sda4   8:4    0  52,3G  0 part 
В первые три установлен Linux, четвёртый отдан в kvm, и там на нём поставлен Windas, который соответственно при установке видит отданный ему /dev/sda4 как неразмеченный жёсткий диск и разбивает его ещё на несколько блочных устройств. Если теперь подключить /dev/sda4 как петлевое устройство:
# losetup -fv /dev/sda4
то gdisk покажет такую картину:
# gdisk /dev/loop7
Number  Start (sector)    End (sector)  Size       Code  Name
   1            2048         1023999   499.0 MiB   2700  Basic data partition
   2         1024000         1226751   99.0 MiB    EF00  EFI system partition
   3         1226752         1259519   16.0 MiB    0C01  Microsoft reserved ...
   4         1259520       109676543   51.7 GiB    0700  Basic data partition
Можно ли теперь как то обучить GRUB моей основной системы загружать этот винвдувс напрямую на железе, без запуска Linux? Если использовать для винды вместо /dev/sda4 корневое блочное устройство, например /dev/sdb, то проблем с этой задачей не возникает вовсе - матрёшка не образуется, а GRUB сам находит загрузку через os_prober и даже комп без GRUB может самостоятельно загрузиться с этого диска. Но нужно свестись к одному диску. Пытаюсь гуглить загрузку из loop-девайсов, но натыкаюсь только на загрузку из ISO-образов, сопоставить полученную инфу с моей ситуацией не могу.

 , ,

poedyatel
()

zfs, raid, 4 диска, бекап и дилемма

Форум — Admin

Господа, так как в недавней теме про proxmox freenas и zfs меня отпинали за любовь к raid0, я всё же пересмотрел свою политику и таки создал аж raidz2 на 4-х дисках по 3Тб. Попутно, разбираясь с багами из прошлой темы я наткнулся на прелюбопытнейшую статью https://calomel.org/zfs_raid_speed_capacity.html, там парни достали откуда-то очень много дисков и всячески их соединяли и тестировали. Вот небольшая выдержка вокруг которой будут вращаться дальнейшие умозаключения:

 
lz4=off
2x 4TB, mirror (raid1),        3.7 TB,  w=106MB/s , rw=50MB/s  , r=488MB/s
4x 4TB, raidz2 (raid6),        7.5 TB,  w=204MB/s , rw=54MB/s  , r=183MB/s
lz4=on
lz4   2x 2TB    raid1  mirror   1.8 terabytes ( w=398MB/s , rw=354MB/s , r=1537MB/s
lz4   7x 2TB    raid7, raidz3   7.1 terabytes ( w=507MB/s , rw=436MB/s , r=1532MB/s )
там почему то забыли затестить raidz2 из 4=х дисков с lz4 так что я просто взял raidz3 из 7-ми
Итак, я имею всего 4 диска и вижу 2 основных пути:
Первый. Сейчас я собрал raidz2, получил отказоустойчивость сервиса с возможностью потерять любые 2 диска и имею 6ТБ рабочего пространства (ну 5.1 на самом деле, но упростим расчёт). Однако у меня не осталось дисков для внешнего бекапирования, всё таки держать всё в одной корзине опасно: пожар там, наводнение, кулхацкер.
Как видно из приведённых измерений с lz4 скорости записи и чтения довольно неплохо выравниваются между разными рейдами, плюс я планирую использовать для кэша NVME-ssd, что в теории позволит добиться от шпендельных дисков более линейных режимов работы. Таким образом немногим хуже видится второй путь - собрать miror из двух дисков на рабочей машине, и ещё один mirror из двух на другой машине для бекапирования. Ухудшается отказоустойчивость основного сервиса, теперь можно потерять только 1 диск, однако общая надёжность возрастает - при потере любых трёх дисков информация остаётся в сохранности, ещё из минусов можно отметить уменьшение рабочего объёма с 6Тб до 3Тб, но это не очень критично, рабочей информации у меня ~1Тб
Что думаете по этим двум схемам и приведённому тестированию?

 , ,

poedyatel
()

Глючит 1С на FreeNAS в Proxmox

Форум — Admin

Товарищи, поднял хоронилище данных на FreeNAS внутри Proxmox, ввёл в домен, разобрался с правами и наследованием и уже думал что вот-вот наступят обещанные 10 лет счастья, но облом. Разместил там базу 1Сv7 в файловом режиме, с одним пользователем работает вроде без сбоев, как только набирается 4-5, база падает, 1с-ка вываливает окно с абракадаброй вместо кириллицы в пути к базе (https://yadi.sk/i/PuzziCMH3ZEzZ6). Само хоронилище становится недоступно по SMB до перезагрузки, проц загружается на 100 процентов процессами smbd и syslog-ng, в консоли появляется сообщение

"I/O error occured while writing; fd='21', error='No space left on device (28)'
Сначала подозревал проблему с проброшенными из гипервизора дисками, попробовал дать FreeNAS'у диск-образ, с разными режимами подключения (ide,sata,virtio) проблема сохраняется. Попробовал на хоронилище создать iscsi-таргет и отдать его виртуалке на которой выполняется 1С, разместил базы на нём, всё заработало стабильно, видимо проблема в самбе, что она хочет ума не приложу...

 ,

poedyatel
()

Подкиньте умных мыслей по пробросу USB в виртуалку

Форум — Desktop

Доброго здравия, народ!
Никак не выходит добротно пробросить в виртуальную винду USB-аудиокарту. Требуется на одном компе иметь линукс в качестве основной системы и время от времени запускать винду дабы поиграть на гитарке, все дела.
Как эталон идеального гипервизора сначала был проверен xenserver, он подтвердил своё звание - звуковая карта на нём работает почти превосходно, лишь совсем немного уступает работе в реальной среде. Однако, задача решается на плате mini-ITX и все USB порты в ней находятся на одной шине, которая и отдаётся винде, даже несмотря на то что интегрированную видеокарту всё ещё можно отдать линуксу, он остаётся без клавиатуры и мыши.
Вторым в тесте стал virtualBox запущеный в ubuntu - плачевный результат. В принципе звуковая карта пробрасывается и даже конфигурируется родной утилитой, но звук даже проиграть не может, не то что обработать в реалтайме.
Следом были опробованы xen и kvm из репозиториев ubuntu 17.10 и Fedora 26. В диспетчере устройств карта висит с жёлтым знаком и кодом ошибки 10.
Почти без надежды попробовал Proxmox и таки ситуация немного улучшилась, звуковая карта позволяет использовать ASIO, хотя работает не очень стабильно, но терпимо. Однако не нашёл как пробросить встроенную видеокарту в гостевой линукс. Да и вообще одна из ключевых хотелок чтобы основной рабочей средой был именно Dom0 с графическим интерфейсом, всё таки работать в гостевом линуксе не очень удобно, банально флешку не воткнуть - нужно морочиться с пробросом.
Вот собственно дальше тупик, в proxmox используется kvm и значит в принципе kvm мне подходит, но как узнать что за магию используют разрабы proxmox, чтобы повторить её на убунте или хотя бы федоре? Или может какие другие идеи имеются?

железо:
Мать ASUS ROG Strix Z270I Gaming
проц i7-7700K
P.S. Вообще на другой материнке, где USB разнесены по нескольким шинам, kvm на убунте работал довольно сносно, но на этой вообще никак.

 , , , ,

poedyatel
()

Фаервол, нипанятна

Форум — Admin

Доброго времени суток! Товарищи, у меня непонятная проблема. Две локальных сети: основная с клиентами и серверами, и удалённый филиал в котором только клиенты. Сети связанны между собой VPN-туннелем. Клиенты сети друг друга пингуют. Так же клиенты пингуют все сервера и физические и те что я создал в Proxmox. Теперь я ввожу в Proxmox один из физических серверов, и для клиентов удалённой сети он перестаёт быть доступен, хотя клиенты первой сети продолжают его видеть. Что за фигня?

http://ipic.su/img/img7/fs/Pereezdservisa.1506956189.png

На рисунке Петя может пинговать и сервис 1 и сервис 2. Если я заведу сервис 2 в Proxmox то он станет Пете недоступен, при том что сервис 1 прекрасно им видится и с точки зрения настроек является идентичным. Все фаерволы выключены.

UPD: Похоже проблема где то в недрах ОС сервиса 2. Воткнул ему liveCD ubuntu, загрузился, назначил тот же IP - всё в порядке, пинги ходят. Надо ли говорить что сервис 2 на базе плохой_ОС =)

 , ,

poedyatel
()

Zimbra + Zentyal AD, авторизация только пользователей из группы

Форум — Admin

Товарищи, уже неделю сражаюсь с монстрами Zentyal и Zimbra, начинаю седеть. Сейчас пытаюсь сделать так чтобы zimbra авторизировала только пользователей из группы mail. Но на любые фильтры ей пофиг. Что я делаю:
-Ставлю чистый zentyal 5
-Создаю в нём домен mydomen.ru
-Ставлю Zimbra-8.8.3_GA делаю в ней такой же домен
В принципе всё начинает работать, почта ходит.
Zimbra переключаю тип авторизации домена на внешний AD
-Указываю IP, логины-пароли, жму «тест», всё ОК
Далее нужно правильно настроить LDAP search base и LDAP filter и вот тут загвоздка - чтобы я туда не вписал, хоть полную ерунду кириллицей, пользователь созданный в AD спокойно авторизируется (при условии что создан в зимбре) независимо от группы. в нете я находил разные конструкции вроде (&(|(objectclass=inetOrgPerson))(|(memberof=cn=mail,{Default Groups DN in Zentyal}))(uid=%u)), но вписывать их туда бесполезно, притом авторизация точно идёт через AD так как при создании пользователя в zimbra, пароля я не указываю, и могу его менять, да и вовсе отключать пользователя через zentyal. В общем чё делать то, где я косячу?

 , ,

poedyatel
()

Proxmox, толи лыжи не едут...

Форум — Linux-install

Народ, уже два дня бьюсь о стену! Решил поставить Poxmox 5.0 и в нём крутить zentyal 5.0 + win + pfsense. В первые дни я занимался экспериментами с переносом работающих сервисов в виртуальную среду, многократно ставил/ломал/удалял, всё работало. Чтото приходилось подпинывать, но всё заводилось и ехало. И вот сложив в голове конечную инфраструктуру я в 10 раз приступил к созданию этого голема.
И фиг! Никак не удаётся получить работоспособную ВМ zentyal. После успешного завершения установки zentyal начинает грузиться и виснет незадолго до запуска GUI, с выводом:

lvmetad is not active yet, using direct activation during sysinit  
/dev/mapper/zentyal--vg-root: clean, xxxxx/xxxxxx files, xxxxxx/xxxxxxx blocks

Устанавливаю proxmox на другой машине: ставлю zentyal - не работает. Ставлю win и ubuntu (ну чисто для проверки гипервизора) - работают.
Гугление рекомендует use_lvmetad=0 - не помогло.
В общем интересует даже не способ исправления данной ошибки, а то почему и самое главное как у меня до этого получалось всё установить. Практически везде я оставлял настройки по умолчанию.
Ещё для эксперимента попробовал поставить ВМ zentyal в гипервизоре на основе fedora 25 + kvm. Успешно. Что характерно, указанная выше надпись присутствует и здесь, появляется за мгновение до запуска рабочего стола zentyal, и работе никак не мешает.

 , , ,

poedyatel
()

Помогите нарулить VGA passthrough

Форум — Desktop

Привет, гуру! Нужна помощ ибо встрял. Надоели всякие wine, дуалбут и дуалПС - пора по взрослому юзать две ОС на одном ПК разом =)
Моя конфигурация:
Core i5-6600k
Radeon RX480 для гостя
IGD или gt610 для хоста
MSI Z170A SLI PLUS
xubuntu* 17.04 x64 в режиме UEFI

Для начала я попробовал XENServer 7, так как passthrough там обещают из коробки. Так и оказалось, у меня всё завелось. Однако в самом гипервизоре нет графической среды, нужно ставить ещё и linux-гостя, но я бы хотел что бы основной моей рабочей средой был именно гипервизор с графическим окружением**. К тому же XENServer не очень удобен в управлении***
Потом я попробовал XEN из репозиториев своего дистрибутива, при таком подходе ставится модифицированное ядро. Однако на нём, у меня плохо работает хостовая видеокарта (IGD), особенно сильно тупит chrom при прокрутке, а если запустить виртуальную машину, то хост вообще лучше не трогать, часто виснет. К тому же видео в гостя пробросить мне не удалось. Симптомов уже не помню, так как забил на этот способ и обратился к следующему гипервизору.
Им стал KVM, он работает на дефолтном ядре, это плюс, всё оборудование гипервизора работает корректно, даже после запуска ВМ нет никаких проблем, однако не могу успешно пробросить в ВМ видяху. Я нашёл следующую инструкцию, повторил её (на xubuntu 17.04), но не завелось. Как я предполагаю, у меня проблема и использованием pci-stub

$ dmesg | grep pci-stub
[    2.538178] pci-stub: add 1002:6938 sub=FFFFFFFF:FFFFFFFF cls=00000000/00000000
[    2.538181] pci-stub: add 1002:AAD8 sub=FFFFFFFF:FFFFFFFF cls=00000000/00000000
[    2.538188] pci-stub 0000:01:00.1: claimed by stub
Вроде как не ставиться заглушка на видяху (или вместо, я тонкости технологии не понимаю ещё). Я пробовал через файл /etc/initramfs-tools/modules и через параметры ядра передаваемые grub'ом. В общем тупик не понимаю что дальше сделать.

- - - - - - - - - - - - - - - - - - - -
*люблю начинать строить с него, хардкор вроде генты ненужно:)
**Основная причина в том чтобы иметь возможность работать с переферией без плясок: тоесть сижу вот я в инторнете, и тут у меня на столе появляется HDD с которым надо поработать (бекап, восстановление, просто узнать что там), Сейчас я просто втыкаю его спереди в мобилрек и бац, он у меня в моей среде. Хочу чтобы осталось так же.

***
-При установке не даёт разметить диск по своему
-Я конечно консоль уважаю и люблю, но рулить из консоли тем к чему обращаешься раз в 10 лет... подходишь ты так к своему упавшему шлюзу на любимой FreeBSD и половину команд вспомнить не можешь.
-Нельзя вот в xencenter просто так взять и указать iso из файловой системы гипервизора, или выбрать SSD на который ставим нужную нам ось... нужны пляски с хранилищами, сетевыми притом. В общем он ниразу не интуитивный.

 

poedyatel
()

RSS подписка на новые темы