LINUX.ORG.RU

Сообщения whoim

 

sox -M не работает, sox -m в порядке

Нужно в телефонии разложить вход/выход по каналам стерео. sox -M file-in.wav file-out.wav file.wav, всегда работало. Проверил in/out файлы - разные, как и должны быть, в порядке. Однако в file.wav только один канал, in. И он в обоих динамиках. Второй отсутствует вообще. Меняю -M на -m - он сливает в оба канала оба файла нормально. Центось 6. Пробовал установить скомпилить последний sox, ничего не изменилось. Что за фигня?

 ,

whoim
()

sparky/xfce - при добавлении индикатора раскладки 100% cpu

Жрет xorg. То же касается pulseaudio. Отчего так? Индикатор нужен, ползунок громкости тоже..

 , , ,

whoim
()

SoftEtherVPN - дисконнектит клиента

Поднял серверную часть на centos 6.9, без SecureVPN, на такой же операционке поднял клиентскую («родной» клиент).

Есть попытка подключения, присваивается идентификатор подключения, в логах - успешный коннект, даже мелькает в списке соединений в виндовом менеджере. Однако, сразу после этого - отключение.

2017-08-15 15:36:11.859 SSL communication for connection "CID-56" has been started. The encryption algorithm name is "AES256-SHA".
2017-08-15 15:36:12.204 Connection "CID-56" has been terminated.

или

Connection "CID-53" terminated by the cause "The VPN session has been deleted. It is possible that either the administrator disconnected the session or the connection from the client to the VPN Server has been disconnected." (code 11).

 ,

whoim
()

proxmox 4.4: cpu 100% после suspend бекапа у гостей

В общем, перенес через бекап виртуалки с центосью 6.5/6.7/6.8 (около десятка) с proxmox 3.4 на такое же железо с proxmox4.4. Бекап: suspend, gzip(good), по расписанию. После окончания бекапа машины resumятся, но загрузка cpu100% и в консоль не попасть - просто черный экран. Сеть гостей тоже не отзывается. Куда копать?)

 , , ,

whoim
()

iptables на proxmox: не удается заблокировать транзитный трафик

Добрый день! Сервер в ДЦ, установлен proxmox 3.4 и имеется несколько виртуалок (преимущественно centos). Сетевые (физическая и виртуальные) объединены в мост vmbr0. У каждой виртуалки отдельный белый адрес.

Периодически начинает валить паразитный трафик, где ни источник, ни назначение не соответствуют моим адресам:

15:52:09.629073 IP 79.137.180.117.40184 > 181.94.254.233.sns-channels: Flags [S], seq 2409631935, win 1024, length 0
15:52:09.629074 IP 79.137.180.117.40184 > 181.97.194.241.sns-channels: Flags [S], seq 2555911629, win 1024, length 0
15:52:09.629075 IP 79.137.180.117.40184 > 181.118.232.153.csms2: Flags [S], seq 2528343571, win 1024, length 0

Насколько я понимаю, первым делом трафик попадает в -t raw PREROUTING Пробую дропать: iptables -t raw -A PREROUTING -s 79.137.180.117 -d 0.0.0.0/0 -j DROP

но трафик по прежнему видно в tcpdump -n и на гипервизоре, и на виртуалках.

Видимо, он «зеркалируется» на виртуалки ДО того, как поступает в iptables?

Как правильно избавится от паразитного трафика?

 ,

whoim
()

помогите определить причину kernel panic..

Машина - hp blade, двухпроцессорная. Если важно, выложу полный конфиг. Скрин kp: http://image.prntscr.com/image/072f1e16b52e4e4889356fd31c7369c7.jpeg proxmox 3.4-14

 , ,

whoim
()

bind dlz - не резолвится из некоторых зон

Приветствую! К сожалению, в самой теории dns досконально не смог разобраться, хотя и нужно. Прошу помощи с конкретной проблемой.

Если centos 6.6, есть named скомпиленный с dlz, есть mysql-табличка: http://joxi.ru/gV2VK1atqx7vAv.jpg

Есть конкретный сайт. И этот сайт регулярно с некоторых зон недоступен, причем реально не резолвится имя. Но с моего «домашнего» интернета он доступен всегда.

С чего начать поиски проблемы? Вот пример мониторинга: http://joxi.ru/YxAe0dJC5pdx2y.jpg

при этом ip с этих зон - доступен

 , ,

whoim
()

bash скрипт - специфичное удаление файлов

Помогите разработать алгоритм для следующей задачи. Есть ряд бекапов - файлы с именем vzdump-qemu-100-2016_02_10-00_15_01.vma.gz В этом шаблоне изменяется цифра 100 (имя машины) и дата/время. Цифр этих много. Нужно: оставить только 2 файла на каждую машину. То есть надо 1) проход и выяснение имеющихся файлов машин, на выходе - массив машин (100,101,1001) 2) проход и удаление кроме последних X файлов по шаблону.

То есть оставить по паре файлов каждого бекапа. Как правильнее и проще?

 , ,

whoim
()

asterisk, freepbx - предлагаю услуги, хостинг

Установка, настройка, сопровождение, специализированный надежный хостинг, доработки, разработки, интерфейсы, интеграции с crm и не только. Большой опыт. Цены после тз. Чем точнее тз - тем уже вилка :) info@vmclouds.ru 79002953844 г. Краснодар Александр.

 , ,

whoim
()

proxmox 3.4 two-node cluster with ethernet

Здравствуйте! Прошу помощи. Проблема: http://joxi.ru/vDr8E8vCP8zym6.jpg (в гуи вторая нода connection timeout(596), при этом графики отображаются)

Главная нода: cat cluster.conf <?xml version=«1.0»?> <cluster name=«cluster» config_version=«9»>

<cman keyfile=«/var/lib/pve-cluster/corosync.authkey» transport=«udpu»> </cman>

<clusternodes> <clusternode name=«z4907» votes=«1» nodeid=«1»/> <clusternode name=«z5871» votes=«1» nodeid=«2»/></clusternodes>

</cluster> pveversion -v proxmox-ve-2.6.32: not correctly installed (running kernel: 2.6.32-39-pve) pve-manager: 3.4-11 (running version: 3.4-11/6502936f) pve-kernel-2.6.32-39-pve: 2.6.32-157 lvm2: 2.02.98-pve4 clvm: 2.02.98-pve4 corosync-pve: 1.4.7-1 openais-pve: 1.1.4-3 libqb0: 0.11.1-2 redhat-cluster-pve: 3.2.0-2 resource-agents-pve: 3.9.2-4 fence-agents-pve: 4.0.10-3 pve-cluster: 3.0-19 qemu-server: 3.4-6 pve-firmware: 1.1-5 libpve-common-perl: 3.0-24 libpve-access-control: 3.0-16 libpve-storage-perl: 3.0-34 pve-libspice-server1: 0.12.4-3 vncterm: 1.1-8 vzctl: 4.0-1pve6 vzprocps: 2.0.11-2 vzquota: 3.1-2 pve-qemu-kvm: 2.2-20 ksm-control-daemon: 1.1-1 glusterfs-client: 3.5.2-1 pvecm status Version: 6.2.0 Config Version: 9 Cluster Name: cluster Cluster Id: 13364 Cluster Member: Yes Cluster Generation: 48 Membership state: Cluster-Member Nodes: 2 Expected votes: 2 Total votes: 2 Node votes: 1 Quorum: 2 Active subsystems: 5 Flags: Ports Bound: 0 Node name: z4907 Node ID: 1 Multicast addresses: 255.255.255.255 Node addresses: 10.9.8.1

Вторая нода: pveversion -v proxmox-ve-2.6.32: 3.4-171 (running kernel: 2.6.32-44-pve) pve-manager: 3.4-11 (running version: 3.4-11/6502936f) pve-kernel-2.6.32-32-pve: 2.6.32-136 pve-kernel-2.6.32-44-pve: 2.6.32-171 lvm2: 2.02.98-pve4 clvm: 2.02.98-pve4 corosync-pve: 1.4.7-1 openais-pve: 1.1.4-3 libqb0: 0.11.1-2 redhat-cluster-pve: 3.2.0-2 resource-agents-pve: 3.9.2-4 fence-agents-pve: 4.0.10-3 pve-cluster: 3.0-19 qemu-server: 3.4-6 pve-firmware: 1.1-5 libpve-common-perl: 3.0-24 libpve-access-control: 3.0-16 libpve-storage-perl: 3.0-34 pve-libspice-server1: 0.12.4-3 vncterm: 1.1-8 vzctl: 4.0-1pve6 vzprocps: 2.0.11-2 vzquota: 3.1-2 pve-qemu-kvm: 2.2-20 ksm-control-daemon: 1.1-1 glusterfs-client: 3.5.2-1 pvecm status Version: 6.2.0 Config Version: 9 Cluster Name: cluster Cluster Id: 13364 Cluster Member: Yes Cluster Generation: 48 Membership state: Cluster-Member Nodes: 2 Expected votes: 2 Total votes: 2 Node votes: 1 Quorum: 2 Active subsystems: 5 Flags: Ports Bound: 0 Node name: z5871 Node ID: 2 Multicast addresses: 255.255.255.255 Node addresses: 10.9.8.2

В hosts везде добавлены локальные адреса нод по имени (zXXXX) и pvelocalhost на локальном адресе

Миграция не проходит - пишет что юзается локальный диск (а как иначе?)

 

whoim
()

proxmox cluster, две ноды в дц: помогите с мультикастом

Приветствую! Задача - объединить две ноды, физики в одном дц, в одной подсети (белые соседние адреса, шлюз один) в кластер.

Проблема - нет кворума. Подозреваю - непроходит мультикаст. Расскажите пожалуйста, что это такое, как его проверить перед попытками создать кластер. Чтение мало проясняет пока.

Альтернативный вариант - openvpn, и внутренняя сеть. Но очень бы не хотелось в силу многих причин..

Проксмокс 3.4, pveupgrade сделан с репо no-subscribtions

 , ,

whoim
()

proxmox: хочу кластер

Много мануалов, в принципе, разберусь. Но надо подтянуть теорию.

Есть: два сервера на внешних адреса, в одной подсети (шлюз один). Адреса белые, ессно. Вроде мультикаст ходит, судя по мусору на сетевках.

У каждого свое хранилище. HA не надо, да и не получится. Если получится миграция - будет супер.

Хочу вручную раскидать машины, и иметь возможность в будущем их перемещать.

Аварийный отказ - будет восстанавливаться машина из бекапа, оба сервера сбрасывают бекапы по ftp на один ресурс.

Получится просто создать кластер на одной машине, и подцепить к нему другую? Будет ли работать «долгая» миграция (с переносом диска) или обязательно нужно общее или распределенное хранилище?

 

whoim
()

iptables - проверьте для задачи

Добрый! Имеем: машину с proxmox в ДЦ, кучку виртуалок на ней. Проблема - особенность ДЦ такова, что на интерфейс ноды падает очень много левого траффика, паразитного.

Все это дело дублируется на софтовых сетевках виртуалок и напрягает.

Вывод: через iptables запретить все INPUT кроме как те, где dst - мои ip-адреса (ноды и виртуалок)

Накидал: iptables -F

iptables -X

iptables -t nat -F

iptables -t nat -X

iptables -t mangle -F

iptables -t mangle -X

iptables -A INPUT -i lo -j ACCEPT

iptables -A INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT

iptables -A INPUT -p tcp --dport 22 -j ACCEPT

iptables -I INPUT -d myip1 -j ACCEPT

iptables -I INPUT -d myip2 -j ACCEPT

...

iptables -I INPUT -d myipN -j ACCEPT

iptables -P INPUT DROP

iptables -P FORWARD ACCEPT

iptables -P OUTPUT ACCEPT

Скажите - я прав? Неохота перед выхами потерять ноду :)

 

whoim
()

как правильно организовать доступ через sftp chroot к общей папке?

Сейчас создаются пользователи sftp (ssh), chrootятся в домашний каталог /home/user1, /home/user2

Есть каталог /data, овнер root группа sftpusers, и /data/users12 овнер root, группа users12 Юзеры user1 и user2 состоят в группах sftpusers и users12

Цель - доступ окромя домашнего каталога к /data/users12 и возможно (по тому же принципу) к другим каталогам в /data/

Создать группу users135, одноименную папку, дать группу папке и загнать нужных пользователей в эту группу - было бы хорошо.

Надо примонтировать каталог /data каждому пользователю в домашнюю директорию. Но при монтировании в /home/user2/data пропадает связь в /home/user1/data с каталогом /data, то есть мультимонтирование одного каталога не получается.

mkdir /home/userX/data chown root:sftpusers /home/userX/data mount --bind /home/userX/data /data

Как правильно решить такую задачу?

whoim
()

Vps, xl2tpd(l2tp) - выдать белый адрес клиенту / RedHat, Fedora, CentOS, ASP Linux

Приветствую! Задача по работе - выдать нескольким партнерам постоянную статику (провайдер не умеет). Вижу решение: купить vds (kvm, на openvz плавает нода при миграции, теряется). Заказать несколько адресов (будут вида eth0:1, eth0:2 видимо) и выдавать впн-сервером xl2tpd эти адреса клиентам, являясь основным шлюзом для них. Вопрос: как это сделать?) xl2tpd ставил, по мануалам, раздавал внутренние адреса. операционка centos 6.5.

whoim
()

RSS подписка на новые темы