LINUX.ORG.RU

Сообщения Sherman

 

HP 3par 8200 direct connect over FC

Форум — Admin

Всем привет. Кто то в курсе можно ли подключить два сервера напрямую к двухнодовому 3par 8200 по FC 16Gb? Возможно есть какие то определенные HBA которые это умеют? Ни разу не работал с СХД и вот скоро придется, а денег на свитч нету. В общем, как обычно, нужно колхозить, только непонятно как.

Схема подключения https://cdn1.savepice.ru/uploads/2020/2/12/90ba7845bec6488c9543c5778ace8429-full.jpg

 , ,

Sherman ()

Route-based Ikev2/IPsec between strongswan and cisco 3945e

Форум — Admin

Всем привет. Второй день не могу поднять ipsec между циской и сваном.

конфиг strongswan

( читать дальше... )

Логи strongswan

( читать дальше... )

Конфиг циски

( читать дальше... )

в логах циски такое:

( читать дальше... )

Визуальная схема https://i.ibb.co/VCB0TZW/Screenshot-20191205-104057.png

что я делаю не так?

 , , ,

Sherman ()

Juniper SRX падает от icmp-флуда

Форум — Admin

Сегодня обнаружил веселый баг железок juniper srx240h- они падают от icmp-флуда. Причем падают от предельно простого однострочника:

for i in {1..200}; do ping -c 30000 -i 0 -s 32 -q $IP & done
Причем даже блокировка ICMP не помогает. Прочитал статейку https://www.juniper.net/documentation/en_US/junos/topics/topic-map/security-n..., сделал как написано и ничего. Канал у джуна широкий, около 600 мбит между ДЦ, но падает он при нагрузке в ~120 мбит от флуда. Рядом стоит шлюз на лине и ему вообще пофик, пытался завалить его с двух ДЦ - тщетно, а джун ложится от одной виртуалки. Кто сталкивался с таким? Как можно пофиксить?

 , ,

Sherman ()

Правильная работа с файлами контейнера в Docker

Форум — Admin

Всем привет. Сравнительно недавно работаю с докером и сейчас собираю проект мониторинга (prometheus+prometheus_bot+grafana+alertmanager+snmp_exporter+nginx) и не могу понять как правильно поступить. Мне необходимо, что бы все изменяемые файлы хранились в папке проекта, что бы в любой момент я мог забрать папку с проектом и развернуть ее на другом сервере с того места, с которого я выдернул проект со старого сервера, т.е. нужно что бы все изменяемые файлы приложений были по умолчанию в папке проекта. Обычно, когда эти файлы уже есть, я просто прописываю volume в docker-compose и они накладываются поверх созданных в контейнере, но как это сделать правильно, когда нужные файлы появляются во время билда контейнера из Dockerfile? Есть ли какая то возможность примонтировать папку из папки проекта в докер, что бы созданные им файлы сразу были там не используя /var/lib/docker/volumes/?

 

Sherman ()

Nginx и произвольное количество back-end'ов в докере

Форум — Admin

Привет, ЛОРчане. Собсно вопрос состоит в том, как это реализовать? Нашел вот это https://github.com/jwilder/nginx-proxy, но как то странно это все выглядит. Возможно такой функционал есть непосредственно в nginx? Подскажите плиз куда копнуть.

 , ,

Sherman ()

JS setInterval, зависает страница

Форум — Web-development

Всем привет. Требуется сделать обновляемый, каждую секунду, блок на странице, блок заполняется php-скриптом, нашел варик с JS

	$(document).ready(function(){
		setInterval(function(){
		$("#div_class").load('script.php')
		}, 1000);
	});
и все как бэ гуд, но со временем страница зависает, потому как стакаются запросы xhr, когда их становится более 1000 страница перестает отвечать. Как можно пофиксить такое поведение?

 ,

Sherman ()

LVM - использование на двух разных серверах.

Форум — Admin

Добрый день. Есть один диск на 10ТБ, очень хочется использовать его на двух разных серверах, для каждого сервера будут разные LV в одной VG(а может лучше в двух?) Вот пытался проверить, возможно ли работать одновременно с одной VG из двух серверов. К обеим серверам диск приходит по iscsi. Пробовал одновременно писать в разные LV, создавать новые, менять атрибуты, вроде все ок. Но найти какую то инфу по этому кейсу так и не смог, было лишь упоминание о блокировках метаданных, но не до конца понял, как это работает. Собственно вопрос в том, насколько безопасно использовать один диск LVM на двух системах?

 

Sherman ()

GPU passthrough proxmox

Форум — Admin

Всем привет. Пытаюсь пробросить GPU в виртуалку, что бы запускать софт, который требует наличие совместимой видеокарты, но что то не плучается, при попытке запустить VM с pci-портом GPU отваливаются диски на хосте, перечитал много форумов, такой проблемы нигде не встретил, другие устройства, например, сетевая карта, пробрасываются на ура. Что можно сделать в таком случае? Очень нужно пробросить GPU.

при запуске VM на хосте:

[Птн Авг 17 12:37:22 2018] sd 0:1:0:0: [sda] tag#0 FAILED Result: hostbyte=DID_NO_CONNECT driverbyte=DRIVER_OK
[Птн Авг 17 12:37:22 2018] sd 0:1:0:0: [sda] tag#0 CDB: Write(10) 2a 00 00 d9 ce 68 00 00 10 00
[Птн Авг 17 12:37:22 2018] print_req_error: I/O error, dev sda, sector 14274152
[Птн Авг 17 12:37:22 2018] EXT4-fs warning (device sda1): ext4_end_bio:323: I/O error 10 writing to inode 5115878 (offset 0 size 0 starting block 1784270)
[Птн Авг 17 12:37:22 2018] Buffer I/O error on device sda1, logical block 1784013
[Птн Авг 17 12:37:22 2018] EXT4-fs warning (device sda1): ext4_end_bio:323: I/O error 10 writing to inode 5115878 (offset 712704 size 4096 starting block 1784271)
[Птн Авг 17 12:37:22 2018] Buffer I/O error on device sda1, logical block 1784014
[Птн Авг 17 12:37:22 2018] JBD2: Detected IO errors while flushing file data on sda1-8
[Птн Авг 17 12:37:22 2018] sd 0:1:0:0: [sda] tag#0 FAILED Result: hostbyte=DID_NO_CONNECT driverbyte=DRIVER_OK
[Птн Авг 17 12:37:22 2018] sd 0:1:0:0: [sda] tag#0 CDB: Write(10) 2a 00 05 45 7c 60 00 00 b0 00
[Птн Авг 17 12:37:22 2018] print_req_error: I/O error, dev sda, sector 88439904
[Птн Авг 17 12:37:22 2018] Aborting journal on device sda1-8.

lspci -nnk

00:00.0 Host bridge [0600]: Intel Corporation Skylake Host Bridge/DRAM Registers [8086:1918] (rev 07)
	Subsystem: Super Micro Computer Inc Skylake Host Bridge/DRAM Registers [15d9:0885]
	Kernel driver in use: ie31200_edac
	Kernel modules: ie31200_edac
00:01.0 PCI bridge [0604]: Intel Corporation Skylake PCIe Controller (x16) [8086:1901] (rev 07)
	Kernel driver in use: pcieport
	Kernel modules: shpchp
00:01.1 PCI bridge [0604]: Intel Corporation Skylake PCIe Controller (x8) [8086:1905] (rev 07)
	Kernel driver in use: pcieport
	Kernel modules: shpchp
00:13.0 Non-VGA unclassified device [0000]: Intel Corporation Sunrise Point-H Integrated Sensor Hub [8086:a135] (rev 31)
	Subsystem: Super Micro Computer Inc Sunrise Point-H Integrated Sensor Hub [15d9:0885]
00:14.0 USB controller [0c03]: Intel Corporation Sunrise Point-H USB 3.0 xHCI Controller [8086:a12f] (rev 31)
	Subsystem: Super Micro Computer Inc Sunrise Point-H USB 3.0 xHCI Controller [15d9:0885]
	Kernel driver in use: xhci_hcd
00:14.2 Signal processing controller [1180]: Intel Corporation Sunrise Point-H Thermal subsystem [8086:a131] (rev 31)
	Subsystem: Super Micro Computer Inc Sunrise Point-H Thermal subsystem [15d9:0885]
	Kernel driver in use: intel_pch_thermal
	Kernel modules: intel_pch_thermal
00:16.0 Communication controller [0780]: Intel Corporation Sunrise Point-H CSME HECI #1 [8086:a13a] (rev 31)
	Subsystem: Super Micro Computer Inc Sunrise Point-H CSME HECI [15d9:0885]
	Kernel modules: mei_me
00:1c.0 PCI bridge [0604]: Intel Corporation Sunrise Point-H PCI Express Root Port #5 [8086:a114] (rev f1)
	Kernel driver in use: pcieport
	Kernel modules: shpchp
00:1c.5 PCI bridge [0604]: Intel Corporation Sunrise Point-H PCI Express Root Port #6 [8086:a115] (rev f1)
	Kernel driver in use: pcieport
	Kernel modules: shpchp
00:1c.6 PCI bridge [0604]: Intel Corporation Sunrise Point-H PCI Express Root Port #7 [8086:a116] (rev f1)
	Kernel driver in use: pcieport
	Kernel modules: shpchp
00:1d.0 PCI bridge [0604]: Intel Corporation Sunrise Point-H PCI Express Root Port #9 [8086:a118] (rev f1)
	Kernel driver in use: pcieport
	Kernel modules: shpchp
00:1f.0 ISA bridge [0601]: Intel Corporation Sunrise Point-H LPC Controller [8086:a14a] (rev 31)
	Subsystem: Super Micro Computer Inc Sunrise Point-H LPC Controller [15d9:0885]
00:1f.2 Memory controller [0580]: Intel Corporation Sunrise Point-H PMC [8086:a121] (rev 31)
	Subsystem: Super Micro Computer Inc Sunrise Point-H PMC [15d9:0885]
00:1f.4 SMBus [0c05]: Intel Corporation Sunrise Point-H SMBus [8086:a123] (rev 31)
	Subsystem: Super Micro Computer Inc Sunrise Point-H SMBus [15d9:0885]
	Kernel driver in use: i801_smbus
	Kernel modules: i2c_i801
01:00.0 VGA compatible controller [0300]: NVIDIA Corporation GM107 [GeForce GTX 750 Ti] [10de:1380] (rev a2)
	Subsystem: ASUSTeK Computer Inc. GM107 [GeForce GTX 750 Ti] [1043:84be]
	Kernel driver in use: vfio-pci
	Kernel modules: nvidiafb, nouveau
01:00.1 Audio device [0403]: NVIDIA Corporation Device [10de:0fbc] (rev a1)
	Subsystem: ASUSTeK Computer Inc. Device [1043:84be]
	Kernel driver in use: vfio-pci
	Kernel modules: snd_hda_intel
02:00.0 Serial Attached SCSI controller [0107]: LSI Logic / Symbios Logic SAS3008 PCI-Express Fusion-MPT SAS-3 [1000:0097] (rev 02)
	Subsystem: Super Micro Computer Inc SAS3008 PCI-Express Fusion-MPT SAS-3 [15d9:0808]
	Kernel driver in use: mpt3sas
	Kernel modules: mpt3sas
03:00.0 Ethernet controller [0200]: Intel Corporation I210 Gigabit Network Connection [8086:1533] (rev 03)
	Subsystem: Super Micro Computer Inc I210 Gigabit Network Connection [15d9:1533]
	Kernel driver in use: igb
	Kernel modules: igb
04:00.0 Ethernet controller [0200]: Intel Corporation I210 Gigabit Network Connection [8086:1533] (rev 03)
	Subsystem: Super Micro Computer Inc I210 Gigabit Network Connection [15d9:1533]
	Kernel driver in use: igb
	Kernel modules: igb
05:00.0 PCI bridge [0604]: ASPEED Technology, Inc. AST1150 PCI-to-PCI Bridge [1a03:1150] (rev 03)
	Kernel modules: shpchp
06:00.0 VGA compatible controller [0300]: ASPEED Technology, Inc. ASPEED Graphics Family [1a03:2000] (rev 30)
	Subsystem: Super Micro Computer Inc ASPEED Graphics Family [15d9:0885]
	Kernel driver in use: ast
	Kernel modules: ast
07:00.0 Ethernet controller [0200]: Mellanox Technologies MT26448 [ConnectX EN 10GigE, PCIe 2.0 5GT/s] [15b3:6750] (rev b0)
	Subsystem: Mellanox Technologies MT26448 [ConnectX EN 10GigE, PCIe 2.0 5GT/s] [15b3:0015]
	Kernel driver in use: mlx4_core
	Kernel modules: mlx4_core

lspci -s 01:00 -n

01:00.0 0300: 10de:1380 (rev a2)
01:00.1 0403: 10de:0fbc (rev a1)

cat /etc/modprobe.d/vfio.conf

options vfio-pci ids=10de:1380,10de:0fbc

cat /etc/default/grub

GRUB_DEFAULT=0
GRUB_TIMEOUT=5
GRUB_DISTRIBUTOR="Proxmox Virtual Environment"
GRUB_CMDLINE_LINUX_DEFAULT="intel_iommu=on quiet"
GRUB_CMDLINE_LINUX=""
GRUB_DISABLE_OS_PROBER=true

cat /etc/pve/qemu-server/100.conf 
bios: ovmf
boot: dc
bootdisk: sata0
cores: 8
cpu: host,hidden=1
efidisk0: local:100/vm-100-disk-3.raw,size=128K
hostpci0: 01:00,x-vga=on,pcie=1
ide2: local:iso/Win10_1803_Russian_x64.iso,media=cdrom
machine: q35
memory: 4096
name: Windows10-GPU
net0: e1000=2A:3F:A7:E1:13:83,bridge=vmbr1
numa: 1
onboot: 0
ostype: win10
sata0: local:100/vm-100-disk-4.raw,size=32G
scsihw: virtio-scsi-pci
smbios1: uuid=796f3dfb-c2ab-4c10-b803-04d6b62c32f4
sockets: 1
vga: qxl

cat /etc/modules

vfio
vfio_iommu_type1
vfio_pci
vfio_virqfd

lsmod | grep vfio

vfio_pci               45056  0
vfio_virqfd            16384  1 vfio_pci
irqbypass              16384  2 kvm,vfio_pci
vfio_iommu_type1       24576  0
vfio                   28672  2 vfio_iommu_type1,vfio_pci

dmesg -T | grep -i vfio

[Птн Авг 17 13:03:26 2018] VFIO - User Level meta-driver version: 0.3
[Птн Авг 17 13:03:26 2018] vfio-pci 0000:01:00.0: vgaarb: changed VGA decodes: olddecodes=io+mem,decodes=io+mem:owns=none
[Птн Авг 17 13:03:26 2018] vfio_pci: add [10de:1380[ffff:ffff]] class 0x000000/00000000
[Птн Авг 17 13:03:26 2018] vfio_pci: add [10de:0fbc[ffff:ffff]] class 0x000000/00000000

 , ,

Sherman ()

Тайлинг или не тайлинг на xfce

Форум — Desktop

Доброго дня. Установлен у меня xubuntu с xfce 4.12, имеется 2 монитора, и вот в один прекрасный момент мне захотелось, что бы на правом мониторе справа была зона на которую не будут залазить окна в режиме maxsize, для того что бы там висели заметки, аля поделить правый монитор на 2 неравные части 90/10, гугл по этому поводу выдает только тайлинг, но это не совсем то. Пытался решить проблему с помощью невидимой панели нужной ширины справа, но это работает весьма криво - окна раскрываются как нужно, оставляя пустое место справа, но заметки туда не залазят полностью, так и норовят оставить часть себя вне панели. В общем то вопрос состоит в том, как сделать подобное? Знаю что в линуксах возможно все, главное знать как, но вот я не знаю... Возможно уже есть какие то тулзы позволяющие такое делать? Если нет, то может можно как то сделать так что бы можно было затаскивать окна на панель полностью? Похоже это какие то настройки ДМ не дают затаскивать окна на панель, знать бы какие... Понимаю что костыль, а что поделать?

 , ,

Sherman ()

iSCSI+Racoon/ipsec производительность

Форум — Admin

Добрый день! Появилась необходимость создать «безопасный» iSCSI-target для образов виртуальных машин, решил обезопасить его с помощью ipseс, но производительность линка упала в 5 раз, вместо 1Gbit/sec получаю максимум 200Mbit/sec. Перепробовал все алгоритмы шифрования, но выше 200Mbit/sec пригнуть не удалось. Есть возможность разогнать ipsec хотя бы до 500Mbit/sec?

 , ,

Sherman ()

Как называется функция в фигурных скобках? {1..100}

Форум — General

Забыл как называется, почему то в голову лезет слово «инкрементация», но это не то.

 

Sherman ()

iptables string, можно ли пофиксить ложные срабатывания?

Форум — General

Доброй ночи, ЛОР. Появилась необходимость использовать string в iptables для редиректа dns-запросов и иногда бывают ложные срабатывания, во многих руководствах об этом предупреждают, но почему так происходит нигде не написано, может есть какой-то способ, хотя бы, уменьшить количество ложных срабатываний? Может быть нужно указать, в какой именно части пакета искать совпадение? Должен же быть какой-то фикс. Спасибо.

 , , ,

Sherman ()

bind9 и dnsmasq

Форум — Admin

Добрый день. Есть dns сервер, который выполняет две функции:

1. форвардинг резольва доменных имен на внешний DNS

2. блокировка доступа к неразрешенным ресурсам с помощью fakeroot зоны.

Схема:

client1 request A? $DOMAIN--------->dns(192.168.7.4)||
                                                    ||
                                                    ||
                                                    \/
                                                 iptables
                                                 ||    ||
                                                 \/    \/
      Если не найдено совпадение по string $DOMAIN     Если найдено совпадение по string $DOMAIN
                                                 ||    ||
                                                 \/    \/
           Запрос попадает на fakeroot на 53 порту     Делаем редирект на порт 53535(dnsmasq)
                                                 ||    ||
                                                 \/    \/
      Пользователь получает ip заглушки для $DOMAIN    dnsmasq в свою очередь делает запрос к внешнему DNS
                                                       ||
                                                       \/
                                                       Пользователь получает реальный ip $DOMAIN

И все бы хорошо, схема которая представлена выше работает, НО если bind, он же fakeroot, получает большое колличество запросов, то раз в 200-500 запросов он, каким то образом отдает этот запрос на dnsmasq и клиент получает реальный ip того ресурса вместо ip заглушки.

По tcpdump'у на стороне dns это выглядит так:

    CLIENT.48901 > DNS.53: [udp sum ok] 16699+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.48901: [bad udp cksum 0x907d -> 0x9fc4!] 16699* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.33950 > DNS.53: [udp sum ok] 63500+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.33950: [bad udp cksum 0x907d -> 0x235a!] 63500* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.57577 > DNS.53: [udp sum ok] 60095+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.57577: [bad udp cksum 0x907d -> 0xd45b!] 60095* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.51795 > DNS.53: [udp sum ok] 3168+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.51795: [bad udp cksum 0x907d -> 0xc951!] 3168* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.49608 > DNS.53: [udp sum ok] 17331+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.49608: [bad udp cksum 0x907d -> 0x9a89!] 17331* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.42635 > DNS.53: [udp sum ok] 32867+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.42635: [bad udp cksum 0x907d -> 0x7916!] 32867* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.51443 > DNS.53: [udp sum ok] 41557+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.51443: [bad udp cksum 0x907d -> 0x34bc!] 41557* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.32784 > DNS.53: [udp sum ok] 45525+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.32784: [bad udp cksum 0x907d -> 0x6e1f!] 45525* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.54748 > DNS.53: [udp sum ok] 62722+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.54748: [bad udp cksum 0x907d -> 0xd525!] 62722* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.52397 > DNS.53: [udp sum ok] 16436+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.52397: [bad udp cksum 0x907d -> 0x9323!] 16436* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.35031 > DNS.53: [udp sum ok] 63143+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.35031: [bad udp cksum 0x907d -> 0x2086!] 63143* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.40059 > DNS.53: [udp sum ok] 31360+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.40059: [bad udp cksum 0x907d -> 0x8909!] 31360* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.53161 > DNS.53: [udp sum ok] 10254+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.53161: [bad udp cksum 0x907d -> 0xa84d!] 10254* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.56387 > DNS.53: [udp sum ok] 36552+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.56387: [bad udp cksum 0x907d -> 0x34f9!] 36552* q: A? $DOMAIN. 1/1/1 $DOMAIN. [1d] A DUMMY_IP ns: . [1d] NS DUMMY_IP. ar: DUMMY_IP. [1d] A DUMMY_IP (79)
    CLIENT.36575 > DNS.53: [udp sum ok] 54890+ A? $DOMAIN. (23)
    DNS.53 > CLIENT.36575: [bad udp cksum 0x9055 -> 0xfc74!] 54890 q: A? $DOMAIN. 1/0/0 $DOMAIN. [3m] A REAL_IP (39)

На стороне клиента это выглядит также. При этом если вырубить dnsmasq, то раз в 200-500 запросов клиент получает сообщение о том, что DNS сервер не доступен, соответственно когда bind9 «захлебывается» он, каким то образом, передает запрос на dnsmasq. Это можно как то вылечить?

 , ,

Sherman ()

LVM vs ZFS vs BTRFS

Форум — Admin

Добрый вечер. Есть кластер debian9+proxmox-ve из 3-х нод (2xhp dl360 (4x500gb raid 1+0) и 1 тазик для кворума (реально тазик, с флешкой на которой раскатан proxmox). Не могу определиться с выбором сторайджа для всего этого добра. Сейчас использую LVM, т.е. каждая вм имеет свой lv, но весьма огорчает скорость записи 20мб/сек при активном снапшоте, вместо 200мб/сек. Размазывать сторайдж по нодам(ceph/drbd/etc) вообще не фонтан, тем более, что тазик в этом размазывании не должен участвовать. Еще одно требование - все это должно быть зашифровано, сейчас весь vg зашифрован luks'ом. Читал литературу по zfs, не знаю насколько это актуально, но с шифрованием там, вроде, все печально, а точнее это фьючер фишка, которая пока не воплощена в жизнь. По btrfs - говорят, что тормозная и не надёжная. Требования к этой конструкции простые: как и писалось выше - шифрование всего, а также иметь на обеих нодах более ли менее актуальные образы вм(+- несколько часов). И еще есть один нюанс - сетка между нодами 1Гбит и увеличить этот показатель не выйдет. LVM заинтересовал этой статьей https://m.habrahabr.ru/post/185240/. Что посоветуете в этот ситуации?

 , , , ,

Sherman ()

Как извлечь образ диска из снапшота .vma в proxmox через командную строку?

Форум — Admin

Добрый день! Есть ряд снапшотов из которых нужно вытащить qcow2 образ, но не могу понять как.

Что делаю:

распаковываю снапшот с помощью vma extract и получаю .raw образ

форматирую его с помощью qemu-img в qcow2, получаю неполноценный образ qcow2, к которому видимо нужно дорастить размер, как у оригинального образа, вот тут собственно и затык, как это сделать?

qmrestore выполняет все ровно, но он не подходит, потому как подразумевается создание виртуальной машины с конфигурацией и прочим хламом, а мне необходимо получить только оригинальный образ qcow2, который запихан в .vma. Спасибо.

 , ,

Sherman ()

Unison и sudo user

Форум — General

Добрый день! Хочу использовать unison для двусторонней синхронизации конфигов на двух серверах, но не удается решить вопрос с правами, все конфиги принадлежат root'y с правами 600, а доступ по ssh от root'a запрещен, как быть в таком случае? rsync умеет использовать sudo на удаленном сервере, но видимо не умеет делать двусторонней синхронизации, умеет ли unison работать через sudo?

 ,

Sherman ()

Рассыпается кластер proxmox 5.

Форум — Admin

Добрый вечер. Есть кластер из трех нод proxmox 5 с такой схемой:

node1 ip1 1.1.1.1 (белый ip провайдера для доступа к ноде из вне) ip2 192.168.1.11 (внутренний ip по которому ноды видят друга)

node2 ip1 2.2.2.2 (белый ip провайдера для доступа к ноде из вне) ip2 192.168.1.12 (внутренний ip по которому ноды видят друга)

node3 ip1 3.3.3.3 (белый ip провайдера для доступа к ноде из вне) ip2 192.168.1.13 (внутренний ip по которому ноды видят друга)

файл hosts идентичен на всех нодах:

127.0.0.1	localhost
192.168.10.11	pve-node1
192.168.10.12	pve-node2
192.168.10.13	quorum-member

# The following lines are desirable for IPv6 capable hosts
::1     localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
в общем, собрал кластер без лишних движений. Перезапуская службы corosync и pve-cluster на всех нодах кластер оживает, но не на долго, буквально через 5-10 минут начинают отваливаться ноды, сначала от мастер ноды, а потом и от друг друга.

Вот лог https://paste.ubuntu.com/25473074/

с сетью все в порядке, никаких запрещающих правил на нодах нет, не пойму в чем дело...

 , , ,

Sherman ()

Беспроводной HDMI и Linux.

Форум — Desktop

Добрый день. Появилась необходимость установки беспроводного проектора в офисе, но так как все машины работают на убунте, встал вопрос: а как это воплотить в жизнь?

Немного почитав интернеты, понял, что такого проектора либо нету либо он стоит много денег. Тогда мой глаз пал на HDMI свистки, которые в сочетании с обычным проектором дадут желаемый результат (а может и не дадут...).

Собственно вопрос - пользовался кто нибудь такими свистками на лине?

 ,

Sherman ()

Proxmox, нода видит несуществующий кластер.

Форум — General

Добрый день!

Есть три сервера на которых установлен proxmox 5, вчера собирал кластер, собрал, но появилась необходимость пересоздать кластер, выкинул ноды из кластера, убил файлы конфигурации corosync и файлы с ключами, затем создал новый кластер, добавил второй сервер, но вот третий ни в какую не хочет коннектится к новому кластеру, он, почему то, видит старый кластер. Пробовал полностью сносить proxmox с третьего сервера, вычищал концы в /etc, перезагружал, ставил по новой proxmox, но эта сволочь от куда то берет старую конфигурацию corosync и снова пытается войти в старый кластер.

Что сейчас имеется на третьем сервере:

pvecm status
Cannot initialize CMAP service
cat /etc/pve/corosync.conf 
logging {
  debug: off
  to_syslog: yes
}

nodelist {
  node {
    name: pve-node2
    nodeid: 2
    quorum_votes: 1
    ring0_addr: pve-node2
  }

  node {
    name: pve-node1
    nodeid: 1
    quorum_votes: 1
    ring0_addr: pve-node1
  }

}

quorum {
  provider: corosync_votequorum
}

totem {
  cluster_name: PVE-Cluster
  config_version: 4
  ip_version: ipv4
  secauth: on
  version: 2
  interface {
    bindnetaddr: 192.168.1.11
    ringnumber: 0
  }

}

systemctl status pve-cluster.service
● pve-cluster.service - The Proxmox VE cluster filesystem
   Loaded: loaded (/lib/systemd/system/pve-cluster.service; enabled; vendor preset: enabled)
   Active: active (running) since Sun 2017-09-03 10:15:22 EEST; 16min ago
 Main PID: 9504 (pmxcfs)
    Tasks: 6 (limit: 4915)
   CGroup: /system.slice/pve-cluster.service
           └─9504 /usr/bin/pmxcfs

Сен 03 10:31:46 quorum-member pmxcfs[9504]: [dcdb] crit: cpg_initialize failed: 2
Сен 03 10:31:46 quorum-member pmxcfs[9504]: [status] crit: cpg_initialize failed: 2
Сен 03 10:31:52 quorum-member pmxcfs[9504]: [quorum] crit: quorum_initialize failed: 2
Сен 03 10:31:52 quorum-member pmxcfs[9504]: [confdb] crit: cmap_initialize failed: 2
Сен 03 10:31:52 quorum-member pmxcfs[9504]: [dcdb] crit: cpg_initialize failed: 2
Сен 03 10:31:52 quorum-member pmxcfs[9504]: [status] crit: cpg_initialize failed: 2
Сен 03 10:31:58 quorum-member pmxcfs[9504]: [quorum] crit: quorum_initialize failed: 2
Сен 03 10:31:58 quorum-member pmxcfs[9504]: [confdb] crit: cmap_initialize failed: 2
Сен 03 10:31:58 quorum-member pmxcfs[9504]: [dcdb] crit: cpg_initialize failed: 2
Сен 03 10:31:58 quorum-member pmxcfs[9504]: [status] crit: cpg_initialize failed: 2


service corosync status
● corosync.service - Corosync Cluster Engine
   Loaded: loaded (/lib/systemd/system/corosync.service; enabled; vendor preset: enabled)
   Active: inactive (dead)
Condition: start condition failed at Sun 2017-09-03 10:29:50 EEST; 19s ago
           └─ ConditionPathExists=/etc/corosync/corosync.conf was not met
     Docs: man:corosync
           man:corosync.conf
           man:corosync_overview

/etc/pve находится в режиме readonly

Как можно отвязать эту ноду от несуществующего кластера? Спасибо

 ,

Sherman ()

Вывод данных в одну строку с замещением.

Форум — General

Доброго времени, ЛОР! Есть скрипт, который сыпет выводом случайных комбинаций в терминал, до тех пор, пока комбинация не станет подходящей. Хотелось бы сделать вывод в одну строку, что бы значения сменяли друг друга. Пробовал в конце каждого цикла добавлять clear, но результат далеко не фонтан - все моргает, иногда вообще не успевает выводить значения... В общем, хочется сделать все красиво, но не знаю куда копнуть.

 

Sherman ()

RSS подписка на новые темы