LINUX.ORG.RU

Сообщения modjo

 

Скорость при bonding

Есть debian 8 и ubuntu desktop 14.04. Планируемая схема подключения:

+---+   +---+   +---+
|pc1|---|   |---|   |
|   |---|swt|---|pc1|
+---+   +---+   +---+

Режим работы bonding: 802.3ad. В debian все завелось без вопросов с такими настройками (на стороне свича всё настроено):

$ lspci
03:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8111/8168/8411 PCI Express Gigabit Ethernet Controller (rev 03)
04:01.0 Ethernet controller: Intel Corporation 82541PI Gigabit Ethernet Controller
$ cat /etc/modules
bonding
$ cat /etc/network/interfaces
source /etc/network/interfaces.d/*

auto lo
iface lo inet loopback

auto bond0
iface bond0 inet static
	address 192.168.42.55
	netmask 255.255.255.0
	gateway 192.168.42.254
	dns-nameservers 192.168.42.9 192.168.42.7
	dns-search domain.local
	bond_mode 802.3ad
	bond_miimon 100
	bond_downdelay 200
	bond_updelay 200
	bond_slaves eth0 eth1
$ cat /proc/net/bonding/bond0 
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 200
Down Delay (ms): 200

802.3ad info
LACP rate: slow
Min links: 0
Aggregator selection policy (ad_select): stable
Active Aggregator Info:
	Aggregator ID: 1
	Number of ports: 2
	Actor Key: 17
	Partner Key: 1000
	Partner Mac Address: b0:00:b4:1b:e6:42

Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 5
Permanent HW addr: 00:27:0e:2b:43:d5
Aggregator ID: 1
Slave queue ID: 0

Slave Interface: eth1
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 4
Permanent HW addr: 00:0e:04:b7:09:11
Aggregator ID: 1
Slave queue ID: 0

В Ubuntu пришлось долго бить в бубен и на данный момент все работает, если прописывать ручками

$ lspci
02:00.0 Ethernet controller: D-Link System Inc DGE-528T Gigabit Ethernet Adapter (rev 06)
03:00.0 Ethernet controller: D-Link System Inc DGE-528T Gigabit Ethernet Adapter (rev 06)

$ sudo modprobe bonding mode=4
$ sudo ifconfig bond0 up
$ sudo ifenslave bond0 eth5 eth6
$ sudo ifconfig bond0 192.168.42.54 netmask 255.255.255.0

$ cat /proc/net/bonding/bond0 
Ethernet Channel Bonding Driver: v3.7.1 (April 27, 2011)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

802.3ad info
LACP rate: slow
Min links: 0
Aggregator selection policy (ad_select): stable
Active Aggregator Info:
	Aggregator ID: 1
	Number of ports: 2
	Actor Key: 17
	Partner Key: 1002
	Partner Mac Address: b0:00:b4:1b:e6:42

Slave Interface: eth5
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: c8:d3:a3:ad:23:ae
Aggregator ID: 1
Slave queue ID: 0

Slave Interface: eth6
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: c8:d3:a3:ad:23:51
Aggregator ID: 1
Slave queue ID: 0

Результаты теста. Первый результат когда оба компа в режиме bonding.

$ sudo iperf3 -s
-----------------------------------------------------------
Server listening on 5201
-----------------------------------------------------------
Accepted connection from 192.168.42.55, port 34571
[  5] local 192.168.42.54 port 5201 connected to 192.168.42.55 port 34572
[ ID] Interval           Transfer     Bandwidth
[  5]   0.00-1.00   sec   108 MBytes   905 Mbits/sec                  
[  5]   1.00-2.00   sec   112 MBytes   942 Mbits/sec                  
[  5]   2.00-3.00   sec   112 MBytes   941 Mbits/sec                  
[  5]   3.00-4.00   sec   112 MBytes   942 Mbits/sec                  
[  5]   4.00-5.00   sec   112 MBytes   941 Mbits/sec                  
[  5]   5.00-6.00   sec   112 MBytes   939 Mbits/sec                  
[  5]   6.00-7.00   sec   112 MBytes   942 Mbits/sec                  
[  5]   7.00-8.00   sec   112 MBytes   941 Mbits/sec                  
[  5]   8.00-9.00   sec   112 MBytes   942 Mbits/sec                  
[  5]   9.00-10.00  sec   112 MBytes   941 Mbits/sec                  
[  5]  10.00-10.04  sec  4.44 MBytes   940 Mbits/sec                  
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth       Retr
[  5]   0.00-10.04  sec  1.10 GBytes   939 Mbits/sec    0             sender
[  5]   0.00-10.04  sec  1.10 GBytes   937 Mbits/sec                  receiver

Второй результат когда на стороне ubuntu я использовал один интерфейс:

$ sudo iperf3 -s
-----------------------------------------------------------
Server listening on 5201
-----------------------------------------------------------
Accepted connection from 192.168.42.55, port 42878
[  5] local 10.10.3.70 port 5201 connected to 192.168.42.55 port 42879
[ ID] Interval           Transfer     Bandwidth
[  5]   0.00-1.00   sec  90.7 MBytes   761 Mbits/sec                  
[  5]   1.00-2.00   sec  94.3 MBytes   791 Mbits/sec                  
[  5]   2.00-3.00   sec  93.2 MBytes   782 Mbits/sec                  
[  5]   3.00-4.00   sec  93.4 MBytes   783 Mbits/sec                  
[  5]   4.00-5.00   sec  93.6 MBytes   785 Mbits/sec                  
[  5]   5.00-6.00   sec  94.3 MBytes   791 Mbits/sec                  
[  5]   6.00-7.00   sec  94.6 MBytes   794 Mbits/sec                  
[  5]   7.00-8.00   sec  94.6 MBytes   794 Mbits/sec                  
[  5]   8.00-9.00   sec  94.7 MBytes   795 Mbits/sec                  
[  5]   9.00-10.00  sec  94.6 MBytes   794 Mbits/sec                  
[  5]  10.00-10.04  sec  3.66 MBytes   793 Mbits/sec                  
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth       Retr
[  5]   0.00-10.04  sec   943 MBytes   788 Mbits/sec  202             sender
[  5]   0.00-10.04  sec   942 MBytes   787 Mbits/sec                  receiver

Вопрос в том реально ли так должно работать, в плане скорости? В теории должно быть рядом с 2000 Mbits/sec

 , , ,

modjo
()

bconsole and old jobs

Подскажите где искать записи о старых jobs, которые можно увидеть в bconsole. Вот пример:

 JobId  Level    Files      Bytes   Status   Finished        Name 
======================================================================
   312  Incr          4    417.7 K  Cancel   18-Nov-14 21:00 user
   430  Incr          0         0   Error    03-Dec-14 17:34 user
     1  Full      2,195    2.165 G  Error    21-Jan-15 01:36 user
     2  Full     30,575    101.2 G  OK       21-Jan-15 02:00 user

Уже все перерыл, даже каталог сносил. Удалял все файлы по директиве Working Directory. В faq нашел вот это Why do I still see old jobs in status messages after I dropped the catalog?. Собственно больше я не находил нигде файлы .state кроме как в Working Directory. Где еще что можно посмотреть???

 

modjo
()

bacula - create database

Доброго дня. Мне нужно поднять базу для bacula (v5.2.6 (стандартный репозиторий ubuntu)) на отдельном от bacula сервере. На сервере с bacula я не нашел никаких скриптов, которые бы создавали бы базу mysql (есть всякие sqlite2pgsql). Есть dpkg-reconfigure bacula-director-mysql, который дергает настройки из файла /etc/dbconfig-common/bacula-director-mysql.conf. Но проблема в том, что мне тогда нужно будет пользователю root на DB сервере давать удаленный доступ с сервера bacula (root@<remote host>), чего я совершенно не хочу. Может я где-то что-то пропустил, где можно утянуть схему базы под мою версию bacula для mysql?

 

modjo
()

Интерфейс дропает пакеты

Доброго времени суток

Накрылся старый сервак заюзаный как GW. Временно поставил десктом, который под рукой оказался. Проблем не знал. Прикупил вот это чудо. Думал меньше жужжать будет и энергии ест совсем мало. Для GW должно хватить. поставил все настроил (ubuntu 14.04). Я еще поставил туда простую сетевуху в PCI (eth0, смотрела в локалку). Как только перевел весь трафик на него посыпались ошибки. Сетевуха в PCI выдавала вот это. Ну я подумал, что сетевуха отстой и решил все переделать на втроенные интерфейсы (сетевуха была десктопная, хотя от чего там глюки не ясно, трафик невелик, не магистралка таки). на stderr перестало сыпаться всякая фигня. Но стабильно увеличивается количество дропнутых пакетов:

$ ifconfig eth1
eth1      Link encap:Ethernet  HWaddr 00:25:90:e4:f4:0a  
          inet addr:192.168.42.4  Bcast:192.168.42.255  Mask:255.255.255.0
          inet6 addr: fe80::225:90ff:fee4:f40a/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:5772373 errors:0 dropped:3208 overruns:0 frame:0
          TX packets:6344290 errors:16638 dropped:0 overruns:0 carrier:16638
          collisions:18211 txqueuelen:1000 
          RX bytes:1754106396 (1.7 GB)  TX bytes:7029005005 (7.0 GB)
          Memory:fe120000-fe140000

Пробовал уменьшить MTU до 1300, не помогло. На свиче уменьшил скорость с 1000 до 100, не помогло. Провода менял. Что еще можно посмотреть или подкрутить чтоб работало как надо???

Пока это не сильно сказывается на работе, но проблема очевидна. Всю жизнь настраивал самые простые компы в виде шлюзов и никогда проблем не было, а тут такая зараза.

 

modjo
()

Проблемы с созданием RAID массива

Доброго дня. Решил поиграться с RAID массивами, наткнулся на проблему:

sudo mknod /dev/md1 b 9 1
sudo mdadm --create /dev/md1 --level=1 --raid-devices=2 /dev/sdc1 /dev/sdd1
mdadm: cannot open /dev/sdc1: Device or resource busy /dev/sdd1

Что я делал. У меня есть два диска (/dev/sdc и /dev/cdd), которые ранее стояли на сервере в софтовом рейде. Сервер сдох. При загрузке система обнаруживала, что там есть подобие рейда (/dev/md127), и его даже можно было заюзать:

sudo mount /dev/md127 /mnt/

Я использовал команду mdadm -S /dev/md127 и используя утилиту fdisk удалил старый раздел на каждом диске и создал новые разделы. Теперь диски выглядят так:

ll /dev/sd*
...
brw-rw---- 1 root disk 8, 32 Aug 15 16:12 /dev/sdc
brw-rw---- 1 root disk 8, 33 Aug 15 16:12 /dev/sdc1
brw-rw---- 1 root disk 8, 48 Aug 15 16:12 /dev/sdd
brw-rw---- 1 root disk 8, 49 Aug 15 16:12 /dev/sdd1

Пытаясь заюзать команду выше, возникает ошибка. Что я делаю не так?

В системе уже есть один рейд, который я создал при установке системы:

cat /proc/mdstat 
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid1 sda1[0] sdb1[1]
      244066112 blocks super 1.2 [2/2] [UU]
      
unused devices: <none>

PS Кстати, после перезагрузки пропадают из списка /dev/sdc1 и /dev/sdd1. Хотя если использовать fdisk -l /dev/sdd, например, то все показывает как надо:

sudo fdisk -l /dev/sdd
[sudo] password for engineer: 

Disk /dev/sdd: 1000.2 GB, 1000204886016 bytes
78 heads, 63 sectors/track, 397542 cylinders, total 1953525168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000b864b

   Device Boot      Start         End      Blocks   Id  System
/dev/sdd1            2048  1953525167   976761560   fd  Linux raid autodetect

Что нужно сделать чтоб «активировать» отображение? Но в первую очередь меня волнует RAID.

 ,

modjo
()

rdesktop + COM port + 1с

Доброго времени дня. Возникла такая проблема: c ubuntu (14.04, не думаю, что это как-то влияет) через rdesktop на win2k8 передается COM порт (/dev/ttyUSB0) как COM3, под виндой в putty все работает замечательно, но если открыть 1с и в номенклатуре считать штрих-код очень долго думает и курсор встает в нужную позицию. Т.е. если локально сделать так:

$ sudo cat /dev/ttyUSB0 
0000013605
0000013605
0000013605
0000013605
0000013605
..

Без проблем. На удаленной машине через puttу - все отлично. Но в 1С все плохо. И вот главное: если после считывания двинуть мышку или выбрать какую либо позицию из номенклатуры, то моментально отрабатывает считанный код и курсор встает куда надо. Пользователи виндов подобных проблем не имеют. Если честно, получается, что проблема в 1с, но я совершенно не могу понять как так. Может кто-то сталкивался с подобным поведением???

PS пробовал xfreerdp. Но у него проблемы с Enter при считывании кода. Т.е. он корректно не передает перевод корретки.

 , ,

modjo
()

Шаблон, что ли...

Нужно Скопировать на некоторые сервера файлик. Но для каждого сервера нужно использовать свои данные. Грубо говоря, выглядит это так:

./install 111.111.111.112

Этот скрипт генерит файл с содержимым:

... Your IP: 111.111.111.112 ...

Текста много и нужно в некоторых местах указать то, что будет передано в качестве аргумента. Я предпологалаю, что текст выше это файл template.txt с содержимым:

... Your IP: {$1} ...

Подскажите как реализовать подобное? Что-то сходу вообще ничего не пришло в голову...

 ,

modjo
()

proxy сервер на любой вкус

Добрый день.

Подскажите есть «современные», хорошо настраиваемые прокси сервера? На данный момент использую dante. Ну нужно что-то функциональней. Например ограничение скорости доступа. С данте проблема в его документации. Кривовата написана. Например собрался он с

Libwrap: Enabled

А в лог пишет:

error: /etc/sockd.conf: problem on line 9 near token «root»: in order to set the given keyword/value, Dante must be linked with an external libwrap library at compiletime. When Dante was compiled, no such linking was done, perhaps due to no usable libwrap library being installed on the system at the time. If a libwrap library has since been installed on this system, please rerun ./configure in Dante's source directory, recompile and reinstall Dante. Please see the Dante manual for more information Apr 16 07:05:37 (1397646337.971949) sockd[11455]: alert: mother[1/1]: shutting down

Чувствую есть еще какие нить грабли. Подскажите есть что нить «рабочее», не побаловаться??

 ,

modjo
()

Два устройства в разных сетях

Постараюсь объяснить понятно. Есть филиал (192.168.46.0/24) и сеть офиса (10.10.3.0/24, есть еще другие сети, но не суть важно). В офисе стоит сервер OpenVPN. VPN сеть 10.11.12.0/24. В филиале Synology (192.168.46.6) с поднятым клиентом. Synology не является роутером по-умолчанию для внутренних устройств, эту функцию выполняет D-Link (192.168.46.1), он же дает интернет филиалу. На нем же роут, что сеть 10.11.12.0/24 доступна на хосте 192.168.46.6. Пытался указать еще свою сеть (10.10.3.0/24), но разницы никакой.

Клиент подключается к серверу. С этого момента из офиса я могу пинговать все, что захочу в филиале. НО. Как только я пытаюсь зайти на дивайс 192.168.46.7 или 26 (это IP камера и принтер, соответственно) браузер сообщает об недоступности хоста. На Synology снял дамп проходящих пакетов:

0.000000   10.11.12.1 -> 192.168.46.7 TCP 60 56963 > http [SYN] Seq=0 Win=14600 Len=0 MSS=1368 SACK_PERM=1 TSval=19998324 TSecr=0 WS=128
  0.000855   10.11.12.1 -> 192.168.46.7 TCP 60 56964 > http [SYN] Seq=0 Win=14600 Len=0 MSS=1368 SACK_PERM=1 TSval=19998324 TSecr=0 WS=128
  0.001052 192.168.46.7 -> 10.11.12.1   TCP 60 http > 56963 [SYN, ACK] Seq=0 Ack=1 Win=5792 Len=0 MSS=1460 SACK_PERM=1 TSval=725699697 TSecr=19998324 WS=2
  0.001720 192.168.46.7 -> 10.11.12.1   TCP 60 http > 56964 [SYN, ACK] Seq=0 Ack=1 Win=5792 Len=0 MSS=1460 SACK_PERM=1 TSval=725699697 TSecr=19998324 WS=2
  0.008310   10.11.12.1 -> 192.168.46.7 TCP 52 56963 > http [ACK] Seq=1 Ack=1 Win=14720 Len=0 TSval=19998326 TSecr=725699697
  0.008531   10.11.12.1 -> 192.168.46.7 TCP 52 56964 > http [ACK] Seq=1 Ack=1 Win=14720 Len=0 TSval=19998326 TSecr=725699697
  0.008872   10.11.12.1 -> 192.168.46.7 HTTP 421 GET / HTTP/1.1 
  0.009892 192.168.46.1 -> 10.11.12.1   TCP 52 http > 56963 [ACK] Seq=1 Ack=1 Win=3432 Len=0 TSval=725699698 TSecr=19998326
  0.013386 192.168.46.1 -> 10.11.12.1   TCP 411 [TCP segment of a reassembled PDU]
  0.013651 192.168.46.1 -> 10.11.12.1   HTTP 52 HTTP/1.0 401 Unauthorized  (text/html)
  0.015833   10.11.12.1 -> 192.168.46.1 TCP 40 56963 > http [RST] Seq=1 Win=0 Len=0
  0.022099   10.11.12.1 -> 192.168.46.1 TCP 40 56963 > http [RST] Seq=1 Win=0 Len=0
  0.022306   10.11.12.1 -> 192.168.46.1 TCP 40 56963 > http [RST] Seq=1 Win=0 Len=0
  0.213779   10.11.12.1 -> 192.168.46.7 HTTP 421 [TCP Retransmission] GET / HTTP/1.1 
  0.214614 192.168.46.7 -> 10.11.12.1   TCP 40 http > 56963 [RST] Seq=1 Win=0 Len=0

10.11.12.1 - VPN сервер за которым сижу я.

Как видно, после успешного соединения с удаленным хостом, каким-то боком я начинаю общаться с 192.168.46.1. Естественно я сбрасываю соединение с этим хостом и заново пытаюсь получить данные с 192.168.46.7. Но удаленный хост уже меня сбрасывает. Надо отметить, что до этого вместо 192.168.46.1 был 10.11.12.10 - это IP клиента VPN (Synology).

Я уже долго пытаюсь понять как-так выходит, что в какой-то момент выскакивает совсем левый IP в работе с удаленным хостом...

Но интересно еще то, что есть второй филиал, с такой же конфой. И там все работает без проблем... Конфиги OpenVPN думаю не нужны.

 , , ,

modjo
()

GSM шлюз, не могу и получить или отправить данные

OS: ubuntu 12.04. Есть Teltonika T-VoiceUSB TVD-201. В системе видно что устройство подключено через USB<->COM:

Bus 001 Device 017: ID 0403:6001 Future Technology Devices International, Ltd FT232 USB-Serial (UART) IC
[    1.473675] usb 1-1.2: Manufacturer: FTDI
[    3.745523] USB Serial support registered for FTDI USB Serial Device
[    3.745552] ftdi_sio 1-1.2:1.0: FTDI USB Serial Device converter detected
[    3.745814] usb 1-1.2: FTDI USB Serial Device converter now attached to ttyUSB0
[    3.745831] ftdi_sio: v1.6.0:USB FTDI Serial Converters Driver
$ ll /dev/ttyUSB*
1517814 crw-rw---- 1 root dialout 188, 0 Aug 15 13:32 /dev/ttyUSB0

Пробовал smstools настроить:

/etc/smsd.conf:
devices = GSM1
outgoing = /var/spool/sms/outgoing
checked = /var/spool/sms/checked
incoming = /var/spool/sms/incoming
logfile = /var/log/smstools/smsd.log
infofile = /var/run/smstools/smsd.working
pidfile = /var/run/smstools/smsd.pid
outgoing = /var/spool/sms/outgoing
checked = /var/spool/sms/checked
failed = /var/spool/sms/failed
incoming = /var/spool/sms/incoming
sent = /var/spool/sms/sent
stats = /var/log/smstools/smsd_stats
loglevel = 7
user = smsd
group = dialout
receive_before_send = no
autosplit = 3

[GSM1]
read_timeout = 10
device = /dev/ttyUSB0
incoming = no
outgoing = yes
baudrate = 9600

Но устройство не отвечает. В логах только таймауты:

http://pastebin.com/BBEsqCk0

Может кто подскажет в какую сторону копать, идеи. Еще я пробовал подключить обычный сканер штрих-кодов. В системе как /dev/ttyUSB1, через cat данные с сканера читаются на ура. Сканер подключен через переходник:

Bus 001 Device 018: ID 067b:2303 Prolific Technology, Inc. PL2303 Serial Port

 , , teltonika, tvd-201

modjo
()

Раскрытие фигурных скобок в переменной

Создаю переменную

ff=/var/local/data//2013/2013-{01..12}/2013-{01..12}-{01..31}

Отдаю, например, ls:

ls $ff
ls: cannot access /var/local/data//2013/2013-{01..12}/2013-{01..12}-{01..31}: No such file or directory

Не получается раскрыть скобки в переменной. Хотя если использовать без переменной все данные я получу без проблем. Как раскрыть фигурные скобки при использовании их в переменной?

 ,

modjo
()

MIB

Доброго времеца.

Есть у Synology MIB (http://www.synology.com/support/snmp_mib.php) файлы для SNMP. Отлично. Если запустить snmpwalk на самом synology будет отлично работать:

$ snmpwalk -c zabbix -v2c localhost synoDisk
SYNOLOGY-DISK-MIB::DiskID.0 = STRING: "Disk 1"
SYNOLOGY-DISK-MIB::DiskID.1 = STRING: "Disk 2"
SYNOLOGY-DISK-MIB::DiskModel.0 = STRING: "HDT721010SLA360 "
SYNOLOGY-DISK-MIB::DiskModel.1 = STRING: "HDT721010SLA360 "
SYNOLOGY-DISK-MIB::DiskType.0 = STRING: "SATA"
SYNOLOGY-DISK-MIB::DiskType.1 = STRING: "SATA"
SYNOLOGY-DISK-MIB::DiskStatus.0 = INTEGER: Normal(1)
SYNOLOGY-DISK-MIB::DiskStatus.1 = INTEGER: Normal(1)
SYNOLOGY-DISK-MIB::DiskTemperature.0 = INTEGER: 46
SYNOLOGY-DISK-MIB::DiskTemperature.1 = INTEGER: 44

Отлично. Качаю MIB файлы, кладу их в /usr/share/snmp/mibs/. Вбиваю:

$ snmpwalk -c zabbix -v2c nas-soft.it.exp.ru synoSystem
synoSystem: Unknown Object Identifier (Sub-id not found: (top) -> synoSystem)

Конечно если вбить так:

]$ snmpwalk -c zabbix -v2c nas-soft.it.exp.ru SYNOLOGY-SYSTEM-MIB::synoSystem
SYNOLOGY-SYSTEM-MIB::SystemStatus.0 = INTEGER: Normal(1)
SYNOLOGY-SYSTEM-MIB::Temperature.0 = INTEGER: 53
SYNOLOGY-SYSTEM-MIB::PowerStatus.0 = INTEGER: Normal(1)
SYNOLOGY-SYSTEM-MIB::SystemFanStatus.0 = INTEGER: Normal(1)
SYNOLOGY-SYSTEM-MIB::CPUFanStatus.0 = INTEGER: Normal(1)

Работает как положено. Но я хочу чтоб работало без указания модуля. В сети не нашел инфы как это сделать... Есть упоминание о том, что есть некий файл .index. Еще можно так:

# export MIBS=ALL
# snmpwalk -c zabbix -v2c nas-soft.it.exp.ru synoSystem
Unlinked OID in IPATM-IPMC-MIB: marsMIB ::= { mib-2 57 }
Undefined identifier: mib-2 near line 18 of /usr/share/mibs/ietf/IPATM-IPMC-MIB
Bad operator (INTEGER): At line 73 in /usr/share/mibs/ietf/SNMPv2-PDU
Undefined OBJECT-GROUP (diffServMIBMultiFieldClfrGroup): At line 2195 in /usr/share/mibs/ietf/IPSEC-SPD-MIB
Undefined OBJECT-GROUP (diffServMultiFieldClfrNextFree): At line 2157 in /usr/share/mibs/ietf/IPSEC-SPD-MIB
Undefined OBJECT-GROUP (diffServMIBMultiFieldClfrGroup): At line 2062 in /usr/share/mibs/ietf/IPSEC-SPD-MIB
Expected "::=" (RFC5644): At line 493 in /usr/share/mibs/iana/IANA-IPPM-METRICS-REGISTRY-MIB
Expected "{" (EOF): At line 651 in /usr/share/mibs/iana/IANA-IPPM-METRICS-REGISTRY-MIB
Bad object identifier: At line 651 in /usr/share/mibs/iana/IANA-IPPM-METRICS-REGISTRY-MIB
Bad parse of OBJECT-IDENTITY: At line 651 in /usr/share/mibs/iana/IANA-IPPM-METRICS-REGISTRY-MIB
SYNOLOGY-SYSTEM-MIB::SystemStatus.0 = INTEGER: Normal(1)
SYNOLOGY-SYSTEM-MIB::Temperature.0 = INTEGER: 54
SYNOLOGY-SYSTEM-MIB::PowerStatus.0 = INTEGER: Normal(1)
SYNOLOGY-SYSTEM-MIB::SystemFanStatus.0 = INTEGER: Normal(1)
SYNOLOGY-SYSTEM-MIB::CPUFanStatus.0 = INTEGER: Normal(1)

Работает, но попутно есть ошибки из соседних модулей. Я так понимаю надо где-то новые модули зарегистрировать. Но как и где найти не удалось. Возможно ответ близок, но в упор не вижу.

Есть идеи??

 , ,

modjo
()

KVM. Нужно добавить сетевую карту гостю

Доброй ночи. Подскажите как в уже работающую систему (гостя) добавить еще один сетевой интерфейс?

# brctl show
bridge name	bridge id		STP enabled	interfaces
bridge0		8000.00a0d1e848c4	no		eth0
							vnet0
							vnet1
bridge1		8000.00a0d1e848c5	no		eth1

# virsh dominfo gw
ID:             6
Имя:         gw
UUID:           7d4a0ec0-11c3-23f7-afb6-549308146748
Тип ОС:    hvm
Статус:   работает
CPU:            1
Время CPU: 222,5s
Макс.память: 1048576 kB
Занято памяти: 1048576 kB
Persistent:     yes
Автозапуск: вкл.
Managed save:   no
Модель безопасности: selinux
DOI безопасности: 0
Метка безопасности: system_u:system_r:svirt_t:s0:c298,c343 (enforcing)

 ,

modjo
()

Подсчет трфика, netflow

Порыскал по инету, по данному форуму. Тольком ничего не нашел. Настроил ipt_NETFLOW (на шлюзе) на отправку отчетов на адрес 192.168.42.4. В iptables FORWARD = DROP:

iptables -A FORWARD -j NETFLOW

Расположен в самом верху, далее идут правила которые разрешают тот или иной порт для локальной сети. На коллекторе flow-capture принимает данные:

-rw-r--r-- 1 flow-tools flow-tools 9,1K Окт  7 20:00 ft-v05.2012-10-07.194946+0400
-rw-r--r-- 1 flow-tools flow-tools  34K Окт  7 20:15 ft-v05.2012-10-07.200001+0400
-rw-r--r-- 1 flow-tools flow-tools  17K Окт  7 20:30 ft-v05.2012-10-07.201501+0400
-rw-r--r-- 1 flow-tools flow-tools  26K Окт  7 20:45 ft-v05.2012-10-07.203001+0400
-rw-r--r-- 1 flow-tools flow-tools  29K Окт  7 21:00 ft-v05.2012-10-07.204501+0400
-rw-r--r-- 1 flow-tools flow-tools 6,3K Окт  7 21:03 ft-v05.2012-10-07.210001+0400
-rw-r--r-- 1 flow-tools flow-tools  22K Окт  7 22:45 ft-v05.2012-10-07.223534+0400
-rw-r--r-- 1 flow-tools flow-tools  36K Окт  7 23:00 ft-v05.2012-10-07.224501+0400
-rw-r--r-- 1 flow-tools flow-tools  29K Окт  7 23:15 ft-v05.2012-10-07.230001+0400
-rw-r--r-- 1 flow-tools flow-tools  100 Окт  7 23:15 tmp-v05.2012-10-07.231501+0400

flow.alc

ip access-list standard admin permit host 192.168.40.153
ip access-list standard officenet permit 192.168.40.0 0.0.3.255

Получаю данные по одному хосту:

shell> flow-cat /var/local/flow/2012-10/2012-10-07/* | flow-filter -S admin | flow-stat

Результат

Total Flows                     : 306
Total Octets                    : 17052
Total Packets                   : 336
Total Time (1/1000 secs) (flows): 94512
Duration of data  (realtime)    : 12287
Duration of data (1/1000 secs)  : 12300657
Average flow time (1/1000 secs) : 308.8627
Average packet size (octets)    : 50.7500
Average flow size (octets)      : 55.7255
Average packets per flow        : 1.0980
Average flows / second (flow)   : 0.0249
Average flows / second (real)   : 0.0249
Average Kbits / second (flow)   : 0.0111
Average Kbits / second (real)   : 0.0111

Вот так мало это комп не мог наесть. Специально качал файл весом 20/30Мб. Что не так??? Может я неверное использую правило в iptables и не все пакеты попадают ко мне на коллектор?

 

modjo
()

вопрос по ipt_NETFLOW и iptables

Есть шлюз, на котором в iptables настроено фильтровать трафик по портам (фильтрация осуществляется в таблице filter в FORWARD). И вопрос в том, где разместить правило для сенсора, для правильного учета трафика. На данный момент есть правило:

iptables -A FORWARD -j NETFLOW

Но как я понимаю оно учитывает все, в том числе и те пакеты, которые будут отпрошены в итоге. Данное правило стоит последним в FORWARD. Политика у FORWARD по умолчанию DROP.

Все что находил в сети касается снятия статистики без какой либо фильтрации трафика. Потому и закрались сомнения.

 , ,

modjo
()

boot time ipt_NETFLOW

ОС: centos 5.8. Не могу понять как правильно загрузить данный модуль для iptables. Пробовал двумя способами: 1) через /etc/sysconfig/iptables-config; 2) создать файл /etc/rc.modules. Но в обоих случаях модуль грузится, но на интерфейс lo не вешается:

cat /proc/net/stat/ipt_netflow
Flows: active 0 (peak 0 reached 0d0h0m ago), mem 0K
Hash: size 160000 (mem 625K), metric 1.0, 1.0, 1.0, 1.0. MemTraf: 0 pkt, 0 K (pdu 0, 0).
Timeout: active 1800, inactive 15. Maxflows 2000000
Rate: 0 bits/sec, 0 packets/sec; Avg 1 min: 0 bps, 0 pps; 5 min: 0 bps, 0 pps
cpu#  stat: <search found new, trunc frag alloc maxflows>, sock: <ok fail cberr, bytes>, traffic: <pkt, bytes>, drop: <pkt, bytes>
Total stat:      0      0      0,    0    0    0    0, sock:      0 0 0, 0 K, traffic: 0, 0 MB, drop: 0, 0 K
cpu0  stat:      0      0      0,    0    0    0    0, sock:      0 0 0, 0 K, traffic: 0, 0 MB, drop: 0, 0 K
cpu1  stat:      0      0      0,    0    0    0    0, sock:      0 0 0, 0 K, traffic: 0, 0 MB, drop: 0, 0 K
sock0: 127.0.0.1:8818, sndbuf 110592, filled 0, peak 0; err: sndbuf reached 0, other 0

Последняя строчка отсутствует при кривом запуске. Я слышал что iptables загружается раньше чем инит скрипты поднимают lo. Но сто процентов не уверен, но кажется так. Подскажите как корректно загрузить данный модуль??

PS например модули ip_nat_pptp, ip_nat_ftp замечательно стартуют при использовании любого варианта запуска.

 , ,

modjo
()

modprobe ip_nat_pptp

Доброй ночи

Система на centos 5.8. В общем есть НАТ, работает. Надо при загрузке подгружать модуль ip_nat_pptp. Посмотрев доки обнаружил, что рекомендуется использовать файл /etc/rc.modules (сделать его исполняемым).

echo ip_nat_pptp > /etc/rc.modules
chmod +x /etc/rc.modules

Но после перезагрузки этого модуля нет в списке загруженных. И я не могу быть уверен на все сто, что данный метод работает.

Может я неверно выбрал способ загрузки модуля?

 , , ,

modjo
()

convert для wiki

Система centos58

Есть проблема вида

/usr/bin/convert: No such file or directory

Такое сообщение при использовании wiki, при создании миниатюр. convert входит в состав ImageMagick. Тянет за собой просто немерено говна. А мне то надо только миниатюру сделать. Может есть возможность поставить отдельно convert от imagemagick? Может плохо искал, но ничего не нашел (((

 , ,

modjo
()

yum в centos

Доброй ночи. У меня три сервера на centos и все они по разному отрабатывают на команду:

# yum search pwdfile

У двух подгружаются разные репы, на одном сервере находится пакет, на другом нет.

# yum search pwdfile
Loaded plugins: fastestmirror, security
Loading mirror speeds from cached hostfile
 * base: www.ftp.ne.jp
 * epel: mirror.xfes.ru
 * extras: www.ftp.ne.jp
 * updates: ftp.jaist.ac.jp
===================================================== Matched: pwdfile ======================================================
pam-pam_pwdfile.i386 : PAM module - authenticate on htpasswd-type files separate from /etc/passwd
# yum search pwdfile
Loaded plugins: fastestmirror, security
Loading mirror speeds from cached hostfile
 * base: ftp.yz.yamagata-u.ac.jp
 * epel: mirror.xfes.ru
 * extras: mirror.corbina.net
 * updates: ftp.yz.yamagata-u.ac.jp
Warning: No matches found for: pwdfile
No Matches found
# yum search pwdfile
Loaded plugins: fastestmirror, security
Loading mirror speeds from cached hostfile
Warning: No matches found for: pwdfile
No Matches found

Если посмотреть откуда можно поставить пакет на первом сервер, то это будет репозиторий installed. Пробовал отключить плагин fastestmirror. Как мне показалось пробоема может быть в нем. Но тогда, где работает «номально», перестают работать. Как боротся с разными репозиториями? Так же невозможно работать... Как я понимаю fastestmirror выдает наиболее близкие к серверу репы. Так как сервера стоят в разных местах, то и репы разные.

 , fastestmirror, ,

modjo
()

squidguard - time

Народ, подскажите что делаю не так. Усть вот это

time afterwork {
  weekly mon tue wed thu fri sat sun 14:40-24:00
}

src rest {
  ip 192.168.40.10
}

acl {
  rest within afterwork {
    pass none
    redirect http://traff.xxxxx.ru/accessdenied/ad-afterwork.html
  }
  else {
    pass any
  }

  admins {
    pass any
  }

  users {
    pass white-list !block-files !black-list any
  }

  default {
    pass none
    redirect http://traff.xxxxxx.ru/accessdenied/ad-none.html
  }
}

И по каким-то причинам все равно пропускает в инет пользователя rest (192.168.40.10). В чем может быть проблема?

modjo
()

RSS подписка на новые темы