LINUX.ORG.RU

Сообщения bredis

 

Скрипт бэкапа

Всем привет. Нужно написать скрипт бэкапа. Погуглив на эту тему были найдены заготовки + добавлено свое.

Единственное, что не удалось победить это контроль за переполнением диска перед началом бэкапа. Перед тем как копировать настройки и снимать дамп с БД, нужно проверить сколько осталось свободного места и удалить самый ранний бэкап(весь каталог).

find $bdir -mindepth 1 -maxdepth 1 -type d -printf '%T@ %p\n' | sort -rnk1 | awk 'NR>5 { sub(/^\S+ /, "", $0); system("rm -r -f \"" $0 "\"")}'

В данной строке идет поиск по каталогу и удаляются каталоги если их больше 5.

Я же хочу всегда получать общее количество каталогов и удалять самый первый. Грубо говоря:

find $bdir -mindepth 1 -maxdepth 1 -type d -printf '%T@ %p\n' | sort -rnk1 | awk 'NR>$(ls /backup | wc -l -1) { sub(/^\S+ /, "", $0); system("rm -r -f \"" $0 "\"")}'

Помогите пожалуйста.

 , ,

bredis
()

mdadm восстановить raid1

Всем привет. Прошу помочь в непростой ситуации.

Был на сервере массив raid1 созданный через mdadm из 2х SATA дисков которые подключены к встроенному sata контролеру в режиме AHCI. На сервере пришлось поменять материнку. После этого массив развалился. При этом остальные сервисы на сервере стартанули и работают без проблем. Немного информации:

1@1:~$ sudo fdisk -l
[sudo] password for 1:
Disk /dev/sda: 372.1 GiB, 399532621824 bytes, 780337152 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 07F1A242-C78C-4452-8563-44194004DA1C

Device     Start       End   Sectors   Size Type
/dev/sda1   2048      4095      2048     1M BIOS boot
/dev/sda2   4096 780335103 780331008 372.1G Linux filesystem


Disk /dev/sdb: 279 GiB, 299506860032 bytes, 584974336 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x2267c0b4

Device     Boot Start       End   Sectors  Size Id Type
/dev/sdb1        2048 584974335 584972288  279G 83 Linux


Disk /dev/sdc: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdd: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes

1@1:~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
unused devices: <none>
 

Зеркало было из дисков /dev/sdc и /dev/sdd. При этом файл /etc/mdadm/mdadm.conf не содержал какой-либо информации о ранее созданном массиве. Хотя системный диск подключили к точно такой же новой МП.

Еще немного инфы:

1@1:~$ sudo lsblk -o NAME,SIZE,FSTYPE,TYPE,MOUNTPOINT
NAME     SIZE FSTYPE          TYPE MOUNTPOINT
sda    372.1G                 disk
├─sda1     1M                 part
└─sda2 372.1G ext4            part /
sdb      279G                 disk
└─sdb1   279G ext4            part /backup
sdc      3.7T isw_raid_member disk
sdd      3.7T isw_raid_member disk

1@1:~$ sudo mdadm -E /dev/sdc
/dev/sdc:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.3.00
    Orig Family : e91da232
         Family : e91da232
     Generation : 000ef811
     Attributes : All supported
           UUID : 5f1b7d06:53202ca3:93b7d167:152999d5
       Checksum : 1b716728 correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk01 Serial : VBGJ587F
          State : active
             Id : 00000003
    Usable Size : 7814026766 (3726.02 GiB 4000.78 GB)

[Mirror]:
           UUID : e020cd0e:5c32b57a:48cf5c05:1b54bdec
     RAID Level : 1
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 1
    Sector Size : 512
     Array Size : 7423324160 (3539.72 GiB 3800.74 GB)
   Per Dev Size : 7423326208 (3539.72 GiB 3800.74 GB)
  Sector Offset : 0
    Num Stripes : 28997360
     Chunk Size : 64 KiB
       Reserved : 0
  Migrate State : idle
      Map State : normal
    Dirty State : clean
     RWH Policy : off

  Disk00 Serial : VBGJ387F
          State : active
             Id : 00000002
    Usable Size : 7814026766 (3726.02 GiB 4000.78 GB)
1@1:~$ sudo mdadm -E /dev/sdd
/dev/sdd:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.3.00
    Orig Family : e91da232
         Family : e91da232
     Generation : 000ef811
     Attributes : All supported
           UUID : 5f1b7d06:53202ca3:93b7d167:152999d5
       Checksum : 1b716728 correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk00 Serial : VBGJ387F
          State : active
             Id : 00000002
    Usable Size : 7814026766 (3726.02 GiB 4000.78 GB)

[Mirror]:
           UUID : e020cd0e:5c32b57a:48cf5c05:1b54bdec
     RAID Level : 1
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 0
    Sector Size : 512
     Array Size : 7423324160 (3539.72 GiB 3800.74 GB)
   Per Dev Size : 7423326208 (3539.72 GiB 3800.74 GB)
  Sector Offset : 0
    Num Stripes : 28997360
     Chunk Size : 64 KiB
       Reserved : 0
  Migrate State : idle
      Map State : normal
    Dirty State : clean
     RWH Policy : off

  Disk01 Serial : VBGJ587F
          State : active
             Id : 00000003
    Usable Size : 7814026766 (3726.02 GiB 4000.78 GB)
1@1:~$ sudo mdadm --assemble --scan --auto=yes --symlink=no
mdadm: No arrays found in config file or automatically

А дальше, похоже, была совершена ошибка:

1@1:~$ sudo mdadm --create /dev/md127 --level=1 --raid-devices=2 /dev/sdc /dev/sdd
mdadm: /dev/sdc appears to contain an ext2fs file system
       size=3711662080K  mtime=Thu Nov 16 13:56:05 2023
mdadm: /dev/sdc appears to be part of a raid array:
       level=container devices=0 ctime=Thu Jan  1 03:00:00 1970
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sdd appears to contain an ext2fs file system
       size=3711662080K  mtime=Thu Nov 16 13:56:05 2023
mdadm: /dev/sdd appears to be part of a raid array:
       level=container devices=0 ctime=Thu Jan  1 03:00:00 1970
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md127 started.
1@1:~$ sudo fdisk -l
Disk /dev/sda: 372.1 GiB, 399532621824 bytes, 780337152 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 07F1A242-C78C-4452-8563-44194004DA1C

Device     Start       End   Sectors   Size Type
/dev/sda1   2048      4095      2048     1M BIOS boot
/dev/sda2   4096 780335103 780331008 372.1G Linux filesystem


Disk /dev/sdc: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdd: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/sdb: 279 GiB, 299506860032 bytes, 584974336 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x2267c0b4

Device     Boot Start       End   Sectors  Size Id Type
/dev/sdb1        2048 584974335 584972288  279G 83 Linux


Disk /dev/md127: 3.7 TiB, 4000651739136 bytes, 7813772928 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
1@1:~$ sudo mdadm --detail --scan
ARRAY /dev/md/127 metadata=1.2 name=disk:127 UUID=e108adc3:72a41c9d:cc5a753c:4d1aaada
1@1:~$ sudo cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md127 : active raid1 sdc[0] sdd[1]
      3906886464 blocks super 1.2 [2/2] [UU]
      [==>..................]  resync = 14.5% (568062016/3906886464) finish=278.9min speed=199486K/sec
      bitmap: 26/30 pages [104KB], 65536KB chunk

unused devices: <none>

Сейчас идет синхронизация массива. Каковы мои дальнейшие действия? Резервных копий данных нет.

 , ,

bredis
()

Syslog и маршрутизатор Huawei серии AR

Всем привет. Настроил сислог сервер на debian 11 в связке rsyslog, mariadb и LogAnalyzer. Проблема началась с логами от данного маршрутизатора:

May  5 13:05:07 2022-5-5 10: 05:32 router %%01NTP/4/PEER_SELE(l)[246118]:The peer selected by the system is 192.168.1.2.
May  5 13:05:08 2022-5-5 10: 05:33 router %%01NTP/4/SOURCE_LOST(l)[246119]:System synchronization source lost.
May  5 13:05:11 2022-5-5 10: 05:36 router %%01DEFD/4/CPCAR_DROP_MPU(l)[246120]:Some packets are dropped by cpcar on the MPU. (Packet-type=arp-request, Drop-Count=32)

Я тут вижу, что вместо hostname/IP роутер присылает дату, а в поле Syslogtag время. Соответственно это не удобно. Можно ли это как-то пофиксить средствами rsyslog? И логи от свитча dlink для примера:

Apr 29 14:35:04 192.168.1.1 INFO: SNMP request received from 192.168.1.20 with invalid community string!
Apr 29 14:35:05 192.168.1.1 INFO: SNMP request received from 192.168.1.20 with invalid community string!

 , ,

bredis
()

Запуск скрипта в Ubuntu 18.04 из crone

Здравствуйте. Написал скрипт положил его в каталог

/root/scripts/script_new.sh

Запускаю из консоли

sudo /root/scripts/script_new.sh

Всё отлично работает.

В каталоге cron.d сделал скрипт с содержимым:

#!/bin/bash

PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin

0 2 * * 1-7 root /root/scripts/script_new.sh

При запуске этого скрипта мне выдается сообщение

user@vm-1:~$ sudo /etc/cron.d/test-backup
/etc/cron.d/test-backup: line 5: 0: command not found
user@vm-1:~$

Что я делаю не так?

 , ,

bredis
()

bash скрипт с множественными условиями

Уважаемые, подскажите как на bash написать скрипт с условиями. Есть датчик температуры в помещении. С него кроном 1 раз в час снимаются показания и в зависимости от температуры и месяца в году нужно принять решение отправлять сообщение на почту или нет. Т.е. если месяц меньше 5 и больше 10(условно зима) и температура ниже 16 и выше 22 отправить сообщение. Иначе если месяц больше 5 и меньше 10(условно лето) и температура меньше 14 и больше 30 отправить почту. Написал такой кусок кода:


#!/bin/sh

m=11
t=18

if [[ $t -lt 16 ]] || [[ $t -ge 22 ]] && [[ $m -lt 5 ]] || [[ $m -gt 10 ]]; then
echo "Зима, всё плохо шлем сообщение"
else
echo "Выполнить скрипт в летнем диапазоне"
fi

Если это выполнить в консоли то он вернет

/opt/home # ./test1.sh
Зима, всё плохо шлем сообщение

Переменная «m» - номер месяца в году, а «t» - температура. Хотя месяц у нас «зимний» и температура в «нормальном» диапазоне. Если это нереально на bash сделать, то подскажите в каком направлении копать. В программировании не силён.

Сейчас у меня есть рабочий скрипт, но он проверяет только одно условие:

if [[ $temp -le $tmin ]] || [[ $temp -ge $tmax ]]; then

 

bredis
()

Помогите разобраться с маршрутизацией

Есть у меня роутер keenetic и сервер на Debian. Через keenetic идет выход в интернет всех устройств и подсетей. У сервера есть свои подсети. Ниже будет картинка для наглядности. В серевере есть одна физическая сетевая ens3 с IP 192.168.101.1, всё остальное это влан интерфейсы, которые приходят тегированными вланами.(ens3.102 и ens3.103). Встала у меня тут задачка пригнать влан 100(ens3.100), но после этого у меня из подесети 192.168.100.0/24 перестал работь ssh и http на все подсети за сервером 192.168.101.1, т.к. пакет на сервер идет через кинетик, а возвращается прямым маршрутом минуя кинетик.

Путем гугления и подсказок стал использовать pbr. Добавил таблицу маршрутизации:

echo 200 isp2 >> /etc/iproute2/rt_tables
И добавил в нее такие записи:

ip rule add iif ens3.102 table isp2
ip rule add iif ens3.103 table isp2
ip rule add from 192.168.101.1 table isp2
ip rule add from 192.168.101.2 table isp2
ip rule add from 192.168.101.3 table isp2
ip rule add from 192.168.102.253  table isp2
ip rule add from 192.168.102.254  table isp2
ip rule add from 192.168.103.253  table isp2
ip rule add from 192.168.103.254  table isp2
ip route add default via 192.168.101.254 dev ens3 table isp2
Но тут произошло следующее. Сам сервер перестал общаться напрямую со 192.168.102.253 и 192.168.103.253, все запросы согласно правил улетают на 192.168.101.254.

Как-то можно это побороть?

По ссылке схема сети. https://ibb.co/r54dSV0 Зеленой стрелкой запрос от 100.10 в сторону 101.1. Красной стрелкой ответ от 101.1

 , ,

bredis
()

Cacti 1.2.2 метод spine обновляет не все графики

Имеется Debian 10 и Cacti 1.2.2(будь он не ладен). Проблема в том, что spine не обновляет данные в графике, а cmd.php отлично работает. Изучая логи наткнулся на то, что при cmd.php есть строка:

2019/11/05 11:23:04 - POLLER: Poller[Main Poller] Parsed MULTI output field 'CONNECTIONS:11' [map CONNECTIONS->connections]
А при Spine она отсутствует. Ниже лог, что бы было понятнее:

2019/11/05 11:24:03 - SYSTEM STATS: Time:2.3771 Method:spine Processes:1 Threads:1 Hosts:1 HostsPerProcess:1 DataSources:2 RRDsProcessed:2
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] Time: 1.0938 s, Threads: 1, Devices: 1
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] DEBUG: Net-SNMP Close Completed
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] DEBUG: MYSQL Free & Close Completed
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] DEBUG: Allocated Variable Memory Freed
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] DEBUG: PHP Script Server Pipes Closed
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] DEBUG: Thread Cleanup Complete
2019/11/05 11:24:02 - POLLER: Poller[Main Poller] CACTI2RRD: /usr/bin/rrdtool update /usr/share/cacti/site/rra/extra-2_bikovo-17_home10161_connections_264.rrd --skip-past-updates --template CONNECTIONS 1572942241:U
2019/11/05 11:24:02 - POLLER: Poller[Main Poller] CACTI2RRD: /usr/bin/rrdtool update /usr/share/cacti/site/rra/extra-2_bikovo-17_home10161_cpu_75.rrd --skip-past-updates --template CPU 1572942241:3

2019/11/05 11:24:02 - POLLER: Poller[Main Poller] Parsed MULTI output field 'CPU:3' [map CPU->CPU]

2019/11/05 11:24:02 - SPINE: Poller[Main Poller] SPINE: The Final Value of Threads is 0
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] POLLER: Active Threads is 0, Pending is 0
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] DEBUG: The Value of Active Threads is 0 for Device ID 8
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] Device[extra-2.bikovo-17.home:10161] HT[1] DEBUG: HOST COMPLETE: About to Exit Device Polling Thread Function
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] Device[extra-2.bikovo-17.home:10161] HT[1] Total Time: 0.56 Seconds
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] Device[extra-2.bikovo-17.home:10161] HT[1] DS[extra-2.bikovo-17.home:10161 - CPU Usage Percent] Graphs[extra-2.bikovo-17.home:10161 - Keenetic CPU Usage Percent] SCRIPT: /usr/bin/php /usr/share/cacti/site/scripts/query_keenetic_memory.php 'extra-2.bikovo-17.home' '10161' 'public' , output: "TOTAL:131072 USAGE:40120 PERCENT:30 CPU:3
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] Device[extra-2.bikovo-17.home:10161] DEBUG: The NIFTY POPEN returned the following File Descriptor 8
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] Device[extra-2.bikovo-17.home:10161] HT[1] DS[extra-2.bikovo-17.home:10161 - Keenetic - Connections] Graphs[extra-2.bikovo-17.home:10161 - Keenetic - Connections] SCRIPT: /usr/bin/php /usr/share/cacti/site/scripts/query_keenetic_connections.php 'extra-2.bikovo-17.home' '10161' 'public' , output: "CONNECTIONS:6
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] Device[extra-2.bikovo-17.home:10161] DEBUG: The NIFTY POPEN returned the following File Descriptor 8
2019/11/05 11:24:02 - SPINE: Poller[Main Poller] Device[extra-2.bikovo-17.home:10161] HT[1] NOTE: There are '2' Polling Items for this Device
2019/11/05 11:24:01 - SPINE: Poller[Main Poller] Device[extra-2.bikovo-17.home:10161] HT[1] Device has no information for recache.
2019/11/05 11:24:01 - SPINE: Poller[Main Poller] Updating Full System Information Table
2019/11/05 11:24:01 - SPINE: Poller[Main Poller] Device[extra-2.bikovo-17.home:10161] DEBUG: Entering ICMP Ping
2019/11/05 11:24:01 - POLLER: Poller[Main Poller] DEBUG: About to Spawn a Remote Process [CMD: /usr/sbin/spine, ARGS: -C /etc/cacti/spine.conf --poller=1 --first=0 --last=0 --mibs]
2019/11/05 11:24:01 - POLLER: Poller[Main Poller] NOTE: Poller Int: '60', Cron Int: '60', Time Since Last: '60.44', Max Runtime '58', Poller Runs: '1'
2019/11/05 11:23:06 - POLLER: Poller[Main Poller] DEBUG: About to Spawn a Remote Process [CMD: /usr/bin/php, ARGS: -q /usr/share/cacti/site/poller_automation.php --poller=1 --network=1]
2019/11/05 11:23:04 - SYSTEM STATS: Time:2.4673 Method:cmd.php Processes:1 Threads:N/A Hosts:1 HostsPerProcess:1 DataSources:2 RRDsProcessed:2
2019/11/05 11:23:04 - POLLER: Poller[Main Poller] CACTI2RRD: /usr/bin/rrdtool update /usr/share/cacti/site/rra/extra-2_bikovo-17_home10161_connections_264.rrd --skip-past-updates --template connections 1572942182:11
2019/11/05 11:23:04 - POLLER: Poller[Main Poller] CACTI2RRD: /usr/bin/rrdtool update /usr/share/cacti/site/rra/extra-2_bikovo-17_home10161_cpu_75.rrd --skip-past-updates --template CPU 1572942182:3

2019/11/05 11:23:04 - POLLER: Poller[Main Poller] Parsed MULTI output field 'CONNECTIONS:11' [map CONNECTIONS->connections]
2019/11/05 11:23:04 - POLLER: Poller[Main Poller] Parsed MULTI output field 'CPU:3' [map CPU->CPU]

2019/11/05 11:23:04 - POLLER: Poller[Main Poller] Time: 1.3466 s, Poller: , Theads: N/A, Devices: 1
2019/11/05 11:23:04 - POLLER: Poller[Main Poller] Device[extra-2.bikovo-17.home:10161] DS[extra-2.bikovo-17.home:10161 - CPU Usage Percent] Graphs[extra-2.bikovo-17.home:10161 - Keenetic CPU Usage Percent] CMD: /usr/bin/php /usr/share/cacti/site/scripts/query_keenetic_memory.php 'extra-2.bikovo-17.home' '10161' 'public' , output: TOTAL:131072 USAGE:40120 PERCENT:30 CPU:3
2019/11/05 11:23:03 - POLLER: Poller[Main Poller] Device[extra-2.bikovo-17.home:10161] DS[extra-2.bikovo-17.home:10161 - Keenetic - Connections] Graphs[extra-2.bikovo-17.home:10161 - Keenetic - Connections] CMD: /usr/bin/php /usr/share/cacti/site/scripts/query_keenetic_connections.php 'extra-2.bikovo-17.home' '10161' 'public' , output: CONNECTIONS:11
2019/11/05 11:23:03 - POLLER: Poller[Main Poller] Device[extra-2.bikovo-17.home:10161] STATUS: Device 'extra-2.bikovo-17.home' is UP.
2019/11/05 11:23:02 - PING Device[extra-2.bikovo-17.home:10161] PING: ICMP Ping Success (3.381 ms)
2019/11/05 11:23:02 - POLLER: Poller[Main Poller] NOTE: There are no items in your poller for this polling cycle!

 ,

bredis
()

Apache/2.4.25 (Debian Stretch) после обновления перестали работать виртуальные хосты

Обновился до Stretch и подвох возник там где его совсем не ожидаешь. Перестали работать виртуальные хосты. Есть у меня виртуал хост cacti.ns.home Сделал я его путем редактирования родного файла cacti.conf и имеет он такой вид

<VirtualHost *:80>
ServerName cacti.ns.home
#ServerAlias cacti
ServerAdmin *****@*****.***
DocumentRoot "/usr/share/cacti/site"


<Directory "/usr/share/cacti/site">
<------>Options +FollowSymLinks
<------>AllowOverride None
<------><IfVersion >= 2.3>
<------><------>Require all granted
<------></IfVersion>
<------><IfVersion < 2.3>
<------><------>Order Allow,Deny
<------><------>Allow from all
<------></IfVersion>

<------>AddType application/x-httpd-php .php

<------><IfModule mod_php.c>
<------><------>php_flag magic_quotes_gpc Off
<------><------>php_flag short_open_tag On
<------><------>php_flag register_globals Off
<------><------>php_flag register_argc_argv On
<------><------>php_flag track_vars On
<------><------># this setting is necessary for some locales
<------><------>php_value mbstring.func_overload 0
<------><------>php_value include_path .
<------></IfModule>

<------>DirectoryIndex index.php



</Directory>
LogLevel debug
</VirtualHost>

на jessie всё работало как часы. Тут же не в какую. Если файл привести к исходному виду и обращаться ns.home/cacti то всё работает. Подобным же образом был переделан файл phpmyadmin'a он тоже перестал работать. Работают только алиасы. В журнале ошибок апача при обращении есть такие строки

cacti.ns.home:80 192.168.100.10 - - [28/Jun/2017:21:45:57 +0300] "GET /cacti/images/tab_graphs.gif HTTP/1.1" 404 520 "http://cacti.ns.home/" "Mozilla/5.0 (Wi
cacti.ns.home:80 192.168.100.10 - - [28/Jun/2017:21:45:57 +0300] "GET /cacti/images/left_border.gif HTTP/1.1" 404 521 "http://cacti.ns.home/" "Mozilla/5.0 (W
cacti.ns.home:80 192.168.100.10 - - [28/Jun/2017:21:45:57 +0300] "GET /cacti/images/menu_line.gif HTTP/1.1" 404 519 "http://cacti.ns.home/" "Mozilla/5.0 (Win
Смущает «GET /cacti/images/left_border.gif HTTP/1.1» 404 521 особенно /cacti вначале запроса. Т.к. если в криво открывшимся главном окне кактуса нажать на любую ссылку то ссылаться он будет на
http://cacti.ns.home/cacti/plugins.php
и выдаст 404 Not Found, а не на
http://cacti.ns.home/plugins.php
При прямом обращении на "http://cacti.ns.home/plugins.php" страницу он отдаст, но беp разметки и картинок, т.к. картинки будут ссылаться на
GET /cacti/images/left_border.gif HTTP/1.1" 404 521 "http://cacti.ns.home/plugins.php"
Вот список /etc/apache2/mods-enabled
│@access_compat.load                                   
│@alias.conf                                           
│@alias.load                                           
│@auth_basic.load                                      
│@authn_core.load                                      
│@authn_file.load                                      
│@authz_core.load                                      
│@authz_host.load                                      
│@authz_user.load                                       
│@autoindex.conf                                        
│@autoindex.load                                        
│@deflate.conf                                          
│@deflate.load                                          
│@dir.conf                                              
│@dir.load                                              
│@env.load                                              
│@filter.load                                          
│@mime.conf                                            
│@mime.load                                             
│@mpm_prefork.conf                                      
│@mpm_prefork.load                                      
│@negotiation.conf                                      
│@negotiation.load                                      
│@php7.0.conf                                          
│@php7.0.load                                          
│@reqtimeout.conf                                      
│@reqtimeout.load                                       
│@setenvif.conf                                         
│@setenvif.load                                         
│@status.conf                                           
│@status.load                                           
│@userdir.conf                                          
│@userdir.load                                          
│@vhost_alias.load   
Уже не знаю, что делать. Помогите знающие люди.

 ,

bredis
()

SNMP mib файл не работает

Всем привет. Люди добрые помогайте. Скачал с фтп длинка mib файл для свитча DGS1100-10ME. Положил его в каталог «/usr/share/snmp/mibs» к другим миб файлам. Добавил запись в «/etc/snmp/snmp.conf»

# As the snmp packages come without MIB files due to license reasons, loading
# of MIBs is disabled by default. If you added the MIBs you can reenable
# loading them by commenting out the following line.

mibs DGS-1100-10ME_A1:NAS-MIB:UCD-SNMP-MIB:SNMPv2-SMI:SNMPv2-MIB:RFC1155-SMI:ZYXEL-ES-COMMON:ZYXEL-ES-SMI:RMON-MIB:RFC1213-MIB:BRIDGE-MIB:SNMP-NOTIFICATION-M
IB:SNMP-MPD-MIB:SNMP-FRAMEWORK-MIB:SNMP-VIEW-BASED-ACM-MIB:SNMP-USER-BASED-SM-MIB:LLDP-MIB:IEEE8023-LAG-MIB
Рестартнул snmpd.

Ввожу в консоле

root@ns:~# snmpwalk -v2c -c public 192.168.101.250 DGS-1100-10ME_A1::ramLast5SecUsage"
а он мне в ответ
MIB search path: /root/.snmp/mibs:/usr/share/snmp/mibs:/usr/share/snmp/mibs/iana:/usr/share/snmp/mibs/ietf:/usr/share/mibs/site:/usr/share/snmp/mibs:/usr/share/mibs/iana:/usr/share/mibs/ietf:/usr/share/mibs/netsnmp
Cannot find module (DGS-1100-10ME_A1): At line 0 in (none)
DGS-1100-10ME_A1::ramLast5SecUsage: Unknown Object Identifier
Права на файл выставлены по аналогии с рабочими. Я уже всю голову сломал, что не так. При этом все остальные mib работают и их добавление никогда не вызывало проблем. А тут зажопилось и не в какую.

 , , ,

bredis
()

FreeRADIUS 2.2.8 и разделение пользователей по группам и правам

Сообщество помогайте, я уже угуглился. Имеется FreeRADIUS 2.2.8 + MySQL, все это настроено и работает. Задача разделить пользователей на 2 группы: 1 группа это пользователи VPN. 2 группа это пользователи с аккаунтами для входа на коммутаторы(есть zyxel, dlink) Основу я настраивал по инструкции: https://habrahabr.ru/post/128599/

В итоге сейчас всем пользователям из

mysql> select * from radcheck;
+----+----------+--------------------+----+---------+
| id | username | attribute          | op | value   |
+----+----------+--------------------+----+---------+
|  1 | sqltest  | Password           | == | testpwd |
|  5 | user1    | User-Password      | := | pass1  |
|  6 | user2    | User-Password      | := | pass2  |
|  7 | user3    | User-Password      | := | pass3  |
|  8 | user4    | User-Password      | := | pass4  |
+----+----------+--------------------+----+---------+
5 rows in set (0,00 sec)
Доступно как подключение по VPN, так и авторизация на свитчах. Как можно сделать так, что бы user1 и user2, это логины для свитчей(авторизация), а user3, user4 это VPN логины?

 , ,

bredis
()

daloRADIUS не работает коннект к db

Поставил freeradius + mysql + daloradius на debian-8 Связка freeradius + mysql работает.

 radtest sqltest testpwd localhost 1812 testing123
Sending Access-Request of id 4 to 127.0.0.1 port 1812
        User-Name = "sqltest"
        User-Password = "testpwd"
        NAS-IP-Address = 127.0.0.1
        NAS-Port = 1812
        Message-Authenticator = 0x00000000000000000000000000000000
rad_recv: Access-Accept packet from host 127.0.0.1 port 1812, id=4, length=20
А вот с далорадиусом проблема. Окно авторизации есть, ввожу логин с паролем и получаю в логе apache
Undefined index: location in /var/www/daloradius/dologin.php on line 45
Если добавить DB.php, PEAR.php,PEAR5.php в каталог /var/www/daloradius/ то ошибки в логе нет, но в браузере получаю:
Database connection error
Error Message: DB Error: not found 
Если в «/var/www/daloradius/dologin.php» прописать «/usr/share/php/DB.php» то в логе апача получаю
Undefined index: location in /var/www/daloradius/dologin.php on line 45

Сделал по инструкции https://sourceforge.net/p/daloradius/support-requests/16/

pear channel-update pear.php.net
pear install MDB2#mysql
pear upgrade
pear install MDB2#mysqli
chown apache:apache /usr/share/pear/DB -R
все кроме последней строчки «chown apache:apache /usr/share/pear/DB -R», т.к. у меня нет такого каталога в «/usr/share»

Прошу в гугл не посылать, т.к. все что можно там найти я похоже уже нашел, но так и не смог запустить эту связку. Очень прошу помощи.

 , ,

bredis
()

Bash скрипт, не правильно работает Cacti

Написал на баше простенький скрипт

#!/bin/sh

free_memory=`free | grep cache | awk '{print $4}' | tail -n1`
free_memory=${free_memory}

usage_memory=`free | grep cache | awk '{print $3}' | tail -n1`
usage_memory=${usage_memory}


total_memory=$(($free_memory+$usage_memory))

echo "total:$total_memory usg:$usage_memory"

Добавил Data Input Methods, создал Data Templates, Graph Templates.

Добавил этот график на сам сервер (Debian) и ещё на 1 unix систему. А странность в том, что график на unix системе, это не её данные, а данные сервера.

Может кто-нибудь объяснит, что я сделал не так и как это поправить?

 , , ,

bredis
()

ISC DHCP 4.3.2 после release перестает выдавать адреса

Собственно проблема в заголовке. Запускаешь демона, делаешь на клиенте renew получаешь адрес, делаешь release видишь последнюю строчку:

DHCPRELEASE of 192.168.100.2 from 00:16:cf:83:25:a4 via br0 (found)
После этого он перестает выдавать адреса, будто перестает слушать интерфейс и принимать входящие запросы. Пока его не перезапустишь. Эта конфигурация на 4.2.4 стабильно работала. Кто может подсказать в чем дело и куда копать?

 , ,

bredis
()

Не добавляется CNAME через nsupdate

Есть BIND 9.9.6-P1, на нем лежит локальная зона home которая динамически обновляется с isc-dhcp. Сегодня решил к одному узлу добавить алиас. Для этого написал небольшой срипт:

#!/bin/sh

TTL=3600
SERVER=ns.home
HOSTNAME=debian.home.
ZONE=home.
AL=cacti
KEYFILE=/opt/etc/namedb/keys/Kdhcp-updater


nsupdate -v -k $KEYFILE<<EOF
server $SERVER
zone $ZONE
update delete $HOSTNAME CNAME $AL
update add $HOSTNAME $TTL CNAME $AL
send
quit
EOF
Но чуда не случилось и bind в логе выдал:
30 мая 22:13:28	named[1677]	client 192.168.100.254#38106/key dhcp-updater: signer "dhcp-updater" approved
30 мая 22:13:28	named[1677]	client 192.168.100.254#38106/key dhcp-updater: updating zone 'home/IN': deleting an RR at debian.home CNAME
30 мая 22:13:28	named[1677]	client 192.168.100.254#38106/key dhcp-updater: updating zone 'home/IN': attempt to add CNAME alongside non-CNAME ignored
Целый час гуглил, но так ничего и не смог найти. Может кто с таким сталкивался? Помогите пожалуйста.

 ,

bredis
()

Помогите правильно написать скрипт

История такова. Есть сервак на которм крутится OVPN сервер с конфигом под tun. Появилась задача запустить второго демона OVPN, но уже с конфигом под tap. Написал скрипт start/stop.

#!/bin/sh

PATH=/opt/sbin:/opt/bin:/opt/usr/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin

ONVPN_TAP_PID=`ps | grep "openvpn --daemon --cd /opt/etc/openvpn --config openvpn-tap.conf" | awk '{print $1}' | head -1`
ONVPN_TAP_PID=${ONVPN_TAP_PID}

start() {

openvpn --daemon --cd /opt/etc/openvpn --config openvpn-tap.conf

 sleep 1
 brctl addif br0 tap0
 ifconfig tap0 up
}

stop() {
<------>
ifconfig tap0 down
brctl delif br0 tap0
kill ${ONVPN_TAP_PID}

}

restart() {
<------>stop
<------>sleep 3
<------>start
}

case "$1" in
<------>start)
<------><------>start
<------><------>;;
<------>stop)
<------><------>stop
<------><------>;;
<------>restart)
<------><------>restart
<------><------>;;
<------>link_up)
<------><------>;;
<------>ppp_up)
<------><------>;;
<------>link_down)
<------><------>;;
<------>ppp_down)
<------><------>;;
<------>*)
<------><------>echo "Usage: $0 {start|stop|restart|link_up|link_down|ppp_up|ppp_down}"
<------><------>;;
esac

С запуском все ок, а вот с остановкой возникла проблема. ТАП демона я убиваю по pid, а pid я получаю

ONVPN_TAP_PID=`ps | grep "openvpn --daemon --cd /opt/etc/openvpn --config openvpn-tap.conf" | awk '{print $1}' | head -1`
ONVPN_TAP_PID=${ONVPN_TAP_PID}
И вот тут самое интересное, если окно терминала putty «во весь экран» тогда выхлоп ps умещается «на весь экран» и pid получается верный. Если окно терминала маленькое, то выхлоп ps не умещается и я получаю не правильный pid.(выходит pid самого ps) Можно как-то поправить этот скрипт или написать другой, что б он не был привязан к размеру окна терминала?

 

bredis
()

OpenVPN и скрипт из конфига на клиенте

Здравствуйте. Есть ОпенВПН клиент в конфиге которого присутствует парметр запуска внешнего скрипта. Т.е. up /etc/namedb/DDNS up-restart /etc/namedb/DDNS В итоге, что происходит. Если по какой-то причине внешний скрипт выполнился с ошибкой то и сам ОпенВПН отключается и запустить его можно только руками и то после того когда внешний скрипт начнет работать без ошибки, что не очень удобно т.к. клиент не близко. У меня такой вопрос, можно ли в конфиг добавить какой-то параметр при котором самому ОпенВПНу будет все равно как отработал внешний скрипт?

 ,

bredis
()

isc DHCP и классы не работают

Всем привет. Предыстория такая, есть однотипные устройства с одинаковыми первыми актетами MAC. Решил классами на isc dhcp загнать их в отдельную подсеть, но это не работает. Адреса выдаются из другой подсети.

Вот конфиг: # dhcpd.conf

ddns-updates on; ddns-update-style interim; ddns-domainname «home»; ddns-rev-domainname «in-addr.arpa»; authoritative; log-facility local7; update-optimization on; #allow client-updates; use-host-decl-names on; update-static-leases on; update-conflict-detection false; default-lease-time 86400; max-lease-time 86400; ddns-ttl 86400; option wpad code 252 = text; option wpad «\n»; key dhcp-updater { algorithm hmac-md5; secret «jhuhu»;}

zone home { primary 127.0.0.1; key dhcp-updater; }

zone 100.168.192.in-addr.arpa. { primary 127.0.0.1; key dhcp-updater; } zone 101.168.192.in-addr.arpa. { primary 127.0.0.1; key dhcp-updater; }

class «test» { match if (binary-to-ascii(16,8,":",substring(hardware, 0, 4)) = «30:85:a9:84»); # log (debug, binary-to-ascii (16,8, ":", hardware)); }

shared-network home{

subnet 192.168.100.0 netmask 255.255.255.0{ range 192.168.100.1 192.168.100.20; option domain-name «home»; option domain-name-servers 192.168.100.254; option routers 192.168.100.254; option broadcast-address 192.168.100.255; }

subnet 192.168.101.0 netmask 255.255.255.0 { range 192.168.101.1 192.168.101.10; option domain-name «home»; option domain-name-servers 192.168.100.254; option routers 192.168.101.254; option broadcast-address 192.168.101.255; }

subnet 192.168.102.0 netmask 255.255.255.0 { option domain-name «home»; option domain-name-servers 192.168.100.254; option routers 192.168.102.254; option broadcast-address 192.168.102.255;

pool{ allow members of «test»; range 192.168.102.1 192.168.102.20; } } }

host admin-pc { hardware ethernet 11:11:11:11:11:11; fixed-address 192.168.1.1;}

В итоге адреса должны быть из 102 подсети, а он из другой выдает. Что подправить в конфиге?

bredis
()

Сервер с BINВ не разрешает имя узла

Гуру помогите. Имеется сервак с BIND 9.9.4 на нем 3 зоны, одна локальная и две внешних. Одна .ru, а вторая .net. Обе зоны могут обновляться динамически(они полные копии только в разных доменах). Проблема в том, что сам сервер не может разрешить имя динамически добавленного хоста в зоне .ru(даже с гугл ДНС выдает: /media/DISK_A1/system/root # nslookup my.host.ru 8.8.8.8 Server: 8.8.8.8 Address 1: 8.8.8.8 google-public-dns-a.google.com

nslookup: can't resolve 'my.host.ru': Name or service not known ), но этот же хост в зоне .net разрешается. С любого компа из сетки этот же сервер хост из .ru зоны спокойно разрешает. Что я только не делал и зону удалял ничего не помогает. При этом dig работает, а nslookup и все остальное не работает.

Сделал host my.server.ru получил верное значение с самого сервера.

UPD. Если постоянно делать nslookup, то иногда он может разрешить, а затем опять can't resolve.

bredis
()

RSS подписка на новые темы