LINUX.ORG.RU

Сообщения as_lan

 

Memory leek в Ubuntu Server

Входные данные.

cat /etc/lsb-release
DISTRIB_ID=Ubuntu
DISTRIB_RELEASE=16.04
DISTRIB_CODENAME=xenial
DISTRIB_DESCRIPTION="Ubuntu 16.04.4 LTS"

uname -a
Linux router 4.4.35-v-ndpi+imq #1 SMP Sat Jan 14 10:35:51 MSK 2017 x86_64 x86_64 x86_64 GNU/Linux



На борту 4 гига. Система используется в качестве шлюза. Непонятно куда ушла вся память. В данный момент выгрузил все модули. Оставил все службы? которые могут так или иначе съедать память (squid, bind и т.д)

op - 12:35:25 up 211 days, 23:20,  6 users,  load average: 0,09, 0,06, 0,03
Tasks: 167 total,   1 running, 166 sleeping,   0 stopped,   0 zombie
%Cpu(s):  0,5 us,  0,6 sy,  0,0 ni, 97,7 id,  0,0 wa,  0,0 hi,  1,2 si,  0,0 st
КиБ Mem :  4046360 total,   635196 free,  1788316 used,  1622848 buff/cache
КиБ Swap:  1994748 total,  1984824 free,     9924 used.  1869396 avail Mem

  PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND
25503 aslan     20   0   83956  56268   2980 S   0,0  1,4   4:21.06 tmux: server
25646 root      20   0   37880  19248   3448 S   0,0  0,5   0:01.81 bash
 7475 root      20   0  107884  17752   8784 S   0,0  0,4  25:08.10 vmtoolsd
 7527 root      20   0   65908  13828  11084 S   0,0  0,3   0:00.08 VGAuthService
23800 nobody    20   0  197856  12324   7672 S   0,0  0,3  10:10.48 openvpn
22018 zabbix    20   0  102924   7252   5764 S   0,0  0,2   4:01.44 zabbix_agentd
22015 zabbix    20   0  102752   7184   5968 S   0,0  0,2  52:39.56 zabbix_agentd
22017 zabbix    20   0  102752   7112   5896 S   0,0  0,2  52:29.97 zabbix_agentd
22016 zabbix    20   0  102752   7108   5896 S   0,0  0,2  51:27.11 zabbix_agentd
23767 nobody    20   0   44912   6860   4820 S   0,0  0,2  27:12.27 openvpn
23789 openvpn+  20   0   44404   6396   4932 S   0,0  0,2  32:31.62 openvpn


Самый жирный tmux. Да и то менее 1.5%

free
              total        used        free      shared  buff/cache   available
Память:     4046360     1788600      634864       41404     1622896     1869064
Подкачка:     1994748        9924     1984824


awk '/Rss:/{ sum += $2 } END { print sum }' /proc/*/smaps
295092


 Active / Total Objects (% used)    : 831202 / 919124 (90,4%)
 Active / Total Slabs (% used)      : 30255 / 30255 (100,0%)
 Active / Total Caches (% used)     : 75 / 135 (55,6%)
 Active / Total Size (% used)       : 236372,27K / 247444,49K (95,5%)
 Minimum / Average / Maximum Object : 0,01K / 0,27K / 8,00K

  OBJS ACTIVE  USE OBJ SIZE  SLABS OBJ/SLAB CACHE SIZE NAME
104130 104130 100%    1,05K   3471       30    111072K ext4_inode_cache
172368 172056  99%    0,19K   8208       21     32832K dentry
232947 204906  87%    0,10K   5973       39     23892K buffer_head
122157 105078  86%    0,19K   5817       21     23268K kmalloc-192
 22988  22175  96%    0,57K    821       28     13136K radix_tree_node
 12348  12348 100%    0,55K    441       28      7056K inode_cache
 32572  32572 100%    0,12K    958       34      3832K kernfs_node_cache
  3400   3005  88%    0,91K    200       17      3200K ndpi_flows
  4004   3733  93%    0,61K    154       26      2464K proc_inode_cache
   928    853  91%    2,00K     58       16      1856K kmalloc-2048
  7216   6264  86%    0,25K    451       16      1804K kmalloc-256
  1696   1306  77%    1,00K    106       16      1696K kmalloc-1024
  4925   4513  91%    0,31K    197       25      1576K nf_conntrack_1
 24832  16813  67%    0,06K    388       64      1552K kmalloc-64
  2304   2169  94%    0,64K     96       24      1536K shmem_inode_cache
 11936   8897  74%    0,12K    373       32      1492K kmalloc-128
 30090  23096  76%    0,05K    354       85      1416K ftrace_event_field
 34374  20598  59%    0,04K    337      102      1348K ext4_extent_status
   328    305  92%    4,00K     41        8      1312K kmalloc-4096
  5820   5820 100%    0,20K    291       20      1164K vm_area_struct
   310    256  82%    3,19K     31       10       992K task_struct


grep Slab /proc/meminfo
Slab:             251264 kB


awk '{print $1 " " $2 }' /proc/modules | head -5
xt_ndpi 294912
xt_TCPMSS 16384
dccp_diag 16384
dccp 73728
tcp_diag 16384


Где мои бабки Джоних где моя память? Куда ушла половина памяти в системе, где почти ничего не запущено.

 ,

as_lan
()

LVM. Потеря данных после fsck

Попал на руки комп с proxmox. C диагнозом не грузиться. При загрузке система говорила об ошибках на разделе. Внутри стоял 1 винт, на котором зачем-то развернут LVM. В свою очередь там 3 раздела. boot, корень и data. На data и ругался. Там же и хранились образы виртуалок. Пытался в proxmox создать бекап - безрезультатно. После 12% резервирование падало с ошибкой. Естественно раз система ругается на ошибки - будем ее исправлять. Отмонтировал. Запустил fsck -yf /dev/pve/data. Было много сообщений об inodes. Но отрапортовал, что все исправил. Монтирую. Иду в директорию с образами - там пусто. Похерились образы и еще некоторые файлы. Все остальное фигня. Главное там были образы. Как теперь быть? Запустил testdisk. Раздел в 2 TB. Отсканирует не скоро. Но не уверен что сможет помочь и что-то найдет.

Понятия не имею, зачем нужен был LVM при одном единственном жестком диске. Не будь LVM с большой вероятностью уверен - с подобной проблемой не сидел бы в 12 ночи.

Если будут дельные советы как восстановить данные - буду очень признателен.

 ,

as_lan
()

Раздача ipv6 с vps

Есть vps с ipv6 (2a02:XXXX::442/32). Есть свой домашний сервер на Ubuntu 16.04. Между ними ipip туннель. Гоняю некоторый трафик (в частности для развлечения настроил, чтоб rtorrent шел через этот туннель). Теперь захотелось еще через этот туннель получить и ipv6. Но перечитав разные мануалы и статьи только запутался. Посему просьба к знающим помочь, как можно туннелировать ipv6. Например, чтоб тот же rtorrent умел и с ipv6 клиентов тянуть или к трекерам с ipv6 адресом подключаться

 ,

as_lan
()

ajax и динамическое обновление

Сразу скажу что я нисколько не web разработчик. Это тема для меня далекая. Мое дело админить. Но есть у нас система заявок. Все бы ничего, но некоторые вещи мне не нравится или не хватает. Что-то уже сделал/исправил сам, а что-то, в силу отсутствия знания в web не могу сделать. Посему такой вопрос.

Есть страница заявки. Там можно добавлять комментарии. За отправку комментов отвечает участок (как я понял)
https://pastebin.com/HqsC3sy1

Получается так:
1. Пишем в форму коммент
2. Нажимаем отправить
3. К тем комментам, которые уже отображались добавляется мой, написанный только что, и, что самое главное, все те комменты, которые были оставлены другими участниками, но которые я не видел в силу того, что не обновлял страницу долгое время. И получается порой такая не самая хорошая ситуация. Например. Заявка у меня открыта долгое время. Страницу я не обновлял, но видел комменты. И решаю ответить на последний. Нажав отправить я вижу не только свой коммент, но и комменты другого участника, который уже успел ответить до меня. Но я не знал о комментарии, потому что не обновил страницу.

Слишком много воды. К сути. В выше преведенной ссылке функция при нажатии кнопки отправить обновляет блок с комментариями (не всю страницу). Что мне добавить в тело php файла, чтоб тоже самое происходило по таймауту, скажем 30 сек? То есть обновлялся бы блок комментов.

Пытался играться с setInterval, но не получилось.

Спасибо.

 ,

as_lan
()

Удаление маршрута после остановки Openvpn сервера

Есть впн сервер. После поднятия нужно чтоб прописывались 2 правила:

ip rule add to 10.20.31.0/24 table openvpn priority 100 
ip route add default via 10.20.31.1 table openvpn 


а при остановке соответственно удалялось
ip rule del to 10.20.31.0/24 table openvpn


В конфиге сервера это выглядит:
up /etc/openvpn/udp_up.sh
down /etc/openvpn/udp_down.sh

Если с поднятием проблем нет, то вот при остановке ни в какую не хочет удалять маршрут. В логах строки:

Thu Sep 14 13:05:01 2017 us=36811 /etc/openvpn/udp_down.sh tun1 1500 1541 10.20.31.1 255.255.255.0 init
RTNETLINK answers: Operation not permitted
Thu Sep 14 13:05:01 2017 us=40317 Linux ip addr del failed: external program exited with error status: 2


Что этой собаке надо? Почему она к сприпту дописывает параметры и как заставить работать down скрипт.

 

as_lan
()

Openvpn+AD+Searchfilter

Имеем Active directory, группу openvpn и доменную авторизацию в openvpn. Все работает. Но недавно руководство внесло изменения в регламент, введя понятие временного доступа по openvpn. Для пользователей, которые уходя в командировку например. Доступ ограничен 7 днями. Первым что пришло в голову, это создание временных групп в AD (с ttl равным неделю). Это группа является участником группы openvpn, а в нее саму входит нужный пользователь. То есть получается что-то вида:

userIvan->TempGroupVpnIvan->Openvpn.

Через неделю группа уничтожается, а вместе с ней и связь. Естественно UserIvan теряет связь с Openvpn.

Но! В настройка Openvpn, а точнее в auth-ldap.conf строка поиска выглядит вот так:

<Authorization>
BaseDN «DC=my,DC=domain,DC=ru»
SearchFilter "(&(sAMAccountName=%u)(memberOf=CN=OPENVPN,OU=Users,DC=my,DC=domain,DC=ru))"
</Authorization>

В таком виде Openvpn естественно не видит пользователя userIvan, так как он не является непосредственно членом группы Openvpn. Мне же надо, чтоб и постоянные пользователи могли авторизоваться (они являются членами группы openvpn) так и другие, члены временных групп. Что изменить/добавить в конфиг, чтоб vpn мог смотреть ... как бы это правильно назвать...рекурсивно что ли? Дело в том, что имена временных групп не постоянные. Для каждого пользователя они будут индивидуальны, потому что Ivan уйдет сегодня в отпуск, Petr например завтра. Естественно их нельзя в одну группу кидать, и надо будет создать еще одну группу TempGroupVpnPetr

P.S. Пробовал добавить 1.2.840.113556.1.4.1941. Не помогает. Openvpn говорит нет такого пользователя.

 ,

as_lan
()

Sed. Вывести текст между символами.

Есть строка вида
«value» : «/hOpIinwq,8589934592,/hOpIinwq/channels/DGWJfp4L,4294967296,/hOpIinwq/channels/EbpSf9rD,4294967296,/hOpIinwq/channels/TC2oz09k,4294967296,/hOpIinwq/channels/UMWL0KV6,4294967296,/hOpIinwq/channels/yDid7qcA,4294967296,/hOpIinwq/channels/yZb8Vp81,4294967296»

Как вывести из нее ID (после channels), чтоб на выходе было:
DGWJfp4L
EbpSf9rD
TC2oz09k
UMWL0KV6
yDid7qcA
yZb8Vp81

То есть текст между channels/ и ","

 

as_lan
()

Sip через nat

Приветствую.

Имеем:
Головной офис
Avaya (адрес 10.10.6.1/20)
Шлюз (Ubuntu 16.04 адрес 10.10.0.1/20, extip 123.123.123.123, vpn ip 172.20.20.1/252)

Второй офис.
Шлюз (Ubuntu 14.04 адрес 192.168.60.1/20, extip 321.321.321.321, vpn ip 172.20.20.2/252)
Sip клиенты (телефоны) адреса 192.168.60.100-200

Маршруты и правила настроены. Форвардинг разрешен. Клиент ходят через маскарадинг. Клиенты из одного офиса видят клиентов другого офиса. То есть пакеты в обе стороны ходят без проблем.

Пытаюсь подключить телефон из второго офиса к авае. Регистрация проходит. Звонок тоже. Но вот голоса не слышно. Причем не слышно между номерами из разных офисов. Звонки внутри головного офиса и внутри второго офиса (телефоны тоже подключены к авае) проходят, слышимость отличная. А вот телефоны между офисами не слышат.

Пробовал загружать и выгружать модули nf_nat_h323 nf_conntrack_h323 ip_conntrack_sip ip_nat_sip на обоих шлюзах. Безрезультатно. Ни один из абонентов не слышит другого.

Причем раньше вместо шлюза стояла циска (головной офис) + микротик второй офис. Предыдущие админы настроили и все работало. Но по некоторым причинам пришлось менять циску и микротик на Linux сервер. Связи с админами нету.
Уже много читал, что h323 плохо дружит с NAT. Но раньше ведь работало. Знаю что туннель раньше был ipip. Такой же туннель настроил и сейчас (хотя параллельно включен и openvpn, так что можно в любой момент сменить тип туннеля, но проблема не в этом)

По tcpdump видно, что сами клиенты видят и посылают друг другу пакеты. И пакеты ходят.

Бьюсь 3 день. Перечитал кучу форумов и статей. Ничего не помогает. Прошу помощи. Возможно решение где-то на поверхности, но уже голова не соображает и не видит очевидного.

 ,

as_lan
()

Недоступна сеть за роутером

То ли лыжи не едут, то ли я ... А может просто устал и не вижу очевидного.

Дано.
Сеть А (10.10.0.0/20 шлюз 10.10.0.1)
Сеть B (10.10.252.0/24 шлюз 10.10.252.1)

10.10.0.1 Линукс машина (Ubuntu)
10.10.252.1 Роутер DIR-100 WAN ip 10.10.0.4
На шлюзе маршрут
10.10.252.0/24 via 10.10.0.4 dev eth0

Проблема в том, что клиенты в сети А видят клиентов в сети В. Видят WAN порт роутера (10.10.0.4). При этом шлюз не видит устройств за роутером. Сам роутер он видит. То есть через себя пакеты пропускает, роутер тоже пропускает, ответ приходит. Но если делать тот же пинг уже с сервера, то тишина. tcpdump говорит лишь то, что пакет отправлен. Но в ответ тишина.


ТО ли дир пора на свалку. То ли я устал и не вижу ошибку на поверхности.

К реализации сети я не имею ничего общего. Мне сеть досталась, ее трогать сейчас нельзя. 10.10.0.0 и 10.10.252.0 две физически разделенные сети. точка соединения - дир-100.

 ,

as_lan
()

Ошибки в логах Bind

Имеем bind

BIND 9.9.5-3ubuntu0.7-Ubuntu (Extended Support Version) <id:f9b8a50e> built by make with '--prefix=/usr' '--mandir=/usr/share/man' '--infodir=/usr/share/info' '--sysconfdir=/etc/bind' '--localstatedir=/var' '--enable-threads' '--enable-largefile' '--with-libtool' '--enable-shared' '--enable-static' '--with-openssl=/usr' '--with-gssapi=/usr' '--with-gnu-ld' '--with-geoip=/usr' '--with-atf=no' '--enable-ipv6' '--enable-rrl' '--enable-filter-aaaa' 'CFLAGS=-fno-strict-aliasing -DDIG_SIGCHASE -O2'
compiled by GCC 4.8.2
using OpenSSL version: OpenSSL 1.0.1f 6 Jan 2014
using libxml2 version: 2.9.1

Ubuntu 14.04 x64
Сервер IBM x3550

При сетевом трафике в 30-40 mbit/s и выше сыпятся постоянно ошибки
17-Feb-2016 12:25:09.875 general: error: internal_send: 127.0.0.1#33778: Invalid argument
17-Feb-2016 12:25:09.875 general: error: internal_send: 127.0.0.1#33778: Invalid argument
17-Feb-2016 12:25:11.610 general: error: socket.c:1915: unexpected error:
17-Feb-2016 12:25:11.610 general: error: socket.c:1915: unexpected error:
17-Feb-2016 12:25:11.611 general: error: internal_send: 127.0.0.1#33778: Invalid argument
17-Feb-2016 12:25:11.611 general: error: internal_send: 127.0.0.1#33778: Invalid argument
17-Feb-2016 12:25:11.612 general: error: socket.c:1915: unexpected error:
17-Feb-2016 12:25:11.612 general: error: socket.c:1915: unexpected error:
17-Feb-2016 12:25:11.612 general: error: internal_send: 127.0.0.1#33778: Invalid argument
17-Feb-2016 12:25:11.612 general: error: internal_send: 127.0.0.1#33778: Invalid argument
17-Feb-2016 12:25:11.612 general: error: socket.c:1915: unexpected error:
17-Feb-2016 12:25:11.612 general: error: socket.c:1915: unexpected error:
17-Feb-2016 12:25:11.612 general: error: internal_send: 127.0.0.1#33778: Invalid argument
17-Feb-2016 12:25:11.612 general: error: internal_send: 127.0.0.1#33778: Invalid argument
17-Feb-2016 12:25:14.085 general: error: socket.c:1915: unexpected error:
17-Feb-2016 12:25:14.085 general: error: socket.c:1915: unexpected error:
17-Feb-2016 12:25:14.085 general: error: internal_send: 127.0.0.1#33778: Invalid argument
17-Feb-2016 12:25:14.085 general: error: internal_send: 127.0.0.1#33778: Invalid argument
17-Feb-2016 12:25:19.554 general: error: socket.c:1915: unexpected error:
17-Feb-2016 12:25:19.554 general: error: socket.c:1915: unexpected error:
17-Feb-2016 12:25:19.554 general: error: internal_send: 127.0.0.1#55331: Invalid argument
17-Feb-2016 12:25:19.554 general: error: internal_send: 127.0.0.1#55331: Invalid argument


Нагрузки по RAM или CPU нету. Тариф 100мбит. так что в ширину канала тоже не упирается.

Конфиг bind обычный
include "/etc/bind/rndc.key";
controls {
inet 127.0.0.1 port 953
allow { 127.0.0.1; } keys { "rndc-key"; };
};
options {
        directory "/var/cache/bind";
        statistics-file "/var/cache/bind/named.stats";
        dnssec-validation auto;
        auth-nxdomain no;
        recursion yes;
        listen-on {
                127.0.0.1;
                192.168.60.1;
                192.168.2.1;
                };
        allow-recursion {
                127.0.0.0/8;
                192.168.48.0/20;
                192.168.2.0/24;
                };
        forwarders {
                77.88.8.8;
                77.88.8.1;
                };
        allow-query {
                any;
                };

};

statistics-channels {
     inet 127.0.0.1 port 8053 allow { 127.0.0.1; };
};


zone "." {
        type hint;
        file "/etc/bind/db.root";
};



zone "0.in-addr.arpa" {
        type master;
        file "/etc/bind/db.0";
};

zone "localhost" {
        type master;
        file "/etc/bind/db.local";
        };

zone "127.in-addr.arpa" {
        type master;
        file "/etc/bind/db.127";
        };


logging {
        channel bind.log {
                file "/var/lib/bind/bind.log";
                severity info;
                print-category yes;
                print-severity yes;
                print-time yes;
                };
        category general {
                bind.log;
                };
        category general {
                bind.log;
                };
        category resolver {
                bind.log;
                };
        category notify {
                bind.log;
                };
        category client {
                };
        category queries {
                bind.log;
                };
        };

 

as_lan
()

Падает время от времени сеть.

Ubuntu 14.04. x64. Сервак старый, IBM.

uname -a
Linux router 3.19.0-28-generic #30~14.04.1-Ubuntu SMP Tue Sep 1 09:32:55 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux

lspci -knn
03:00.0 PCI bridge [0604]: Broadcom EPB PCI-Express to PCI-X Bridge [1166:0103] (rev c3)
04:00.0 Ethernet controller [0200]: Broadcom Corporation NetXtreme II BCM5708 Gigabit Ethernet [14e4:164c] (rev 12)
        Subsystem: IBM Device [1014:0342]
        Kernel driver in use: bnx2
05:00.0 PCI bridge [0604]: Broadcom EPB PCI-Express to PCI-X Bridge [1166:0103] (rev c3)
06:00.0 Ethernet controller [0200]: Broadcom Corporation NetXtreme II BCM5708 Gigabit Ethernet [14e4:164c] (rev 12)
        Subsystem: IBM Device [1014:0342]
        Kernel driver in use: bnx2
dmesg
[1754554.633499] bnx2 0000:04:00.0 eth0: NIC Copper Link is Down
[1754606.986451] bnx2 0000:04:00.0 eth0: NIC Copper Link is Up, 1000 Mbps full duplex
[1754606.986461]
[1754681.728189] bnx2 0000:04:00.0 eth0: NIC Copper Link is Down
[1754734.049114] bnx2 0000:04:00.0 eth0: NIC Copper Link is Up, 1000 Mbps full duplex
[1754734.049125]
[1754813.737753] bnx2 0000:04:00.0 eth0: NIC Copper Link is Down
[1754866.270428] bnx2 0000:04:00.0 eth0: NIC Copper Link is Up, 1000 Mbps full duplex


В день несколько раз падает сеть. Куда стоит копать?

 

as_lan
()

Php. Апостроф в переменной.

Понадобилось переделать один php скрипт (заменить php функцию copy/rename на системные cp/mv). Строка имеет вид

exec ("/bin/mv  -f '$src' '$dst' 2>&1", $output, $retval);


Какое-то время работал, пока не встретился файл с апострофом в имени. То есть в переменной строка например xyz'a, но при подстановке она уже становится xyza. Если в простом случае можно экранировать, то как в php заставить внутри переменной апостроф не трогать, я не знаю. Php никогда не изучал. Просто понадобилось на днях поправить пару строк. Но застрял на этих «подводных камнях».

 

as_lan
()

Sernet Samba

Собственно всегда хотелось узнать, чем Sernet Samba отличается от Самбы, которая доступна в репозиториях того же Debian или Ubuntu. Sernet перешла на платную основу для все новых версий Самбы начиная от 4.3. Старые 4.2 еще будут поддерживать. Вот поэтому теперь и думаю, каком смысл планировать развертывание на Sernet Samba 4.2, если со временем не смогу обновить до 4.3. Если критичный различий между обычной и sernet нету, то может и поднимать сразу на ней.

 

as_lan
()

Свое облако. Аналог Owncloud

На новой работе решил сделать порядок в сети. Добрался до существующей в данный момент шары. Шарой это не назвать. На виндовой машине одна папка с общим доступом, куда все сливают свои файлы без каких-либо ограничений. Этот колхоз сейчас хочу убрать. Будет Samba и директории для каждого отдела и и одна общая директория. С этим проблем нет. Но на предприятии работает большАя часть взрослого поколения, которых на новую шару пересадить то проблема будет (раньше заходили просто по ip, сейчас будет по доменному имени). Поэтому хочу еще прикрутить ко всему этому вебморду. Посмотрел owncloud. Вроде бы ничего так, но как-то не уверен запускать его на уровне предприятии. Количество пользователей возможно 300-400. Файлов в текущей шаре свыше 5000 наверное. Где-то читал что owncloud падает при большом количестве файлов.

Собственно что мне нужно:
1. В авторизации использовать unix логин/пароль (как та же самба). Owncloud из коробки это не умеет, только через сторонний плагин. Это уже отталкивает. на домашней файлопомойке с 10-15 пользователями не страшно, а вот в больших масштабах не знаю как будет работать.
2. При входе с unix логин/пасом естественно наследовались бы и права. ТО есть входит он в вебморду, попадает в директорию своего отдела скажем так. В этой директории есть поддиректории каждого сотрудника. В директорию отдела могут заходиь все сотрудники этого отдела (права как на чтение так и на запись), а вот в личные директории только конкретный пользователь. В lin создать это условие не проблема, но нужно чтоб и в вебморде это сохранялось. Чтоб файлы, которые скидыаются по вебморде, были с нужными правами.
3. Остальные плюшки типа просмотра/редактирования документов через вебморду, календарь, задачи и т.п не принципиально, но желательно.

Конечно могу в поиске вбить «аналоги owncloud», но хотелось бы узнать, есть ли тут кто уже сталкивался с подобным и успешко реализовывал подобное.

 ,

as_lan
()

Не поднимается сетевой интерфейс

На работе валялся старый сервачок IBM. Решил на нем проводить эксперименты. Повесил Ubuntu Server 14.04. Собрал ядро 3.17.8 с патчами (родное 3.19). Перезагружаюсь и вижу что не поднимаются интерфейсы. Получаю ошибку

 Can't load firmware file "bnx2/bnx2-mips-06-6.2.3.fw" 
Я родном ядре этот firware есть. В новом собранном другой версии, bnx2-mips-06-6.2.1.fw. Но почему с ним не работает? Временно решил тупым копированием bnx2-mips-06-6.2.1.fw в каталог нового ядра. Но понимаю что это неправильно. Раньше с подобным не сталкивался. Как по уму исправить?

lspci

04:00.0 Ethernet controller: Broadcom Corporation NetXtreme II BCM5708 Gigabit Ethernet (rev 12)
        Subsystem: IBM Device 0342
        Flags: bus master, 66MHz, medium devsel, latency 64, IRQ 26
        Memory at c8000000 (64-bit, non-prefetchable) [size=32M]
        Capabilities: [40] PCI-X non-bridge device
        Capabilities: [48] Power Management version 2
        Capabilities: [50] Vital Product Data
        Capabilities: [58] MSI: Enable+ Count=1/1 Maskable- 64bit+
        Kernel driver in use: bnx2

dmesg

[   79.537213] bnx2 0000:04:00.0: Direct firmware load for bnx2/bnx2-mips-06-6.2.3.fw failed with error -2
[   79.537218] bnx2: Can't load firmware file "bnx2/bnx2-mips-06-6.2.3.fw"

 

as_lan
()

Упал RAID10

Есть сервак с 4 винтами и несколькими рейдами. Упал один из рейдов. На нем важные данные. Не могу восстановить. Итак имеем.

Centos 6.5

 cat /proc/mdstat
Personalities : [raid1] [raid10] [raid0]
md3 : active raid10 sdd5[3] sdc5[2] sdb5[1] sda5[0]
      199973888 blocks super 1.2 512K chunks 2 near-copies [4/4] [UUUU]

ФС ext4.

Пробовал

 
mdadm --stop /dev/md3
mdadm --create /dev/md3 -v --assume-clean --level=10  --raid-devices=4 /dev/sda5 /dev/sdb5 /dev/sdc5 /dev/sdd5 

Потом пытаюсь монтировать и получаю

 
 mount -a
mount: wrong fs type, bad option, bad superblock on /dev/md3,
       missing codepage or helper program, or other error
tail -n 5 /var/log/messages
Aug 24 11:39:53 virtual kernel: [36729.899447] md/raid10:md3: active with 4 out of 4 devices
Aug 24 11:39:53 virtual kernel: [36729.899469] md3: detected capacity change from 0 to 204773261312
Aug 24 11:39:53 virtual kernel: [36729.899556]  md3: unknown partition table
Aug 24 11:41:59 virtual kernel: [36855.542547] EXT4-fs (md3): VFS: Can't find ext4 filesystem
Aug 24 11:53:45 virtual kernel: [37562.178259] EXT4-fs (md3): VFS: Can't find ext4 filesystem

Пытаюсь запустить проверку

fsck /dev/md3
fsck from util-linux-ng 2.17.2
e2fsck 1.41.12 (17-May-2010)
fsck.ext4: Superblock invalid, trying backup blocks...
fsck.ext4: Bad magic number in super-block while trying to open /dev/md3

Ладно. смотрим номер блоков

mke2fs  -n /dev/md3
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=256 blocks
12500992 inodes, 49993472 blocks
2499673 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
1526 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
        4096000, 7962624, 11239424, 20480000, 23887872
и пробуем еще раз
e2fsck -b 32768 /dev/md3
e2fsck 1.41.12 (17-May-2010)
e2fsck: Bad magic number in super-block while trying to open /dev/md3

The superblock could not be read or does not describe a correct ext2
filesystem.  If the device is valid and it really contains an ext2
filesystem (and not swap or ufs or something else), then the superblock
is corrupt, and you might try running e2fsck with an alternate superblock:
    e2fsck -b 8193 <device>

И так с любым блоком. Дальше у меня идею уже закончились. Есть идеи?

 

as_lan
()

Не работают правила privoxy

Решил поставить privoxy для резки рекламы на всех устройствах в сети. Нашел скрипты конвертирования правил adblock. Но сразу же столкнулся с проблемой не рабочих фильтров. После ковыряния выяснилось, что не работают правила подобного вида(пример) somedomain\.com/bla/bla\.html Но если убрать первый экранирующий слеш, то начинает работать somedomain.com/bla/bla\.html Именно первый слеш. WTF?

Система Ubuntu 14.04. Privoxy version 3.0.21. Конфиг стандартный.

 

as_lan
()

Провайдер жалуется на флуд.

Уже который день провайдер жалуется на меня, что от меня идет флуд, и что у всех, кто так же подключен к этому коммутатору, проблемы с интернетом, кроме меня и еще одного соседа. Сперва говорили мол может я использую 2 логина (свой и этого самого соседа, раз только эти 2 логин без проблем работают). Поговорил и объяснил, что мне 2 логина нафиг не сдались. На своей стороне все проверил. Все чисто (вроде бы). Отключил все что может генерировать трафик. Сидел пару часов с включенным iperf и tcpdump. Ничего подозрительного. Трафик был на уровне 100-500кбит/с и 20-100pps. То есть даже близко флуда нет. Смотрел оба интерфейса на всякий случай (eth1 смотрит в локалку провайдера, и pptp подключение к самому интернету). Но все равно опять отрубили порт говоря что флуд так и не прекратился. А как только мой порт выключают флуд прекращается. Поймать их главного админа не всегда удается (не всегда на месте, а когда он на месте у меня нет времени заняться этим вопросом), поэтому информации что за флуд откуда и куда, tcp или udp, в каком количестве и т.п инфы у меня пока нет. Поэтому прежде чем опять пытаться разобраться по телефону, хочу проверить все варианты. Поэтому прошу помощи сообщества. Какие еще причины флуда могут быть?

Может ли флуд быть от моросящего порта коммутатора (какой коммутатор стоит на моем узле не помню, кажется tp-link или trendnet, из дешевых) ?

Как я на своей стороне еще могу проверить исходит ли флуд именно от меня?

 ,

as_lan
()

Не работает DHT и Peer exchange в rtorrent

Сабж. заметил вчера, когда один из торрентов не хотел скачиваться. думал может сбежали все сиды. Ковырял конфиг. Потом надоело и решил попробовать на виндовой машине скачать через utorrent. На удивление utorrent моментально начал скачивать с хорошей скоростью. начал копать и заметил что в rtorrent не работает DHT и PEX. на всех торрентах, которые на раздаче нет ни одного с флагом H и X. В utorrent на этих же торрентах половина с этими флагами. А первоначальный торрент, который не мог скачивать через rtorrent, начал получать от сидов, которые были найдены по DHT или PEX. Сперва думал что проблема с поддержкой ipv6 у rtorrent (так как ни одного пира с ipv6 в rtorrent я не видел, а utorrent, опять же, их видит в немалом количестве). Пропатчил. Собрал. Все равно ни пиров с ipv6, ни пиров по DHT и PEX не вижу.

Повторюсь. Проверял на одних и тех же торрентах. rtorrent стоит на шлюзе. utorrent на виндовой машине за шлюзом. То есть проблема явно в rtorrent/libtorrent. ipv6 на шлюзе работает через miredo.

Конфиг rtorrent

check_hash = no
peer_exchange = yes
trackers.use_udp.set = yes
use_udp_trackers = yes
network.scgi.open_local = /home/rtorrent/rpc.socket
schedule = chmod,0,0,"execute=chmod,777, /home/rtorrent/rpc.socket"
throttle.min_peers.normal.set = 2
throttle.max_peers.normal.set = 100
throttle.max_uploads.global.set = 40
throttle.max_downloads.global.set = 80
throttle.max_uploads.set = 20
session.path.set = /home/rtorrent/session
network.port_range.set = 5550-5555
network.port_random.set = no
pieces.hash.on_completion.set = no
encryption =  none
dht.mode.set = on
dht.port.set = 5556

Очень не хочу менять клиент на что-то другое. Делюгу из-за питона. трансмишн из-за слабого функционала (rtorrent + rutorrent + плагины меня во всем удовлетворяет). К тому же переносить 240 раздач с одного клиента в другой это «удовольствие» не на один час. rtorrent 0.9.4 libtorrent 0.13.4 Входящие порты открыты.

 ,

as_lan
()

Иероглифы вместо web страниц (nginx/lighttpd)

Заранее извиняюсь за заголовок, не знал как правильно описать

Есть шлюз на Ubuntu 14.04(x86). До недавнего времени в качестве веб-сервера стоял lighttpd. Сейчас уже nginx. Нужны для Rutorrent(веб морда rtorrent) и zabbix.

Со вчерашнего дня началось что-то странное. При попытке открыть веб страницы (не важно rutorrent или морда забикса) вместо страницы появляются иероглифы, или голый html(без стилей и скриптов). Залез в инспектор, и увидел что страницы и скрипты тоже представляют из себя одни иероглифы. Сами по себе все файлы в порядке (зашел на шлюз и убедился что и с файлами и с правами все в порядке). Иероглифами не только все текстовые файлы, но и картинки. В логах все в порядке. Веб сервер отдает, ни на что не ругается.

Сперва думал может с lighttpd что-то случилось, баг может какой-то. Поэтому поставил nginx и настроил его. Был очень удивлен, когда и он точно так же отображал страницы. В его логах тоже все в порядке.

Конфиги с большой вероятностью в порядке. Так как я их несколько месяцев не трогал, если не больше. А проблема появилась вчера. И решение найти не могу.

Единственное что вчера я изменял, это поменял драйвер сетевой карты (с r8169 на r8168). Но сомневаюсь, что драйвер мог на это повлиять.

 ,

as_lan
()

RSS подписка на новые темы