LINUX.ORG.RU

Сообщения av

 

замена диска в adaptec

Добрый день. Такой вопрос.

Есть raid-контроллер Adaptec 6805. В нем 6 дисков сконфигурированы как Simple_volume (LogicalDrv 1-6).

Вышел из строя диск (система его не видит). Замена на новый ставит его под следующим порядковым номером (LogicalDrv 7).

Как сделать замену, что бы диск стал на предыдущее место (LogicalDrv 4)?

Спасибо.

Примечание: ./arcconf SETSTATE 1 DEVICE 0 65 DDD - не сделать, так как старого диска система не видит.

 ,

av
()

proxmox zfs скорость дисковой системы

Здравствуйте!

У меня есть непонимание по скоростям работы zfs в raid, поэтому вынесу на обсуждение что имею, для дальнейшего комментария. Имеется:

  1. RAID Controller RS2BL080 (да, это не HBA)

  2. два типа дисков (ssd, hdd).

Из ssd, аппаратным средствами raid, сделано три логических диска, размером Мб (100,100,1000). На первом диске ext4, куда установлен проксмокс. Из 3-го диска сделан zpool. Из hdd-дисков,аппаратным средствами raid, сделан 3 raid0, а затем средствами zfs села второй zpool (raidz).

При копировании в mc файла 60Г имею цифры, которые не понимаю: zpool(ssd)-> /root = 450MB/s

zpool(hdd)-> /root = 250MB/s

/root ->rpool(ssd) = 190-150MB/s !!!!!!

/root ->rpool(hdd) = 260-230MB/s

zpool(ssd)->rpool(hdd) = 220MB/s

zpool(hdd)->rpool(ssd) = 90MB/s !!!!!!!

Может кто знает почему цифры везде разные и местами ужасно низкие?

 

av
()

quagga OSPF

Здравствуйте.
При откючении интерфейса, который смотрит в локалку (допустим выпал патчкорд из селевухи) перестает анонситься сеть, которая на этом интрфейсе.
Как сделать, что бы не пропарал анонс данной сети?

cat /etc/quagga/ospfd.conf

!
interface enp1s0
!

router ospf
ospf router-id 192.168.1.1
network 10.10.10.1/30 area 0.0.0.0
network 192.168.1.0/24 area 0.0.0.0
!

ifconfig
enp1s0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
inet 192.168.1.1 netmask 255.255.255.0 broadcast 192.168.1.255

 ,

av
()

vlan - переправление трафика между двумя подсетями

Здравствуйте!

Проконсультируйте пожалуйста в следующем вопросе.

1. Linux (Debian).
2. Сетевушка (eth0), которая смотрит в локалку (основная сеть).

На сетевушке (eth0) поднят vlan2 (eth0.2). Бродкасты с vlan2 (eth0.2) долетают в основную сесть (eth0) и из основной сети (eth0) долетают в VLAN2 (eth0.2).

Вопрос. Как убрать переправление трафика между этими двумя подсетями? Опционно для vlan пересылку можно отключить (не используя механизмы типа ebtables)?

/proc/sys/net/ipv4/ip_forward = 1 (необходима маршрутизация).
/proc/sys/net/ipv4/conf/eth0/proxy_arp = 0
/proc/sys/net/ipv4/conf/eth0.2/proxy_arp = 0

 

av
()

Нет связи с одним из компьютеров

Здравствуйте! Не могу понять почему нет связи с одним компьютером в сети (с другими есть). Прошу помочь в диагностике проблемы.

Имеем:

1. Linux-gate (debian 8), у него 3-и сетевушки - lan (eth0), wan(eth1), dmz(eth3).

2. В dmz (eth3) есть linux-машины - 192.168.254.10, 192.168.254.11.

3. 192.168.22.1/24 - linux-gate удаленной сети, подключенный по vpn (tun19).

С 192.168.22.1 пингуется 192.168.254.10, но не пингуется 192.168.254.11. Почему?

Дополнительно:

tcpdump показывает, что с 192.168.22.1 до 192.168.254.11 пакеты доходят, затем 192.168.254.11 их бросает на eth3, но на tun19 их нет.

12:38:23.148260 IP (tos 0x0, ttl 63, id 0, offset 0, flags [DF], proto ICMP (1), length 84) 192.168.22.1 > 192.168.254.11: ICMP echo request, id 14603, seq 39, length 64 12:38:23.148614 IP (tos 0x0, ttl 64, id 33701, offset 0, flags [none], proto ICMP (1), length 84) 192.168.254.11 > 192.168.22.1: ICMP echo reply, id 14603, seq 39, length 64

ip route list |grep 192.168.22 192.168.22.0/23 via 10.255.255.30 dev tun19 proto zebra metric 20

на eth0 несколько ip, в момент пинга, на eth0 зачем-то идут arp-пакеты:

12:38:02.147123 ARP, Ethernet (len 6), IPv4 (len 4), Request who-has 192.168.22.1 tell 172.25.0.225, length 28

iptables -I FORWARD -s 192.168.22.1 -d 192.168.254.11 -j ACCEPT

iptables -I FORWARD -d 192.168.22.1 -s 192.168.254.11 -j ACCEPT

 

av
()

gre-tunnel - ошибки на интерфейсе

Добрый день!
Прошу помочь разобраться с gre-tunnelem.
Ситуация следующая:
есть машинка, на которой есть два типа vpn-ов (openvpn и gre+ipsec). VPN-ны работаю, вот только обратил внимание, что на интерфейсе gre-туннеля (tun20) постоянно ошибки на исходящем трафике, а на интерфейсе openvpn этого не наблюдается. Просмотрел, что смог, но решения так и не нашел.
Вопрос: В чем может быть причина, какие настройки стоит проверить?

ifconfig tun20 имеет вид

tun20 Link encap:UNSPEC HWaddr 1F-C1-79-3A-F2-09-00-00-00-00-00-00-00-00-00-00
inet addr:10.255.255.37 P-t-P:10.255.255.38 Mask:255.255.255.252
UP POINTOPOINT RUNNING NOARP MULTICAST MTU:1500 Metric:1
RX packets:101448442 errors:0 dropped:0 overruns:0 frame:0
TX packets:88919390 errors:1371 dropped:0 overruns:0 carrier:1335 collisions:0 txqueuelen:0
RX bytes:2889186914 (2.6 GiB) TX bytes:3099974833 (2.8 GiB)

av
()

openssl nginx - unable to verify the first certificate

Добрый день!
Прошу помочь разобраться с сертификатом выданным центром сертификации.

Ситуация такая:
Получен от startssl сертификат, установлен на nginx. Через браузеры все работает.
А вот проверка через openssl s_client -showcerts -connect xxx:443 информирует - «verify
error:num=19:self signed certificate in certificate chain». Почему он не видится не пойму.
На локальной машине сертификат перенесен в отдельный каталог /usr/share/ca-certificates/
, сертификаты обновлены (update-ca-certificates)
Проверка сертификата openssl verify /etc/ssl/certs/xx.pem
/etc/ssl/certs/xx.pem: OK
openssl s_client -CApath /etc/ssl/certs/ -showcerts -connect 192.168.254.11:443
Verify return code: 0 (ok)
Чего надо не пойму...

av
()

маршрутизация для двух провайдеров

Доброе время дня!
Прошу помочь со следующим вопросом.

Начальные данные - debian squeeze, iptables, iproute2, eth1, eth2.

Подключены два провайдера, один из которых основной, другой для всего прочего. маршрутизация имеет вид:

ip route add default via 62.x.x.177 table provider1
ip route add default via 212.x.x.1 table provider2
ip route add default via 62.x.x.177

ip rule add from 62.x.x.178/255.255.255.240 table provider1
ip rule add from 212.248.31.15/255.255.255.224 table provider2

заведено правило ip rule add from all fwmark 400 table provider2

в iptables создано правило для 25-го b 22-го порта ходить через provider2
iptables -t mangle -A FORWARD -s 192.168.22.225 -p tcp --dport 25 -j MARK --set-mark 400
iptables -t mangle -A FORWARD -s 192.168.22.225 -p tcp --dport 22 -j MARK --set-mark 400

+nat(для локалки от куда идем)
iptables -t nat -A POSTROUTING -s 192.168.22.225 -p tcp --dport 22 ! -d 192.168.22.0/24 -j SNAT --to-source 212.x.x.16
iptables -t nat -A POSTROUTING -s 192.168.22.225 -p tcp --dport 22 ! -d 192.168.22.0/24 -j SNAT --to-source 212.x.x.16

ВОПРОС:
Конструкция странно себя ведет под нагрузкой, т.е. когда нет рассылки, то по scp переливаю файлик на скорости 10mbit, если идет интенсивная рассылка до скорость падает до 512kbit. Нюанс в том, что если убрать заворачивание через iptables и указать явно маршрут через iproute (ip rule add from 192.168.22.225 table provider2), то при интерсивной почтовой рассылки, тоже переливайние файлика по scp происходит на скорости приближенной в 10mbit(не 512 kbit).
Кто подскажет причину, и вариант оптимизации маршрутизации?

Примечание: Машинка должна ходить по двум провайдерам, поэтому явная маршрутизации не подходит.

av
()

nginx настройка

Добрый день. Прошу помощи в следующем вопросе.

1. есть домены - test.ru, www1.test.ru, www2.test.ru и a1.test.ru

2. есть nginx который проксирует запросы. Необходимо все запросы относящиеся к a1.test.ru проксирувать на один сервер, а все другие на другой. Беда в том, что если в явном виде указывать страничку без подкаталогов (http://a1.test.ru) , то все хорошо, а если добавляются подкаталоги (http://a1.test.ru/main.aspx?UserCSS=css/user.css), то запросы начинает идти на другой сервер.

nginx имеет следующий конфигурацию: server {

listen 172.25.0.15:80;

server_name test.ru www1.test.ru www2.test.ru;

location / {

proxy_pass http://192.168.1.10;

include /etc/nginx/1.conf; }

}

server {

listen 172.25.0.15:80;

server_name a1.test.ru;

location / {

proxy_pass http://192.168.1.27;

include /etc/nginx/1.conf;

}

}

server {

listen 172.25.0.15:80 default;

server_name localhost;

deny all;

}

av
()

snmp классификация трафика

Добрый день.
Кто-нибудь пытался решать задачу классификацию трафика по протоколу/порту (не активности интерфейса) и его активности при помощи snmp?

av
()

MYSQL + web интерфейс

Добрый день.
Есть несложная задача - забрасывать лог в базу, и выводить отчет в web-интерфейс.

Может кто подскажет готовое решение или набросает самостоятельно?
Если не будет, вариантов, то сделаю сам, только, так как на этом не специализируюсь потрачу много времени, поэтому и пишу.

Скажу, что цель - обработка лога icq-сниффера. В благодарность могу им поделиться (он правда не мой, но актуальный и бесплатный).

лог такого вида:
04.02.2011 11:44:42 ICQ: 260428291 -> 205.188.2.230 Саня, привет
04.02.2011 11:44:49 ICQ: 260428291 -> 205.188.2.230 sanya privet
04.02.2011 11:44:53 ICQ: 205.188.2.230 -> 260428291 привет


av
()

маршруризация через несколько шлюзов

Добрый день.
Имеем следующую схему:
gate_1 - 192.168.1.1/23
gate_2 - 192.168.1.2/23
lan-net=192.168.0.0/23

default gw для lan-net - 192.168.1.1
gate_1 и gate_2 имеют два wan от разный провайдеров.
на gate_2 висят vpn-ы - 10.0.0.0/24

для того что бы локальная сеть ходила в сеть vpn-в на gate_1 прописан маршрут - route add -net 10.0.0.0/24 gw 192.168.1.2
На этом настройка маршрутизаторов закончена, сети друг друга видят.
Есть нюанс - когда из компьютера локальной сети (windows XP) захожу на компьютер где VPN через RDP коннект происходит не с первого раза, где-то со 2-го - 3-го.

Ранее, когда VPN был на gate_1, такой проблемы не было замечено.

Может кто сталкивался с подобной ситуацией?

Вижу возможный нюанс в том, что когда иду на комп где VPN, маршрут идет через gate_1, а обратно с gate_2 отдается напрямую машине локальной сети, миную gate_1, так как gate_2 находится в этой же подсети.



av
()

RAID 1, mdadm, debian.

Добрый день.
При создании raid 1 возникла следующая проблема:
при конфигурировании первого диска и перезагрузки системы, первый раздел md0, на котором хранится раздел / находится в состоянии

md0 : active (auto-read-only) raid1 hdc1[1]
6144704 blocks [2/1] [_U]

и как следствие добавить в массив второй диск не дает:
mdadm /dev/md0 --add /dev/hda1
mdadm: Cannot open /dev/hda1: Device or resource busy

Не знаю по чему, возможно что-то напутал с файловой системой на начальном этапе или еще чего. Теперь вот нужно привести его в рабочее состоянии.

Вопрос как это лучше сделать?

Ситуация усугубилась тем, что на первом диске я уже изменил файловую систему до состояния RAID AUTO DETECT и не уверен, что возврат fstab-м в состоянии 82 и 83 не перетрет там все.

Пока вижу только вариант все таки возвращаться в состояние 82 и 83, принудительно форматировать все разделы и скопировав данные с полурейда(cp), попробывать загрузиться с без-raid-го диска и еще раз все пройти сначала.

Есть у кого еще какие идей?

av
()

SAMBA. Как заставить пользователей создавать сложные пароли?

Добрый день! Имеется Samba 3, в качестве домена, где настроена обязательная смена пароля пользователем при истечении его срока действия, его длинна, история(ну в общем весь фунционал pdbedit -P). Но вот соблюдение условия сложности пароля, при его смене что-то не могу найти. т.е. что бы при смене пароля пользователь не мог бы задать пароль типа: 11111 или aaaaa и тому подобных.

Подскажите как можно это настроить? Спасибо.

av
()

debian lenny + ldap. Не работают ldap-пользователи.

Добрый день.
Настраиваю сервер Debian Lenny, по аналогии с уже много раз настраиваемом Etch и столкнулся с такой проблемой:

настроил slpad(2.4.11-1). slapcat отобразил пользователей.
Установил libnss-ldap, libpam-ldap. Настроил на авторизацию через привилегированного пользователя.
Изменил nsswitch.conf на работу с ldap.

Итог всех этих действий - getent passwd отображает ldap-пользователей. пример:

getent passwd|grep nata.m
nata.m:*:2031:1401:Mlchanova Natalya, Sankt-Peterburg:/home/samba/nata.m/:/bin/false


Но если попросить систему что-либо с данным пользователем сделать, то ничего не получается.
пример:

id nata.m
id: nata.m: Такого пользователя нет

Подскажите, кто знает в чем может быть причина. Еще раз повторюсь, с Debian Еtch у меня такой проблемы ни разу не возникало.


av
()

Как на интерфейс предыдущей сетевой карты повесить новую? (Debian)

Всем привет!
Вопрос:
При замене сетевой карты на новую, интерфейс новой назначился не на eth0, как было у предыдущей, а на eth2. При этом eth0 стала отсутствовать. Как на интерфейс предыдущей сетевой карты повесить новую?

Система Debian Etch (eth1 занят второй сетевушкой).

av
()

squid некорректно работает с необходимым сайтом

Добрый день!
Пишу вопрос несколько озадаченным (никогда еще такого не видел)...
Есть squid 2.5.9-10, и есть "чудо-юдо-сайт" http://www.bronni.ru, с которым наши сотрудники хотят работать.
Кроме того, что сайт заточен исключительно под explorer, так он еще и со squid-м не работает. А именно:
пишу в браузере www.bronni.ru, в логах сквида вижу такую информацию:
192.168.0.10 TCP_MISS/200 4798 GET http://www.bronni.ru/ - DIRECT/81.13.126.218 text/html
в результате explorer дает общую ошибку о невозможности подключения....
Но вот нюанс - если без squid-а открыть эту страничку, то она откроется...

Что можно придумать, кроме как расстрелять таких сайтостроителей?
К сожалению как-то надо будит решить данную проблему....
Спасибо.

>>>

av
()

Ротация логов.

День добрый!
Вопрос:
в последнее время не вижу, что ротация логов работает корректно.
А именно: вижу что есть файл syslog:
-rw-r----- 1 root adm 851329567 2008-02-05 14:44 syslog
-rw-r----- 1 root adm 143697500 2008-01-10 06:30 syslog.0
Как видно ротация была очень давно и файлик разросся до очень больших размеров.

запуск руками logrotate ничего не дал:
/usr/sbin/logrotate -dv /etc/logrotate.conf

Решил выделить явно файл в конфиге и задать размер, при котором делать ротацию:
/var/log/syslog {
rotate 5
size 400M
postrotate
/usr/bin/killall -HUP syslogd
endscript

после чего, перезапуск, теоретически, дал нужный результат:
/usr/sbin/logrotate -dv /etc/logrotate.conf

rotating pattern: /var/log/syslog 419430400 bytes (5 rotations)
empty log files are rotated, old logs are removed
considering log /var/log/syslog
log needs rotating
rotating log /var/log/syslog, log->rotateCount is 5
.......................
renaming/var/log/syslog.0 to/var/log/syslog.1(rotatecount 5,logstart1,i0),
renaming /var/log/syslog to /var/log/syslog.1
creating new log mode = 0640 uid = 0 gid = 4
running postrotate script
running script with arg /var/log/syslog: "
/usr/bin/killall -HUP syslogd
"
removing old log /var/log/syslog.6

Вроде бы все красиво, но файл syslog как был 800mb так и остался :(((

Как быть?

>>>

av
()

Подключение к pptp-серверу из под nat

Добрый день!
Столкнулся с такой проблемой:
есть внутренняя сеть, шлюзом в интернет для которой является linux (debian, kernel 2.4.36, iptables 2.3.6).
Периодически у сотрудников появляется необходимость делать vpn (pptp), к удаленным офисам. До недавнего времени никаких сложностей с этим не возникало, но сейчас пытаясь подключиться к удаленному pptp-server-у организованного на freedsd, ничего не получается. В момент передачи gre пакетов они похоже не проходят корректно у меня на сервере через nat. т.е. вижу что мой клиент gre посылает, сервер gre возвращает, но обратно они клиенту не попадают.
Что меня вводит в ступор, так это то что с реализацией pptp на linux и d-link, все работает нормально. И еще вторая странность, в том что, попробовав через другой linux-сервер выйти, с практически какой же конфигурацией ядра и iptables все получается.

Прохождение пакетов через iptables разрешено точно.
Разница между тестовым сервером и рабочим в версиях - последний ставился из sarge, основной еще из woody, но давно уже обновляемый из веток sarge.

Получается, что что-то в конфиге сервера, но я уже даже не могу предположить в чем именно :(




>>>

av
()

Отправка письма из командной строки через внешний smtp

Всем привет!
Посоветуйте как мне лучше поступить в данной ситуации:
есть удаленный сервер (linux-server) на котором выполняются определенные операции результат которых я хочу получать по почте. Система стоит debian и по умолчанию установлен exim для локальной работы. Также есть на другом сервере организованная почтовая служба (postfix) при помощи этого smtp мне бы и хотелось отправлять письма, а не настраивать на каждом сервере, более расширенную чем локальная доставка, почтовую служу.
Варианты:
1) программа mail - не подходит, так как использует локальный сервер, а он у меня локально только отправляет.
2) mutt - что-то, что сходу просит закачать 3 метра архивов с 8 какими-то непонятными библиотеками (не в восторге, для чего и не аукнится ли это в безопасности?).
3) perl-скрипт - также требует для установки кучу библиотек perl.
4) ну и последний - очень мне приглянувшийся, но так и не найденный вариант его решения - это bash-sсript в связке с telnet.

Последний как мне кажется самый оптимальный и безопасный, то мне так и не удалось его реализовать.
Если кто подскажит как это сделать или предложит другой подходящий вариант буду очень рад. Требование у меня ко всему этому - меньше строк(программ)- больше безопасности.
Спасибо.

>>>

av
()

RSS подписка на новые темы