LINUX.ORG.RU

Сообщения iron

 

exim квоты

Доброго времени суток, товарищи.

Не подскажет ли великий All как настроить проверку квот exim-ом перед получением почтового сообщения? Гугл выдал ссылки на настройку exim с проверкой квот которые хранятся в LDAP или MySql. Но мне этот метод не подходит, так как пользователь имеет личные файлы которые находятся на этом же разделе, что и папка с mailbox-ами. То есть приходится применять квоты на уровне файловой системы. И нужно проверять суммарную квоту, по всем файлам пользователя, которые хранятся на этом разделе. Тогда возникает вопрос: что прописать в "quota = " в exim.conf для проверки квоты файловой системы?

Может можно как-то в строке "quota = " прописать выполнения перлового скрипта, который будет проверять квоту для юзера (выполняя shell команду quota -u <user>), и выдавать инфу exim-у в нужном виде.

Заранее благодарен!

>>>

iron
()

LDAP репликация

Доброго времени суток уважаемый All!

не могу настроить репликацию :(.
Система Gentoo. Openldap собран с вот такими USE флагами:

[ebuild R ] net-nds/openldap-2.3.41 USE="berkdb crypt gdbm overlays perl samba slp ssl -debug -ipv6 -kerberos -minimal -odbc -sasl (-selinux) -smbkrb5passwd -tcpd"

Настройки /etc/opeldap/slapd.conf MASTER:
replogfile /var/lib/ldap/replog
replica uri="ldap://192.168.0.250:389" bindmethod=simple binddn="cn=replicator,dc=domain,dc=ua" credentials=pass

Настройки /etc/opeldap/slapd.conf SLAVE:
updatedn cn=replicator,dc=domain,dc=ua
updateref ldap://192.168.0.249:389
access to * by dn="cn=replicator,dc=domain,dc=ua" write

На МАСТЕРЕ запускаю slurpd в отладочном режиме: /usr/lib/openldap/slurpd -d 65535 -f /etc/openldap/slapd.conf
Последнее что вижу:
Config: (index cn,mail,surname,givenname eq,subinitial)
Config: ** configuration file successfully read and parsed
begin replication thread for 192.168.0.250:389
...и все. При любых изменениях на мастер-лдапе slurpd вообще не реагирует.

Перечитал уже валом док, но так и не понял почему slurpd не хочет реплицировать на СЛЕЙВ лдап :(

где я ошибся?

Заранее благодарен!

>>>

iron
()

MySql запрос

Привет ребята.

Есть поле ip таблицы ranges с типом varchar(100), в котором находится примерно такие данные: 192.168.0.1-100
Мне нужно запросом проверить входит ли конкретным айпишник: 192.168.0.99 в тот диапазон, который указан в таблице. Если входит, то вывест запись. Делаю вот так:

SELECT * FROM ranges WHERE ip REGEXP '192.168.0.[выражение]';

Помогите пожалуйста написать регуляр(или может как-то подругому), который проверял бы соответствует ли последняя цифра айпишника (99) какому-то из диапазонов поля ip.
Мускуль 4.1.22

Зарание очень благодарен.

>>>

iron
()

почтовая очередь в exim

Всем привет.

Система Gentoo, почтовик exim. Когда глюит шлюз, то на ниже стоящем почтовом сервере почта отлиживается в очередь. Но когда инет провлемя с каналом решена, то мыло всеравно остается в очереди до истичения retry time.Можно ли как-то обнулить retry time для всех сообщений вручную? Чтоб сразу после фикса проблемы сразу запустить почту на отправку, не дожидаясь пока прийдет черед повторной попытки отправки.

Заранее благодарен.

>>>

iron
()

Samba+LDAP права доступа к шаре

Привет всем.

Настрои Samba PDC с сохранением информации в LDAP. На виндовой тачке залогинился как администратор домена, через MMC консоль подключился к контроллеру домена и изменил права доступа к шарам. Все прекрасно работает, но вопрос в том, где эти права сохраняются на серваке? Просерял acl нф файловой системе - без изменений, smb conf тоже без изменений, в LDAP базе тоже ничего.

Подскажи-ка пожалйста, о могучий All... Где сохраняются эти права доступа ?

>>>

iron
()

Вопрос по exim

Доброго времени суток.

Дистриб Gentoo, exim-4.68.

Когда заводится в сетке вирус, который отправляет спам, то письмо в очереди выглядит так:

 6h  1.1K 1JEhx3-0006jt-QV <> *** frozen ***
          nagashima_koichi@allergan.com

Нормальное же письмо выглядит вот так:

 5h  202K 1JEilK-0003QV-6d <irina.*****@*******.biz>
          ****@*******.hu

Можно ли настроить exim таким образом, чтоб он не принимал на отправку письма, у которых не заполнено поле "От кого" ?

Зарание благодарен.

>>>

iron
()

rsync: скорость передачи

Привет всем.
Дано: два сервака, между ними гигобитная сетка. Пытаюсь копировать файло при помощи rsync. На одном из серверов поднят rsyncd. Но при передичи посдерством rsync наблюдаеться плохая скорость переливания. Где-то примерно 30-60 мегобит/сек.
З.Ы: Если переливать файло при помощи scp - получается скорость порядка 150-230Мегобит/сек.

Система Gentoo с последними обновлениями и rsync-2.6.9-r3.

Не знаю где искать проблему.

>>>

iron
()

Apache-2.2.4 и Content-Type

Всем привет.

Система Gentoo с последними обновлениями.

Обновил Апач с 2.0.58-r2 до 2.2.4-r12. В конфигах ничего не менял. Все работает нормально, НО перестали отображатся картинки. Начал копать в сторону Content-Type:

# HEAD https://***.*****.ua/images/iconsets/Cool3D.Russian/compose.gif
403 Forbidden
Connection: close
Date: Wed, 05 Sep 2007 18:46:18 GMT
Server: Apache
Content-Type: text/html; charset=iso-8859-1
Client-Date: Wed, 05 Sep 2007 18:46:17 GMT
Client-Peer: 192.168.0.250:443
Client-Response-Num: 1
Client-SSL-Cert-Issuer: /O=Apache HTTP Server/OU=For testing purposes only/CN=localhost
Client-SSL-Cert-Subject: /O=Apache HTTP Server/OU=Test Certificate/CN=localhost
Client-SSL-Cipher: DHE-RSA-AES256-SHA
Client-SSL-Warning: Peer certificate not verified

Почему-то Content-Type: text/html, заместь Content-Type: image/gif.
В /etc/apache2/httpd.conf:
TypesConfig /etc/mime.types

# ls -la /etc/mime.types
-rw-r--r-- 1 root root 20537 2007-09-05 21:11 /etc/mime.types

# cat /etc/mime.types | grep gif
image/gif gif

Уже писал прямо в конфиге AddType image/gif .gif - не помогает :(.

Подскажи-ка пожалуйста уважаемый all, куда копать.

iron
()

mailbox vs maildir

Привет всем.

Объясните плиз чем maildir лучше mailbox ? Гугл мало чем помог. А RFC читать облом. Просто напишите в чем их разница. Я понимаю что у них разный принцип хранения мыла. А кроме этого ? Слышал что mailbox медленее разгребать pop3 демону чем индексированый сам по себе maildir. Хотя если тот-же dovecot умеет индексировать mailbox, тогда остается для меня загадкой почему maildir все так хвалят.

Зарание благодарен.

iron
()

Как так может быть ?

ПХелло олл!

Система Gentoo Linux.
Не запускается clamav:

mail ~ # /etc/init.d/clamd start
 * Starting clamd ...
Running as user clamav (UID 101, GID 407)
ERROR: Can't open /var/log/clamav/clamd.log in append mode (check permissions!).
ERROR: Problem with internal logger. Please check the permissions on the /var/log/clamav/clamd.log file.
 * Failed to start clamd                                                                                                            [ !! ]
 * Starting freshclam ...
Can't change dir to /var/lib/clamav
 * Failed to start freshclam                                                                                                        [ !! ]
mail ~ # ls -lan /var/log/clamav/clamd.log
-rw-r----- 1 101 407 44762 2007-05-22 03:18 /var/log/clamav/clamd.log

Что я делаю неправильно ?
iron
()

Hardened + Soft raid

Привет всем!

Дистриб: Gentoo
Столкнулся со странной проблемой. В ядрах >=2.6.19-hardened при загрузке не определяется soft raid mirror. При том, что в более ядрах ядрах все работает нормально. Сначала думал что это глюк именно в 2.6.19, но с выходом 2.6.20 и 2.6.21 ничего не изменилось. Незнаю где искать проблему :(

Настройки ядра (которые относятся к рэйду) в 2.6.18 и >=2.6.19 идентичны:

Multi-device support (RAID and LVM)
[*] Multiple devices driver support (RAID and LVM)
<*> RAID support
<*> RAID-1 (mirroring) mode

Ядро 2.6.18:

md: Autodetecting RAID arrays.
md: autorun ...
md: considering sdb4 ...
md: adding sdb4 ...
md: sdb3 has different UUID to sdb4
md: sdb1 has different UUID to sdb4
md: adding sda4 ...
md: sda3 has different UUID to sdb4
md: sda1 has different UUID to sdb4
md: created md3
md: bind<sda4>
md: bind<sdb4>
md: running: <sdb4><sda4>
raid1: raid set md3 active with 2 out of 2 mirrors
md: considering sdb3 ...
md: adding sdb3 ...
md: sdb1 has different UUID to sdb3
md: adding sda3 ...
md: sda1 has different UUID to sdb3
md: created md2
md: bind<sda3>
md: bind<sdb3>
md: running: <sdb3><sda3>
raid1: raid set md2 active with 2 out of 2 mirrors
md: considering sdb1 ...
md: adding sdb1 ...
md: adding sda1 ...
md: created md1
md: bind<sda1>
md: bind<sdb1>
md: running: <sdb1><sda1>
raid1: raid set md1 active with 2 out of 2 mirrors
md: ... autorun DONE.

Ядро 2.6.21:

md: Autodetecting RAID arrays.
md: autorun ...
md: ... autorun DONE.

...ну и после этого соответственно kernel panic, так как корневой расдел у меня на софт рэйде.

Куда копать ?

iron
()

NFS

Привет всем.

Возникла необходимость расшарить через NFS файлик на 400G, который лежит на смонтированом расделе:

# mount | grep vol2
/dev/sdb1 on /mnt/vol2 type reiserfs (rw,usrquota,grpquota,acl)

# cat /etc/exports
/mnt/vol2 192.168.0.251(sync,rw,anonuid=0,anongid=0,no_subtree_check,crossmnt)

Монтируется все прекрасно, НО файлов не вижу. Если я расшариваю другую папку, то все работает нормально. А вот именно смонтированый расдел не виден. Читал man export, ничего не нашел на эту тему.

Зарание благодарен.

iron
()

Samba, LDAP, Squid

Привет всем.

Возможно ли организовать авторизацию выходящих в инет юзеров через браузер firefox в домене Samba+LDAP ? Squid - прозрачный. Слыхал что IE без проблем авторизируется через NTLM. А вот firefox хз.

Зарание благодарен.

iron
()

Не работает шейпер

Привет всем.

eth0 - интерфейс роутера который смотрит в локальную сеть.
Настроил резалку трафика:

$TC qdisc add dev eth0 root handle 1: htb default 20 r2q 1
$TC class add dev eth0 parent 1: classid 1:1 htb rate 1024mbit
$TC class add dev eth0 parent 1:1 classid 1:20 htb rate 1000mbit
$TC class add dev eth0 parent 1:1 classid 1:10 htb rate 3900kbit burst 6k
$TC class add dev eth0 parent 1:10 classid 1:110 htb rate 256kbit ceil 3900kbit prio 0 burst 6k
$TC class add dev eth0 parent 1:10 classid 1:120 htb rate 128kbit ceil 3000kbit prio 7 burst 6k
$TC qdisc add dev eth0 parent 1:110 handle 11: sfq perturb 1
$TC qdisc add dev eth0 parent 1:120 handle 12: sfq perturb 1

Пакеты отправляю с определенный клас:
$IPT -t mangle -A POSTROUTING -d 192.168.0.0/24 -o eth0 -j CLASSIFY --set-class 1:110

Не понимаю, почему не работает ограничение 3900Kbit в класе 1:110.

Гарантированая: 256000bit
Предел: 3900Kbit
Текущая: 6419Kbit

Статистика класа:

class htb 1:110 parent 1:10 leaf 11: prio 0 quantum 32000 rate 256000bit ceil 3900Kbit burst 6Kb/8 mpu 0b overhead 0b cburst 6474b/8 mpu 0b overhead 0b level 0
 Sent 4020730410 bytes 1421090 pkt (dropped 829, overlimits 0 requeues 0)
 rate 6419Kbit 306pps backlog 0b 54p requeues 0
 lended: 159361 borrowed: 1261724 giants: 311200
 tokens: -80283 ctokens: -5520

Ещё вопрос. SFQ равномерно распределяет нагрузку на все потоки трафика. Получается, если один из юзеров будет качать в 100 потоков, то остальным которые качают браузером в 4 потока, останется мизер. Можно ли равномерно распределять нагрузку не на потоки, а на каждый IP из подсети ?
iron
()

Проблема со Squid-ом :(

Привет всем.

Имеется контора на 150 робочих мест, канал 4 мегобита. На роутере под управлением Gentoo, ядро hardened-2.6.17-r1, стоит Squid-2.6.9 работающий как прозрачный прокси.

Проблема заключается в том, что инет через Squid работает намного медленее чем через обычный форвардинг. Если без прокси сайт грузится за сек 3-5, то через прокси, за 20-40. Не могу понять в чем проблема, уже 2-е суток колупаюсь :(. Может сквид так и должен работать при трафике в 4 мегобит ? На серваке 4G оперативки. Сервер не хиленький, Pentium Dual Core 2.8Gz.

squid.conf:

http_port 2223 transparent
icp_port 0
hierarchy_stoplist cgi-bin ? mail chat
acl QUERY urlpath_regex cgi-bin \? mail icq
no_cache deny QUERY
visible_hostname office.freemedia.biz
auth_param basic program /usr/libexec/squid/ncsa_auth /etc/squid/passwd
auth_param basic children 3
auth_param basic realm Access Proxy Server
forwarded_for off
cache_mem 2048 MB
cache_swap_low 900 MB
cache_swap_high 2000 MB
cache_dir diskd /var/cache/squid 2048 16 256
cache_access_log /var/log/squid/access.log
maximum_object_size 700 KB
minimum_object_size 0 KB
ftp_user anonymous@
logfile_rotate 10
acl BadFiles urlpath_regex -i "/etc/squid/bad.files"
acl outside_ip src xxx.xxx.xxx.0/24 xxx.xxx.xxx.xxx
acl outside_usr proxy_auth udjin REQUIRED
acl all src 0.0.0.0/0.0.0.0
acl allow_all src 192.168.0.101 192.168.0.168 192.168.0.8 192.168.0.222 127.0.0.1
acl our src 192.168.0.0/24 192.168.1.0/24 192.168.100.0/30
acl localhost src 127.0.0.1/255.255.255.255
acl allow_ports port 80
acl allow_proto proto HTTP HTTPS
acl CONNECT method CONNECT
acl manager proto cache_object
acl SSL_ports port 443 563

delay_pools 2
delay_class 1 1
delay_parameters 1 20000/20000
delay_access 1 allow all !allow_all !outside_ip
delay_access 1 deny all

delay_class 2 1
delay_access 2 allow allow_all outside_ip SSL_ports
delay_access 2 deny all
delay_parameters 2 -1/-1

http_access allow allow_all
http_access allow outside_ip outside_usr
http_access deny our !SSL_ports !allow_ports !allow_proto !outside_ip !outside_usr
http_access allow our
http_access deny all
error_directory /usr/share/squid/errors/Russian-1251
cache_mgr iron@freemedia.biz
cache_effective_user squid
cache_effective_group squid
buffered_logs on

bad.files:

\.mp3$
\.mpeg$
\.mpg$
\.avi$
\.wav$
\.wmv$
\.mov$

Трафик перенаправляется на порт squid правилом:
iptables -t nat -A PREROUTING -s 192.168.0.0/24 -d ! 192.168.0.0/24 -i eth0 -p tcp --dport 80 -j REDIRECT --to-port 2223

Лог cache.log:
2007/01/30 21:38:20| Starting Squid Cache version 2.6.STABLE9 for i686-pc-linux-gnu...
2007/01/30 21:38:20| Process ID 26996
2007/01/30 21:38:20| With 1024 file descriptors available
2007/01/30 21:38:20| Using epoll for the IO loop
2007/01/30 21:38:20| DNS Socket created at 0.0.0.0, port 32780, FD 5
2007/01/30 21:38:20| Adding domain local from /etc/resolv.conf
2007/01/30 21:38:20| Adding nameserver 127.0.0.1 from /etc/resolv.conf
2007/01/30 21:38:20| Adding nameserver 193.24.25.1 from /etc/resolv.conf
2007/01/30 21:38:20| Adding nameserver 212.109.32.5 from /etc/resolv.conf
2007/01/30 21:38:20| Adding nameserver 212.109.32.9 from /etc/resolv.conf
2007/01/30 21:38:20| Adding nameserver 193.24.25.250 from /etc/resolv.conf
2007/01/30 21:38:20| Adding nameserver 70.87.114.194 from /etc/resolv.conf
2007/01/30 21:38:20| helperOpenServers: Starting 3 'ncsa_auth' processes
2007/01/30 21:38:20| User-Agent logging is disabled.
2007/01/30 21:38:20| Referer logging is disabled.
2007/01/30 21:38:20| Unlinkd pipe opened on FD 13
2007/01/30 21:38:20| Swap maxSize 2097152 KB, estimated 161319 objects
2007/01/30 21:38:20| Target number of buckets: 8065
2007/01/30 21:38:20| Using 8192 Store buckets
2007/01/30 21:38:20| Max Mem size: 2097152 KB
2007/01/30 21:38:20| Max Swap size: 2097152 KB
2007/01/30 21:38:20| Local cache digest enabled; rebuild/rewrite every 3600/3600 sec
2007/01/30 21:38:20| Rebuilding storage in /var/cache/squid (CLEAN)
2007/01/30 21:38:20| Using Least Load store dir selection
2007/01/30 21:38:20| Current Directory is /var/log/squid
2007/01/30 21:38:20| Loaded Icons.
2007/01/30 21:38:20| Accepting transparently proxied HTTP connections at 0.0.0.0, port 2223, FD 16.
2007/01/30 21:38:20| HTCP Disabled.
2007/01/30 21:38:20| WCCP Disabled.
2007/01/30 21:38:20| Ready to serve requests.
2007/01/30 21:38:20| Store rebuilding is 16.6% complete
2007/01/30 21:38:20| Done reading /var/cache/squid swaplog (24620 entries)
2007/01/30 21:38:20| Finished rebuilding storage from disk.
2007/01/30 21:38:20| 24620 Entries scanned
2007/01/30 21:38:20| 0 Invalid entries.
2007/01/30 21:38:20| 0 With invalid flags.
2007/01/30 21:38:20| 24620 Objects loaded.
2007/01/30 21:38:20| 0 Objects expired.
2007/01/30 21:38:20| 0 Objects cancelled.
2007/01/30 21:38:20| 0 Duplicate URLs purged.
2007/01/30 21:38:20| 0 Swapfile clashes avoided.
2007/01/30 21:38:20| Took 0.6 seconds (44649.7 objects/sec).
2007/01/30 21:38:20| Beginning Validation Procedure
2007/01/30 21:38:20| Completed Validation Procedure
2007/01/30 21:38:20| Validated 24620 Entries
2007/01/30 21:38:20| store_swap_size = 303236k
2007/01/30 21:38:21| storeLateRelease: released 0 objects

Где искать проблему ?

iron
()

Баг треккер

Привет всем.

Подскажите, любезнейшие, софту для фиксирования неисправностей.

К примеру, имеется компания на 150 роб. мест, IT отдел из 4-х админов. Когда возникает неисправность на одном из компов, юзер заходит на баг треккер (без авторизации), создает такск, мол у меня не отправляется мыло. Бежурный админ смотрит, проблема не в компетенции, пишет свой диагноз, и перенаправляет другому админу. Самое главное чтоб фиксировалось время, и состояние устранение проблемы. Софта чтоб была написана на php или perl, и была общадоступна по web-интерфейсу.

Зарание благоданен.

iron
()

Проблема с софт рейдом

Привет всем.

При просмотре состояния одного из рейдов, дыла замечена проблема:

# lsraid -a /dev/md3
lsraid: Unable to find superblock for "/dev/sda3": Invalid argument
lsraid: Unable to find superblock for "/dev/sdb3": Invalid argument
[dev 9, 3] /dev/md3 00000000.00000000.00000000.00000000 online
[dev ?, ?] (unknown) 00000000.00000000.00000000.00000000 missing
[dev ?, ?] (unknown) 00000000.00000000.00000000.00000000 missing

...хотя рейд работает нормально. Вот, к примеру другой рейд:

# lsraid -a /dev/md1
[dev 9, 1] /dev/md1 C538E6F2.43A6223A.FFEE5E15.B7155A25 online
[dev 8, 1] /dev/sda1 C538E6F2.43A6223A.FFEE5E15.B7155A25 good
[dev 8, 17] /dev/sdb1 C538E6F2.43A6223A.FFEE5E15.B7155A25 good

Гугление не дало результатов. Может кто-то подскажет как лечить ?

iron
()

Распредиление заданий СUPS

Хелоу великий олл.

Есть сетка на 120 тачек, штук 20 принтеров с принт-серверами. Возможно ли организовать средствами CUPS следующую задачу: подключить все принтеры к серверу, настроить универсальный принтер(подключить его всем юзерам), который будет отсылать на печать на ближайший принтер, на основе таблицы айпишников.

iron
()

Где ошибся ?

# useradd -s /bin/bash gаlаdzhiy
useradd: invalid user name 'gаlаdzhiy'
# useradd -s /bin/bash gаlа
useradd: invalid user name 'gаlа'

В чем может быть проблема ?

iron
()

zoneinfo

Привет всем.

Дистриб Gentoo.

node1 ~ # rm -f /etc/localtime
node1 ~ # ln -sf /usr/share/zoneinfo/Europe/Kiev /etc/localtime
node1 ~ # ls -la /etc/localtime
lrwxrwxrwx 1 root root 31 Jul 18 06:54 /etc/localtime -> /usr/share/zoneinfo/Europe/Kiev
node1 ~ # date
Tue Jul 18 06:54:49 EEST 2006
node1 ~ # uname -a
Linux node1.local 2.6.15.6 #6 SMP Thu Jul 13 17:41:53 Local time zone must be set--see zic i686 Intel(R) Pentium(R) 4 CPU 3.00GHz GNU/Linux

Вопрос: почему # uname -a говорит Local time zone must be set ? Что я неправильно сделал ? В любом хандбуке по Gentoo сказано так сделать...Всегда это работало, а теперь нет. Все пакеты самые свежие.

iron
()

RSS подписка на новые темы