LINUX.ORG.RU

Сообщения loginrl103

 

как правильно назвать сервер

Форум — Talks

всем доброго времени.

прикупили новый сервер, после 3-х часов совещаний так и не смогли выбрать финальное имя для сервера.

ваши предложения?)

Перемещено tazhate из admin

loginrl103
()

tail | nc , замучали зомби

Форум — Admin

всем доброго дня.

есть простецкая задача

tail -f /var/log/mysqld/general.log | nc xxx.xxx.xxx.xxx 11111

те просто шлём лог на нужный порт. всё работает хорошо. НО, если разорвать соединение (рестартануть принимающий сервис например) - nc умирает, но tail продолжает висеть в памяти. и что хуже - появляется процесс зомби, стоить убить tail - зомби уходит.

собственно отслеживать tail, шлющий данные в никуда и убивать его - не unix way))

хотелось бы организовать передачу таким образом - чтоб в случае отваливания принимающей стороны tail отстреливался.

ps. писать на perl/php/ruby/java/etc не предлагать )

Перемещено beastie из development

loginrl103
()

прокся для почты с хранением писем в очереди

Форум — Admin

Добрый день.

Имеется некая система (условно назовём её otrs), отправляющая и получающая письма через gmail. Периодически gmail блокирует (из-за всяких лимитов и тд). Отправка идёт из самого perl-скрипта - сам авторизуется, сам шлёт письмо. Недостаток такой системы - в случае если ломается gmail (или блокирует), отправить письма невозможно.

Собственно вопрос такого плана - хочется найти (не писать самим) готовый скрипт, принимающий почту подобно smtp серверу, хранящий эти письма в своей какой-то очереди, а затем расстреливающий её. Плюс такого подхода - если гугл сломается, ответить из otrs на письма всё равно можно будет, просто они отправятся позже - это лучше чем просто невозможность отвечать на письма.

loginrl103
()

Зависает xen dom0 при при жёстком io в domU

Форум — Admin

В последние пару дней проявилась очень странная проблема с xen.

Сервер: debian 6.0.6, 24 ядра, xeon 5650, 98 гб, xen 4.0.1. Пара виртуалок, в основном жрут проц и память. Но сегодня случилась В этих виртуалках сильная нагрузка на диск (удалось сэмулировать такую шляку через несколько dd, gzip). Результатом стало ПОДВИСАНИЕ хост-машины (telnet ip_server 22 ничего не выдаёт, пинг тоже не шёл), виртуалки тоже в подвисшем состоянии, периодически оживают. Те все виртуалки вместе с севером - «ни жив ни мёртв». Через ipmi тоже самое.

С какоя конца браться за эту хреновину даже не представляю: апдейт не помог. Ставить kvm не хочется, ибо там вроде как нету лимитирования cpu.

Нужны советы)

loginrl103
()

ha/xen/drbd для каждой виртуалке

Форум — Admin

Добрый день.

Появилась необходимость настроить ha для xen через drbd. С этим проблем не возникло.

НО. Все описанные связки в интернетах описывают случай когда ha отслеживает физ сервер: те если сам физ сервер упадёт то на втором все домены стартанут. Но случай, когда падает не физ сервер, а какая-либо виртуалка - не рассматривается. Соответственно - как можно в режиме master/slave отслеживать живучесть виртуалок, и при обнаружении упавшей запускать резервную и делать её мастером. Короче спроецировать ha на виртуалки (все домены - hvm, linux и windows, ставить внутрь каждой из них не очень прикалывает).

какие есть идеи?.

loginrl103
()

linux-ha, lvs

Форум — Admin

Всем здрасьте.

Имеется виртуалка xen с hvm. Динамично меняющихся данных особо нету. Есть необходимость сделать авто поднятие клона вирталки в случае падения первой.

Те имеется две одинаковых на момент копирования образа, обе работают, у одной из них - главной (условно) есть некий адрес, скажем 192.168.1.1, у другой 192.168.1.2, пр падении 192.168.1.1 некий демон (как предполагаю linux ha) на 192.168.1.2 создаёт интерфейс 192.168.1.1, в итоге всё продолжает работать.

drbd мне не нужен, но насколько понял linux ha всё время тащит за собой его.

Что подскажете?

loginrl103
()

Массовая рассылка, как правильно организовать (не спам)

Форум — Admin

Добрый день.

Возникла задача организовать массовую рассылку. Клиентская база - до 500к адресов. Больше всего вопросов вызывает одно из требований - отсылка писем в течении 20 минут.

Возможно ли сотворить подобное с помощью exim/postfix, или нужна отдельная програмулина рассылки (подойдёт ли majordom)? Акромя ptr/spf/dkim что ещё необходимо? Предполагается ли использование ident? Необходимо ли использовать ip адресов более одного? Что насчёт mx?

Хотелось бы услышать комментарии людей непосредственно сталкивающихся с подобной задачей. Буду рад вменяемым ссылкам манам.

ps. и что по железу? 24 ядра (за счёт ht) + 32gb хватит под такую задачу?

loginrl103
()

грабли с сетевым стеком

Форум — Admin

Всем добрый день.

Недавно пришлось переносить прозрачный сквид: ранее схема была такая - хост машина подключена к интернету, на ней же крутится openvz, в ней прозрачный сквид, в иптейблс делался соответсвующий днат на сквид. Короче всё работало.

Сейчас схема стала такая: хост машина так же подключена к интернету, на ней крутится xen, сеть в доменах как bridge. Сквид крутится в domU так же настроенный как прозрачный. Ну и иптейблс на хост машине соответственно. Но вот проблема - не работает. Само соединение проходит вот так

хост машина

iptables -L -n -t nat:
Chain PREROUTING (policy ACCEPT)
target prot opt source destination
DNAT tcp  — 192.168.1.144 !192.168.0.0/16 tcp dpt:80 to:192.168.1.51:3128

iptables -L -n:
Chain FORWARD (policy ACCEPT)
target prot opt source destination
ACCEPT all  — 192.168.0.0/16 0.0.0.0/0

192.168.1.144 - адрес моей машины которую пробрасываю через сквид, 192.168.1.51 - сквид


в домене со сквидом
ifconfig
eth0 Link encap:Ethernet HWaddr A0:A1:A6:A4:E2:1F
inet addr:192.168.1.51 Bcast:192.168.255.255 Mask:255.255.0.0
inet6 addr: fe80::a2a1:a6ff:fea4:e21f/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:1706033 errors:0 dropped:0 overruns:0 frame:0
TX packets:104983 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:229373115 (218.7 MiB) TX bytes:25963712 (24.7 MiB)


иптейблс пустой, форвардинг включён на всякий.

а вот и сам долгожданный дамп tcpdump в сквидовом домене
tcpdump -nnnn port 80 or port 3128
tcpdump: verbose output suppressed, use -v or -vv for full protocol decode
listening on eth0, link-type EN10MB (Ethernet), capture size 96 bytes
03:54:23.011809 IP 192.168.1.144.24962 > 192.168.1.51.3128: S 1843036251:1843036251(0) win 65535 <mss 1460,nop,nop,sackOK>
03:54:23.011916 IP 192.168.1.51.3128 > 192.168.1.144.24962: S 3837390554:3837390554(0) ack 1843036252 win 5840 <mss 1460,nop,nop,sackOK>
03:54:23.014786 IP 192.168.1.144.24962 > 192.168.1.51.3128: R 1843036252:1843036252(0) win 0

те само соединение начинает устанавливаться, а потом закрывается с моей же стороны!

wireshark на моей машине на закрывающем пакете пишет нечто вида «Acknowledgement number: Broken TCP. The acknowledge field is nonzero while the ACK flag is not set».


конфиг сквида (на версии 3.1 такая же портянка)

squid -v
Squid Cache: Version 2.7.STABLE9
configure options: '--prefix=/usr' '--mandir=/usr/share/man' '--infodir=/usr/share/info' '--datadir=/usr/share' '--localstatedir=/var/lib' '--sysconfdir=/etc/squid' '--libexecdir=/usr/libexec/squid' '--localstatedir=/var' '--datadir=/usr/share/squid' '--enable-removal-policies=lru,heap' '--enable-icmp' '--disable-ident-lookups' '--enable-cache-digests' '--enable-delay-pools' '--enable-arp-acl' '--with-pthreads' '--with-large-files' '--enable-htcp' '--enable-carp' '--enable-follow-x-forwarded-for' '--enable-snmp' '--enable-ssl' '--enable-async-io=32' '--enable-epoll' '--disable-poll' '--with-maxfd=16384' '--enable-linux-netfilter' '--enable-linux-tproxy'


Те затык даже не на сквиде, а где-то на уровне сети. Но идеи как-то закончились :) Есть идеи где грабли?

 

loginrl103
()

утечка памяти в xen ?

Форум — Admin

centos5.8, xen 3.4.4, ядро 2.6.18-308.1.1.el5xen, Intel(R) Xeon(R) CPU X5650 @ 2.67GHz

xm list:
Name                      ID   Mem VCPUs      State   Time(s)
1c_app                    73  4096     4          -b----  12198.6
1c_mssql                  67  18432   8          -b----   33393.8
AD                        66  3072     2          -b----  895.0
Domain-0                   0  3441    24         r-----  33839.2

free -m:
             total             used       free     shared    buffers     cached
Mem:         3441              3288        152          0         10       2385
-/+ buffers/cache:    893          2547
Swap:     0                 0              0

на сервере установлено (и определяется) 32 гб памяти, исходя из показателей free/xm 3-4 гб памяти потерялось в никуда. правильно ли я понимаю что утечка памяти?

 

loginrl103
()

Сыпется ext4/soft raid/hard

Форум — Admin

Все добрый.

Centos 5.7. Сервер под бэкап, soft raid 6 (4 диска); был неожиданный ребут, апосля xfs, крутившийся на разделе потерял часть данных, переформатил раздел в ext4; проработало недели 2, сегодня в логах

EXT4-fs error (device md2): ext4_lookup: deleted inode referenced: 114205457
EXT4-fs error (device md2): ext4_lookup: deleted inode referenced: 113967281
EXT4-fs error (device md2): ext4_lookup: deleted inode referenced: 184009073
EXT4-fs error (device md2): ext4_lookup: deleted inode referenced: 184017329
EXT4-fs error (device md2): ext4_lookup: deleted inode referenced: 182911313
...

smartctl --all /dev/sd[abcd]

ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       10
  3 Spin_Up_Time            0x0027   253   253   021    Pre-fail  Always       -       8916
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       15
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   100   253   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   094   094   000    Old_age   Always       -       4960
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       13
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       11
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       3
194 Temperature_Celsius     0x0022   113   102   000    Old_age   Always       -       39
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   100   253   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   100   253   000    Old_age   Offline      -       0

для всех дисков Raw_Read_Error_Rate не нуль, максимальное значение 22; диски wd, в интернетах говорят что мол значение несколько единиц/десятков для любого диска это нормально; хз насколько это верно.

Если ошибка на диске - почему raid не просёк их? Если предположить что raid не зафакапил, остаётся что проблема в ext4.

Ваши идеи, что делать. Xfs до сих пор теряет данные (которые уже сто лет лежат на диске) при внезапном отключении эл-ва, да и медленный на миллионах файлах; ext3/jfs/btrfs не в счёт, рейзер...хз что с ним, уже не пилят его особо.

loginrl103
()

iostat + ext4

Форум — Admin

Глючит iostat в связке с ext4. CentOS release 5.7, soft raid6 (4 диска), раздел под бэкапы отформатирован mke4fs -b 4096 -E stride=64 -E stripe-width=128 -O dir_index -O sparse_super /dev/md2

на новенький пустой раздел делаю rsync с удалённой машины на локальную. iostat/iotop показывают что идёт активнейшая запись на диск (оно и понятно), но iostat сходит с ума то ли ext4 так странно работает

Device:         rrqm/s   wrqm/s   r/s   w/s   rsec/s   wsec/s avgrq-sz avgqu-sz   await  svctm  %util
sda             485.15  3173.27 23.76 151.49  3318.81 28435.64   181.20     5.23   28.33   4.54  79.60
sda1              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sda2            485.15  3173.27 23.76 151.49  3318.81 28435.64   181.20     5.23   28.33   4.54  79.60
sda3              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sda4              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sda5              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sdb             563.37  3049.50 27.72 152.48  4126.73 28023.76   178.42     5.92   31.68   4.50  81.09
sdb1              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sdb2            563.37  3049.50 27.72 152.48  4126.73 28023.76   178.42     5.92   31.68   4.50  81.09
sdb3              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sdb4              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sdb5              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sdc             458.42  3194.06 27.72 145.54  3873.27 27485.15   180.98     6.67   37.67   5.34  92.57
sdc1              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sdc2            458.42  3194.06 27.72 145.54  3873.27 27485.15   180.98     6.67   37.67   5.34  92.57
sdc3              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sdc4              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sdc5              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sdd             524.75  3128.71 30.69 138.61  4332.67 26859.41   184.23     6.58   36.94   5.49  92.97
sdd1              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sdd2            524.75  3128.71 30.69 138.61  4332.67 26859.41   184.23     6.58   36.94   5.49  92.97
sdd3              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sdd4              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sdd5              0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
md1               0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
md3               0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
md2               0.00     0.00  0.99 6003.96     7.92 48031.68     8.00     0.00    0.00   0.00   0.00
md0               0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00
sr0               0.00     0.00  0.00  0.00     0.00     0.00     0.00     0.00    0.00   0.00   0.00

непонятно откуда такое большое чтение с диска - раздел новый, rsync не пишет поверх чего-либо, на xfs всё было ок (отказался из-за потери данных при отрубании эл-ва). Так же не корректно считается итоговый iops для чтения/записи для md2.

Во-общем - кто нить знает что за хрень творится с ext4?

ps. да, xfs потерял данные, да, я знаю что на домашней машины у вас xfs крутится 3 года и всё тип-топ, нет, ext3 не подходит из-за тормознутости, нет, рейзер трогать страшно ибо не ясно в каком состоянии ))

loginrl103
()

оптимизация hdd/xfs/io scheduler

Форум — Admin

Добрый день.

Имеется бекап сервер: 8гб памяти, 8 ядер (с ht), 4 сата 2тб, raid6, 2.6.18-238.12.1.el5.028stab091.1, xfs под бекап раздел.

Вопрос в оптимизации дисковой подсистемы и xfs. atime отключён :) Бекапится очень много мелких файлов, необходимо ускорить копирование мелких файлов. Что можно/нужно изменить в настройках дисковой подсистемы (память под xfs, длина очереди, таймаут сброса и тд) чтобы копирование шло быстрее? отсылка к докам приветствуется

loginrl103
()

nginx дёргает диск даже при 304

Форум — Admin

Добрый день. Для статики настроен nginx, отдающий 304 с времени жизни 10 суток.

Тем не менее iotop показывает что nginx постоянно читает с диска что-то, новых пользователей у которых статика ещё не прокешировано - копейки.

Есть предположение: при запросе от клиента на статику в запросе есть заголовок if-modified-since, nginx дёргает сискалл для выяснения mtime для запрашиваемого файла, и если он изменился - отдаёт новый, если нет - отдаёт код 304. В случае если это так - становится понятно почему nginx так дёргает диск.

Прав ли я, или не там собака зарыта?

loginrl103
()

не работает простая маршрутизация

Форум — Admin

сеть A (192.168.1.0/24), сервер
eth1: 192.168.1.1/24
eth2: 192.168.167.1/30

iptables -L -n:
Chain FORWARD (policy DROP)
target prot opt source destination
ACCEPT icmp — 0.0.0.0/0 0.0.0.0/0
..................................................

ip route:
yy.yy.yy.yy/30 dev eth1 proto kernel scope link src yy.yy.yy.yy
192.168.167.0/30 dev eth2 proto kernel scope link src 192.168.167.1
192.168.2.0/24 dev eth2 proto kernel scope link src 192.168.167.1
192.168.1.0/24 dev eth0 proto kernel scope link src 192.168.1.1
default via yy.yy.yy.yy dev eth1 <<--- inet

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
сеть B (192.168.2.0/24), сервер
eth1: 192.168.2.1/24
eth2: 192.168.167.2/30

iptables -L -n
Chain FORWARD (policy DROP)
target prot opt source destination
ACCEPT icmp — 0.0.0.0/0 0.0.0.0/0
..................................................

ip route:
192.168.2.10 dev venet0 scope link
192.168.167.0/30 dev eth2 proto kernel scope link src 192.168.167.2
192.168.1.0/24 dev eth2 proto kernel scope link src 192.168.167.2
192.168.2.0/24 dev eth0 proto kernel scope link src 192.168.2.1
xx.xx.xx.0/24 dev eth1 proto kernel scope link src xx.xx.xx.xx
default via xx.xx.xx.xx dev eth1 <<--- inet


форвардинг через sysctl везде включен, в nat для всего icmp тупо ACCEPT.

пинг между самими серверами идёт, если пинговать всё что через forward - не идёт (те с сервера A: ping 192.168.2.50 - fail), собственно в чём косяк?

loginrl103
()

в тред призываются ниндзя mysql

Форум — Admin

зачем в мускуле используется Created_tmp_tables (хочется услышать гораздо более развёрнутый ответ, чем банальное «для выборки»)?
как можно сооптимизировать запрос, чтобы временных таблиц создавалось по-минимуму?
насколько нормальна ситуация, когда в «show processlist» 90% запросов (100 параллельных запросов, почти все - селекты) находится в статусе «Copying to tmp table»

была проблема - все селекты уходили в ожидании блокировки из-за 1-2 апдейтов в таблице (селекты нацелены на ту же таблицу), перевод таблицы на иннодб уменьшил ожидания блокировки, но зато увеличилось очень сильно «Copying to tmp table». Хочу услышать комментарии.

Спасиб)

loginrl103
()

Паразитная нагрузка от mysql

Форум — Admin

Добрый день.

Недавно возрастала нагрузка на бд mysql, порядка 70 коннектов/тредов, в основном выборка данных, база небольшая - 60мб. Сервер два проца X5650 (24 ядра) + 16гб памяти. Проблема в том что при нагрузке на базу system time по каждому ядру >50%. iowait = 0, user time 10-20%

strace показал что 99,9% всех сисколов из сервера mysql приходится на select.

Собственно вопрос - с чем может быть связана столь высокая частота вызовов select, куда копать, что оптимизировать.

ps. в конфиге буфер/стеки/кеши увеличил до нескольких раз - не помогло. centos 5.5, mysql 5.0.77

loginrl103
()

простейша задача на маршрутизацию

Форум — Admin

Всем добрый день. Возникла необходимость соединить две сети, с маршрутизацией давно не сталкивался, в голове остался ноль об этом деле ))

итак дано: сервераA: eth1 - 192.168.1.0/24 внутренняя сеть eth2 - соединена езернетом с eth2 сервера B

серверB: eth1 - 192.168.2.0/24 внутренная сеть eth2 - соединена езернетом с eth2 сервера A

итак вопрос наиглупейший - какие адреса должны быть на сетевухах eth2?)) те я предполагаю что сервераA:eth2 192.168.2.250, сервераB:eth2 192.168.1.250,

сервер A ip route add 192.168.2.0/24 via 192.168.2.250 dev eth2

сервер B ip route add 192.168.1.0/24 via 192.168.1.250 dev eth2

...

верно? или же нет?

форвардинг файерволл нат - с этим проблем нету, проблема токо с маршрутизацией, забыл всё под ноль (.

loginrl103
()

многопоточный краулер с поддержкой сессий

Форум — Development

собственно - сабж. есть ли какой то многопоточный краулер с поддержкой сессий, цель - бенчмарк. лучше если тулза будет на perl.

ps. банальный ab не подходит, даже не упоминайте )

loginrl103
()

дособрать cgi для http

Форум — Admin

админ до меня собирал апач из исходников с ключиком disable-cgi. теперь всё же нужен cgi (для perl), можно ли как-то собрать чисто модуль без пересборки всего апача (дело касается продакшена, поэтому телодвижений должно быть минимум)?

loginrl103
()

гугловский бот сошёл с ума

Форум — Admin

в последние пару дней стал замечать что сайт (небольшой, но под него свой сервер 16gb ram, X5650) стал дико напрягаться (искл-но cpu:system>70% из-за httpd). вплоть до 502. нгинкс и мускуль не парятся вовсе, а вот апаче...

вообще полез смотреть наиболее активные ip в моменты такой нагруки, и что же я вижу - больше 70% - гугловские адреса. 74.125.x.y. так понимаю - их боты. НО! robots.txt настроен, и он явно указывает чтобы бот между запросами страниц выжидал 5 сек. и тем не менее не помогло. бан подсетки гугла решает проблему мгновенно...стоит разбанить - и через 1-12 часов всё возобновляется, вне зависимости от времени суток.

Вообщем кто сталкивался, как решали, ваши идеи.

loginrl103
()

RSS подписка на новые темы