как правильно назвать сервер
всем доброго времени.
прикупили новый сервер, после 3-х часов совещаний так и не смогли выбрать финальное имя для сервера.
ваши предложения?)
Перемещено tazhate из admin
всем доброго времени.
прикупили новый сервер, после 3-х часов совещаний так и не смогли выбрать финальное имя для сервера.
ваши предложения?)
Перемещено tazhate из admin
всем доброго дня.
есть простецкая задача
tail -f /var/log/mysqld/general.log | nc xxx.xxx.xxx.xxx 11111
те просто шлём лог на нужный порт. всё работает хорошо. НО, если разорвать соединение (рестартануть принимающий сервис например) - nc умирает, но tail продолжает висеть в памяти. и что хуже - появляется процесс зомби, стоить убить tail - зомби уходит.
собственно отслеживать tail, шлющий данные в никуда и убивать его - не unix way))
хотелось бы организовать передачу таким образом - чтоб в случае отваливания принимающей стороны tail отстреливался.
ps. писать на perl/php/ruby/java/etc не предлагать )
Перемещено beastie из development
Добрый день.
Имеется некая система (условно назовём её otrs), отправляющая и получающая письма через gmail. Периодически gmail блокирует (из-за всяких лимитов и тд). Отправка идёт из самого perl-скрипта - сам авторизуется, сам шлёт письмо. Недостаток такой системы - в случае если ломается gmail (или блокирует), отправить письма невозможно.
Собственно вопрос такого плана - хочется найти (не писать самим) готовый скрипт, принимающий почту подобно smtp серверу, хранящий эти письма в своей какой-то очереди, а затем расстреливающий её. Плюс такого подхода - если гугл сломается, ответить из otrs на письма всё равно можно будет, просто они отправятся позже - это лучше чем просто невозможность отвечать на письма.
В последние пару дней проявилась очень странная проблема с xen.
Сервер: debian 6.0.6, 24 ядра, xeon 5650, 98 гб, xen 4.0.1. Пара виртуалок, в основном жрут проц и память. Но сегодня случилась В этих виртуалках сильная нагрузка на диск (удалось сэмулировать такую шляку через несколько dd, gzip). Результатом стало ПОДВИСАНИЕ хост-машины (telnet ip_server 22 ничего не выдаёт, пинг тоже не шёл), виртуалки тоже в подвисшем состоянии, периодически оживают. Те все виртуалки вместе с севером - «ни жив ни мёртв». Через ipmi тоже самое.
С какоя конца браться за эту хреновину даже не представляю: апдейт не помог. Ставить kvm не хочется, ибо там вроде как нету лимитирования cpu.
Нужны советы)
Добрый день.
Появилась необходимость настроить ha для xen через drbd. С этим проблем не возникло.
НО. Все описанные связки в интернетах описывают случай когда ha отслеживает физ сервер: те если сам физ сервер упадёт то на втором все домены стартанут. Но случай, когда падает не физ сервер, а какая-либо виртуалка - не рассматривается. Соответственно - как можно в режиме master/slave отслеживать живучесть виртуалок, и при обнаружении упавшей запускать резервную и делать её мастером. Короче спроецировать ha на виртуалки (все домены - hvm, linux и windows, ставить внутрь каждой из них не очень прикалывает).
какие есть идеи?.
Всем здрасьте.
Имеется виртуалка xen с hvm. Динамично меняющихся данных особо нету. Есть необходимость сделать авто поднятие клона вирталки в случае падения первой.
Те имеется две одинаковых на момент копирования образа, обе работают, у одной из них - главной (условно) есть некий адрес, скажем 192.168.1.1, у другой 192.168.1.2, пр падении 192.168.1.1 некий демон (как предполагаю linux ha) на 192.168.1.2 создаёт интерфейс 192.168.1.1, в итоге всё продолжает работать.
drbd мне не нужен, но насколько понял linux ha всё время тащит за собой его.
Что подскажете?
Добрый день.
Возникла задача организовать массовую рассылку. Клиентская база - до 500к адресов. Больше всего вопросов вызывает одно из требований - отсылка писем в течении 20 минут.
Возможно ли сотворить подобное с помощью exim/postfix, или нужна отдельная програмулина рассылки (подойдёт ли majordom)? Акромя ptr/spf/dkim что ещё необходимо? Предполагается ли использование ident? Необходимо ли использовать ip адресов более одного? Что насчёт mx?
Хотелось бы услышать комментарии людей непосредственно сталкивающихся с подобной задачей. Буду рад вменяемым ссылкам манам.
ps. и что по железу? 24 ядра (за счёт ht) + 32gb хватит под такую задачу?
Всем добрый день.
Недавно пришлось переносить прозрачный сквид: ранее схема была такая - хост машина подключена к интернету, на ней же крутится openvz, в ней прозрачный сквид, в иптейблс делался соответсвующий днат на сквид. Короче всё работало.
Сейчас схема стала такая: хост машина так же подключена к интернету, на ней крутится xen, сеть в доменах как bridge. Сквид крутится в domU так же настроенный как прозрачный. Ну и иптейблс на хост машине соответственно. Но вот проблема - не работает. Само соединение проходит вот так
хост машина
iptables -L -n -t nat:
Chain PREROUTING (policy ACCEPT)
target prot opt source destination
DNAT tcp — 192.168.1.144 !192.168.0.0/16 tcp dpt:80 to:192.168.1.51:3128
iptables -L -n:
Chain FORWARD (policy ACCEPT)
target prot opt source destination
ACCEPT all — 192.168.0.0/16 0.0.0.0/0
192.168.1.144 - адрес моей машины которую пробрасываю через сквид, 192.168.1.51 - сквид
в домене со сквидом
ifconfig
eth0 Link encap:Ethernet HWaddr A0:A1:A6:A4:E2:1F
inet addr:192.168.1.51 Bcast:192.168.255.255 Mask:255.255.0.0
inet6 addr: fe80::a2a1:a6ff:fea4:e21f/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:1706033 errors:0 dropped:0 overruns:0 frame:0
TX packets:104983 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:229373115 (218.7 MiB) TX bytes:25963712 (24.7 MiB)
иптейблс пустой, форвардинг включён на всякий.
а вот и сам долгожданный дамп tcpdump в сквидовом домене
tcpdump -nnnn port 80 or port 3128
tcpdump: verbose output suppressed, use -v or -vv for full protocol decode
listening on eth0, link-type EN10MB (Ethernet), capture size 96 bytes
03:54:23.011809 IP 192.168.1.144.24962 > 192.168.1.51.3128: S 1843036251:1843036251(0) win 65535 <mss 1460,nop,nop,sackOK>
03:54:23.011916 IP 192.168.1.51.3128 > 192.168.1.144.24962: S 3837390554:3837390554(0) ack 1843036252 win 5840 <mss 1460,nop,nop,sackOK>
03:54:23.014786 IP 192.168.1.144.24962 > 192.168.1.51.3128: R 1843036252:1843036252(0) win 0
те само соединение начинает устанавливаться, а потом закрывается с моей же стороны!
wireshark на моей машине на закрывающем пакете пишет нечто вида «Acknowledgement number: Broken TCP. The acknowledge field is nonzero while the ACK flag is not set».
конфиг сквида (на версии 3.1 такая же портянка)
squid -v
Squid Cache: Version 2.7.STABLE9
configure options: '--prefix=/usr' '--mandir=/usr/share/man' '--infodir=/usr/share/info' '--datadir=/usr/share' '--localstatedir=/var/lib' '--sysconfdir=/etc/squid' '--libexecdir=/usr/libexec/squid' '--localstatedir=/var' '--datadir=/usr/share/squid' '--enable-removal-policies=lru,heap' '--enable-icmp' '--disable-ident-lookups' '--enable-cache-digests' '--enable-delay-pools' '--enable-arp-acl' '--with-pthreads' '--with-large-files' '--enable-htcp' '--enable-carp' '--enable-follow-x-forwarded-for' '--enable-snmp' '--enable-ssl' '--enable-async-io=32' '--enable-epoll' '--disable-poll' '--with-maxfd=16384' '--enable-linux-netfilter' '--enable-linux-tproxy'
Те затык даже не на сквиде, а где-то на уровне сети. Но идеи как-то закончились :) Есть идеи где грабли?
centos5.8, xen 3.4.4, ядро 2.6.18-308.1.1.el5xen, Intel(R) Xeon(R) CPU X5650 @ 2.67GHz
xm list:
Name ID Mem VCPUs State Time(s)
1c_app 73 4096 4 -b---- 12198.6
1c_mssql 67 18432 8 -b---- 33393.8
AD 66 3072 2 -b---- 895.0
Domain-0 0 3441 24 r----- 33839.2
free -m:
total used free shared buffers cached
Mem: 3441 3288 152 0 10 2385
-/+ buffers/cache: 893 2547
Swap: 0 0 0
на сервере установлено (и определяется) 32 гб памяти, исходя из показателей free/xm 3-4 гб памяти потерялось в никуда. правильно ли я понимаю что утечка памяти?
Все добрый.
Centos 5.7. Сервер под бэкап, soft raid 6 (4 диска); был неожиданный ребут, апосля xfs, крутившийся на разделе потерял часть данных, переформатил раздел в ext4; проработало недели 2, сегодня в логах
EXT4-fs error (device md2): ext4_lookup: deleted inode referenced: 114205457
EXT4-fs error (device md2): ext4_lookup: deleted inode referenced: 113967281
EXT4-fs error (device md2): ext4_lookup: deleted inode referenced: 184009073
EXT4-fs error (device md2): ext4_lookup: deleted inode referenced: 184017329
EXT4-fs error (device md2): ext4_lookup: deleted inode referenced: 182911313
...
smartctl --all /dev/sd[abcd]
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 10
3 Spin_Up_Time 0x0027 253 253 021 Pre-fail Always - 8916
4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 15
5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0
7 Seek_Error_Rate 0x002e 100 253 000 Old_age Always - 0
9 Power_On_Hours 0x0032 094 094 000 Old_age Always - 4960
10 Spin_Retry_Count 0x0032 100 253 000 Old_age Always - 0
11 Calibration_Retry_Count 0x0032 100 253 000 Old_age Always - 0
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 13
192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 11
193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 3
194 Temperature_Celsius 0x0022 113 102 000 Old_age Always - 39
196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0
197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0008 100 253 000 Old_age Offline - 0
для всех дисков Raw_Read_Error_Rate не нуль, максимальное значение 22; диски wd, в интернетах говорят что мол значение несколько единиц/десятков для любого диска это нормально; хз насколько это верно.
Если ошибка на диске - почему raid не просёк их? Если предположить что raid не зафакапил, остаётся что проблема в ext4.
Ваши идеи, что делать. Xfs до сих пор теряет данные (которые уже сто лет лежат на диске) при внезапном отключении эл-ва, да и медленный на миллионах файлах; ext3/jfs/btrfs не в счёт, рейзер...хз что с ним, уже не пилят его особо.
Глючит iostat в связке с ext4. CentOS release 5.7, soft raid6 (4 диска), раздел под бэкапы отформатирован mke4fs -b 4096 -E stride=64 -E stripe-width=128 -O dir_index -O sparse_super /dev/md2
на новенький пустой раздел делаю rsync с удалённой машины на локальную. iostat/iotop показывают что идёт активнейшая запись на диск (оно и понятно), но iostat сходит с ума то ли ext4 так странно работает
Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm %util
sda 485.15 3173.27 23.76 151.49 3318.81 28435.64 181.20 5.23 28.33 4.54 79.60
sda1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sda2 485.15 3173.27 23.76 151.49 3318.81 28435.64 181.20 5.23 28.33 4.54 79.60
sda3 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sda4 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sda5 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdb 563.37 3049.50 27.72 152.48 4126.73 28023.76 178.42 5.92 31.68 4.50 81.09
sdb1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdb2 563.37 3049.50 27.72 152.48 4126.73 28023.76 178.42 5.92 31.68 4.50 81.09
sdb3 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdb4 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdb5 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdc 458.42 3194.06 27.72 145.54 3873.27 27485.15 180.98 6.67 37.67 5.34 92.57
sdc1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdc2 458.42 3194.06 27.72 145.54 3873.27 27485.15 180.98 6.67 37.67 5.34 92.57
sdc3 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdc4 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdc5 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdd 524.75 3128.71 30.69 138.61 4332.67 26859.41 184.23 6.58 36.94 5.49 92.97
sdd1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdd2 524.75 3128.71 30.69 138.61 4332.67 26859.41 184.23 6.58 36.94 5.49 92.97
sdd3 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdd4 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sdd5 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
md1 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
md3 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
md2 0.00 0.00 0.99 6003.96 7.92 48031.68 8.00 0.00 0.00 0.00 0.00
md0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
sr0 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00
непонятно откуда такое большое чтение с диска - раздел новый, rsync не пишет поверх чего-либо, на xfs всё было ок (отказался из-за потери данных при отрубании эл-ва). Так же не корректно считается итоговый iops для чтения/записи для md2.
Во-общем - кто нить знает что за хрень творится с ext4?
ps. да, xfs потерял данные, да, я знаю что на домашней машины у вас xfs крутится 3 года и всё тип-топ, нет, ext3 не подходит из-за тормознутости, нет, рейзер трогать страшно ибо не ясно в каком состоянии ))
Добрый день.
Имеется бекап сервер: 8гб памяти, 8 ядер (с ht), 4 сата 2тб, raid6, 2.6.18-238.12.1.el5.028stab091.1, xfs под бекап раздел.
Вопрос в оптимизации дисковой подсистемы и xfs. atime отключён :) Бекапится очень много мелких файлов, необходимо ускорить копирование мелких файлов. Что можно/нужно изменить в настройках дисковой подсистемы (память под xfs, длина очереди, таймаут сброса и тд) чтобы копирование шло быстрее? отсылка к докам приветствуется
Добрый день. Для статики настроен nginx, отдающий 304 с времени жизни 10 суток.
Тем не менее iotop показывает что nginx постоянно читает с диска что-то, новых пользователей у которых статика ещё не прокешировано - копейки.
Есть предположение: при запросе от клиента на статику в запросе есть заголовок if-modified-since, nginx дёргает сискалл для выяснения mtime для запрашиваемого файла, и если он изменился - отдаёт новый, если нет - отдаёт код 304. В случае если это так - становится понятно почему nginx так дёргает диск.
Прав ли я, или не там собака зарыта?
сеть A (192.168.1.0/24), сервер
eth1: 192.168.1.1/24
eth2: 192.168.167.1/30
iptables -L -n:
Chain FORWARD (policy DROP)
target prot opt source destination
ACCEPT icmp — 0.0.0.0/0 0.0.0.0/0
..................................................
ip route:
yy.yy.yy.yy/30 dev eth1 proto kernel scope link src yy.yy.yy.yy
192.168.167.0/30 dev eth2 proto kernel scope link src 192.168.167.1
192.168.2.0/24 dev eth2 proto kernel scope link src 192.168.167.1
192.168.1.0/24 dev eth0 proto kernel scope link src 192.168.1.1
default via yy.yy.yy.yy dev eth1 <<--- inet
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
сеть B (192.168.2.0/24), сервер
eth1: 192.168.2.1/24
eth2: 192.168.167.2/30
iptables -L -n
Chain FORWARD (policy DROP)
target prot opt source destination
ACCEPT icmp — 0.0.0.0/0 0.0.0.0/0
..................................................
ip route:
192.168.2.10 dev venet0 scope link
192.168.167.0/30 dev eth2 proto kernel scope link src 192.168.167.2
192.168.1.0/24 dev eth2 proto kernel scope link src 192.168.167.2
192.168.2.0/24 dev eth0 proto kernel scope link src 192.168.2.1
xx.xx.xx.0/24 dev eth1 proto kernel scope link src xx.xx.xx.xx
default via xx.xx.xx.xx dev eth1 <<--- inet
форвардинг через sysctl везде включен, в nat для всего icmp тупо ACCEPT.
пинг между самими серверами идёт, если пинговать всё что через forward - не идёт (те с сервера A: ping 192.168.2.50 - fail), собственно в чём косяк?
зачем в мускуле используется Created_tmp_tables (хочется услышать гораздо более развёрнутый ответ, чем банальное «для выборки»)?
как можно сооптимизировать запрос, чтобы временных таблиц создавалось по-минимуму?
насколько нормальна ситуация, когда в «show processlist» 90% запросов (100 параллельных запросов, почти все - селекты) находится в статусе «Copying to tmp table»
была проблема - все селекты уходили в ожидании блокировки из-за 1-2 апдейтов в таблице (селекты нацелены на ту же таблицу), перевод таблицы на иннодб уменьшил ожидания блокировки, но зато увеличилось очень сильно «Copying to tmp table». Хочу услышать комментарии.
Спасиб)
Добрый день.
Недавно возрастала нагрузка на бд mysql, порядка 70 коннектов/тредов, в основном выборка данных, база небольшая - 60мб. Сервер два проца X5650 (24 ядра) + 16гб памяти. Проблема в том что при нагрузке на базу system time по каждому ядру >50%. iowait = 0, user time 10-20%
strace показал что 99,9% всех сисколов из сервера mysql приходится на select.
Собственно вопрос - с чем может быть связана столь высокая частота вызовов select, куда копать, что оптимизировать.
ps. в конфиге буфер/стеки/кеши увеличил до нескольких раз - не помогло. centos 5.5, mysql 5.0.77
Всем добрый день. Возникла необходимость соединить две сети, с маршрутизацией давно не сталкивался, в голове остался ноль об этом деле ))
итак дано: сервераA: eth1 - 192.168.1.0/24 внутренняя сеть eth2 - соединена езернетом с eth2 сервера B
серверB: eth1 - 192.168.2.0/24 внутренная сеть eth2 - соединена езернетом с eth2 сервера A
итак вопрос наиглупейший - какие адреса должны быть на сетевухах eth2?)) те я предполагаю что сервераA:eth2 192.168.2.250, сервераB:eth2 192.168.1.250,
сервер A ip route add 192.168.2.0/24 via 192.168.2.250 dev eth2
сервер B ip route add 192.168.1.0/24 via 192.168.1.250 dev eth2
...
верно? или же нет?
форвардинг файерволл нат - с этим проблем нету, проблема токо с маршрутизацией, забыл всё под ноль (.
собственно - сабж. есть ли какой то многопоточный краулер с поддержкой сессий, цель - бенчмарк. лучше если тулза будет на perl.
ps. банальный ab не подходит, даже не упоминайте )
админ до меня собирал апач из исходников с ключиком disable-cgi. теперь всё же нужен cgi (для perl), можно ли как-то собрать чисто модуль без пересборки всего апача (дело касается продакшена, поэтому телодвижений должно быть минимум)?
в последние пару дней стал замечать что сайт (небольшой, но под него свой сервер 16gb ram, X5650) стал дико напрягаться (искл-но cpu:system>70% из-за httpd). вплоть до 502. нгинкс и мускуль не парятся вовсе, а вот апаче...
вообще полез смотреть наиболее активные ip в моменты такой нагруки, и что же я вижу - больше 70% - гугловские адреса. 74.125.x.y. так понимаю - их боты. НО! robots.txt настроен, и он явно указывает чтобы бот между запросами страниц выжидал 5 сек. и тем не менее не помогло. бан подсетки гугла решает проблему мгновенно...стоит разбанить - и через 1-12 часов всё возобновляется, вне зависимости от времени суток.
Вообщем кто сталкивался, как решали, ваши идеи.
следующие → |