LINUX.ORG.RU

Сообщения InventoR

 

Трансляция mjpeg и rtsp

Форум — Admin

Сейчас для трансляции используют ffserver, в принципе работает, но к сожалению временами потоки валятся и ffserver их не перезапускает:

cam17.ffm: Pid 939 exited with status 0 after 4187 seconds
cam16.ffm: Pid 938 exited with status 0 after 4389 seconds

<Feed cam12.ffm> File /tmpfs/cam12.ffm FileMaxSize 10M Launch ffmpeg -r 6 -i rtsp://100.0.0.120/video.mp4 -an -vcodec mjpeg </Feed>

<Stream ipcam-12.mjpeg>
    Feed cam12.ffm
    Format mpjpeg
    VideoFrameRate 10
    VideoBitRate 1024
    VideoSize 800x600
    VideoQMin 1
    VideoQMax 5
    NoAudio
    Strict -1
    VideoIntraOnly
    PreRoll 0
</Stream>

Для других потоков уже работает nginx-rtmp который перегоняет rtsp в rtmp, но к сожалению как оказалось самый простой вариант чтобы не перегружать CPU на клиенте при выводе 10ка камер является mjpeg, если играться с hls и прочими вещами при использовании плееров страничка браузера убивает CPU...

Проблема с ffserver в том что временами поток падает, если камера лагонули или еще чего и приходится перезапускать весь процесс по камерам что не сильно приятно.

Может кто-то подскажет вариант как можно автоматизировать перезапуск ffmpeg в случае падения потока?

А было бы классно если может средствами того же nginx можно было принять mjpeg или rtsp и отдать его клиентам в качестве mjpeg.

 ,

InventoR
()

Exim и ошибка при вставке записи в mysql

Форум — Admin

Есть сервер с exim, пытаюсь вставить заголовок письма в таблицу, и вот периодами получаю:

Warning: ACL "warn" statement skipped: condition test deferred: MYSQL: query failed: Incorrect string value: '\xD2\xE5\xEA\xF1\xF2 ...' for column 'subject' at row 1

В mysql поле имеет тип:utf8mb4_unicode_ci, в exim прописано так: ${escape:$message_headers:} но все равно на некоторые письма дает ошибки.

Вот если поменять тип поля на blob, тогда ошибок нет, но хотелось бы в текстовом виде хранить заголовок письма.

Может у кого есть идеи как можно выкрутится?

 warn   condition   = ${lookup mysql{SET NAMES utf8mb4}{}}${lookup mysql{INSERT INTO `mail` (`mheader`) VALUES ('${escape:$message_headers:}')}}

 ,

InventoR
()

Собрать статистику по обращению к файловой системе

Форум — Admin

Собственно продолжая углубляться в дебри ФС, интересно, а как можно собрать в режиме online статистику по обращениям к фс?

интересует что-то типо: http://image.slidesharecdn.com/ols2011-silide-suzaki-110615145147-phpapp02/95... на на сколько понимаю они анализируют уже имеющиеся файлы, а мне хочется понять, какие размеры блоков преймущественно задействованы в рабочей системы, интересует что-то типо коллектора обращений.

выглядит странно, потому что тяжело выразить мысль чего хочется, но по сути хочется простого: получить статистику по файловой чтобы понять какие все таки размеры блоков лучше использовать в тех или иных случаях после продолжительного сбора данных.

 ,

InventoR
()

Низкая производительность LinuxZFS

Форум — Admin

Думаю кто-то уже сталкивался, по этому решил задать вопрос здесь, копаю уже давно но пока не могу понять что именно дает проблему. Есть 3 сервера: 1. Торент качался, около 0.7Тб в раздаче, ОС Proxmox4 zfs, 4диска, WD 500Enterprise. Intel(R) Xeon(R) CPU E31260L @ 2.40GHz/8GB SSD Crucial BX100 120GB 2.5" SATAIII MLC в качестве cache и logs

2. Proxmox4 zfs , 20 клинтских серверов с FreeBSD 8.4, система на SSD, zfs из 4х дисков 1ТБ WD Ent 64Mb в raid 10, в качестве cache для zfs Solid State Drive DC S3510 120GB Intel(R) Xeon(R) CPU E5620 @ 2.40GHz x2, итого 16 ядер. 48GB памяти.

3. Proxmox Zfs, система на SSD Intel 530, 4диска 1TB WD, zfs без кэша на ssd. 48GB памяти.

*******

Сервер 1, Torrent:

 
|---------------------------------------------------------------------------------------------------------------------|
|l1reads    l1miss     l1hits     l1hit%     size  |  l2reads    l2misses   l2hits     l2hit%     size   disk_access% |            
|---------------------------------------------------------------------------------------------------------------------|
|3975337678 124722716  3850614962 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337691 124722716  3850614975 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337691 124722716  3850614975 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337697 124722716  3850614981 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337697 124722716  3850614981 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337697 124722716  3850614981 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337714 124722716  3850614998 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337714 124722716  3850614998 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         
|3975337717 124722716  3850615001 96.862%    0 GB  |  9310188    2009521    7300667    78.415%    97GB    2.354%     |         

options zfs zfs_arc_min=536870912
options zfs zfs_arc_max=2147483648
options zfs zfs_prefetch_disable=1
options zfs zfs_vdev_max_pending=1
Этот тазик работает как часы, раздает и принимает не убивая диски и не перегружая систему, все абсолютно ровно и гладко.

Проблемы начинаются с сервером где находятся клиентские виртуалки, дисковая подсистема значительно тормозит, периодами диски стоят в полке по загрузки и ничего не сделаешь, бэкапы идут очень медленно. Тут началось самое интересное, сначала создавал виртуалки на разделе который был прописан в интерфейсе как zfs, если правильно скажу, то создавал отдельный dataset под каждую виртуалку.

3й сервер, zfs настроенна также как и там где клиентские виртуалки, опытным путем сделано на нем несколько тестов и выявленны такие же проблемы с производительностью как и сервера с клиентскими виртуалками, усе тормозит. Убрал хранение виртуалок как отдельный zvol для каждой машины и сделал как обычная директория с raw файлами внутри, скорость внутри машин поднялась, но только на уровне кэшей системы, хотя прирост значительный.

Дальше начались эксперементы, сейчас вышел к такому:

fio --name fio_test_file --direct=0 --rw=randwrite --bs=32768 --size=10G --numjobs=16 --time_based --runtime=180 --group_reporting                                                             
fio_test_file: (g=0): rw=randwrite, bs=32K-32K/32K-32K/32K-32K, ioengine=sync, iodepth=1
...
fio-2.1.11
Starting 16 processes
Jobs: 16 (f=16): [w(16)] [100.0% done] [0KB/13216KB/0KB /s] [0/413/0 iops] [eta 00m:00s]
fio_test_file: (groupid=0, jobs=16): err= 0: pid=4930: Sun Apr 24 13:29:15 2016
  write: io=2514.8MB, bw=14299KB/s, iops=446, runt=180097msec
    clat (usec): min=19, max=752004, avg=35792.66, stdev=53199.98
     lat (usec): min=20, max=752005, avg=35793.85, stdev=53199.95
    clat percentiles (usec):
     |  1.00th=[   36],  5.00th=[  724], 10.00th=[ 1112], 20.00th=[ 8096],
     | 30.00th=[11328], 40.00th=[14272], 50.00th=[18048], 60.00th=[23168],
     | 70.00th=[31616], 80.00th=[47360], 90.00th=[86528], 95.00th=[132096],
     | 99.00th=[288768], 99.50th=[346112], 99.90th=[444416], 99.95th=[493568],
     | 99.99th=[569344]
    bw (KB  /s): min=   58, max= 2163, per=6.33%, avg=904.52, stdev=356.82
    lat (usec) : 20=0.01%, 50=2.44%, 100=0.17%, 250=0.01%, 750=3.20%
    lat (usec) : 1000=3.68%
    lat (msec) : 2=1.69%, 4=1.43%, 10=13.05%, 20=28.46%, 50=26.88%
    lat (msec) : 100=11.02%, 250=6.55%, 500=1.38%, 750=0.04%, 1000=0.01%
  cpu          : usr=0.03%, sys=0.31%, ctx=79487, majf=0, minf=106
  IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
     submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
     issued    : total=r=0/w=80473/d=0, short=r=0/w=0/d=0
     latency   : target=0, window=0, percentile=100.00%, depth=1

Run status group 0 (all jobs):
  WRITE: io=2514.8MB, aggrb=14298KB/s, minb=14298KB/s, maxb=14298KB/s, mint=180097msec, maxt=180097msec
Как видно 446iops на random write предел, в принципе результат идентичный как и у проблемного второго сервера, от куда взял цифру: 32768 согласно manual:
https://www.freebsd.org/cgi/man.cgi?newfs%288%29

     -b	block-size
	     The block size of the file	system,	in bytes.  It must be a	power
	     of	2.  The	default	size is	32768 bytes, and the smallest allow-
	     able size is 4096 bytes.  The optimal block:fragment ratio	is
	     8:1.  Other ratios	are possible, but are not recommended, and may
	     produce poor results.
Таким образом я подозреваю размер блока файловой системы внутри виртуалок что именно он виновен в падении производительности файловой системы виртуальных машин, во время теста скорость файловых операций на каждом диске не выходила за 40-50мегайт сумарно со всего массива.
                                                  capacity     operations    bandwidth
pool                                           alloc   free   read  write   read  write
---------------------------------------------  -----  -----  -----  -----  -----  -----
data0                                          63.8G  1.75T      0  1.67K      0  69.7M
  mirror                                       31.9G   896G      0  1.14K      0  49.2M
    ata-WDC_WD1002FAEX-00Z3A0_WD-WCATR9310670      -      -      0    464      0  20.1M
    sdd                                            -      -      0    564      0  49.2M
  mirror                                       31.9G   896G      0    546      0  20.5M
    ata-WDC_WD1002FAEX-00Z3A0_WD-WCATR9151303      -      -      0    454      0  20.5M
    sde                                            -      -      0    573      0  4.93M
---------------------------------------------  -----  -----  -----  -----  -----  -----

Может у кого-то будут мысли почему еще может обрущиться производительность файлвой системы?

3й сервер

root@virt03:~# zfs get all data0                                                                                                                                                                              [7/7]
NAME   PROPERTY              VALUE                  SOURCE
data0  type                  filesystem             -
data0  creation              Fri Apr 22 15:21 2016  -
data0  used                  63.5G                  -
data0  available             1.69T                  -
data0  referenced            63.4G                  -
data0  compressratio         1.90x                  -
data0  mounted               yes                    -
data0  quota                 none                   default
data0  reservation           none                   default
data0  recordsize            128K                   default
data0  mountpoint            /data0                 default
data0  sharenfs              off                    default
data0  checksum              on                     default
data0  compression           lz4                    local
data0  atime                 off                    local
data0  devices               on                     default
data0  exec                  on                     default
data0  setuid                on                     default
data0  readonly              off                    default
data0  zoned                 off                    default
data0  snapdir               hidden                 default
data0  aclinherit            restricted             default
data0  canmount              on                     default
data0  xattr                 on                     default
data0  copies                1                      default
data0  version               5                      -
data0  utf8only              off                    -
data0  normalization         none                   -
data0  casesensitivity       sensitive              -
data0  vscan                 off                    default
data0  nbmand                off                    default
data0  sharesmb              off                    default
data0  refquota              none                   default
data0  refreservation        none                   default
data0  primarycache          all                    local
data0  secondarycache        all                    default
data0  usedbysnapshots       0                      -
data0  usedbydataset         63.4G                  -
data0  usedbychildren        38.1M                  -
data0  usedbyrefreservation  0                      -
data0  logbias               latency                default
data0  dedup                 off                    default
data0  mlslabel              none                   default
data0  sync                  standard               default
data0  refcompressratio      1.90x                  -
data0  written               63.4G                  -
data0  logicalused           121G                   -
data0  logicalreferenced     120G                   -
data0  filesystem_limit      none                   default
data0  snapshot_limit        none                   default
data0  filesystem_count      none                   default
data0  snapshot_count        none                   default
data0  snapdev               hidden                 default
data0  acltype               off                    default
data0  context               none                   default
data0  fscontext             none                   default
data0  defcontext            none                   default
data0  rootcontext           none                   default
data0  relatime              off                    default
data0  redundant_metadata    all                    default
data0  overlay               off                    default

 , ,

InventoR
()

Проблема с диском после 20миллионов файлов.

Форум — Admin

Hi all.

Может кто поможет с такой проблемой? интересно все таки её разобрать, сталкиваюсь в этой штукой уже 5 раз, симптомы и проблемы одни и теже.

Дано: ОС Ubuntu в основном, 12.4 LTS ISP панель, которая создает профиль пользователя а в нем директории tmp которая является симлинком для mod-tmp

/mnt/root/var/www/realoki/data % ls -lah
total 420M
drwxr-x--x 7 500 502 4.0K Feb 18  2015 .
dr-x-----x 3 500 501 4.0K Feb 18  2015 ..
drwxr-x--x 4 500 502 4.0K May  8  2015 email
drwxr-xr-x 2 500 502 4.0K May  8  2015 etc
drwxr-x--x 2 500 502 4.0K Apr 14 21:01 logs
drwxrws--- 2  33 502 420M Apr 16 06:52 mod-tmp
lrwxrwxrwx 1  33 502    7 Feb 18  2015 tmp -> mod-tmp
drwxr-x--x 8 500 502 4.0K May 13  2015 www

К стати, тут меня смущает размер который показывает для директорий.

За время работы сервера в директории mod-tmp накопилось около 50 миллионов файлов, при попытке сложных дисковых операций типо du -h -d 1 / или ncdu / вся дисковая ставится колом.

Ок, сели и терпеливо удалили почти все файлы, оставили 50тыс файлов, но дисковые операции снова зависают, думали диск, поменяли уже 4ре диска, все смены методом dd клонирование 1 к 1, но проблема таже, дисковые операции тупо зависают. У меня складывается подозрение что даже удаленные файлы как-то влияют на внутрение журналы файловой системы или еще куда-то что файловая система ведет себя не адекватно.

Сразу оговорюсь, мы воспроизводили ситуацию уже пару раз на тестовом сервере, сосздавали 10 миллионов файлов и спокойно их удаляли проблем не было, но возможно потому что не было сильной фрагментации файлов. Может у кого будут идеи почему может падать производительность файловой системы после удаления файлов?

 , ,

InventoR
()

XUbuntu, nvidia и xrand primary

Форум — Desktop

Собственно давно мучаюсь, но не много привык, но сейчас стал вопрос 3его монитора, не хватает двух, ситуация такая: --primary дисплей может стоять только слево, что уже только не делал, дрова, arandr, xrandr, первый только слева, а хочу чтобы он был по середине или там где мне это надо.

Screen 0: minimum 8 x 8, current 3280 x 1080, maximum 16384 x 16384
DVI-I-0 connected primary 1360x768+1920+0 (normal left inverted right x axis y axis) 410mm x 230mm
   1360x768       60.0*+
   1024x768       75.0     70.1     60.0  
   800x600        75.0     72.2     60.3     56.2  
   640x480        75.0     72.8     59.9  
DVI-I-1 disconnected (normal left inverted right x axis y axis)
HDMI-0 connected 1920x1080+0+0 (normal left inverted right x axis y axis) 477mm x 268mm
   1920x1080      60.0*+   59.9     50.0     60.1     60.0     50.0  
   1680x1050      60.0  
   1600x1200      60.0  
   1440x900       75.0     59.9  
   1280x1024      75.0     60.0  
   1280x960       60.0  
   1280x800       59.8  
   1280x720       60.0     59.9     50.0  
   1152x864       75.0  
   1024x768       75.0     70.1     60.0  
   800x600        75.0     72.2     60.3     56.2  
   720x576        50.0  
   720x480        59.9  
   640x480        75.0     72.8     59.9  
HDMI-1 disconnected (normal left inverted right x axis y axis)
DVI-D-0 disconnected (normal left inverted right x axis y axis)
HDMI-0 - первый, стоит справа DVI-I-0 - второй стоит слева.

 xrandr --output HDMI-0 --primary --right-of DVI-I-0

так получается что рабочий стол и панели на основном мониторе но чтобы попасть на второй монитор надо отвести мышку вправо, а взгяд влево, так как второй монитор стоит слева.

Если сделать

 xrandr --output HDMI-0 --primary --left-of DVI-I-0
то панели и все остальное пересжают на второй монитор, тот который DVI-I-0

Как можно сделать так чтобы все таки основной монитор остался справа, дополнительный слева, и при этом панели не уехали на дополнительный?

xfce 4.12, ubuntu 14.04

 ,

InventoR
()

DNS и рекурсивные запросы, что-то странное

Форум — Admin

Имеется различные связки DNS, но пока в базовой части запросы принимаются pdns и отдаются в unbound, до этого рекурсором был pdns-recursor, проблема таже. По какой-от не понятной мне причине на часть доменов, заметил по своему браузеру в том же гугле начинает дорисовываться: http://www.google.com.ua.DefaultSearchDomain в итоге вместо корректного ответа о адресе сервера, прилетает пустой ответ который попадает еще к тому-же в кэш.

В итоге получается так что часть сайтов открывается, а часть нет, может кто-то сталкивался с таким поведением и подскажет куда рыть. Конфиги почти все default.


Nov 30 01:42:31 dns1 pdns[19677]: Lookup for 'SOA' of 'www.google.com.ua'
Nov 30 01:42:31 dns1 pdns[19677]: Found no authoritative zone for www.google.com.ua
Nov 30 01:42:31 dns1 pdns[19677]: Lookup for 'SOA' of 'google.com.ua'
Nov 30 01:42:31 dns1 pdns[19677]: Found no authoritative zone for google.com.ua
Nov 30 01:42:36 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:36 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|AAAA', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:36 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|MX', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:36 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:36 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|AAAA', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:36 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|MX', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:37 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:37 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|AAAA', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:37 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|MX', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:53 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|AAAA', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:53 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:53 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:53 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua.DefaultSearchDomain|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:53 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:53 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua.DefaultSearchDomain|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:53 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:53 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua.DefaultSearchDomain|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:53 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:42:53 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua.DefaultSearchDomain|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:43:26 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|A', do = 0, bufsize = 512: packetcache MISS
Nov 30 01:43:26 dns1 pdns[19677]: Remote RemoteIP wants 'www.google.com.ua|A', do = 0, bufsize = 512: packetcache MISS


Nov 30 01:23:48 dns1 pdns[19677]: Found no authoritative zone for youtube.com.DefaultSearchDomain
Nov 30 01:23:48 dns1 pdns[19677]: Lookup for 'SOA' of 'com.DefaultSearchDomain'
Nov 30 01:23:48 dns1 pdns[19677]: Found no authoritative zone for com.DefaultSearchDomain
Nov 30 01:23:48 dns1 pdns[19677]: Remote RemoteIP wants 'www.youtube.com.DefaultSearchDomain|AAAA', do = 0, bufsize = 512: packetcache MISS
Nov 30 01:23:48 dns1 pdns[19677]: Remote RemoteIP wants 'www.youtube.com.DefaultSearchDomain|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:23:48 dns1 pdns[19677]: Remote RemoteIP wants 'www.youtube.com.DefaultSearchDomain|AAAA', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:24:44 dns1 pdns[19677]: Lookup for 'SOA' of 'DefaultSearchDomain'
Nov 30 01:24:44 dns1 pdns[19677]: Found no authoritative zone for DefaultSearchDomain
Nov 30 01:25:44 dns1 pdns[19677]: Lookup for 'SOA' of 'DefaultSearchDomain'
Nov 30 01:25:44 dns1 pdns[19677]: Lookup for 'SOA' of 'DefaultSearchDomain'
Nov 30 01:25:44 dns1 pdns[19677]: Found no authoritative zone for DefaultSearchDomain
Nov 30 01:25:44 dns1 pdns[19677]: Found no authoritative zone for DefaultSearchDomain
Nov 30 01:25:44 dns1 pdns[19677]: Lookup for 'SOA' of 'DefaultSearchDomain'
Nov 30 01:25:44 dns1 pdns[19677]: Found no authoritative zone for DefaultSearchDomain
Nov 30 01:26:34 dns1 pdns[19677]: Remote RemoteIP wants 'twitter.com.DefaultSearchDomain|A', do = 0, bufsize = 512: packetcache MISS
Nov 30 01:26:34 dns1 pdns[19677]: Lookup for 'SOA' of 'twitter.com.DefaultSearchDomain'
Nov 30 01:26:34 dns1 pdns[19677]: Found no authoritative zone for twitter.com.DefaultSearchDomain
Nov 30 01:26:34 dns1 pdns[19677]: Remote RemoteIP wants 'twitter.com.DefaultSearchDomain|AAAA', do = 0, bufsize = 512: packetcache MISS
Nov 30 01:26:34 dns1 pdns[19677]: Remote RemoteIP wants 'twitter.com.DefaultSearchDomain|A', do = 0, bufsize = 512: packetcache HIT
Nov 30 01:26:34 dns1 pdns[19677]: Remote RemoteIP wants 'twitter.com.DefaultSearchDomain|AAAA', do = 0, bufsize = 512: packetcache HIT


InventoR
()

Debian отключить добавление маршрута по умолчанию

Форум — Admin

Возник шкурный вопрос, как отключить в debian добавление маршрута по умолчанию, но при этом добавить его в таблицу? В CentOS использовал /etc/sysconfig/network GATEWAYDEV=eth0, а дальше все манипуляции через dhcp-client

Но тут в debian не могу найти как правильно сделать, вижу что можно сделать request и получить определенный набор параметров, но тогда не прийдет gw, а адрес в динамике, как бы обойти это все и сделать правильно?

InventoR
()

CentOS iproute2, интерфейс с dhcp, добавить гейт в таблицу

Форум — Admin

Помогите найти инфу или может кто подскажет, как реализовывается? Для интерфейса eth2 прописано: DHCLIENT_IGNORE_GATEWAY=yes, но требуется этот гейт добавлять в таблицу iproute, не могу найти корректного способа как это сделать для обычного интерфейса с dhcp. Гейт динамика, по этому статики не получится.

InventoR
()

GlusterFS, Zfs, kvm, proxmox и много других слов, проблемка

Форум — Admin

Захотелось интересного, взял сервачок, всунул дисков, насетупил ubuntu 12.04.3, поставил zfs, накинул glusterfs-server, подключил этот раздел на другом сервере и получаю:

с удаленного сервера образ машины на хранилище создается, создаются папки и прочея лабудень, но когда начинает сетупить что нибудь, вылетает ошибка, система не может разметить виртуальный диск, выходит IO Error, в различных вариантах, такое чувство что image находится в Ronly доступе, хотя повторюсь, сам диск то создается без проблем.

Пробовали как в чистом KVM, так и в proxmox и других вещах. А вот локально на том сервере где zfs диск создается, размечается и не выдает ошибок. Получается ошибка возникает в связке zfs - glusterfs — kvm, а вот zfs - kvm все работает.

может у кого-то будут мысли куда стоит обратить внимание?

InventoR
()

Проблема с mysql,

Форум — Admin

Добрый день всем.

Возник трабл. При попытке обработать таблицу otrs\

mysql> alter table article_plain ENGINE='InnoDB';        
Получаю:
                                                         
ERROR 2013 (HY000): Lost connection to MySQL server during query

Пробовал выкручивать системные timeout:

   
mysql> show variables like '%packe%';                                                                                                                                                                                            
+--------------------------+------------+
| Variable_name            | Value      |
+--------------------------+------------+
| max_allowed_packet       | 536870912  |
| slave_max_allowed_packet | 1073741824 |
+--------------------------+------------+
2 rows in set (0.00 sec)
   
mysql> show variables like '%timeout%';                                                   +----------------------------+----------+
| Variable_name              | Value    |
+----------------------------+----------+
| connect_timeout            | 500      |
| delayed_insert_timeout     | 300      |
| innodb_lock_wait_timeout   | 500      |
| innodb_rollback_on_timeout | OFF      |
| interactive_timeout        | 90000    |
| lock_wait_timeout          | 31536000 |
| net_read_timeout           | 6000     |
| net_write_timeout          | 6000     |
| slave_net_timeout          | 3600     |
| wait_timeout               | 90000    |
+----------------------------+----------+
10 rows in set (0.00 sec)

Таблицу весит 19гиг, места хватает, операция обрывается минут через 15, куда еще можно посмотреть?

Таже ошибка появляется и во время выполнения mysqldump, из-за чего нету возможности сделать backup таблицы.

InventoR
()

syslog-ng не работает $HOST_FROM

Форум — Admin

Добрый день всем. Завожу syslog-ng на постарым примерам из личного опыта на FreeBSD и получаю такую вот ерундовину: Там где макрос $HOST_FROM должен помещатся IP удаленного устройства, вместо этого приходит только первая группа цифр из адреса сети, то есть или 10, 172, 192.

destination d_all { file(«/var/log/syslog-ng/syslog.log» template(«$ISODATE — <$HOST> <$HOST_FROM> <$FULLHOST> <$FULLHOST_FROM> <$FACILITY.$PRIORITY> $MSG\n») template-escape(yes)); };

Приход:

2013-07-29T14:25:12+03:00 — <sw-1r8-1.local> <10> <sw-1r8-1.local> <10> <local7.info> UI_COMMIT_PROGRESS: Commit operation in progress: signaling \'Alarm control process\', pid 1032, signal 30, status 0 with

Опции сейчас такие:

options { chain_hostnames(off); flush_lines(0); threaded(yes); keep_hostname(yes); };

То есть там где должен быть полный ип сейчас видно только <10>

InventoR
()

Падение серверов, необьяснимые причины

Форум — Admin

Имеется два сервера на базе BSD 9.1 Stable, на платформе Supermicro. Конфиг простой, 2 ядра, 24 и 32 ядер, 64 памяти. Проблема в том что второй день подрят по очереди они упали, и это очень печально. Записи в логах полностью отсутсвуют, видно что до какого-то момент система работала полностью корректно и ничего лишнего, потом все, те удаленные сессии по ssh которые висели после набора какой либо комманды замирали. На пинги сервера отвечали, все остальное внутри мертвое. Ресет естественно помогает, но тут сталкиваемся со следующим:

Разлет gmirror масива, проверка системы на fsck порядка 5-8 часов и тут же система ребилдит масив из-за этого диски нагружены по самые не могу (это к стати отдельный вопрос, как отключить синхронизацию между дисками пока не пройдет fsck).

На серверах стоит самая глючная панель VdsManager. Может кто подскажет куда можно еще заглянуть и копнуть?

InventoR
()

Ищу планировщик задач.

Форум — Talks

Народ, может кто подскажет? Нужен сетевой планировщик задач, ставить задачи, смотреть выполение, уведомлять, чтобы работало много пользователей, некий календарь задач и т.д.

чего бы посмотреть из свободного?

InventoR
()

Intel 82576 and Ubuntu server не видит линк.

Форум — Admin

Снова нужна помощь, уже пару дней бьюсь, обновлял дрова, менял ядро убунты, проблема одна, карточка не видит сетевой линк.

01:00.1 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)
	Subsystem: Intel Corporation Gigabit ET Dual Port Server Adapter
	Flags: bus master, fast devsel, latency 0, IRQ 17
	Memory at fdbe0000 (32-bit, non-prefetchable) [size=128K]
	Memory at fd400000 (32-bit, non-prefetchable) [size=4M]
	I/O ports at d880 [size=32]
	Memory at fd3fc000 (32-bit, non-prefetchable) [size=16K]
	Expansion ROM at fcc00000 [disabled] [size=4M]
	Capabilities: [40] Power Management version 3
	Capabilities: [50] MSI: Enable- Count=1/1 Maskable+ 64bit+
	Capabilities: [70] MSI-X: Enable+ Count=10 Masked-
	Capabilities: [a0] Express Endpoint, MSI 00
	Capabilities: [100] Advanced Error Reporting
	Capabilities: [140] Device Serial Number 90-e2-ba-ff-ff-00-0e-0c
	Capabilities: [150] Alternative Routing-ID Interpretation (ARI)
	Capabilities: [160] Single Root I/O Virtualization (SR-IOV)
	Kernel driver in use: igb
	Kernel modules: igb

root@speed:~# mii-tool 
eth0: negotiated 1000baseT-FD flow-control, link ok
eth1: autonegotiation restarted, no link
eth2: autonegotiation restarted, no link
root@speed:~# 

eth1, eth2 это как раз и есть: Intel Corporation" «Gigabit ET Dual Port Server Adapter»

Linux speed 3.5.0-25-generic #39-Ubuntu SMP Mon Feb 25 18:26:58 UTC 2013 x86_64 x86_64 x86_64 GNU/Linux

А вот под FreeBSD или Debian линк видется и работает, не пойму куда уже рыть.

root@speed:~# ethtool eth1
Settings for eth1:
	Supported ports: [ TP ]
	Supported link modes:   10baseT/Half 10baseT/Full 
	                        100baseT/Half 100baseT/Full 
	                        1000baseT/Full 
	Supported pause frame use: No
	Supports auto-negotiation: Yes
	Advertised link modes:  10baseT/Half 10baseT/Full 
	                        100baseT/Half 100baseT/Full 
	                        1000baseT/Full 
	Advertised pause frame use: Symmetric
	Advertised auto-negotiation: Yes
	Speed: Unknown!
	Duplex: Unknown! (255)
	Port: Twisted Pair
	PHYAD: 1
	Transceiver: internal
	Auto-negotiation: on
	MDI-X: Unknown
	Supports Wake-on: pumbg
	Wake-on: d
	Current message level: 0x00000007 (7)
			       drv probe link
	Link detected: no
root@speed:~# 

Линк подключен, но физика отключается когда загружается Ubunta.

InventoR
()

И снова мистика, проблема со звуком в Ubuntu

Форум — Desktop

Делался глобальный апгрейд системы, и произошол какой-то интересный сбой: в некоторых фильмах звука в обще нету, в некоторых есть только звуки окружения и никаких диалогов (если есть диалоги то очень тихие), кое где конечно диалоги пробиваются.

Пробовал удалять часть пакетов которые были установлены, но результатата нету.

InventoR
()

Выручайте, говорила бабушка, не перезагружай убунту.

Форум — Desktop

Перезагрузил на свою голову убунту, в итоге что не смотрел, на половине папок отсутсвуют иконки, весь интерфейс не понятно в каком видео. Все что хочется чтобы дефолтная xfce убунта стала такой как была раньше, быстрой, безобидной и дружелюбной

http://smotr.im/bXJW или http://www.youpic.ru/images/2013/02/01/3498917967.png

InventoR
()

Кэшируемые файловые системы.

Форум — Admin

Интересует снижение нагрузки на диски веб сервера. Проблема стандартная, пара сотены тысыч папок, и т.д. Файловая система ext3,4 ufs. Переход на zfs на фри пока не возможен, а на linux можно что-то придумать но частично.

Но собственно пока вопрос для проработки, можно ли как-то без манипуляций сделать сильное кэширование данных на ext3, ext4, ufs и какие есть файловые системы которые очень хорошо работают с кэшем в оперативной памяти для мелких файлов? ну акромя zfs

Системы: CentOS, Debian, FreeBSD

InventoR
()

PowerDNS superslave и зоны автоматом.

Форум — Admin

Знаю дурная затея, но так надо. Надо чтобы PowerDNS по первому notify от бинда без вопросов создавал зоны и брал их на облуживание как slave, такое возможно?

Пока загвоздка в том что надо создавать руками запись в supermaster, конечно можно парсить pdns.log искать notify и создавать, но в моей ситуации не кошерно. Или есть какие-то другие альтернативные варианты которые могут делать такие плюшки?

InventoR
()

Может кто поделится заставками с hot key?

Форум — Desktop

Может не в ту тему прилепил, но видел на хабре когда-то была заставка на рабочий стол с описанием всех hot key для vim. Есть к кого-то еще что-то подобное но для других программ или для системы в целом? в принципе интересно любое решение.

InventoR
()

RSS подписка на новые темы