LINUX.ORG.RU

Сообщения poiuty

 

Восстановить открытый файл

Привет LOR, помоги, пожалуйста, восстановить открытый файл (удален). Не знаю как достать его из FD txt. Спасибо.

# lsof -p 4308
COMMAND    PID  USER   FD   TYPE DEVICE SIZE/OFF    NODE NAME
/usr/sbin 4308 admin  cwd    DIR  253,0     4096       2 /
/usr/sbin 4308 admin  rtd    DIR  253,0     4096       2 /
/usr/sbin 4308 admin  txt    REG  253,0    75905 2621456 /tmp/wget (deleted)
/usr/sbin 4308 admin    0r  FIFO    0,8      0t0   12312 pipe
/usr/sbin 4308 admin    1w  FIFO    0,8      0t0   12313 pipe
/usr/sbin 4308 admin    2w  FIFO    0,8      0t0   12314 pipe
/usr/sbin 4308 admin    3u  IPv4 294023      0t0     TCP xxx.xxx.xx:59274->ah8.sistemagth.xyz:telnet (ESTABLISHED)

#ls -l /proc/4308/fd/
total 0
lr-x------ 1 admin admin 64 Jun 22 13:09 0 -> pipe:[12312]
l-wx------ 1 admin admin 64 Jun 22 13:09 1 -> pipe:[12313]
l-wx------ 1 admin admin 64 Jun 22 13:09 2 -> pipe:[12314]
lrwx------ 1 admin admin 64 Jun 22 13:09 3 -> socket:[319487]

 

poiuty
()

kingston ssd uv300 Runtime_Bad_Block

Новый kingston uv300, быстро растет Runtime_Bad_Block (10 часов назад было 65k)
Стоит ли его заменить или все ок?

# hdparm -tT /dev/sda

/dev/sda:
 Timing cached reads:   13252 MB in  2.00 seconds = 6629.77 MB/sec
 Timing buffered disk reads: 946 MB in  3.01 seconds = 314.73 MB/sec
# smartctl -A /dev/sda
smartctl 6.4 2014-10-07 r4002 [x86_64-linux-3.16.0-4-amd64] (local build)
Copyright (C) 2002-14, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   100   100   050    Pre-fail  Always       -       0
  2 Throughput_Performance  0x0005   100   100   050    Pre-fail  Offline      -       0
  3 Spin_Up_Time            0x0007   100   100   050    Pre-fail  Always       -       0
  5 Reallocated_Sector_Ct   0x0013   100   100   050    Pre-fail  Always       -       0
  7 Unknown_SSD_Attribute   0x000b   100   100   050    Pre-fail  Always       -       0
  8 Unknown_SSD_Attribute   0x0005   100   100   050    Pre-fail  Offline      -       0
  9 Power_On_Hours          0x0012   100   100   000    Old_age   Always       -       21
 12 Power_Cycle_Count       0x0012   100   100   000    Old_age   Always       -       12
168 Unknown_Attribute       0x0012   100   100   000    Old_age   Always       -       0
170 Unknown_Attribute       0x0003   100   100   010    Pre-fail  Always       -       270
173 Unknown_Attribute       0x0012   100   100   000    Old_age   Always       -       65541
175 Program_Fail_Count_Chip 0x0013   100   100   050    Pre-fail  Always       -       0
183 Runtime_Bad_Block       0x0012   100   100   100    Old_age   Always   FAILING_NOW 327681
187 Reported_Uncorrect      0x0012   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0012   100   100   000    Old_age   Always       -       7
194 Temperature_Celsius     0x0023   065   051   030    Pre-fail  Always       -       35 (Min/Max 23/49)
196 Reallocated_Event_Count 0x0002   100   100   010    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   100   100   000    Old_age   Always       -       0
199 UDMA_CRC_Error_Count    0x000b   100   100   050    Pre-fail  Always       -       0
218 Unknown_Attribute       0x000b   100   100   050    Pre-fail  Always       -       0
231 Temperature_Celsius     0x0013   100   100   000    Pre-fail  Always       -       100
233 Media_Wearout_Indicator 0x000b   100   100   000    Pre-fail  Always       -       330
240 Unknown_SSD_Attribute   0x0013   100   100   000    Pre-fail  Always       -       0
241 Total_LBAs_Written      0x0012   100   100   000    Old_age   Always       -       295
242 Total_LBAs_Read         0x0012   100   100   000    Old_age   Always       -       74
244 Unknown_Attribute       0x0002   100   100   000    Old_age   Always       -       1
245 Unknown_Attribute       0x0002   100   100   000    Old_age   Always       -       5
246 Unknown_Attribute       0x0012   100   100   000    Old_age   Always       -       87200

 ,

poiuty
()

ovh bridge kvm

Привет ЛОР, помоги решить проблему.
Новый сервер в OVH. Небольшая сетка IP.
Через панель OVH создаю MAC 02:00:00:fd:6f:8e для IP 178.33.98.12

Редактирую sysctl.conf => sysctl -p

net.ipv4.ip_forward=1
net.bridge.bridge-nf-call-ip6tables = 0
net.bridge.bridge-nf-call-iptables = 0
net.bridge.bridge-nf-call-arptables = 0

Редактирую interfaces

auto lo br0
iface lo inet loopback
iface br0 inet static
	address 149.202.201.105
	netmask 255.255.255.0
	network 149.202.201.0
	broadcast 149.202.201.255
	gateway 149.202.201.254
	bridge_ports eth0
	bridge_stp off
	bridge_fd 1
	bridge_hello 2
	bridge_maxage 12

Проверяю

# ifconfig
br0       Link encap:Ethernet  HWaddr 0c:c4:7a:79:db:54  
          inet addr:149.202.201.105  Bcast:149.202.201.255  Mask:255.255.255.0
          inet6 addr: fe80::ec4:7aff:fe79:db54/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:86806 errors:0 dropped:0 overruns:0 frame:0
          TX packets:20537 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0 
          RX bytes:4400506 (4.1 MiB)  TX bytes:2083994 (1.9 MiB)

eth0      Link encap:Ethernet  HWaddr 0c:c4:7a:79:db:54  
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:86814 errors:0 dropped:0 overruns:0 frame:0
          TX packets:20694 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000 
          RX bytes:5647572 (5.3 MiB)  TX bytes:2093644 (1.9 MiB)

lo        Link encap:Local Loopback  
          inet addr:127.0.0.1  Mask:255.0.0.0
          inet6 addr: ::1/128 Scope:Host
          UP LOOPBACK RUNNING  MTU:65536  Metric:1
          RX packets:56 errors:0 dropped:0 overruns:0 frame:0
          TX packets:56 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0 
          RX bytes:4536 (4.4 KiB)  TX bytes:4536 (4.4 KiB)

Устанавливаю qemu-kvm => создаю VM => проверяю bridge.

# brctl show
bridge name	bridge id		STP enabled	interfaces
br0		8000.0cc47a79db54	no		eth0
							vnet0

Захожу по VNC на VM и редактирую interfaces согласно мануалу.
http://docs.ovh.ca/en/guides-network-bridging.html#debian-derivatives-ubuntu-...
Основной ип моего сервера 149.202.201.105 => по-этому использую 149.202.201.254

auto lo eth0
iface lo inet loopback
iface eth0 inet static
	address 178.33.98.12
	netmask 255.255.255.255
	broadcast 178.33.98.12
	post-up route add 149.202.201.254 dev eth0
	post-up route add default gw 149.202.201.254
	pre-down route del 149.202.201.254 dev eth0
	pre-down route del default gw 149.202.201.254

Проверяю ifconfig на VM (MAC и IP - все ок) => https://poiuty.com/img/d2/056b99cd00f5ba29eea9db98d14926d2.png
Пытаюсь сделать пинг до 8.8.8.8 не идет => https://poiuty.com/img/11/369a547812328d6b9eae19e2e0ab1211.png

На других серверах (такая же настройка сети для VM) - работает. Что же на этом сервере не так?

Половил трафик через tcpdump - постоянно спамит ARP. (когда VM выключена, когда сеть как bridge/ не как bridge)

# tcpdump -ennqti eth0 \( arp or icmp \)
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.174 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.186 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.246 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.244 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.250 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.189 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.246 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.174 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.181 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.171 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.183 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.1 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.170 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.1 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.177 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.192 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.248 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.188 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > ff:ff:ff:ff:ff:ff, ARP, length 60: Request who-has 149.202.201.180 tell 149.202.201.253, length 46
00:ff:ff:ff:ff:fe > 0c:c4:7a:79:db:54, IPv4, length 60: 92.222.186.1 > 149.202.201.105: ICMP echo request, id 34118, seq 1, length 12
0c:c4:7a:79:db:54 > 00:ff:ff:ff:ff:ff, IPv4, length 46: 149.202.201.105 > 92.222.186.1: ICMP echo reply, id 34118, seq 1, length 12
...

 , ,

poiuty
()

debian 8 virsh Permission denied

Не работает под пользователем.

# virsh list
error: failed to connect to the hypervisor
error: no valid connection
error: Cannot create user runtime directory '/run/user/0/libvirt': Permission denied

unix_sock_group = "libvirt-qemu"
unix_sock_ro_perms = "0777"
unix_sock_rw_perms = "0777"

Пробовал https://major.io/2015/04/11/run-virsh-and-access-libvirt-as-a-regular-user/
http://kubernetes.io/v1.0/docs/getting-started-guides/libvirt-coreos.html
http://libvirt.org/drvqemu.html#securityselinux

 

poiuty
()

zfs ashift

Какой ashift (9 или 12) использовать для диска? (https://www.hgst.com/products/hard-drives/ultrastar-7k4000)

hdparm -I /dev/sdc | grep size
	Logical  Sector size:                   512 bytes
	Physical Sector size:                   512 bytes
	device size with M = 1024*1024:     1907729 MBytes
	device size with M = 1000*1000:     2000398 MBytes (2000 GB)

 

poiuty
()

Скопировать raw to zvol

лор, помоги, пожалуйста, скопировать данные из raw в zvol.

Исходный raw.

# sfdisk -l /vm/ssd/test/root.hdd
sfdisk: Disk root.hdd: cannot get geometry

Disk root.hdd: 1305 cylinders, 255 heads, 63 sectors/track
sfdisk: Warning: extended partition does not start at a cylinder boundary.
DOS and Linux will interpret the contents differently.
Units: cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0

   Device Boot Start     End   #cyls    #blocks   Id  System
root.hdd1   *      0+     31-     31-    248832   83  Linux
root.hdd2         31+   1305-   1275-  10233857    5  Extended
root.hdd3          0       -       0          0    0  Empty
root.hdd4          0       -       0          0    0  Empty
root.hdd5         31+   1305-   1275-  10233856   8e  Linux LVM

zvol в который будем копировать.

# sfdisk -l /dev/zvol/ssd/test

Disk /dev/zvol/ssd/test: 20805 cylinders, 16 heads, 63 sectors/track

Копирую таблицу разделов.

sfdisk -d root.hdd | sfdisk --force /dev/zvol/ssd/test

Проверяю.

# sfdisk -l /dev/zvol/ssd/test

Disk /dev/zvol/ssd/test: 20805 cylinders, 16 heads, 63 sectors/track
sfdisk: Warning: extended partition does not start at a cylinder boundary.
DOS and Linux will interpret the contents differently.
Units: cylinders of 516096 bytes, blocks of 1024 bytes, counting from 0

   Device Boot Start     End   #cyls    #blocks   Id  System
/dev/zvol/ssd/test1   *      2+    495-    494-    248832   83  Linux
/dev/zvol/ssd/test2        497+  20803-  20306-  10233857    5  Extended
/dev/zvol/ssd/test3          0       -       0          0    0  Empty
/dev/zvol/ssd/test4          0       -       0          0    0  Empty
/dev/zvol/ssd/test5        497+  20803-  20306-  10233856   8e  Linux LVM

Копирую данные из raw => zvol.

# losetup /dev/loop0 /vm/ssd/test/root.hdd
# kpartx -a /dev/loop0
# ls /dev/loop0* /dev/mapper/loop0*
/dev/loop0  /dev/mapper/loop0p1  /dev/mapper/loop0p2  /dev/mapper/loop0p5

# dd if=/dev/mapper/loop0p1 of=/dev/zvol/ssd/test-part1
# dd if=/dev/mapper/loop0p2 of=/dev/zvol/ssd/test-part2
# dd if=/dev/mapper/loop0p5 of=/dev/zvol/ssd/test-part5

Пробую загрузить VM и получаю => booting from hard disk... => https://poiuty.com/img/00/d830e20b9fd23498b085a7ffd2f7f600.png
Смотрю еще раз sfdisk -l

sfdisk -l /dev/zvol/ssd/test

Disk /dev/zvol/ssd/test: 20805 cylinders, 16 heads, 63 sectors/track
sfdisk: Warning: extended partition does not start at a cylinder boundary.
DOS and Linux will interpret the contents differently.
Units: cylinders of 516096 bytes, blocks of 1024 bytes, counting from 0

   Device Boot Start     End   #cyls    #blocks   Id  System
/dev/zvol/ssd/test1   *      2+    495-    494-    248832   83  Linux
/dev/zvol/ssd/test2        497+  20803-  20306-  10233857    5  Extended
/dev/zvol/ssd/test3          0       -       0          0    0  Empty
/dev/zvol/ssd/test4          0       -       0          0    0  Empty
/dev/zvol/ssd/test5        497+  20803-  20306-  10233856   8e  Linux LVM
		start: (c,h,s) expected (497,12,29) found (31,59,29)
		end: (c,h,s) expected (1023,15,63) found (1023,254,63)

 ,

poiuty
()

percona server FUTEX_WAKE_PRIVATE use 100% cpu

Обновил железо, поставил debian 8, percona server 5.5.44-37.3-log
Перенеос базу. Потом заметил, что mysql использует очень много CPU.
https://poiuty.com/img/6f54ecfc007be28b5dcabe1c58e0.png (до и после)
my.cnf => https://dl.dropboxusercontent.com/u/59491914/config/percona.cnf

Открыл htop, посмотрел процессы mysql => некоторые постоянно 100%.
https://poiuty.com/img/b67f65ff1666b7175165acd04f57.png

Далее сделал strace такого процесса.

futex(0x7f59ec77ea00, FUTEX_WAKE_PRIVATE, 1) = 1
sched_yield()                           = 0
futex(0x7f59ec77eac4, FUTEX_WAIT_PRIVATE, 3615, NULL) = 0
futex(0x7f59ec77ea80, FUTEX_WAKE_PRIVATE, 1) = 0
futex(0x7f59ec77ea44, FUTEX_CMP_REQUEUE_PRIVATE, 1, 2147483647, 0x7f59ec77ea00, 136070) = 1
futex(0x7f59ec77ea00, FUTEX_WAKE_PRIVATE, 1) = 1
futex(0x7f59ec77ea44, FUTEX_CMP_REQUEUE_PRIVATE, 1, 2147483647, 0x7f59ec77ea00, 136078) = 2
futex(0x7f59ec77ea00, FUTEX_WAKE_PRIVATE, 1) = 1
futex(0x7f59ec77ea44, FUTEX_CMP_REQUEUE_PRIVATE, 1, 2147483647, 0x7f59ec77ea00, 136092) = 1
futex(0x7f59ec77ea00, FUTEX_WAKE_PRIVATE, 1) = 1
sched_yield()                           = 0
futex(0x7f59ec77ea44, FUTEX_CMP_REQUEUE_PRIVATE, 1, 2147483647, 0x7f59ec77ea00, 136104) = 2
futex(0x7f59ec77ea00, FUTEX_WAKE_PRIVATE, 1) = 1
sched_yield()                           = 0
futex(0x7f59ec77ea44, FUTEX_WAIT_PRIVATE, 136107, NULL) = 0
futex(0x7f59ec77ea00, FUTEX_WAKE_PRIVATE, 1) = 0
futex(0x7f59ec77ea44, FUTEX_CMP_REQUEUE_PRIVATE, 1, 2147483647, 0x7f59ec77ea00, 136112) = 1
futex(0x7f59ec77ea00, FUTEX_WAKE_PRIVATE, 1) = 1
futex(0x7f59ec77ea44, FUTEX_CMP_REQUEUE_PRIVATE, 1, 2147483647, 0x7f59ec77ea00, 136118) = 1
futex(0x7f59ec77ea00, FUTEX_WAKE_PRIVATE, 1) = 1
futex(0x7f59ec77ea44, FUTEX_CMP_REQUEUE_PRIVATE, 1, 2147483647, 0x7f59ec77ea00, 136120) = 1
futex(0x7f59ec77ea00, FUTEX_WAKE_PRIVATE, 1) = 1
futex(0x7f59ec77eac4, FUTEX_WAIT_PRIVATE, 3621, NULL) = 0
futex(0x7f59ec77ea80, FUTEX_WAKE_PRIVATE, 1) = 0
futex(0x7f59ec77ea44, FUTEX_CMP_REQUEUE_PRIVATE, 1, 2147483647, 0x7f59ec77ea00, 136126) = 1
futex(0x7f59ec77ea00, FUTEX_WAKE_PRIVATE, 1) = 1
futex(0x7f59ec77eac4, FUTEX_WAIT_PRIVATE, 3623, NULL) = 0
futex(0x7f59ec77ea80, FUTEX_WAKE_PRIVATE, 1) = 0
futex(0x7f59ec77ea44, FUTEX_CMP_REQUEUE_PRIVATE, 1, 2147483647, 0x7f59ec77ea00, 136132) = 1
futex(0x7f59ec77ea00, FUTEX_WAKE_PRIVATE, 1) = 1
futex(0x7f59ec77ea44, FUTEX_CMP_REQUEUE_PRIVATE, 1, 2147483647, 0x7f59ec77ea00, 136138) = 1
futex(0x7f59ec77ea00, FUTEX_WAKE_PRIVATE, 1) = 1
sched_yield()                           = 0

Полез в гугл, нашел
=> https://code.mixpanel.com/2012/12/07/debugging-mysql-performance-at-scale/ (не помогло)
=> http://www.sql.ru/forum/1078110/visnet-percona-xtradb-cluster (нет решения)

Далее отправил багрепорт https://bugs.launchpad.net/percona-server/ bug/1489454
Вечером планирую потестить => mariadb 5.5, mariadb 10, обычный mysql 5.5, percona 5.6

На данный момент количество таких процессов выросло.
https://poiuty.com/img/8667e94d81c8aca1a43800825854.png
Если вырубить nginx и подождать пока к mysql не будет идти запросы -> нагрузка сохраняется.

Возможно кто-то сталкивался с этим? Буду рад советам. Спасибо.

 ,

poiuty
()

репликация mysql, много sleep на мастере

Сделал mysql (master -> slave)
http://php.net/manual/ru/mysqlnd-ms.quickstart.php => через этот плагин балансировку
Работает, запросы балансирует.
http://dsro.ru/gyazo/images/473549122a9960443e8272ad6b34.png

Проблема на мастере => появляются слипы.
http://dsro.ru/gyazo/images/01b0e30209bafd228c3c1c21793f.png
на slave идут запросы => в это же время sleep на мастере.

Из-за чего на мастере могут появляться слипы?

 

poiuty
()

репликация mysql

Сделал репликацию для одной базы.

# Master server
server-id = 1
log_bin = /var/log/mysql/mysql-bin.log
expire_logs_days = 10
max_binlog_size = 100M
binlog_do_db = stats

# Slave 
server-id = 2
replicate-do-db = stats

Через некоторое время получил ошибку.

Last_SQL_Error: Error 'Table 'другая_база.таблица' doesn't exist' on query. Default database: 'stats'. Query:
Почему идет запрос из другой базы?

 ,

poiuty
()

firefox шрифты, проблема

Кто-нибудь сталкивался? Как фиксить?
https://poiuty.com/img/6a04819f605a8fa2285864dbddbf.png

 ,

poiuty
()

nautilus не менять владельца файла

Как сделать чтобы nautilus не менял владельца файла? Подключаюсь на sftp (под рутом) => через geany редактирую файл.

 

poiuty
()

iptables string

iptables -A INPUT -p tcp --dport 80 -m string --string "12345" --algo bm -j ACCEPT
iptables -A INPUT -p tcp --dport 80 -j DROP
# iptables -L -v -n
Chain INPUT (policy ACCEPT 3017 packets, 385K bytes)
 pkts bytes target     prot opt in     out     source               destination
    0     0 ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0            tcp dpt:80 STRING match  "12345" ALGO name bm TO 65535
    6   304 DROP       tcp  --  *      *       0.0.0.0/0            0.0.0.0/0            tcp dpt:80

Если оставить только первое правило - то счетчик начинает увеличиваться.

# iptables -L -v -n
Chain INPUT (policy ACCEPT 143 packets, 15393 bytes)
 pkts bytes target     prot opt in     out     source               destination
    6  2296 ACCEPT     tcp  --  *      *       0.0.0.0/0            0.0.0.0/0            tcp dpt:80 STRING match  "12345" ALGO name bm TO 65535

Почему когда добавляю вторым правилом DROP - iptables игнорирует первое?

 

poiuty
()

ipip-туннель

https://debian.pro/1578 -> описание того что делаю.
Между двумя сервера работает. Попробовал передать ip внутрь kvm vm -> не получилось.
На сервере доноре /etc/network/interfaces

auto tun0 
iface tun0 inet static
    address 192.168.0.1
    netmask 255.255.255.255
    pointopoint 148.251.225.166
    mtu 1350
    pre-up /sbin/ip tunnel add tun0 mode ipip remote 151.80.92.205 local 144.76.60.108 dev eth0
    post-down /sbin/ip tunnel del tun0

Пакеты доходят

tun0      Link encap:IPIP Tunnel  HWaddr
          inet addr:192.168.0.1  P-t-P:148.251.225.166  Mask:255.255.255.255
          UP POINTOPOINT RUNNING NOARP  MTU:1350  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:98 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:0 (0.0 B)  TX bytes:5645 (5.5 KiB)

На сервере приемнике /etc/network/interfaces

auto eth0
iface eth0 inet static
	address 151.80.92.205
	netmask 255.255.255.255
	broadcast 151.80.92.205
	dns-nameservers 8.8.8.8 8.8.4.4
	post-up route add 37.59.47.254 dev eth0
	post-up route add default gw 37.59.47.254
	pre-down route del 37.59.47.254 dev eth0
	pre-down route del default gw 37.59.47.254

auto tun0
iface tun0 inet static
    address 148.251.225.166
    netmask 255.255.255.255
    pointopoint 192.168.0.1
    mtu 1350
    pre-up /sbin/ip tunnel add tun0 mode ipip remote 151.80.92.205 local 151.80.92.205 dev eth0
    post-up /sbin/ip ru add from 148.251.225.166 lookup 17 priority 17
    post-up /sbin/ip ro add default via 192.168.0.1 dev tun0 src 148.251.225.166 table 17 mtu 1350 advmss 1310
    pre-down /sbin/ip ro del default via 192.168.0.1 dev tun0 src 148.251.225.166 table 17 mtu 1350 advmss 1310
    pre-down /sbin/ip ru del from 148.251.225.166 lookup 17 priority 17
    post-down /sbin/ip tunnel del tun0

tun0      Link encap:IPIP Tunnel  HWaddr
          inet addr:148.251.225.166  P-t-P:192.168.0.1  Mask:255.255.255.255
          UP POINTOPOINT RUNNING NOARP  MTU:1350  Metric:1
          RX packets:0 errors:0 dropped:0 overruns:0 frame:0
          TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)

 

poiuty
()

kvm virtio прерывания

Как увеличить количество virtioX-input?
Чтобы раскидать прерывания на разные ядра. Спасибо.

 

poiuty
()

cpu use

Как узнать кто ест cpu? Резко растет и падает. Видно через htop
https://poiuty.com/img/9cbf3c95440feaa838271bb51dce.png

Через top, pref top, mpstat - не видно.
https://poiuty.com/img/1b4cb5ff007b2721a949bd0a6ab7.png
https://poiuty.com/img/65827708e67bcca4c30ea16fe388.png

debian 8, qemu-kvm, запущено 4 VM (практически не грузят), zfs.
https://poiuty.com/img/61a1e496142cc324c45a8e330dfc.png

 

poiuty
()

zfs cpu

Кто использует zfs - поделитесь, пожалуйста, статистикой.
Сколько использует у вас CPU?
Заливаю бекап ~200 Mbit/s => dd использует 20% от 1 потока.
На ext4 тоже самое => 2~3% от потока.

kvm   compression           off                    default

 

poiuty
()

Asterisk, slab cache

Быстро растет slab cache
https://poiuty.com/img/a4ff41ff2ec3afb351add476d877.png
Далее срабатывает oom kill и падает, например mysql.

Увеличивается dentry - slabtop

 Active / Total Objects (% used)    : 3820317 / 3878206 (98.5%)
 Active / Total Slabs (% used)      : 231956 / 232058 (100.0%)
 Active / Total Caches (% used)     : 131 / 245 (53.5%)
 Active / Total Size (% used)       : 859619.62K / 866908.09K (99.2%)
 Minimum / Average / Maximum Object : 0.02K / 0.22K / 4096.00K

  OBJS ACTIVE  USE OBJ SIZE  SLABS OBJ/SLAB CACHE SIZE NAME
3455182 3455107  99%    0.22K 203246       17    812984K dentry
156288 133890  85%    0.10K   4224       37     16896K buffer_head
 27874  27850  99%    0.55K   3982        7     15928K radix_tree_node
 25718  19105  74%    0.05K    334       77      1336K anon_vma_chain
 24864  23905  96%    0.03K    222      112       888K size-32
 22876  20664  90%    0.20K   1204       19      4816K vm_area_struct
 22698  22691  99%    1.09K   7566        3     30264K ext4_inode_cache
 20119  13218  65%    0.06K    341       59      1364K size-64
 18620  18549  99%    0.19K    931       20      3724K size-192
 15700  15627  99%    0.15K    628       25      2512K sysfs_dir_cache
 13013   8965  68%    0.05K    169       77       676K anon_vma
 10985  10948  99%    0.72K   2197        5      8788K proc_inode_cache
  7455   5098  68%    0.25K    497       15      1988K filp
  6070   5332  87%    0.38K    607       10      2428K ip_dst_cache
  5970   5216  87%    0.12K    199       30       796K size-128
  5472   5403  98%    0.65K    912        6      3648K inode_cache
  4081   4032  98%    0.07K     77       53       308K Acpi-Operand
  2612   2493  95%    1.00K    653        4      2612K size-1024
  2576   2499  97%    0.04K     28       92       112K Acpi-Namespace
  1860   1249  67%    0.19K     93       20       372K cred_jar
  1584   1485  93%    0.84K    176        9      1408K shmem_inode_cache
  1537    925  60%    0.07K     29       53       116K eventpoll_pwq
  1488   1424  95%    0.50K    186        8       744K size-512
  1380    903  65%    0.19K     69       20       276K eventpoll_epi
  1250   1066  85%    0.75K    250        5      1000K sock_inode_cache
  1200   1117  93%    0.25K     80       15       320K size-256
  1156    595  51%    0.11K     34       34       136K task_delay_info
  1060    166  15%    0.06K     20       53        80K tcp_bind_bucket
   742    265  35%    0.06K     14       53        56K fs_cache
   720    437  60%    0.12K     24       30        96K pid_2
   670    620  92%    1.75K    335        2      1340K TCP
   570    210  36%    0.12K     19       30        76K pid
   531    392  73%    0.81K     59        9       472K task_xstate
   520    506  97%    2.75K    260        2      2080K task_struct

Выяснил, что это происходит из-за запуска (по крону) скрипта /var/lib/asterisk/agi-bin/reload
Никто не сталкивался с таким? Почему slab cache не очищается и не отдает ram -> apps?
Почему используется именно slab cache? Как самому воспроизвести использование slab cache?
asterisk сборка freepbx.

 

poiuty
()

intel_pstate scaling

Как убрать scaling на intel_pstate?

cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor
performance
performance
performance
performance
performance
performance
performance
performance
grep MHz /proc/cpuinfo
cpu MHz         : 1641.429
cpu MHz         : 1743.164
cpu MHz         : 3623.789
cpu MHz         : 2173.210
cpu MHz         : 1867.875
cpu MHz         : 2068.156
cpu MHz         : 1770.257
cpu MHz         : 1813.820

 

poiuty
()

syn flood spoofing ip

Друзья, поделитесь, пожалуйста, опытом защиты от атаки syn flood spoofing ip.
Льется трафик с фейковых IP. Через 30-120 секунд после начала атаки - сервер становится недоступен.
Задача «переваривать трафик» 5-10 минут. Далее дата центр включает защиту и фильтрует сам.
Подозреваю, что можно это сделать за счет увеличения лимитов sysctl.
Если скопипастить все - то пост выйдет огромным. По ссылке полное описание проблемы и тесты.

 

poiuty
()

failed command: FLUSH CACHE

Сервер с 3 SSD дисками (рейд софт). CentOS 6, ядро 2.6.32 ovz (последний стабл).
Разделы сделаны так

/ => raid1
/boot => raid1
/vz => raid5

Сервер пустой. Несколько раз в день в логах появляются ошибки на дисках sdb и sdc
Воспроизвести под нагрузкой не получается, происходит периодически.

Aug 28 10:04:02 mars kernel: [669254.444316] ata3.00: status: { DRDY }
Aug 28 10:04:02 mars kernel: [669254.444838] ata3: hard resetting link
Aug 28 10:04:02 mars kernel: [669254.750083] ata3: SATA link up 3.0 Gbps (SStatus 123 SControl 300)
Aug 28 10:04:02 mars kernel: [669254.751218] ata3.00: configured for UDMA/133
Aug 28 10:04:02 mars kernel: [669254.751729] ata3.00: device reported invalid CHS sector 0
Aug 28 10:04:02 mars kernel: [669254.752248] ata3: EH complete
Aug 28 11:01:02 mars kernel: [672672.428508] ata2.00: exception Emask 0x0 SAct 0x0 SErr 0x0 action 0x6 frozen
Aug 28 11:01:02 mars kernel: [672672.429044] ata2.00: failed command: FLUSH CACHE
Aug 28 11:01:02 mars kernel: [672672.429594] ata2.00: cmd e7/00:00:00:00:00/00:00:00:00:00/a0 tag 1
Aug 28 11:01:02 mars kernel: [672672.429594] res 40/00:00:00:00:00/00:00:00:00:00/a0 Emask 0x4 (timeout)
Aug 28 11:01:02 mars kernel: [672672.430667] ata2.00: status: { DRDY }
Aug 28 11:01:02 mars kernel: [672672.431200] ata2: hard resetting link
Aug 28 11:01:02 mars kernel: [672672.736186] ata2: SATA link up 3.0 Gbps (SStatus 123 SControl 300)
Aug 28 11:01:02 mars kernel: [672672.737439] ata2.00: configured for UDMA/133
Aug 28 11:01:02 mars kernel: [672672.737967] ata2.00: device reported invalid CHS sector 0
Aug 28 11:01:02 mars kernel: [672672.738500] ata2: EH complete
Aug 28 12:06:02 mars kernel: [676570.136197] ata2.00: exception Emask 0x0 SAct 0x0 SErr 0x0 action 0x6 frozen
Aug 28 12:06:02 mars kernel: [676570.136741] ata2.00: failed command: FLUSH CACHE
Aug 28 12:06:02 mars kernel: [676570.137287] ata2.00: cmd e7/00:00:00:00:00/00:00:00:00:00/a0 tag 7
Aug 28 12:06:02 mars kernel: [676570.137288] res 40/00:00:00:4f:c2/00:00:00:00:00/00 Emask 0x4 (timeout)

По смарту с жесткими дисками - все окей.

 smartctl -A /dev/sda
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.2.0-4-amd64] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 5
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  3 Spin_Up_Time            0x0020   100   100   000    Old_age   Offline      -       0
  4 Start_Stop_Count        0x0030   100   100   000    Old_age   Offline      -       0
  5 Reallocated_Sector_Ct   0x0032   100   100   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       11572
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       30
170 Reserve_Block_Count     0x0033   100   100   010    Pre-fail  Always       -       0
171 Program_Fail_Count      0x0032   100   100   000    Old_age   Always       -       0
172 Erase_Fail_Count        0x0032   100   100   000    Old_age   Always       -       0
183 Runtime_Bad_Block       0x0030   100   100   000    Old_age   Offline      -       3
184 End-to-End_Error        0x0032   100   100   090    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
192 Unsafe_Shutdown_Count   0x0032   100   100   000    Old_age   Always       -       29
199 UDMA_CRC_Error_Count    0x0030   100   100   000    Old_age   Offline      -       1
225 Host_Writes_32MiB       0x0032   100   100   000    Old_age   Always       -       395353
226 Workld_Media_Wear_Indic 0x0032   100   100   000    Old_age   Always       -       6589
227 Workld_Host_Reads_Perc  0x0032   100   100   000    Old_age   Always       -       0
228 Workload_Minutes        0x0032   100   100   000    Old_age   Always       -       1208654906
232 Available_Reservd_Space 0x0033   100   100   010    Pre-fail  Always       -       0
233 Media_Wearout_Indicator 0x0032   097   097   000    Old_age   Always       -       0
241 Host_Writes_32MiB       0x0032   100   100   000    Old_age   Always       -       395353
242 Host_Reads_32MiB        0x0032   100   100   000    Old_age   Always       -       191062

 smartctl -A /dev/sdb
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.2.0-4-amd64] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 5
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  3 Spin_Up_Time            0x0020   100   100   000    Old_age   Offline      -       0
  4 Start_Stop_Count        0x0030   100   100   000    Old_age   Offline      -       0
  5 Reallocated_Sector_Ct   0x0032   100   100   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       21590
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       22
170 Reserve_Block_Count     0x0033   100   100   010    Pre-fail  Always       -       0
171 Program_Fail_Count      0x0032   100   100   000    Old_age   Always       -       0
172 Erase_Fail_Count        0x0032   100   100   000    Old_age   Always       -       0
183 Runtime_Bad_Block       0x0030   100   100   000    Old_age   Offline      -       0
184 End-to-End_Error        0x0032   100   100   090    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
192 Unsafe_Shutdown_Count   0x0032   100   100   000    Old_age   Always       -       21
199 UDMA_CRC_Error_Count    0x0030   100   100   000    Old_age   Offline      -       0
225 Host_Writes_32MiB       0x0032   100   100   000    Old_age   Always       -       289704
226 Workld_Media_Wear_Indic 0x0032   100   100   000    Old_age   Always       -       1840
227 Workld_Host_Reads_Perc  0x0032   100   100   000    Old_age   Always       -       9
228 Workload_Minutes        0x0032   100   100   000    Old_age   Always       -       1295408
232 Available_Reservd_Space 0x0033   100   100   010    Pre-fail  Always       -       0
233 Media_Wearout_Indicator 0x0032   099   099   000    Old_age   Always       -       0
241 Host_Writes_32MiB       0x0032   100   100   000    Old_age   Always       -       289704
242 Host_Reads_32MiB        0x0032   100   100   000    Old_age   Always       -       29952
smartctl -A /dev/sdc
smartctl 5.41 2011-06-09 r3365 [x86_64-linux-3.2.0-4-amd64] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF READ SMART DATA SECTION ===
SMART Attributes Data Structure revision number: 5
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  3 Spin_Up_Time            0x0020   100   100   000    Old_age   Offline      -       0
  4 Start_Stop_Count        0x0030   100   100   000    Old_age   Offline      -       0
  5 Reallocated_Sector_Ct   0x0032   100   100   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       12488
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       16
170 Reserve_Block_Count     0x0033   100   100   010    Pre-fail  Always       -       0
171 Program_Fail_Count      0x0032   100   100   000    Old_age   Always       -       0
172 Erase_Fail_Count        0x0032   100   100   000    Old_age   Always       -       0
183 Runtime_Bad_Block       0x0030   100   100   000    Old_age   Offline      -       3
184 End-to-End_Error        0x0032   100   100   090    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   100   100   000    Old_age   Always       -       0
192 Unsafe_Shutdown_Count   0x0032   100   100   000    Old_age   Always       -       15
199 UDMA_CRC_Error_Count    0x0030   100   100   000    Old_age   Offline      -       0
225 Host_Writes_32MiB       0x0032   100   100   000    Old_age   Always       -       110090
226 Workld_Media_Wear_Indic 0x0032   100   100   000    Old_age   Always       -       1225
227 Workld_Host_Reads_Perc  0x0032   100   100   000    Old_age   Always       -       47
228 Workload_Minutes        0x0032   100   100   000    Old_age   Always       -       749290
232 Available_Reservd_Space 0x0033   100   100   010    Pre-fail  Always       -       0
233 Media_Wearout_Indicator 0x0032   099   099   000    Old_age   Always       -       0
241 Host_Writes_32MiB       0x0032   100   100   000    Old_age   Always       -       110090
242 Host_Reads_32MiB        0x0032   100   100   000    Old_age   Always       -       99112

На данный момент, сделал без рейда, разбил на /sda, /sdb, /sdc -> нагружаю диски, пытаюсь воспроизвести.

Может быть кто-нибудь сталкивался с подобной проблемой?
Думаю что проблема в шлейфах или с жесткими дисками. Заменить их сам не могу - веду переписку с ДЦ.

poiuty
()

RSS подписка на новые темы