LINUX.ORG.RU
ФорумAdmin

Периодически зависает сервер на debian

 ,


0

1

Приветствую! В очередной раз наглухо завис сервер, даже монитор мигает как-будто в ждущем режиме. Сервер является маршрутизатором для пользователей интернет провайдера. Лог перед зависанием

Jun  7 20:23:46 srv-bill kernel: [1549099.293971] BUG: Bad page state in process snmpd  pfn:d40cc
Jun  7 20:23:46 srv-bill kernel: [1549099.293991] page:ffffea0002e62ca0 count:-1 mapcount:0 mapping:          (null) index:0x0
Jun  7 20:23:46 srv-bill kernel: [1549099.294012] flags: 0x1ffff8000000000()
Jun  7 20:23:46 srv-bill kernel: [1549099.294024] page dumped because: nonzero _count
Jun  7 20:23:46 srv-bill kernel: [1549099.294036] Modules linked in: nfnetlink_queue nfnetlink_log bluetooth rfkill ppp_async crc_ccitt binfmt_misc arc4 ecb ppp_mppe act_police cls_u32 sch_ingress sch_tbf xt_mac xt_IMQ xt_CLASSIFY xt_TCPMSS xt_tcpudp xt_multiport xt_connmark xt_statistic xt_set xt_conntrack iptable_mangle iptable_filter ip_set_hash_ip ip_set nfnetlink cls_flow l2tp_ppp l2tp_netlink l2tp_core ip6_udp_tunnel udp_tunnel sch_sfq nfsd auth_rpcgss oid_registry nfs_acl nfs lockd grace fscache sunrpc xt_nat iptable_nat nf_conntrack_ipv4 nf_defrag_ipv4 nf_nat_ipv4 ip_tables bonding x86_pkg_temp_thermal intel_powerclamp it87 hwmon_vid intel_rapl coretemp kvm_intel kvm xt_ndpi(O) iTCO_wdt iTCO_vendor_support ppdev crct10dif_pclmul i915 crc32_pclmul evdev ghash_clmulni_intel cryptd psmouse pcspkr serio_raw drm_kms_helper drm i2c_i801 mei_me lpc_ich mei shpchp mfd_core tpm_infineon tpm_tis battery parport_pc parport tpm video button processor nf_nat_pptp nf_nat_proto_gre nf_conntrack_pptp nf_conntrack_proto_gre nf_nat nf_conntrack sch_htb ipt_NETFLOW(O) x_tables imq pppoe pppox ppp_generic slhc 8021q garp mrp stp llc autofs4 ext4 crc16 mbcache jbd2 dm_mod sg sd_mod hid_generic usbhid hid crc32c_intel ahci libahci libata scsi_mod xhci_pci xhci_hcd ehci_pci ehci_hcd alx mdio igb i2c_algo_bit usbcore i2c_core dca usb_common ptp pps_core thermal fan thermal_sys
Jun  7 20:23:46 srv-bill kernel: [1549099.294084] CPU: 2 PID: 25334 Comm: snmpd Tainted: G    B      O   3.18.23-imq #1
Jun  7 20:23:46 srv-bill kernel: [1549099.294085] Hardware name: Gigabyte Technology Co., Ltd. To be filled by O.E.M./H77M-D3H, BIOS F14 01/16/2014
Jun  7 20:23:46 srv-bill kernel: [1549099.294086]  0000000000000000 ffffffff8172ecdf ffffffff8153dab7 ffffea0002e62ca0
Jun  7 20:23:46 srv-bill kernel: [1549099.294087]  ffffffff8114f11a ffff88011f316170 ffff88011f5f66c0 0000000000000000
Jun  7 20:23:46 srv-bill kernel: [1549099.294089]  ffffffff81153207 0000000000000003 0000000000000246 00000000000280da
Jun  7 20:23:46 srv-bill kernel: [1549099.294090] Call Trace:
Jun  7 20:23:46 srv-bill kernel: [1549099.294094]  [<ffffffff8153dab7>] ? dump_stack+0x41/0x51
Jun  7 20:23:46 srv-bill kernel: [1549099.294097]  [<ffffffff8114f11a>] ? bad_page.part.53+0xba/0x110
Jun  7 20:23:46 srv-bill kernel: [1549099.294099]  [<ffffffff81153207>] ? get_page_from_freelist+0x527/0xa30
Jun  7 20:23:46 srv-bill kernel: [1549099.294101]  [<ffffffff812efca0>] ? __nla_put+0x10/0x30
Jun  7 20:23:46 srv-bill kernel: [1549099.294103]  [<ffffffff81153a36>] ? __alloc_pages_nodemask+0x166/0xb70
Jun  7 20:23:46 srv-bill kernel: [1549099.294106]  [<ffffffff811b2cbb>] ? mem_cgroup_try_charge+0x7b/0x150
Jun  7 20:23:46 srv-bill kernel: [1549099.294108]  [<ffffffff811b2de6>] ? mem_cgroup_commit_charge+0x56/0xa0
Jun  7 20:23:46 srv-bill kernel: [1549099.294110]  [<ffffffff81196617>] ? alloc_pages_current+0x97/0x120
Jun  7 20:23:46 srv-bill kernel: [1549099.294111]  [<ffffffff8114ee0e>] ? __get_free_pages+0xe/0x60
Jun  7 20:23:46 srv-bill kernel: [1549099.294113]  [<ffffffff8122f03a>] ? kernfs_iop_follow_link+0x2a/0x1c0
Jun  7 20:23:46 srv-bill kernel: [1549099.294115]  [<ffffffff810c630e>] ? current_fs_time+0xe/0x50
Jun  7 20:23:46 srv-bill kernel: [1549099.294118]  [<ffffffff811c90b9>] ? link_path_walk+0x679/0xf60
Jun  7 20:23:46 srv-bill kernel: [1549099.294120]  [<ffffffff811cab69>] ? path_openat+0x99/0x660
Jun  7 20:23:46 srv-bill kernel: [1549099.294123]  [<ffffffff8144ad71>] ? dev_get_by_name_rcu+0x71/0xa0
Jun  7 20:23:46 srv-bill kernel: [1549099.294125]  [<ffffffff811e35c7>] ? __inode_wait_for_writeback+0x67/0xb0
Jun  7 20:23:46 srv-bill kernel: [1549099.294126]  [<ffffffff811cc6c0>] ? do_filp_open+0x30/0xa0
Jun  7 20:23:46 srv-bill kernel: [1549099.294128]  [<ffffffff811d8c7c>] ? __alloc_fd+0x7c/0x120
Jun  7 20:23:46 srv-bill kernel: [1549099.294131]  [<ffffffff811ba19a>] ? do_sys_open+0x12a/0x220
Jun  7 20:23:46 srv-bill kernel: [1549099.294134]  [<ffffffff815439cd>] ? system_call_fastpath+0x16/0x1b
Jun  7 20:23:58 srv-bill kernel: [1549111.721054] BUG: Bad page state in process swapper/0  pfn:a94a4
Jun  7 20:23:58 srv-bill kernel: [1549111.721076] page:ffffea00025083e0 count:-1 mapcount:0 mapping:          (null) index:0x0
Jun  7 20:23:58 srv-bill kernel: [1549111.721105] flags: 0x1ffff8000000000()
Jun  7 20:23:58 srv-bill kernel: [1549111.721124] page dumped because: nonzero _count
Jun  7 20:23:58 srv-bill kernel: [1549111.721144] Modules linked in: nfnetlink_queue nfnetlink_log bluetooth rfkill ppp_async crc_ccitt binfmt_misc arc4 ecb ppp_mppe act_police cls_u32 sch_ingress sch_tbf xt_mac xt_IMQ xt_CLASSIFY xt_TCPMSS xt_tcpudp xt_multiport xt_connmark xt_statistic xt_set xt_conntrack iptable_mangle iptable_filter ip_set_hash_ip ip_set nfnetlink cls_flow l2tp_ppp l2tp_netlink l2tp_core ip6_udp_tunnel udp_tunnel sch_sfq nfsd auth_rpcgss oid_registry nfs_acl nfs lockd grace fscache sunrpc xt_nat iptable_nat nf_conntrack_ipv4 nf_defrag_ipv4 nf_nat_ipv4 ip_tables bonding x86_pkg_temp_thermal intel_powerclamp it87 hwmon_vid intel_rapl coretemp kvm_intel kvm xt_ndpi(O) iTCO_wdt iTCO_vendor_support ppdev crct10dif_pclmul i915 crc32_pclmul evdev ghash_clmulni_intel cryptd psmouse pcspkr serio_raw drm_kms_helper drm i2c_i801 mei_me lpc_ich mei shpchp mfd_core tpm_infineon tpm_tis battery parport_pc parport tpm video button processor nf_nat_pptp nf_nat_proto_gre nf_conntrack_pptp nf_conntrack_proto_gre nf_nat nf_conntrack sch_htb ipt_NETFLOW(O) x_tables imq pppoe pppox ppp_generic slhc 8021q garp mrp stp llc autofs4 ext4 crc16 mbcache jbd2 dm_mod sg sd_mod hid_generic usbhid hid crc32c_intel ahci libahci libata scsi_mod xhci_pci xhci_hcd ehci_pci ehci_hcd alx mdio igb i2c_algo_bit usbcore i2c_core dca usb_common ptp pps_core thermal fan thermal_sys
Jun  7 20:23:58 srv-bill kernel: [1549111.721199] CPU: 0 PID: 0 Comm: swapper/0 Tainted: G    B      O   3.18.23-imq #1
Jun  7 20:23:58 srv-bill kernel: [1549111.721200] Hardware name: Gigabyte Technology Co., Ltd. To be filled by O.E.M./H77M-D3H, BIOS F14 01/16/2014
Jun  7 20:23:58 srv-bill kernel: [1549111.721202]  0000000000000000 ffffffff8172ecdf ffffffff8153dab7 ffffea00025083e0
Jun  7 20:23:58 srv-bill kernel: [1549111.721203]  ffffffff8114f11a ffff88011f216170 ffff88011f5f66c0 0000000000000001
Jun  7 20:23:58 srv-bill kernel: [1549111.721204]  ffffffff81153207 ffff8800d4650000 0000000000000246 00000000d6312000
Jun  7 20:23:58 srv-bill kernel: [1549111.721206] Call Trace:
Jun  7 20:23:58 srv-bill kernel: [1549111.721207]  <IRQ>  [<ffffffff8153dab7>] ? dump_stack+0x41/0x51
Jun  7 20:23:58 srv-bill kernel: [1549111.721215]  [<ffffffff8114f11a>] ? bad_page.part.53+0xba/0x110
Jun  7 20:23:58 srv-bill kernel: [1549111.721218]  [<ffffffff81153207>] ? get_page_from_freelist+0x527/0xa30
Jun  7 20:23:58 srv-bill kernel: [1549111.721221]  [<ffffffff81153a36>] ? __alloc_pages_nodemask+0x166/0xb70
Jun  7 20:23:58 srv-bill kernel: [1549111.721224]  [<ffffffff8144e130>] ? __dev_queue_xmit+0x280/0x560
Jun  7 20:23:58 srv-bill kernel: [1549111.721227]  [<ffffffff814adabb>] ? tcp_gro_receive+0x24b/0x300
Jun  7 20:23:58 srv-bill kernel: [1549111.721230]  [<ffffffff814bdff7>] ? inet_gro_receive+0x1f7/0x220
Jun  7 20:23:58 srv-bill kernel: [1549111.721240]  [<ffffffffa0169d20>] ? igb_alloc_rx_buffers+0xb0/0x1e0 [igb]
Jun  7 20:23:58 srv-bill kernel: [1549111.721245]  [<ffffffffa016a5cd>] ? igb_poll+0x77d/0xf00 [igb]
Jun  7 20:23:58 srv-bill kernel: [1549111.721248]  [<ffffffff810ca1bb>] ? hrtimer_get_next_event+0xab/0xd0
Jun  7 20:23:58 srv-bill kernel: [1549111.721250]  [<ffffffff8154462d>] ? common_interrupt+0x6d/0x6d
Jun  7 20:23:58 srv-bill kernel: [1549111.721252]  [<ffffffff8144c85a>] ? net_rx_action+0x12a/0x230
Jun  7 20:23:58 srv-bill kernel: [1549111.721254]  [<ffffffff8106f0cb>] ? __do_softirq+0x11b/0x2a0
Jun  7 20:23:58 srv-bill kernel: [1549111.721255]  [<ffffffff8106f3cd>] ? irq_exit+0xad/0xb0
Jun  7 20:23:58 srv-bill kernel: [1549111.721257]  [<ffffffff815467d1>] ? do_IRQ+0x51/0xe0
Jun  7 20:23:58 srv-bill kernel: [1549111.721260]  [<ffffffff8154462d>] ? common_interrupt+0x6d/0x6d
Jun  7 20:23:58 srv-bill kernel: [1549111.721261]  <EOI>  [<ffffffff81406db1>] ? cpuidle_enter_state+0x61/0x160
Jun  7 20:23:58 srv-bill kernel: [1549111.721265]  [<ffffffff81406d9e>] ? cpuidle_enter_state+0x4e/0x160
Jun  7 20:23:58 srv-bill kernel: [1549111.721269]  [<ffffffff810a6346>] ? cpu_startup_entry+0x356/0x400
Jun  7 20:23:58 srv-bill kernel: [1549111.721272]  [<ffffffff81916fa0>] ? start_kernel+0x4a2/0x4ad
Jun  7 20:23:58 srv-bill kernel: [1549111.721274]  [<ffffffff81916120>] ? early_idt_handler_array+0x120/0x120
Jun  7 20:23:58 srv-bill kernel: [1549111.721276]  [<ffffffff81916120>] ? early_idt_handler_array+0x120/0x120
Jun  7 20:23:58 srv-bill kernel: [1549111.721278]  [<ffffffff8191661d>] ? x86_64_start_kernel+0x160/0x16f

Посоветуйте что делать. Заранее спасибо.


Ответ на: комментарий от Infra_HDC

А Софт может вешать так систему наглухо? У меня пере собранное ядро под определённые цели. Когда такие проблемы начались проверял память и ссд менял все ок с ними.

fet4 ()
Ответ на: комментарий от fet4

А Софт может вешать так систему наглухо? У меня пере собранное ядро

У меня с дебиан подобных проблем никогда не возникало. Но если ядро пересобрано, то можно попробовать загрузить «из коробки» и сравнить.

aureliano15 ★★ ()

Возможно, проблема в сетевой плате или в модуле igb.

vlb ★★★ ()

В очередной раз наглухо завис сервер, даже монитор мигает как-будто в ждущем режиме

У меня подобное было когда сдох северный мост на материнке.

h578b1bde ★☆ ()
Ответ на: комментарий от fet4

А Софт может вешать так систему наглухо? У меня пере собранное ядро под определённые цели.

В теории может, но на личной практике такого не припомню. Практика показывает что железки виноваты оказываются, причем любые, включая шлейфы и БП. Я правильно понял у вас раньше работало, и только потом стало сбоить?

anc ★★★★★ ()

Периодически значит стабильно, как и обещалось. Какой-нибудь арчлинукс не может таким похвастаться.

anonymous ()
Ответ на: комментарий от anc

Сомнительно что прям до BUG: в dmesg. Скорее всего железо или штабильное ядро дебиана кривое, а в новых ядрах исправили.

anonymous ()

В первую очередь железо проверяйте, елси есть такая возможность.

Лог каждый раз один и тот же перед зависанием или разный?

samson ★★ ()
Ответ на: комментарий от samson

Ребята ситуация повторилась идентично только уже на втором сервере.

Что сделал: Вынес я с проблемного зависшего сервера все аплинки, фаервол, нат и т.д. на другой сервер рядом стоящий, а первый готовил выводить на диагностику и оставил просто как сервер доступа.

И тут вдруг трафик перестал ходить на втором, монитор мигает как-будто в ждущем режиме, вообщем ситуация один в один как с первым. Хотя когда он просто стоял в холостом ходу месяц все было ок, явно проблема под нагрузкой.

На новом сервере стоит чистый debian 8.8 3.16.0-4-amd64, сетевка intel i340-t4, трафика 500 МБит в пиках и несколько аплинков, ospf.

echo 32768 > /sys/module/nf_conntrack/parameters/hashsize
echo 131072 > /proc/sys/net/ipv4/netfilter/ip_conntrack_max
echo 131072 > /proc/sys/net/netfilter/nf_conntrack_max
echo 131072 > /proc/sys/net/nf_conntrack_max
echo 1 > /proc/sys/net/ipv4/ip_forward
# iptables-save

-A PREROUTING -m conntrack --ctstate NEW -j ctstate_new_prerouting
-A PREROUTING -j CONNMARK --restore-mark --nfmask 0xffffffff --ctmask 0xffffffff
-A FORWARD -p tcp -m tcp --tcp-flags SYN,RST SYN -j TCPMSS --clamp-mss-to-pmtu
-A balancing -m statistic --mode random --probability 0.09090909082 -j ppp0_258
-A balancing -m statistic --mode random --probability 0.10000000009 -j ppp1_267
-A balancing -m statistic --mode random --probability 0.11111111101 -j ppp2_259
-A balancing -m statistic --mode random --probability 0.12500000000 -j ppp3_260
-A balancing -m statistic --mode random --probability 0.14285714272 -j ppp4_262
-A balancing -m statistic --mode random --probability 0.16666666651 -j ppp5_261
-A balancing -m statistic --mode random --probability 0.20000000019 -j ppp6_263
-A balancing -m statistic --mode random --probability 0.25000000000 -j ppp7_264
-A balancing -m statistic --mode random --probability 0.33333333349 -j ppp8_265
-A balancing -m statistic --mode random --probability 0.50000000000 -j ppp9_266
-A balancing -m statistic --mode random --probability 1.00000000000 -j vlan7_257
-A ctstate_new_prerouting -m set --match-set client_net src -m set ! --match-set uplink_list_set src -j balancing
-A ctstate_new_prerouting -m set --match-set uplink_net_iface src,src -j incoming
-A ctstate_new_prerouting -m set --match-set vlan7_257 src -j vlan7_257_mark
-A ctstate_new_prerouting -m set --match-set ppp5_263 src -j ppp5_263_mark
-A ctstate_new_prerouting -m set --match-set ppp2_259 src -j ppp2_259_mark
-A ctstate_new_prerouting -m set --match-set ppp3_260 src -j ppp3_260_mark
-A ctstate_new_prerouting -m set --match-set ppp5_261 src -j ppp5_261_mark
-A ctstate_new_prerouting -m set --match-set ppp6_263 src -j ppp6_263_mark
-A ctstate_new_prerouting -m set --match-set ppp7_264 src -j ppp7_264_mark
-A ctstate_new_prerouting -m set --match-set ppp8_265 src -j ppp8_265_mark
-A ctstate_new_prerouting -m set --match-set ppp9_266 src -j ppp9_266_mark
-A ctstate_new_prerouting -m set --match-set ppp4_262 src -j ppp4_262_mark
-A ctstate_new_prerouting -m set --match-set ppp1_267 src -j ppp1_267_mark
-A ctstate_new_prerouting -m set --match-set ppp0_258 src -j ppp0_258_mark
-A incoming -i vlan7 -j CONNMARK --set-xmark 0x101/0xffffffff
-A incoming -i ppp2 -j CONNMARK --set-xmark 0x103/0xffffffff
-A incoming -i ppp3 -j CONNMARK --set-xmark 0x104/0xffffffff
-A incoming -i ppp5 -j CONNMARK --set-xmark 0x105/0xffffffff
-A incoming -i ppp8 -j CONNMARK --set-xmark 0x109/0xffffffff
-A incoming -i ppp9 -j CONNMARK --set-xmark 0x10a/0xffffffff
-A incoming -i ppp4 -j CONNMARK --set-xmark 0x106/0xffffffff
-A incoming -i ppp6 -j CONNMARK --set-xmark 0x107/0xffffffff
-A incoming -i ppp7 -j CONNMARK --set-xmark 0x108/0xffffffff
-A incoming -i ppp1 -j CONNMARK --set-xmark 0x10b/0xffffffff
-A incoming -i ppp0 -j CONNMARK --set-xmark 0x102/0xffffffff
-A ppp0_258 -m set --match-set uplink_list_set src -j RETURN
-A ppp0_258 -j SET --add-set ppp0_258 src
-A ppp0_258_mark -j CONNMARK --set-xmark 0x102/0xffffffff
-A ppp0_258_mark -j SET --add-set ppp0_258 src --exist
-A ppp1_267 -m set --match-set uplink_list_set src -j RETURN
-A ppp1_267 -j SET --add-set ppp1_267 src
-A ppp1_267_mark -j CONNMARK --set-xmark 0x10b/0xffffffff
-A ppp1_267_mark -j SET --add-set ppp1_267 src --exist
-A ppp2_259 -m set --match-set uplink_list_set src -j RETURN
-A ppp2_259 -j SET --add-set ppp2_259 src
-A ppp2_259_mark -j CONNMARK --set-xmark 0x103/0xffffffff
-A ppp2_259_mark -j SET --add-set ppp2_259 src --exist
-A ppp3_260 -m set --match-set uplink_list_set src -j RETURN
-A ppp3_260 -j SET --add-set ppp3_260 src
-A ppp3_260_mark -j CONNMARK --set-xmark 0x104/0xffffffff
-A ppp3_260_mark -j SET --add-set ppp3_260 src --exist
-A ppp4_262 -m set --match-set uplink_list_set src -j RETURN
-A ppp4_262 -j SET --add-set ppp4_262 src
-A ppp4_262_mark -j CONNMARK --set-xmark 0x106/0xffffffff
-A ppp4_262_mark -j SET --add-set ppp4_262 src --exist
-A ppp5_261 -m set --match-set uplink_list_set src -j RETURN
-A ppp5_261 -j SET --add-set ppp5_261 src
-A ppp5_261_mark -j CONNMARK --set-xmark 0x105/0xffffffff
-A ppp5_261_mark -j SET --add-set ppp5_261 src --exist
-A ppp6_263 -m set --match-set uplink_list_set src -j RETURN
-A ppp6_263 -j SET --add-set ppp6_263 src
-A ppp6_263_mark -j CONNMARK --set-xmark 0x107/0xffffffff
-A ppp6_263_mark -j SET --add-set ppp6_263 src --exist
-A ppp7_264 -m set --match-set uplink_list_set src -j RETURN
-A ppp7_264 -j SET --add-set ppp7_264 src
-A ppp7_264_mark -j CONNMARK --set-xmark 0x108/0xffffffff
-A ppp7_264_mark -j SET --add-set ppp7_264 src --exist
-A ppp8_265 -m set --match-set uplink_list_set src -j RETURN
-A ppp8_265 -j SET --add-set ppp8_265 src
-A ppp8_265_mark -j CONNMARK --set-xmark 0x109/0xffffffff
-A ppp8_265_mark -j SET --add-set ppp8_265 src --exist
-A ppp9_266 -m set --match-set uplink_list_set src -j RETURN
-A ppp9_266 -j SET --add-set ppp9_266 src
-A ppp9_266_mark -j CONNMARK --set-xmark 0x10a/0xffffffff
-A ppp9_266_mark -j SET --add-set ppp9_266 src --exist
-A vlan7_257 -m set --match-set uplink_list_set src -j RETURN
-A vlan7_257 -j SET --add-set vlan7_257 src
-A vlan7_257_mark -j CONNMARK --set-xmark 0x101/0xffffffff
-A vlan7_257_mark -j SET --add-set vlan7_257 src --exist
COMMIT
# Completed on Fri Jun  9 11:40:43 2017
# Generated by iptables-save v1.4.21 on Fri Jun  9 11:40:43 2017
*filter
:INPUT ACCEPT [7116270:473318017]
:FORWARD ACCEPT [484346401:432118861119]
:OUTPUT ACCEPT [7116185:548678748]

COMMIT
# Completed on Fri Jun  9 11:40:43 2017
# Generated by iptables-save v1.4.21 on Fri Jun  9 11:40:43 2017
*nat
:PREROUTING ACCEPT [2374843:173303028]
:INPUT ACCEPT [1325187:82396245]
:OUTPUT ACCEPT [770:60828]
:POSTROUTING ACCEPT [89:6214]
:SNAT_uplink - [0:0]
:prerouting_dnat - [0:0]
-A PREROUTING -d х.х.х.х -m set --match-set dnat_ports dst -j prerouting_dnat
-A POSTROUTING -m set --match-set uplink_net_iface dst,dst -j SNAT_uplink
-A SNAT_uplink -o ppp0 -j SNAT --to-source х.х.х.х
-A SNAT_uplink -o ppp1 -j SNAT --to-source х.х.х.х
-A SNAT_uplink -o ppp4 -j SNAT --to-source х.х.х.х
-A SNAT_uplink -o ppp9 -j SNAT --to-source х.х.х.х
-A SNAT_uplink -o ppp8 -j SNAT --to-source х.х.х.х
-A SNAT_uplink -o ppp7 -j SNAT --to-source х.х.х.х
-A SNAT_uplink -o ppp6 -j SNAT --to-source х.х.х.х
-A SNAT_uplink -o ppp5 -j SNAT --to-source х.х.х.х
-A SNAT_uplink -o ppp3 -j SNAT --to-source х.х.х.х
-A SNAT_uplink -o ppp2 -j SNAT --to-source х.х.х.х
-A SNAT_uplink -o vlan7 -j SNAT --to-source х.х.х.х

-A prerouting_dnat -p tcp -m multiport --dports 80,443 -j DNAT --to-destination 172.19.0.1
-A prerouting_dnat -p udp -m multiport --dports 80,443 -j DNAT --to-destination 172.19.0.1
-A prerouting_dnat -p udp -m multiport --dports 53 -j DNAT --to-destination 172.19.0.5
-A prerouting_dnat -p tcp -m multiport --dports 53 -j DNAT --to-destination 172.19.0.5
COMMIT
# Completed on Fri Jun  9 11:40:43 2017

В логах перед зависанием пусто. Я даже не знаю куда копать и что за нах такой. Что реально может так ложить сервер? Вроде и нагрузка небольшая.

fet4 ()
Ответ на: комментарий от fet4

А сервак по железу не точно такой же случайно из одной партии?
У меня был случай с парочкой серваков из одной партии, без особой нагрузки на харды норм работали не один месяц и в определенный момент когда начали грузить харды что на первом что на втором посыпались вот подобные рандомные глюки, виноваты оказали харды (смарт все ок показывал, тесты все проходили без сбоев). Работали они в разных местах и между нагрузкой первого и второго чуть ли не год прошел, но во втором случае уже сразу стало понятно куда копать.
Это не конкретно ваш случай, но одинаковые железки могут одинаково повести себя в сходной ситуации.
Был еще случай с шаманством электриков, два разных сервера в одной стойке емнип dl120 и dl360, в первом бп сгорел сразу а вот на втором глюки пошли гораздо позже но в результате оказался виноват бп.

И вы кстати так и не ответили samson«Лог каждый раз один и тот же перед зависанием или разный?»

anc ★★★★★ ()
Ответ на: комментарий от anc

Серваки вообще собственной сборки, на декстопном железе, собраны не в одно время. Как минимум разные матки.

Лог по-разному. Бывает вообще пусто. Бывает вот как я писал выше.

Что схожее у них так это ядро. Сегодня обновил буду тестить.

fet4 ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.