Squid слетает



Привет всезнающий All: вот спрашиваю тебя, есть у меня на серваке такой глюк, после 1-2х дней работы и лазиния в инет через сервак(Squid) проиходит следующие: 1. Консольная надпись: fatal: file_map_allocate: exceeded file map limit 2. Сваливается Squid 3. Кончается инет. Если запустить заново Squid, он работает, только не долго, если почистить кеши, то он работает опять 1-2 дня. Может кто знает что за глюк ????? Заранее спасибо


Re: Squid слетает

превышен предел одновременно открытых файлов

file-nr and file-max
The kernel allocates file handles dynamically, but as yet
doesn't free them again.

The value in file-max denotes the maximum number of file handles
that the Linux kernel will allocate. When you get a lot of error
messages about running out of file handles, you might want to raise
this limit. The default value is 4096. To change it, just write the
new number into the file:

# cat /proc/sys/fs/file-max
# echo 8192 > /proc/sys/fs/file-max
# cat /proc/sys/fs/file-max

This method of revision is useful for all customizable parameters
of the kernel - simply echo the new value to the corresponding

The three values in file-nr denote the number of allocated file
handles, the number of used file handles, and the maximum number of
file handles. When the allocated file handles come close to the
maximum, but the number of actually used ones is far behind, you've
encountered a peak in your usage of file handles and you don't need
to increase the maximum.

However, there is still a per process limit of open files, which
unfortunatly can't be changed that easily. It is set to 1024 by
default. To change this you have to edit the files limits.h and
fs.h in the directory /usr/src/linux/include/linux. Change the
definition of NR_OPEN and recompile the kernel.

Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.