Имеется гента, всё обновлено. Поставил vmware-server и
vmware-server-console, всё настроил. Запустил /etc/init.d/vmware, после
чего запускаю vmware-server-console. Ввожу сервер 127.0.0.1:999 (висит
на 999 порту), пользователя и пароль. Пользователь есть в системе и
состоит в группе vmware. Собственно под ним я и вошёл в систему. Так
вот, после того как всё введено жму enter....и всё, варьная консоль
висит, а проц загружен на сотню. В логах ничего, в терминалку так же
ничего не выводится.
Вот что стоит:
[ebuild R ] app-emulation/vmware-server-1.0.4.56528 0 kB
[ebuild R ] app-emulation/vmware-server-console-1.0.4.56528 0 kB
Может кто подскажет почему оно виснет, может у кого то такая же проблема?!
Заранее спасибо!!!
Дело в том что в исследовательских целях устанавливаю в ней кластер для 2007 exchange'а. Когда запущена одна машина всё вроде ничего, когда две начинаются подтормаживания, когда три то можно смело жать резет ибо что либо с хостовой машиной уже трудно сделать, отклик просто никакой. Загрузка проца при этом почти нулевая, диск то же не особо юзается.
Нашёл совет добавить в конфиг машин:
MemTrimRate = "0"
sched.mem.pshare.enable=FALSE
это помогло но лишь немного.
Самое странное что оператива почти не юзается, свободно около 1200 метров, даже когда три машины запущено.
Может кто подскажет как ускорить варю?!
P.S. уже ожидаю услышать советы убиться ап стену, поставить другой эмулятор...но к сожалению это не применимо да и не думаю что они окажутся быстрее :(
Дистриб гента, железо AMD 4600+ 64 x2, 1500MB памяти, диски на сате.
Варя - воркстайшн, версии 5.5.5.
Сдох рабочий комп, взял тот что был свободен, засунул в него PCI-X Radeon X800 XL.
Поставил дрова, но при попытке стартануть Х-ы вижу такое:
(II) ATI: Candidate "Device" section "video".
(WW) ATI: PCI Mach64 in slot 2:0:0 could not be detected!
(WW) ATI: PCI Mach64 in slot 2:0:1 could not be detected!
(EE) No devices detected.
Fatal server error:
no screens found
вот dmesg:
[fglrx] Maximum main memory to use for locked dma buffers: 1411 MBytes.
[fglrx] USWC is disabled in module parameters
[fglrx] PAT is disabled!
[fglrx] module loaded - fglrx 8.40.4 [Jul 31 2007] on minor 0
Дистриб гента, дрова ставил такие:
[ebuild R ] x11-drivers/ati-drivers-8.40.4 USE="acpi (-multilib)" 0 kB
Гуглил, но что то ничего не нашёл...
Заранее спасибо!!!
Интересует статьи или книжки о принципах работы и утройстве дисковой архитектуры ядра линукса желательно 2.6, по типу "Linux Сетевая архитектура" Риттер, Мюллер, Бехлер. Если есть что-то на русском, то совсем хорошо :) Гуглил но ничего не нашёл :(
Например делаем образ диска с помощью dd. Но при этом естественно происходит постоянное изменение файлов. Мысль такая, можно ли сделать так что бы некоторое время изменения файлов происходили только в дисковом кэше и не сбрасывались на диск (ну типа no-sync что-то). Есть ли способ это реализовать?!
В версиях библиотеки libpng до 1.0.29 и с версии 1.2.x до версии 1.2.21, удалённый атакующий может вызвать отказ в обслуживании с помощью специально сформированного слоя в файле PNG.
Переставил тут систему, как обычно поставил vlc, что бы смотреть
сетевое ТВ. И тут увидел странную вещь, буквально пара кадров
отобразилась нормально, а дальше пошли артефакты, вплоть до полной
остановки изменения видео картинки (замирает в покорёженном виде) при
этом звук воспроизводится нормально. Вот что мне говорит vlc:
main debug: adding item `/home/alexandr/Files/Playlist/ic-playlist-tv-clear-rus.m3u' ( file/:///home/alexandr/Files/Playlist/ic-playlist-tv-clear-rus.m3u )
main debug: Input is a meta file: disabling unneeded options
main debug: `file/:///home/alexandr/Files/Playlist/ic-playlist-tv-clear-rus.m3u' gives access `file' demux `' path `/home/alexandr/Files/Playlist/ic-playlist-tv-clear-rus.m3u'
main debug: creating demux: access='file' demux='' path='/home/alexandr/Files/Playlist/ic-playlist-tv-clear-rus.m3u'
main debug: looking for access_demux module: 0 candidates
main warning: no access_demux module matched "file"
main debug: creating access 'file' path='/home/alexandr/Files/Playlist/ic-playlist-tv-clear-rus.m3u'
main debug: looking for access2 module: 2 candidates
access_directory debug: opening directory `/home/alexandr/Files/Playlist/ic-playlist-tv-clear-rus.m3u'
access_directory debug: skipping non-directory `/home/alexandr/Files/Playlist/ic-playlist-tv-clear-rus.m3u'
access_file debug: opening file `/home/alexandr/Files/Playlist/ic-playlist-tv-clear-rus.m3u'
main debug: using access2 module "access_file"
main debug: pre-buffering...
main debug: received first data for our buffer
main debug: creating demux: access='file' demux='' path='/home/alexandr/Files/Playlist/ic-playlist-tv-clear-rus.m3u'
main debug: looking for demux2 module: 57 candidates
playlist debug: found valid M3U playlist
main debug: using demux2 module "playlist"
main debug: `file/:///home/alexandr/Files/Playlist/ic-playlist-tv-clear-rus.m3u' successfully opened
main debug: deleting item `/home/alexandr/Files/Playlist/ic-playlist-tv-clear-rus.m3u'
main debug: control type=1
main debug: removing module "playlist"
main debug: removing module "access_file"
main debug: rebuilding array of current - root п÷п╩п╣п╧п╩п╦я│я┌
main debug: rebuild done - 84 items, index -1
main debug: need to fetch meta for 24 tehno (ru)
..........
main debug: need to fetch meta for Zvezda (ru)
main debug: starting new item
main debug: processing request item 24 tehno (ru) node п÷п╩п╣п╧п╩п╦я│я┌ skip 0
main debug: rebuilding array of current - root п÷п╩п╣п╧п╩п╦я│я┌
main debug: rebuild done - 84 items, index 0
main debug: creating new input thread
main debug: waiting for thread completion
main debug: `http://194.187.205.232:7009' gives access `http' demux `' path `194.187.205.232:7009'
main debug: creating demux: access='http' demux='' path='194.187.205.232:7009'
main debug: looking for access_demux module: 0 candidates
main warning: no access_demux module matched "http"
main debug: creating access 'http' path='194.187.205.232:7009'
main debug: looking for access2 module: 2 candidates
access_http debug: http: server='194.187.205.232' port=7009 file='(null)
main debug: thread 2977270672 (input) created at priority 0 (input/input.c:338)
main debug: requesting art for 24 tehno (ru)
main debug: net: connecting to 194.187.205.232 port 7009
main debug:
main debug: connection succeeded (socket = 8)
access_http debug: protocol 'HTTP' answer code 200
access_http debug: Content-Type: application/octet-stream
main debug: using access2 module "access_http"
main debug: pre-buffering...
main debug: received first data for our buffer
main debug: pre-buffering done 1588 bytes in 0s - 11 kbytes/s
main debug: creating demux: access='http' demux='' path='194.187.205.232:7009'
main debug: looking for demux2 module: 50 candidates
main debug: using demux2 module "ts"
ts debug: DEMUX_SET_GROUP 0 (nil)
main debug: `http://194.187.205.232:7009' successfully opened
ts debug: pid[69] unknown
ts debug: PATCallBack called
ts debug: new PAT ts_id=16244 version=26 current_next=1
ts debug: * number=1 pid=66
ts debug: PMTCallBack called
ts debug: new PMT program number=1 version=3 pid_pcr=69
ts debug: * es pid=68 type=3 fcc=mpga
main debug: selecting program id=1
main debug: looking for decoder module: 26 candidates
main debug: using decoder module "mpeg_audio"
main debug: thread 2963065744 (decoder) created at priority 0 (input/decoder.c:196)
main debug: found art for 24 tehno (ru) in cache
ts debug: * es pid=69 type=2 fcc=mpgv
main debug: looking for decoder module: 26 candidates
main debug: using decoder module "libmpeg2"
main debug: thread 2953448336 (decoder) created at priority 0 (input/decoder.c:196)
ts warning: first packet for pid=69 cc=0xd
ts warning: first packet for pid=68 cc=0x4
Тут такую штуку заметил. Запустил в вмвари гентовское лайвцд и когда в нём запустились Х-ы я заметил интересную особенность этих Х-ов, а именно доступна фича как автоматическое переключение мыши между вмварей и хостом. Т.е. как если в венде поставить вмварь-тулз. Стало интересно как это реализовано, пробовал грузить кнопарь, ставил 2008 мандриву но там такой штуки не заметил хотя грузились вмварьные дрова для Х-ов.
Кто нибудь может подсказать, что можно сделать, что бы такое же работало в любом дистрибе в Х-ах?!
Подключил sata сидюк, в dmesg такие ошибки:
ata2: soft resetting port
ata2: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata2.00: configured for UDMA/33
ata2: EH complete
ata2.00: exception Emask 0x10 SAct 0x0 SErr 0x180001 action 0x2
ata2.00: cmd a0/00:00:00:00:20/00:00:00:00:00/a0 tag 0 cdb 0x43 data 12 in
res 51/24:03:00:00:20/00:00:00:00:00/a0 Emask 0x10 (ATA bus error)
ata2: soft resetting port
ata2: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata2.00: configured for UDMA/33
ata2: EH complete
ata2.00: exception Emask 0x10 SAct 0x0 SErr 0x180001 action 0x2
ata2.00: cmd a0/00:00:00:00:20/00:00:00:00:00/a0 tag 0 cdb 0x43 data 12 in
res 51/24:03:00:00:20/00:00:00:00:00/a0 Emask 0x10 (ATA bus error)
ata2: soft resetting port
ata2: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata2.00: configured for UDMA/33
ata2: EH complete
ata2.00: exception Emask 0x10 SAct 0x0 SErr 0x180001 action 0x2
ata2.00: cmd a0/00:00:00:00:20/00:00:00:00:00/a0 tag 0 cdb 0x43 data 12 in
res 51/24:03:00:00:20/00:00:00:00:00/a0 Emask 0x10 (ATA bus error)
может кто нибудь подсказать что делать?!
Дистриб гента, ядро 2.6.22-gentoo-r8
Заранее спасибо!!!
Помогите, случайно удалил единственный конфиг который был на серваке! :(((( Можно ли его как то восстановить?! Может где то в кэше оно хранит или ещё где!?
Стоит exim, drweb (с эксимовским модулем) и каспер-антиспам.
Имеется такие ключевые строчки в конфиге эксима:
begin routers
##########
drweb_router:
driver = accept
condition = "${if eq {$received_protocol}{drweb-scanned}{0}{1}}"
retry_use_local_part
transport = drweb_transport
.....
###########
drweb_transport:
driver = pipe
check_string =
command = /opt/drweb/drweb-exim --conf=/etc/drweb/drweb_exim.conf -f ${sender_address} -- ${pipe_addresses}
current_directory = "/var/drweb/spool"
escape_string =
group = mail
headers_add = "X-Virus-Scanned: DrWEB for Exim"
message_prefix =
message_suffix =
path = "/opt/drweb:/bin:/sbin:/usr/bin:/usr/sbin:/usr/local/drweb"
return_output
return_path_add
user = drweb
......
begin local_scan
spamtest_address = tcp:127.0.0.1:2277
connect_timeout = 30000
rw_timeout = 30000
on_spamtest_error=tempfail
log_level=3
spamtest_filtering_size_limit=150
Суть проблеммы в том, что касперский проверяет почту после того как она
проходит через drweb. В результате проверяется куча не нужных писем, а
поскольку количество писем проходящее через drweb ограничено лицензицей,
то в итоге получаем что письма перестают приходить по прохождению
n-ого количества спама, который по сути не требует проверки и должен
быть отсеен ещё каспером.
Вот и вопрос, можно ли как то поставить маршрут, что бы он сначал проходил
через каспер, а уже потом через drweb.
Заранее спасибо!!!
Тут задумался о покупке флешки, текущей на 2 гига уже не хватает. Полазил тут и обнаружил, что есть флэшки на 16 гигов от 5000 до 8000. Вот только встал вопрос, что брать. Выбор не то что бы большой, но всё таки не хочется промахнуться с выбором. Кто нибудь пользовал флэшки такого размера. Что брать?! :)))
Начали валится такие вещи из exim'а:
2007-10-02 21:00:33 1Icl6I-0003fO-Dy spool file open error while delivering: Too many open files in system
2007-10-02 21:00:34 Exim configuration error in line 319 of /usr/local/etc/exim/configure:
group mail was not found
2007-10-02 21:00:34 1Icl68-0003XS-Tz Process 15093 (parent 1) failed to create child process to send failure message: Too many open files in system
2007-10-02 21:00:37 1Icl6B-0003a0-9R re-exec of exim (/usr/local/sbin/exim) with -t failed: Too many open files in system
2007-10-02 21:18:06 1IclMI-0000Lu-ET spool file directory open error while delivering: Too many open files in system
2007-10-02 21:44:07 1Iclmg-0005QQ-Gr re-exec of exim (/usr/local/sbin/exim) with -Mc failed: Too many open files in system
2007-10-02 22:00:01 Exim configuration error in line 319 of /usr/local/etc/exim/configure:
group mail was not found
2007-10-02 22:34:16 1IcmZF-0003kw-Ew re-exec of exim (/usr/local/sbin/exim) with -t failed: Too many open files in system
2007-10-02 22:55:51 1Icmtf-0003lI-Ns spool file directory open error while delivering: Too many open files in system
2007-10-02 23:02:56 1Icn12-0001P1-PO re-exec of exim (/usr/local/sbin/exim) with -t failed: Too many open files in system
погуглив изменил параметры:
echo "16000" > /proc/sys/fs/file-max
ulimit -n 8192
а так же на всякий пожарный:
# cat /etc/security/limits.conf
mailman hard nofile 8192
mailman soft nofile 8192
root hard nofile 8192
root soft nofile 8192
Кто нибудь может подсказать, этого достаточно что бы избавиться от проблемы?!
Заранее спасибо!!!
Такая проблема. Имеется openfire 3.3.3 и плагин к нему im gateway 1.1.3a.
Всё вроде как работает хорошо, за исключением того, что не получается
добавить пользователя ICQ. Вернее он добавляется, но постоянно висит со
статусом "ожидание авторизации". И как его не крути из него он не
выходит. Перерыл весь сайт разработчика, но нашёл упоминание лишь о
том что этот баг пофикшен. Но он имеет месть быть :((( Может кто
подскажет что делать?!
В логах такое:
2007.10.02 15:10:38 [org.jivesoftware.openfire.interceptor.InterceptorManager.invokeInterceptors(In
terceptorManager.java:239)] Error in interceptor: org.jivesoftware.openfire.gateway.protocols.oscar.OSCARTransport@1b0b765 while intercepting:
<iq type="set" id="sd15" from="user@im/Pandion">
<query xmlns="jabber:iq:roster">
<item subscription="remove" jid="123456789@icq.im"/>
</query>
</iq>
java.lang.NullPointerException
at org.jivesoftware.openfire.gateway.protocols.oscar.OSCARSession.removeContact(OS
CARSession.java:423)
at org.jivesoftware.openfire.gateway.roster.TransportBuddyManager.removeBuddy(Tran
sportBuddyManager.java:203)
at org.jivesoftware.openfire.gateway.BaseTransport.interceptPacket(BaseTransport.j
ava:2314)
at org.jivesoftware.openfire.interceptor.InterceptorManager.invokeInterceptors(Int
erceptorManager.java:227)
at org.jivesoftware.openfire.IQRouter.route(IQRouter.java:113)
at org.jivesoftware.openfire.spi.PacketRouterImpl.route(PacketRouterImpl.java:67)
at org.jivesoftware.openfire.net.StanzaHandler.processIQ(StanzaHandler.java:289)
at org.jivesoftware.openfire.net.ClientStanzaHandler.processIQ(ClientStanzaHandler
.java:79)
at org.jivesoftware.openfire.net.StanzaHandler.process(StanzaHandler.java:254)
at org.jivesoftware.openfire.net.StanzaHandler.process(StanzaHandler.java:153)
at org.jivesoftware.openfire.nio.ConnectionHandler.messageReceived(ConnectionHandl
er.java:132)
at org.apache.mina.common.support.AbstractIoFilterChain$TailFilter.messageReceived
(AbstractIoFilterChain.java:570)
at org.apache.mina.common.support.AbstractIoFilterChain.callNextMessageReceived(Ab
stractIoFilterChain.java:299)
at org.apache.mina.common.support.AbstractIoFilterChain.access$1100(AbstractIoFilt
erChain.java:53)
at org.apache.mina.common.support.AbstractIoFilterChain$EntryImpl$1.messageReceive
d(AbstractIoFilterChain.java:648)
at org.apache.mina.filter.codec.support.SimpleProtocolDecoderOutput.flush(SimplePr
otocolDecoderOutput.java:58)
at org.apache.mina.filter.codec.ProtocolCodecFilter.messageReceived(ProtocolCodecF
ilter.java:176)
at org.apache.mina.common.support.AbstractIoFilterChain.callNextMessageReceived(Ab
stractIoFilterChain.java:299)
at org.apache.mina.common.support.AbstractIoFilterChain.access$1100(AbstractIoFilt
erChain.java:53)
at org.apache.mina.common.support.AbstractIoFilterChain$EntryImpl$1.messageReceive
d(AbstractIoFilterChain.java:648)
at org.apache.mina.filter.executor.ExecutorFilter.processEvent(ExecutorFilter.java
:239)
at org.apache.mina.filter.executor.ExecutorFilter$ProcessEventsRunnable.run(Execut
orFilter.java:283)
at java.util.concurrent.ThreadPoolExecutor$Worker.runTask(ThreadPoolExecutor.java:
650)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:675)
at java.lang.Thread.run(Thread.java:595)
т.е. видно, что когда был добавлен в список пользователь с уином
123456789 произошёл экскепшн, но не понятно почему...
Заранее спасибо!!!
Есть последний астериск, всё вроде хорошо, но напрягает такая запись в
логах:
# cat /var/log/asterisk/messages
Sep 29 17:06:49 NOTICE[5195] cdr.c: CDR simple logging enabled.
Sep 29 17:06:49 WARNING[5195] res_musiconhold.c: Music on Hold class 'default' not found
Sep 29 17:06:49 NOTICE[5195] config.c: Registered Config Engine mysql
Sep 29 17:06:49 NOTICE[5195] res_odbc.c: res_odbc loaded.
Sep 29 17:06:49 NOTICE[5195] config.c: Registered Config Engine odbc
Sep 29 17:06:51 NOTICE[5195] app_conference.c: loading app_conference module [ $Revision: 1.22 $ ]
Конфиг musiconhold.conf такой:
asterisk # cat musiconhold.conf
[default]
mode=>quietmp3
directory=>/var/lib/asterisk/mohmp3
Может кто подскажет что не так?!
Заранее спасибо!!!
Помогите накормить сквид публичными почтовыми серверами типа mail.ru, желательно в формате koi.mail.ru, mail.rambler.ru и.т.д. Гугль не помог, хотя может не правильно запрос рисовал. Может у кого уже есть наработанный списочек.
В общем наткнулся на такую засаду, при запуске в openvz любой виртуальной машины, имя хост машины меняется на имя заданное виртуальной машине. Т.е. если имя хостовой (в которой делаем openvz) было openvz, а имя виртуальной debvz, то после запуска виртуальной машины имя хостовой меняется на debvz. Стоит всё на Debian, в виртуале то же дебиан.
Как избавиться от этого, т.е. что бы имя хостовой не менялось на имя виртуальной машины?!
Поковырялся и нашёл, что в /proc/sys/kernel/hostname на хостовой машине стоит debvz, т.е. openvz пишет туда имя виртуальной машины.