LINUX.ORG.RU

Сообщения nbw

 

Кластеризация, выполнить действие при кворуме.

Доброго дня! Прошу помощи с вопросом концепции кластера.

Есть три сетевые ноды (ВМ). Нужно некое ПО, которые бы запускало один скрипт по достижении кворума (2) и другой - по его потере. Всё, больше никакой логики не надо, обработку я пишу сам.

  • keepalived - нет, VRRP мне тут не нужен. Механизм кворума у него есть, но как дополнительная фича;
  • heartbeat - кажется, сдох (в репах нет, да и в инете про то пишут);
  • corosync - как раз в кворум может, но я не понял, может ли он что-то запускать (создалось впечатление, что он только API предоставляет для более высокоуровневых обработчиков);
  • corosync+pacemaker - да, эта связка, кажись, может. Но pacemaker выглядит слишком монструозным для простой задачи. 99,999% его фич в моём случае невостребованы.

    Посоветуйте, пожалуйста, подходящий инструмент (ну, или ткните носом в то место конфига corosync, которое умеет что-то запустить)

 ,

nbw
()

Федя 22, mpd и пульса

Жил-был безголовый медиасервер на Fedora 20. Играл музыку через mpd и воспроизводил звук с ноутов (по RTP, пульсой).

Для того, чтобы ящик после загрузки начал воспроизводить звук, нужно было залогиниться (по ssh) и выполнить pulseaudio --start --daemonize, поскольку при system-wide запуске пульса не хотела слушать udp-порт, а для запуска из-под юзера нужно было подружить dbus с отсутствием X, что мне не удалось. Но, плохо ли, хорошо ли, всё работало. По доброй традиции, после обновления (fedup'ом) 20 -> 21 -> 22 всё сломалось.

Начиная с 6-й версии (если не ошибаюсь) пульса активируется через сокет, спавнясь при обращении клиента. Казалось бы, вот оно, счастье! Но фиг там. При запуске сервера mpd (запускается дистрибутивным юнитом, работает из-под своего пользователя) спавнящийся процесс пульсы не видит звуковую карту.

0:[srv-fe04]nbw@fe04:~% sudo -i -u mpd
-bash-4.3$ pacmd list-cards                                                                                                                    
0 card(s) available.
Приходится делать -bash-4.3$ pulseaudio --kill && pulseaudio --start, и только тогда пульса находит звуковуху. Кроме того, перестал воспроизводиться звук, приходящий по RTP (трафик на udp-порт приходит, а звука нет).

Что делать, куда смотреть?

 , ,

nbw
()

(Загадочный бебиан) Почему snmpd не читает shadow?

Debian [67], snmpd из родной репы. Есть надобность читать /etc/shadow скриптом, запускаемым snmpd (на самом деле, считать его sha256sum, но в рамках вопроса это не важно). Демон snmpd работает от пользователя snmp, пользователь snmp добавлен в группу shadow. Ядро «родное», SELinux/AppArmor не используются.

~# ls -l /etc/shadow
-rw-r----- 1 root shadow 2958 Июн 23 11:48 /etc/shadow

~# getent group shadow
shadow:x:42:snmp

~# tail -1 /etc/snmp/snmpd.conf
extend readshadow /usr/local/bin/read.sh

~# head -3 /usr/local/bin/read.sh
#!/bin/bash
id > /tmp/id.out 2>&1
cat /etc/shadow >> /tmp/id.out 2>&1
Ожидаемое поведение: в /tmp/id.out появится содержимое /etc/shadow.

На деле имеем:

~# cat /tmp/id.out     
uid=108(snmp) gid=111(snmp) группы=111(snmp)
cat: /etc/shadow: Отказано в доступе

Если назначить пользователю snmp реальный шелл и сделать sudo -i -u snmp, то /etc/shadow нормально читается. Демон же не хочет ни в какую.

С /etc/sudoers точно так же.

Шозанах?

 ,

nbw
()

Резервный Director в «standby»

Вопрос к специалистам по Bacula:

Развернута и успешно работает в течение полутора лет система резервного копирования Bacula. Director - 1 шт., Catalog (PostgreSQL) на двух ВМ - 2 шт.: рабочая БД для Catalog реплицируется на географически удалённую ВМ методом streaming replication. Соответственно, кластер (инстанс) с резервной БД (репликой) находится в режиме ro и может быть в случае отказа основного кластера переведён в режим rw. Также имеется несколько географически разнесённых Storages.

Есть задумка развернуть второй Director в ЦОДе, в котором находится реплика, чтобы, в случае полного разрушения ВМ в ЦОДе с Director'ом, можно было, используя реплицированный Catalog, восстановить бэкапы с уцелевших Storage. Планируется синхронизировать конфигурацию Director'ов, устанавливая для всех Jobs на резервной машине Enabled = no (во избежание конфликтов).

Собственно, вопрос: можно ли держать резервный Director запущенным (он будет подключён к read-only реплике основного Catalog'а)? Не будет ли он, не выполняя Job'ов, записывать, тем не менее, какие-то метаданные на Storage, вызывая конфликты? Возможно, у кого-то из местных пользователей Bacula есть опыт работы с подобной конфигурацией. Хотелось бы услышать мнения.

 

nbw
()

Высокая загрузка CPU на хосте KVM

Есть сервер на двух Зиончиках с седьмым Центом.

~# dmidecode | grep -A2 "Base Board Information"
Base Board Information
        Manufacturer: Supermicro
        Product Name: X9DR3-F

~# cat /proc/cpuinfo | grep "model name" | head -1
model name      : Intel(R) Xeon(R) CPU E5-2609 0 @ 2.40GHz

~# cat /etc/centos-release 
CentOS Linux release 7.0.1406 (Core) 

Сетевухи - Intel I350, драйвер igb.

Схема сети хоста

Установка ВМ и управление - через libvirt, аппаратная виртуализация поддерживается/включена.

Три десятка гостей (squeeze/wheezy/centos6/win7). Все гости (кроме одного) бол'ьшую часть времени простаивают.

Собственно, проблема: безбожно жрётся CPU.

Tasks: 395 total,   2 running, 393 sleeping,   0 stopped,   0 zombie
%Cpu(s): 28,7 us, 10,7 sy,  0,0 ni, 59,7 id,  0,3 wa,  0,0 hi,  0,6 si,  0,0 st
KiB Mem:  65783024 total, 60668940 used,  5114084 free,   286024 buffers
KiB Swap: 16777184 total,   127064 used, 16650120 free. 17068040 cached Mem

  PID USER      PR  NI    VIRT    RES    SHR S  %CPU %MEM     TIME+ COMMAND                                                                                   
30202 qemu      20   0 4923496 3,917g   6520 S 118,7  6,2   1221:49 /usr/libexec/qemu-kvm -name helios -S -machine pc-i440fx-rhel7.0.0,accel=kvm,usb=off -cpu+
30474 qemu      20   0 1675652 879788   6624 S  89,2  1,3 622:57.05 /usr/libexec/qemu-kvm -name charon -S -machine pc-i440fx-rhel7.0.0,accel=kvm,usb=off -cpu+
17236 qemu      20   0 12,727g 0,011t   6592 S  34,1 18,7 452:26.30 /usr/libexec/qemu-kvm -name oneassE -S -machine pc-i440fx-rhel7.0.0,accel=kvm,usb=off -cp+
32375 qemu      20   0 1138164 669172   5616 S  14,6  1,0 132:55.06 /usr/libexec/qemu-kvm -name bx20140630 -S -machine pc-i440fx-rhel7.0.0,accel=kvm,usb+
32138 qemu      20   0 1613200 475020   5624 S   9,9  0,7 450:50.05 /usr/libexec/qemu-kvm -name devmachine1 -S -machine pc-i440fx-rhel7.0.0,accel=kvm,usb+
25099 qemu      20   0 1144520 637452   6588 S   8,3  1,0  57:29.49 /usr/libexec/qemu-kvm -name bx20140929 -S -machine pc-i440fx-rhel7.0.0,accel=kvm+
 9324 qemu      20   0 1004056 550724   5708 S   6,0  0,8 226:21.36 /usr/libexec/qemu-kvm -name winxpIE8 -S -machine pc-i440fx-rhel7.0.0,accel=kvm,usb=off -c+
<skip>

При этом наблюдается зависимость потребления CPU от сетевой нагрузки на гостя (трафик ~5mbit даёт около 50% нагрузки на ядро CPU хоста, при этом в гостевой системе высокой нагрузки на CPU не видно). Сетевой драйвер в гостевых системах - virtio (впрочем, с e1000 картина точно такая же). От типа ОС гостя явной зависимости не просматривается. Сеть не тормозит (между гостями, включенными в один и тот же bridge, скорость ~16 Gbits/sec по данным iperf).

Уважаемые лоровцы, подскажите, отчего и почему может происходить такое явление (высокая нагрузка на процессор хоста)?

 ,

nbw
()

Фошысты на моём ЛОРе

Вот сообщение от какого-то s/ч/м/удака: http://itmages.ru/image/view/1672875/f078f4d9

Вот ответ на него: http://itmages.ru/image/view/1672876/e4685be8

Вопрос: за какимпочему модератор svu оставил сообщение, написанное человеком с аватаркой, на которой изображён нацистский офицер, в котором (сообщении) автор оскорбляет пользователей Linux, и удалил ответ человека, возмущенного этим мерзким выпадом? Товарища svu не возмущает наглый вброс от человека с нацистской аватаркой? Это что, «толерантность»?

Буду искренне признателен за комментарий по ситуации от вышеупомянутого модератора.

P.S. Статья 20.3. Пропаганда и публичное демонстрирование нацистской атрибутики или символики либо публичное демонстрирование атрибутики или символики экстремистских организаций

 

nbw
()

Transparent firewall failover

Здравствуй, ЛОР!

Есть вот такой стенд: http://itmages.ru/image/view/1520329/d3009d24

На картинке изображены:

  • ПК с браузером, командой ping и ssh-клиентом (PC)
  • Некий маршрутизатор с NAT (LAN router)
  • Хост с ESXi, на котором живут
    • Vyatta 6.6, которая на самом деле Debian squeeze (vFirewall0)
    • клон предыдущей ВМ, vFirewall1

Внути каждого гостя есть мост br0, не имеющий ip-адреса (на них фильтруется трафик). На мостах включен STP. Оба гостя включены.

Цель - получить отказоустойчивый прозрачный файрвол (чтобы любой из двух компонентов можно было останавливать на обслуживание без потери доступа к сервисам). Повторюсь - это стенд, «в реале» вместо ПК будут несколько ВМ с «белыми» IP, и никакого NAT не будет.

Всё работает (на ПК «есть интернет»). Всё пингуется, странички открываются (то есть, tcp-сессии нормально устанавливаются). tcpdump, запущенный на обоих мостах, показывает, что через них дружно-весело бегают пакетики. При выключении любого из гостей пинг с ПК в «мир» этого даже не замечает, все пакеты проходят. SSH-сессия, установленная в «мир», при этом, всё же, подвисает на минуту-полторы.

Вопрос 1. Почему оно работает? О_о Никогда бы не подумал, что такая конфигурация (с параллельно включенными бриджами (читай - свитчами)) будет работоспособна. Собрал просто для эксперимента, и вот - завелось.

Вопрос 2. Раз уж оно так всё работает - нельзя ли каким-либо образом синхронизировать чего-нибудь там (даже не знаю, что), чтобы при «пропадании» одного файрвола сессии уровня приложения (как та же SSH) не подвисали, а сохраняли «целостность»?

Вопрос 3. Применял ли кто из пристутствующих подобные схемы? Буду благодарен, если поделитесь опытом.

 ,

nbw
()

bitmap в файле дохнет при ребуте

Машинка с CentOS 6.5, в ней SSD под систему (/) и 4 терабайтника, объединённых в два зеркала посредством mdadm (

~$ mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sda1 /dev/sdb1
~$ mdadm --create /dev/md1 --level=1 --raid-devices=2 /dev/sdc1 /dev/sdd1
). Добавляем bitmap:
~$ mdadm --grow --bitmap=/bitmap/md0.bitmap --bitmap-chunk=131072 /dev/md0
~$ mdadm --grow --bitmap=/bitmap/md1.bitmap --bitmap-chunk=131072 /dev/md1

~$ cat /etc/mdadm.conf
ARRAY /dev/md0  metadata=1.2 UUID=696547c7:ec6437cb:b9661802:47b7bbd2 name=masterw.wm:0 bitmap=/bitmap/md0.bitmap
ARRAY /dev/md1  metadata=1.2 UUID=e8cbb8ee:0ef60270:27506bd3:8df71334 name=masterw.wm:1 bitmap=/bitmap/md1.bitmap
Пока всё хорошо. Пересобираем initrd. Всё ещё хорошо. Перезагружаемся, и всё становится плохо. Ниже представлены два варианта развития событий:

  • Вариант 1: /bitmap - просто каталог в корне. Тогда при загрузке в самом начале boot.log появляется печальная запись о том, что невозможно добавить bitmap ввиду того, что он находится на read-only filesystem, и raid собирается ro. Оно и понятно - на момент сборки массива корень ещё не перемонтировался в rw.
  • Вариант 2: /bitmap - точка монтирования ФС из fstab. В таком случае в boot.log появляется не менее печальная запись о том, что, мол, «нет такого файла или каталога», и массив опять оказывается ro. Тоже всё, в принципе, понятно - к моменту сборки массива файловые системы из fstab ещё не примонтированы.

    Таким образом, задействование bitmap'а в файле видится невозможным без перековыривания системы инициализации.

    Кто виноват? Что делать?

 ,

nbw
()

Linux ate my RAM

Доброе утро, уважаемые лоровцы.

~$ cat /etc/debian_version 
6.0.5

~$ uptime
 09:45:08 up 198 days, 16:00,  1 user,  load average: 0.00, 0.01, 0.11

~$ free   
             total       used       free     shared    buffers     cached
Mem:       1541904    1465716      76188          0      13632     280688
-/+ buffers/cache:    1171396     370508
Swap:            0          0          0

# Сумма значений rss всех процессов; обычно бывает чуть большей, чем значение "-/+ buffers/cache: used" в выводе free

~$ sum=$(ps h --sort rss -eo rss|awk '{printf $1"+"}'|sed '$s/.$//'); echo $sum|bc -l
300768
Куда-то утёк почти гигабайт памяти (1171396-300768=870628). Свопа, по некоторым причинам, нет, в результате oomkiller время от времени кого-нибудь убивает. Ребутить неохота, да это и не выход. Как выяснить, кто сожрал память?

P.S. Всем Капитанам, советующим посмотреть в top, htop etc. поясняю, что сумма памяти, занятой процессами, отображаемая всеми соответствующими программами, на этой машине на 800 MB меньше, чем занятый объём RAM.

 , жрат

nbw
()

fedora 14 и bat 5.2.6 из fedora 17

На работе стоит fedora 14. «Родной» bat из реп стар и убог, поставил скачанный 5.2.6 от fedora 17. Всё работает, кроме brestore. При нажатии на пункт «bRrestore» bat крэшится с воплем

bat: symbol lookup error: bat: undefined symbol: _ZN10QTableView13doItemsLayoutEv

Я так понимаю (гугол подсказал), что это пробема несовместимости версий qt из fedora 14 и 17. No forward compatibility, в общем. Попытка поставить qt-X11-4.8.4 от fedora 17 зафэйлилась на том, что тот требовал новый glibc со всеми вытекающими.

Итак, варианты:

1. Обновление системы до 17. Не годится - после 14 отломали вгорогном, а заниматься на работе хренью вроде установки mate, подгонки под него давно и хорошо работающего окружения откровенно влом.

2. Установка Ubuntu 12.04 LTS в виртуальную машину и запуск этого дела там. Тоже попахивает тяжёлыми костылями.

3. Каким-то образом подсунуть bat'у новый qt. Соответственно, не может ли уважаемое сообщество подсказать, возможно ли это и, если да, то каким образом?

nbw
()

Редактор диаграмм/карта сети

Добрый вечер, ЛОР! Нужен совет.

Задача такова: сотрудникам провайдера последней мили (интернет+телефония) нужно приложение, позволяющее рисовать и редактировать схемы сетей, наложенные на карту города. Схемы достаточно большие (город с населением полмиллиона человек, охват почти всей территории). В качестве подложки планируется брать карты ДубльГиса (либо нужна достаточно подробная альтернатива - предложения приветствуются), а поверх карты будут наноситься схемы прокладки кабельных линий (медь/оптика), распред. шкафы и т.п.

Операционная среда - GNU/Linux (CentOS 6.3 или Fedora 13/14 с Gnome 2 - принятый стандарт десктопа в нашей организации). Пока в качестве рисовалки схем планирую выбрать Dia. Если у кого есть опыт составления подобных схем - просьба поделиться. Возможно, есть другие приложения, более удобные для выполнения данной задачи. Словом, посоветуйте, кто что может. Хочется обеспечить сотрудникам наиболее удобную среду для работы.

 

nbw
()

Не поднимается сеть в госте с PCI passthrough

Хост - CentOS 5.7, гость - CentOS 6.3, одна из сетевых карт хоста проброшена гостю через PCI passthrough.

    <hostdev mode='subsystem' type='pci' managed='yes'>
      <source>
        <address domain='0x0000' bus='0x06' slot='0x01' function='0x0'/>
      </source>
    </hostdev>
При включении гостя сетевуха пропадает в хосте (это нормально, скорее всего?), а гость обнаруживает её при загрузке как
0:nbw@nsv1:~% dmesg | grep -B1 eth0
e100 0000:00:06.0: PCI INT A -> Link[LNKB] -> GSI 11 (level, high) -> IRQ 11
e100 0000:00:06.0: eth0: addr 0xc4001000, irq 11, MAC addr 00:02:b3:a2:e8:1a
(да, это оно и есть); после загрузки гостя сетевуха вполне нормально отображается как железяка всеми соответствующими утилитами
0:nbw@nsv1:~% lspci -nn | grep Ethernet
00:03.0 Ethernet controller [0200]: Red Hat, Inc Virtio network device [1af4:1000]
00:06.0 Ethernet controller [0200]: Intel Corporation 82557/8/9/0/1 Ethernet Pro 100 [8086:1229] (rev 0c)

0:nbw@nsv1:~% sudo ethtool eth0
Settings for eth0:
        Supported ports: [ TP MII ]
        Supported link modes:   10baseT/Half 10baseT/Full 
                                100baseT/Half 100baseT/Full 
        Supports auto-negotiation: Yes
        Advertised link modes:  10baseT/Half 10baseT/Full 
                                100baseT/Half 100baseT/Full 
        Advertised pause frame use: Symmetric
        Advertised auto-negotiation: Yes
        Link partner advertised link modes:  10baseT/Half 10baseT/Full 
                                             100baseT/Half 100baseT/Full 
        Link partner advertised pause frame use: No
        Link partner advertised auto-negotiation: Yes
        Speed: 100Mb/s
        Duplex: Full
        Port: MII
        PHYAD: 1
        Transceiver: internal
        Auto-negotiation: on
        Supports Wake-on: g
        Wake-on: g
        Current message level: 0x00000007 (7)
        Link detected: yes

0:nbw@nsv1:~% sudo mii-tool -v eth0
eth0: negotiated 100baseTx-FD, link ok
  product info: Intel 82555 rev 4
  basic mode:   autonegotiation enabled
  basic status: autonegotiation complete, link ok
  capabilities: 100baseTx-FD 100baseTx-HD 10baseT-FD 10baseT-HD
  advertising:  100baseTx-FD 100baseTx-HD 10baseT-FD 10baseT-HD flow-control
  link partner: 100baseT4 100baseTx-FD 100baseTx-HD 10baseT-FD 10baseT-HD

# А это конфиг интерфейса, ничего запредельного
0:nbw@nsv1:~% cat /etc/sysconfig/network-scripts/ifcfg-eth0 
DEVICE="eth0"
HWADDR="00:02:B3:A2:E8:1A"
NM_CONTROLLED="no"
ONBOOT="yes"
TYPE="Ethernet"
BOOTPROTO=none
Но. Линк не поднимается. При попытке сделать
0:nbw@nsv1:~% sudo ifup eth0
RTNETLINK answers: Connection timed out
RTNETLINK answers: Network is down
, и всё.

Что это? Может, я что-то делаю не так? о_о

UPD: dmesg'и и прочие messages'ы молчат.

 ,

nbw
()

Как автоматически создать линк на флешку

Fedora 13, Gnome 2.30.2

Интересует возможность автоматического создания символической ссылки на каталог, куда монтируется при вставке flash-накопитель. Например, вставляю флешку, она монтирутеся

# mount | grep sdb
/dev/sdb1 on /media/90EA-DD83 type vfat (rw,nosuid,nodev,uhelper=udisks,uid=502,gid=502,shortname=mixed,dmask=0077,utf8=1,flush)
, и нужно, чтобы при этом создавался симлинк, например,
/media/90EA-DD83 -> /mnt/flashdrive
(при вставке любой флешки, с любым label, имя симлинка должно быть одним и тем же).

nbw
()

Диалог печати в Dia

Доброго утра, уважаемые лоровцы. На днях столкнулся со следующей проблемой: в редакторе диаграмм dia диалог печати имеет следующий вид: http://itmag.es/6xQh8 Система - Fedora 13, DE - Gnome2. Что характерно, дома под Slackware 13.37 в той же dia диалог печати выглядит как нативный gtk-шный, при том что никакого гнома вообще не установлено (openbox, + ну, может, некоторые гномолибы).

Самому мне как-то по фигу; сохранить в .ps, сделать ps2pdf file.dia мне никогда трудностей не представляло, но вот пользователи жалуются и просят нативный диалог.

По умолчанию из src.rpm пакет dia в федоре собирается с опциями --enable-gnome --enable-db2html. Пересборка с/без этих опций ничего не дала. С --enable-deprecation=[gtk|yes] пакет не собирается вообще %)

В dia FAQ написано что-то про

Q: Why is printing broken? A: Dia has several ways to print: Dia print, Gnome print and Export as Postscript. A given compilation of Dia uses either Dia print or Gnome print. Dia's support for Gnome print is currently buggy and disabled by default, but some distributions (Red Hat for one) compile it in anyway. If you have such a version of Dia installed, you can Export as Postscript instead of printing, and then print the resulting file.

Как это применить к текущей проблеме - не совсем понятно.

Не сталкивался ли кто с похожей проблемой?

 ,

nbw
()

Несколько вопросов по настройке

Доброго дня, уважаемые гости и завсегдатаи linux.org.ru.

Решил попробовать пользоваться Gajim'ом (0.15) вместо старого верного Psi+. Вроде, неплохо, только есть нерешённые вопросы по настройке:

1. Каким образом gajim отображает (и отображает ли) отчёт о доставке сообщения?

2. Как в режиме «всё в одном окне» заставить ростер отображаться справа от чатов?

4. Почему не отображаются всплывающие уведомления о приходе сообщения, когда окно приложения свёрнуто на панель задач (tint2, если это важно)? (И вообще, это баг или фича, и если настраивается, то где?)

5. Что означает статус «Доступен: не синхронизировано»?

 

nbw
()

Ruby, xmpp4r, line breaks

Добрый вечер, уважаемые лоровцы. Возникла необходимость отправлять сообщения через XMPP скриптом на ruby, а именно http://pastebin.com/BtAm4iLJ , найденным на просторах Интернета. Скрипт использует xmpp4r.

Собственно, отправка

~% sendxmpp.rb --file /etc/sendxmpp --message "aa \n bb \n cc" login@jabber.example.com
Неприятность заключается в том, что ruby (скрипт? библиотека?) напрочь игнорирует переносы строк (\n), и сообщение приходит в виде
aa \n bb \n cc
, а мне нужно, чтобы каждое слово в сообщении начиналось с новой строки. Ruby не знаю, в глаза не видел :) Может, я как-то неправильно экранирую escape-последовательности (хотя перепробовал все мыслимые варианты), или оно в принципе не может переносить символы на новую строку?

nbw
()

Не работает sendxmpp

Сабж.

~% echo test | sendxmpp -t --message-type=chat -v                                     
sendxmpp: config: 'password' => 'pASSword'
Use of uninitialized value $val in concatenation (.) or string at /usr/bin/sendxmpp line 192.
sendxmpp: config: 'component' => ''
sendxmpp: config: 'jserver' => 'jabberon.ru'
sendxmpp: config: 'port' => '5222'
sendxmpp: config: 'username' => 'userg'
sendxmpp: Connect: 1
Error 'AuthSend': error: not-authorized[?]
sendxmpp: Disconnect

С ходу нагуглилось комметирование AuthSASL в /usr/share/perl5/Net/XMPP/Protocol.pm

#   if($self->{STREAM}->GetStreamFeature($self->GetStreamID(),"xmpp-sasl"))
#   {
#        return $self->AuthSASL(%args);
#   }
- все говорят, что им помогает. У меня sendxmpp выдал
~% echo $(hostname) | sendxmpp -t --message-type=chat -v
sendxmpp: config: 'password' => 'pASSword'
Use of uninitialized value $val in concatenation (.) or string at /usr/bin/sendxmpp line 192.
sendxmpp: config: 'component' => ''
sendxmpp: config: 'jserver' => 'jabberon.ru'
sendxmpp: config: 'port' => '5222'
sendxmpp: config: 'username' => 'userg'
sendxmpp: Connect: 1
Error 'AuthSend': 503: [?]
sendxmpp: Disconnect
Всё. Не сталкивался ли кто с такой проблемой?

(perl 5.10.1. В CentOS 5 c perl'ом 5.8.8 всё работает отлично)

~% rpm -qi perl
Name        : perl                         Relocations: (not relocatable)
Version     : 5.10.1                            Vendor: CentOS
Release     : 119.el6_1.1                   Build Date: Вск 06 Ноя 2011 04:51:56
Install Date: Чтв 19 Янв 2012 11:28:51      Build Host: c6b5.bsys.dev.centos.org
Group       : Development/Languages         Source RPM: perl-5.10.1-119.el6_1.1.src.rpm

nbw
()

ICMP router discovery в Linux

На чём сейчас принято в GNU/Linux реализовывать IRDP-сервер для IPv4?

Клиент, вроде, есть - rdisc(8), а вот с сервером непонятно. gated в репах (по крайней мере, RHEL и производных) отсутствует уже лет 10, в текущей реализации zebrа поддержки IRDP не наблюдается.

=============================

UPD: zebra в оф. репах центос была неправильная (собрана без поддержки IRDP). Обновил quagga из CentALT; всё работает.

interface eth0
 ip irdp multicast
 ip irdp preference 20
 ip irdp holdtime 240
 ip irdp minadvertinterval 40
 ip irdp maxadvertinterval 60

Вопрос исчерпан, спасибо отписавшимся.

nbw
()

Samsung N150+, hibernate при пропаже питания

Есть нетбук Samsung N150 Plus, на нём установлен Russian Fedora Remix release 14.1, система обновлена до упора. Рабочая среда - Gnome 2.32.0, соответственно, питанием управляет gnome-power-manager той же версии.

При исчезновении напряжения сети нетбук уходит в hibernate, несмотря на то, что батарея полностью исправна и, если снова включить аппарат, держит его часа 4-5. Свет «моргает» часто, потому это явление сильно раздражает владельца.

Не подскажет ли уважаемое сообщество, почему и отчего это происходит и как с ним бороться?

Нетбук находится за полтысячи км., доступ только по ssh и VNC, интернет через USB-3g-модем, по этой причине советы снести существующую систему и поставить, например, убунту, никоим образом не подойдут.

nbw
()

[хомячкопроблемы] Nautilus не может обрабатывать адреса «computer».

Slackware 13.37, nautilus 2.30.1, и ещё второгном, установленный по кусочкам, по мере надобности.

Наутилус при попытке обращения к «Компьютер», «Сеть» и «Корзина» выдаёт

«Не удалось показать «computer:». Nautilus не может обрабатывать адреса «computer».»

, про сеть и корзину соответственно то же самое. Установлен gvfs-1.6.7. Вопрос: чего ему не хватает?

nbw
()

RSS подписка на новые темы