LINUX.ORG.RU

Избранные сообщения petav

Почти аккуратное XFCE

Галерея — Скриншоты
  • Xfce 4.10
  • Оформление GTK2/3: Greybird
  • Оформление рамок окон: Axe
  • Оформление xfce4-notifyd: Numix
  • Пиктограммы: Faenza-Dark
  • Шрифт в терминале: Monaco
  • Шрифт в приложениях: Droid Sans
  • Шрифт в заголовках окон: Droid Sans
  • Обоина

Скриншот в исходном разрешении
Две панели - это привычка и, для меня, удобство.
Скайп приправлен skype1ico.
Победить унылую иконку XTerm так и не удалось.

 ,

ck114
()

2 шлюза в инет + pptp

Форум — Admin

Есть два провайдера. От каждого из них один белый ip. Задача в том, чтобы через одного пустить только трафик из сети, а через другой организовть vpn для удаленных сотрудников. Пробовал разнести по разным таблицам маршрутизации, но не доходит как написать правила маршрутизации для vpn(второго прова) подключения. На данный момент основной шлюза работает и виден в сети. Второй - нет

 , ,

Santa42
()

Релиз Webacula 7.0.0

Новости — Linux General
Группа Linux General

Доступна новая версия Webacula — веб-интерфейса для системы резервного копирования уровня предприятия Bacula.

Основные изменения:

  • Поддержка Bacula 7.x
  • Хэширование паролей пользователей Webacula с помощью Portable PHP password hashing framework. Несовместимо с прежним методом (MD5).

>>> Подробности

 ,

tim4dev
()

web-интерфейс для Bareos/Bacula

Форум — Admin

Добрый день, столкнулся с проблемой такого рода - развернул систему бэкапа Bareos, и захотел к ней приделать web-интерфейс webacula. Делал все по инструкции как тут в конце http://blog.giuseppeurso.net/installing-bareos-bacula-fork-web-front-end-debi.... И потом еще пробовал делать как тут - http://www.tux.in.ua/articles/1935.

Естественно там где в путях встречалась bacula я переписывал на bareos как нужно. Но после всех манипуляций при обращении к сайту http://localhost/webacula выдается такое сообщение Fatal error: Uncaught exception 'Zend_Exception' with message 'Fatal error: Can't connect to SQL server' in /var/www/webacula/html/index.php:186 Stack trace: #0 {main} thrown in /var/www/webacula/html/index.php on line 186

Может кто сталкивался? или есть ссылка на более дельную инструкцию по установки и настройки webacula под bareos ?

 , ,

stasov1
()

Локалка с запретом..

Форум — Admin

Дано: ноут-сервер и стац в локалке..

Нужно: стац не должен(никак) заходить на сайты, за исключением двух-трех сайтов(ну допустим лор+вики)

ЗЫ: ОС на стаце значения не имеет(оффтопы тоже будут).. ип для перенаправления прописываю на ноуте.

на чем реализовать? файервол?

____________

то что сайты обращаются к другим(те же обращения в соц сети) отправятся в игнор, писал в hosts, но пробивало ее

TODD
()

Вышел Zabbix 2.4

Новости — Open Source
Группа Open Source

Zabbix - это открытое решение распределенного мониторинга корпоративного класса, программное обеспечение мониторинга многочисленных параметров сети, а также состояния и работоспособности серверов, приложений и сервисов. Zabbix использует гибкий механизм уведомлений, что позволяет пользователям настраивать оповещения по почте практически для любого события. Zabbix позволяет хранить и отображать собранные данные с помощью графиков, карт или комплексных экранов.

( Ключевые новшества )

С полным списком изменений и улучшений можно ознакомиться тут

>>> Подробности

 ,

alexvl
()

pacemaker + mysql + asterisk + httpd

Форум — Admin

Добрый день Подскажите как настроить чтобы при переключении между нодами выключались службы mysqld и httpd? Сейчас при переключении гасится только asterisk.

Конфиг pacemaker.cfg.

node astnode01
node astnode02
primitive Asterisk ocf:Digium:asterisk \
        op monitor interval="5"
primitive Asterisk_drbd ocf:linbit:drbd \
        params drbd_resource="asterisk" \
        op monitor start-delay="10" interval="5"
primitive Asterisk_fs ocf:heartbeat:Filesystem \
        params device="/dev/drbd/by-res/asterisk" directory="/mnt/asterisk/" fstype="ext3"
primitive ClusterIP ocf:heartbeat:IPaddr2 \
        params ip="10.4.2.151" cidr_netmask="32" \
        op monitor interval="5"
primitive GatewayStatus ocf:pacemaker:ping \
        params host_list="10.4.2.1" multiplier="100" \
        op monitor interval="5" timeout="10"
primitive rseries0 ocf:Digium:rseries \
        params tty="/dev/rseries0" \
        op monitor interval="10" role="Master" \
        op monitor interval="60" role="Slave"
ms Asterisk_ms Asterisk_drbd \
        meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true"
ms rseries0_ms rseries0 \
        meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" target-role="Master"
clone GatewayStatusClone GatewayStatus
location Asterisk-with-ping Asterisk \
        rule $id="Asterisk-with-ping-rule" -inf: not_defined pingd or pingd lte 0
colocation Everything-with-Asterisk inf: ( rseries0_ms:Master Asterisk_ms:Master ) ( ClusterIP Asterisk_fs ) Asterisk
order Asterisk-after-Everything inf: ( rseries0_ms:promote Asterisk_ms:promote ) ( ClusterIP Asterisk_fs ) Asterisk:start
property $id="cib-bootstrap-options" \
        dc-version="1.0.12-unknown" \
        cluster-infrastructure="openais" \
        expected-quorum-votes="2" \
        stonith-enabled="false" \
        no-quorum-policy="ignore"
rsc_defaults $id="rsc-options" \
        resource-stickiness="99"

Пробовал добавлять

primitive Asterisk_httpd ocf:heartbeat:apache \
        params configfile="/etc/httpd/conf/httpd.conf" \
        op start interval="0s" timeout="60s" \
        op monitor interval="5s" timeout="20s" \
        op stop interval="0s" timeout="60s"
Выводит ошибку
[root@astnode01 ~]# crm status
============
Last updated: Wed Sep  3 12:26:25 2014
Stack: openais
Current DC: astnode02 - partition with quorum
Version: 1.0.12-unknown
2 Nodes configured, 2 expected votes
7 Resources configured.
============
 
Online: [ astnode01 astnode02 ]
 
 Asterisk       (ocf::Digium:asterisk): Started astnode02
 Asterisk_fs    (ocf::heartbeat:Filesystem):    Started astnode02
 ClusterIP      (ocf::heartbeat:IPaddr2):       Started astnode02
 Master/Slave Set: Asterisk_ms
     Masters: [ astnode02 ]
     Slaves: [ astnode01 ]
 Master/Slave Set: rseries0_ms
     Masters: [ astnode02 ]
     Slaves: [ astnode01 ]
 Clone Set: GatewayStatusClone
     Started: [ astnode01 astnode02 ]
 
Failed actions:
    Asterisk_httpd_start_0 (node=astnode02, call=18, rc=-2, status=Timed Out): unknown exec error
    Asterisk_httpd_start_0 (node=astnode01, call=9, rc=1, status=complete): unknown error

 , , ,

mkondratev
()

kpartx + loop + lvm = не удаляются разделы loopXpY после отключения образа

Форум — Admin

Привет всем!!

У меня проблема с которой я никак не могу справится, точнее не могу понять что и где правильно выключить.

Монтирую образ блочного устройства через kpartx -a <ИМЯ>.img, далее забиваю нулями этот образ через dd предварительно. Создаю два раздела, и в итоге имею в /dev вот такие устройства: /dev/loop0 /dev/loop0p1 /dev/loop0p2. На втором разделе (loop0p2) создаю LVM-том и 2 LVM-раздела на нем, форматирую их и сразу же демонтирую. После, чтобы отключить LVM-том даю команду vgchange -an <VG> и сразу же отключаю образ kpartx -d <ИМЯ>.img. При этом команда losetup дает мне понять что мое loop0-устройство успешно отключена, не выводя его в своем списке.

А самое интересное, что после отключения образа файлы /dev/loop0[pX] остаются в каталоге, а вместе с ними и LVM-том на них. Команда dmsetup ls никаких устройств связанных этим lVM не видит. Команда blkid продолжает упорно писать, что в /dev/loop0p2 располежен все тот же LVM-том VG.

Как я представляю, вместе с отключением образа должны пропасть и loop-устройства, но что-то происходит не так.

Помогите пожалуйста кто знает в чем дело, бьюсь уже который день. Спасибо заранее!!!

 ,

dmnord
()

Вышел набор патчей для свободной информационной системы для здравоохранения и больниц GNU Health 2.6.2

Новости — GNU's Not Unix
Группа GNU's Not Unix

GNU Health — это свободная информационная система для здравоохранения и больниц, предоставляющая возможности электронных медицинских записей, информационных систем больниц и здравоохранения. Она разработана с упором на мультиплатформенность и работает на различных операционных системах (GNU/Linux, FreeBSD, MS Windows) и с различными СУБД. Она написана на Python и использует фреймворк Tryton.

Про наборы патчей GNU Health

«Наборы патчей» предоставляются для стабильных релизов. Они позволяют быстро устанавливать исправления багов и обновления на производственные системы. Патчи и наборы патчей максимизируют аптайм производственных систем и содержат систему обновлённой без потребности в полной установке. Некоторые из них, благодаря магии Tryton, могут быть применены к работающей системе.

ЗАМЕТКА: наборы патчей применяются только к предварительно установленным системам. Для новых установок скачайте и установите полный тарбол (например, gnuhealth-2.6.2.tar.gz).

Сводка по набору патчей

Это небольшой набор патчей, касающийся по большей части отчётов и мастеров.

  • Затрагиваются модули (помимо локализации/опечаток): health, health_tab, health_imaging
  • health: исправлен отчёт-рецепт
  • health_lab: проверка медработника по тестовому запросу
  • health_imaging: проверка медработника по запросу изображений Dx

Замечания об установке

  • Перед установкой этого набора патчей нужно установить набор 2.6.1. Если 2.6.1 уже установлен, просто следуйте общим инструкциям. В противном случае, скачайте и примените набор патчей 2.6.1 (ftp://ftp.gnu.org/gnu/health/gnuhealth_patchset-2.6.1.tar.gz)
  • Следуйте общим инструкциям на https://en.wikibooks.org/wiki/GNU_Health/Patches_and_Patchsets
  • Для обновления вашей среды возьмите профиль GNU Health ($HOME/.gnuhealthrc)
  • Этот набор патчей не требует обновления БД

Перечень ошибок, относящихся к этому набору патчей

>>> Источник

 , , ,

MiniRoboDancer
()

отдать один проц виртуалке

Форум — Admin

Есть новый двухпроцессорный сервак (E5-2640) и памяти 32 гига. На нем поднял virtual-host на centos6.

virsh # nodeinfo
Модель процессора: x86_64
CPU:                 24
Частота процессора: 1200 MHz
Сокеты:        1
Ядер на сокет: 6
Потоков на ядро: 2
Ячейки NUMA:   2
Объём памяти: 32844300 KiB

Контора пишет, что сокетов должно быть 2. Какого черта у меня один сокет - не понимаю. В биосе процессоров (Сокетов) 2. Процы на 12 потоков. Ну Бог с ним. Может баг.
Надо его раскромсать на кусочки. Первый кусочек будет большой, поэтому решил пощупать в деле NUMA. Надо ли в хостовой системе запускать демон numad или все в xml-конфиге гостя? Демон numad у меня остановлен.

Смотрим процы подробнее

[root@kvm2 qemu]# virsh capabilities
<capabilities>
  <host>
    <uuid>578a5b57-14f7-11e2-a1da-f80f41f3e27e</uuid>
    <cpu>
      <arch>x86_64</arch>
      <model>SandyBridge</model>
      <vendor>Intel</vendor>
      <topology sockets='1' cores='6' threads='2'/>
      <feature name='pdpe1gb'/>
      <feature name='osxsave'/>
      <feature name='dca'/>
      <feature name='pcid'/>
      <feature name='pdcm'/>
      <feature name='xtpr'/>
      <feature name='tm2'/>
      <feature name='est'/>
      <feature name='smx'/>
      <feature name='vmx'/>
      <feature name='ds_cpl'/>
      <feature name='monitor'/>
      <feature name='dtes64'/>
      <feature name='pbe'/>
      <feature name='tm'/>
      <feature name='ht'/>
      <feature name='ss'/>
      <feature name='acpi'/>
      <feature name='ds'/>
      <feature name='vme'/>
    </cpu>
    <topology>
      <cells num='2'>
        <cell id='0'>
          <cpus num='12'>
            <cpu id='0' socket_id='0' core_id='0' siblings='0,12'/>
            <cpu id='1' socket_id='0' core_id='1' siblings='1,13'/>
            <cpu id='2' socket_id='0' core_id='2' siblings='2,14'/>
            <cpu id='3' socket_id='0' core_id='3' siblings='3,15'/>
            <cpu id='4' socket_id='0' core_id='4' siblings='4,16'/>
            <cpu id='5' socket_id='0' core_id='5' siblings='5,17'/>
            <cpu id='12' socket_id='0' core_id='0' siblings='0,12'/>
            <cpu id='13' socket_id='0' core_id='1' siblings='1,13'/>
            <cpu id='14' socket_id='0' core_id='2' siblings='2,14'/>
            <cpu id='15' socket_id='0' core_id='3' siblings='3,15'/>
            <cpu id='16' socket_id='0' core_id='4' siblings='4,16'/>
            <cpu id='17' socket_id='0' core_id='5' siblings='5,17'/>
          </cpus>
        </cell>
        <cell id='1'>
          <cpus num='12'>
            <cpu id='6' socket_id='1' core_id='0' siblings='6,18'/>
            <cpu id='7' socket_id='1' core_id='1' siblings='7,19'/>
            <cpu id='8' socket_id='1' core_id='2' siblings='8,20'/>
            <cpu id='9' socket_id='1' core_id='3' siblings='9,21'/>
            <cpu id='10' socket_id='1' core_id='4' siblings='10,22'/>
            <cpu id='11' socket_id='1' core_id='5' siblings='11,23'/>
            <cpu id='18' socket_id='1' core_id='0' siblings='6,18'/>
            <cpu id='19' socket_id='1' core_id='1' siblings='7,19'/>
            <cpu id='20' socket_id='1' core_id='2' siblings='8,20'/>
            <cpu id='21' socket_id='1' core_id='3' siblings='9,21'/>
            <cpu id='22' socket_id='1' core_id='4' siblings='10,22'/>
            <cpu id='23' socket_id='1' core_id='5' siblings='11,23'/>
          </cpus>
        </cell>
      </cells>
    </topology>
    <secmodel>
      <model>selinux</model>
      <doi>0</doi>
    </secmodel>
    <secmodel>
      <model>dac</model>
      <doi>0</doi>
    </secmodel>
  </host>

Просматриваю ячейки NUMA (объемы памяти со временем меняются.)

[root@kvm2 qemu]# virsh freecell --all
    0:   15979784 KiB
    1:   16060128 KiB
--------------------
Всего:   32039912 KiB
Решено одному virtual-guest отдать полностью один проц и 16 гиг памяти. Для этого выбрал ячейку NUMA с индексом 1. По вышеприведенной ссылке в RedHat приводят пример и пишут, что надо изменить в xml-ке
<vcpus>4</vcpus>
на
<vcpus cpuset='4-7'>4</vcpus>

У меня в конфиге vcpus НЕТУ! Зато есть

<vcpu placement='static'>1</vcpu>
Меняю эту строку на
<vcpus cpuset='6-11,18-23'>12</vcpus>
Гружусь - и нифига. Ядро одно, а конфиг - снова стал как с завода(((. Уж не знаю ошиблись в красношапке или нет, но когда пишешь
<vcpu cpuset='6-11,18-23'>12</vcpu>
После запуска сервера присутствуют все 12 ядер/потоков (смотрю в top). Конфиг меняется на
 <vcpu placement='static' cpuset='6-11,18-23'>12</vcpu> 
Ну вроде как работает (думаю в мануале небольшие опечатки), но решил я посмотреть как же потоки виртуальным процессорам назначаются.

virsh # vcpuinfo nemo
VCPU:           0
CPU:            23
Статус:   работает
Время CPU: 8,8s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           1
CPU:            7
Статус:   работает
Время CPU: 2,1s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           2
CPU:            9
Статус:   работает
Время CPU: 1,0s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           3
CPU:            8
Статус:   работает
Время CPU: 1,8s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           4
CPU:            6
Статус:   работает
Время CPU: 0,8s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           5
CPU:            20
Статус:   работает
Время CPU: 0,5s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           6
CPU:            22
Статус:   работает
Время CPU: 1,0s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           7
CPU:            6
Статус:   работает
Время CPU: 0,4s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           8
CPU:            18
Статус:   работает
Время CPU: 0,5s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           9
CPU:            11
Статус:   работает
Время CPU: 0,3s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           10
CPU:            7
Статус:   работает
Время CPU: 0,5s
Соответствие CPU: ------yyyyyy------yyyyyy

VCPU:           11
CPU:            6
Статус:   работает
Время CPU: 0,3s
Соответствие CPU: ------yyyyyy------yyyyyy

Как же это так получается, что 6-й CPU у меня соответсвует трем! VCPU? Попробую действовать по

Virtualization_Tuning_and_Optimization_Guide

<vcpu cpuset='0-7'>8</vcpu>
	<cputune>
		<vcpupin vcpu='0' cpuset='0'/>
		<vcpupin vcpu='1' cpuset='1'/>
		<vcpupin vcpu='2' cpuset='2'/>
		<vcpupin vcpu='3' cpuset='3'/>
		<vcpupin vcpu='4' cpuset='4'/>
		<vcpupin vcpu='5' cpuset='5'/>
		<vcpupin vcpu='6' cpuset='6'/>
		<vcpupin vcpu='7' cpuset='7'/>
	</cputune>

Что интересно в этом примере уже vcpu, а не vcpus. А placement='static' надо если привязываешь потоки ручками. Иначе надо юзать placement='auto' и ковырять numad.

 , ,

andrew667
()

mysql жрёт 400+ мегабайтов, надо уменьшить

Форум — Admin

Разворачиваю сайт на VPS-ке с 512 мегабайтами памяти. mysql сейчас кушает 400+ мегабайтов (free до запуска и free после запуска). База пустая. В конфиге только одну настройку выставил:

innodb_buffer_pool_size=16M

Все настройки тут: http://pastebin.com/eph8R1MA

Как вообще понять, на что память уходит? Нужно снизить потребление хотя бы до 200 мегабайтов сохранив хорошую скорость. Движок будет использоваться InnoDB.

Legioner
()

awesome и xrandr

Форум — General

Здравствуй, ЛОР,

Имею одну карту nvidia, на DVI и VGA выходах которой - по монитору. По умолчанию иксы выставляют primary монитором VGA-0, а мне надо, чтоб был DVI-I-0.

В опенбоксе исправлял эту ситуацию, вбив в ~/.config/openbox/autostart.sh

xrandr --output VGA-0 --primary

С awesome ситуация посложнее. При добавлении в ~/.config/awesome/rc.lua

awful.util.spawn_with_shell("xrandr --output DVI-I-0 --primary")
он запускается, но с primary VGA.

Причём, если его перезапустить по Mod4+Ctrl+R, то он расставляет экраны уже правильно, то есть он назначает primary монитор так, как мне нужно, но делает это только после того, как запустится сам (в неустраивающей меня конфигурации мониторов «по умолчанию»).

В какой файл мне вбить команду назначения первичного монитора, чтобы она выполнялась при старте иксов до запуска awesome?

Спасибо за внимание.

 , ,

piyavking
()

Несколько мониторов с awesome - правильная настройка

Форум — Desktop

awesome debian/3.4.13-1
Debian 7.5

Нужно было настроить конфигурацию awesome с несколькими мониторами на базовом десктопе. Для этого пока для 2-х мониторов была добавлена следующая строка в rc.lua:

awful.util.spawn_with_shell("xrandr --output HDMI2 --mode 1920x1080 --right-of HDMI1")
При перенесении этого конфига на ноутбук (уже без внешних мониторов) проблем не возникает. Но дело в том, что данный конфиг будет использоваться на разных машинах, и где-то может оказаться другая конфигурация мониторов. Поэтому данный способ выглядит сомнительно.

Вопросы:

1. Правильно ли настраивать изображение на нескольких мониторах только с помощью rc.lua? Сделать ли отдельный скрипт для каждого компьютера с xrandr? Так же видел множество руководств по настройке с помощью xorg.conf. Какой способ правильнее?

2. В случае использования 3-х или 4-х мониторов, мне нужно будет просто дописать в эту строку --output ... --mode ... итд?

 , ,

Deleted
()

Bacula, мертвые души

Форум — Admin

Здравствуйте, остались в catalog уже не существующие хранилища и клиенты

Error: Client resource father-fd does not exist.
В конфигурационных файлах директора все записи удалены о нем. Как правильнее будет удалить его из catalog?

petav
()

SQUID Splash page

Форум — Admin

Есть задача настроить сквид таким образом, чтобы при попытке открыть любую страницу в интернете пользователю сначала отображалась страница (splash page), на которой он вводил бы некоторые данные, получал бы результат и далее его пропускало в мир.
Официальный хауту, к сожалению, не дал результатов: http://wiki.squid-cache.org/ConfigExamples/Portal/Splash
Библиотеки /usr/local/sbin/squid/squid_session, у себя не нашел нигде.
Скачал исходники, нашел там эту библиотеку и подтянул её. Результата нет. Пускает в мир сразу.
Вот мой кусок squid.conf:

external_acl_type localnet ttl=60 concurrency=100 %SRC /opt/squid-3.4.4.2-20140426-r13129/helpers/external_acl/session/ext_session_acl -t 7200 -b /etc/squid/sessions.db 
acl existing_users external localnet 
http_access deny !existing_users 
deny_info 511:/etc/squid/splash.html existing_users 

Возможно, у кого-нибудь есть опыт в настройке такой штуки, буду очень признателен за советы.

 ,

Mendax
()

доступ в локалку через openvpn

Форум — Admin

Сабж. Поднял openvpn на роутере дома. Удаленно законнектился к нему. Подключилось норм. Но дома сеть 192.168.1.0/24. А в том месте, откуда я подключаюсь, тоже 192.168.1.0/24. И настроить маршрутизацию не выходит.

при настройке

# ip route del 192.168.1.0/24 dev eth0
# ip route add 192.168.1.1/32 dev eth0
# ip route add 192.168.1.0/24 via 10.8.0.1
RTNETLINK answers: Network is unreachable
cvs-255
()

Что можно промониторить у PostgreSQL, имея zabbix agent и больше ничего?

Форум — Admin

Собственно, есть zabbix agent, установленный на системе клиента, куда нет доступа по ssh и в принципе нет доступа. Никаких специфических UserParameter'ов на агенте не прописано, он такой вполне себе голый как сокол.
Есть PostgreSQL, который работает на системе клиента и наружу доступен портом 5432. Никакого доступа туда тоже нет (для мониторинга не заведён пользователь).
AllowRemoteCommands установлен в 0, так что с этой стороны не подлезть
Известно, что система - RedHat ES 6.x

Внимание, вопрос:

Что можно промониторить в такой немного странной, но реально имеющей место быть ситуации?
Я добавил proc.num[postgres] и net.tcp.service[postgresql]
Следующим шагом промониторить ошибки в логах Postgres
Есть ещё какие-нибудь оригинальные идеи? :)

 ,

DRVTiny
()

FC vs FCOE vs iSCSI

Форум — Admin

Подскажите где почитать про бенчмарки/сравнения хранилок/свичей/адаптеров использующих эти протоколы.

 , , ,

trofk
()

Мой HA кластер. Не хватает понимания как он работает

Форум — Admin

Имеется кластер высокой доступности из двух машин adam и eva. На всех есть три домена, назвал их mt, ast, zer. Подразумеваю что в штатном режиме работают так adam=mt, eva=ast+zer. Для этого сделал отдельные DRBD диски на LVM томах. Все работает замечательно, спасибо многим кто помогал мне здесь что бы понять как это все построить. Дырка в понимании у меня в pacemaker. Поставил его, настроил. Но вот с конфигурацией скорее всего где-то ошибся. Меня беспокоят два вопроса

  • Временные интервалы, за что они все же отвечают и как их правильно выставить под мои задачи? Мне нужно увеличить время ожидания выключения домены mt, но как только делаю этот параметр в 400 секунд, он перестает запускаться, выскакивают ошибки drbd.
  • Как все таки понять что произошло когда ошибки возникают, а то там куча какой-то информации, а как ей пользоваться?
  • Как правильно Stonitch организовать

Привожу свою конфигурацию

:~# crm configure show
node adam \
        attributes standby="off"
node eva \
        attributes standby="off"
primitive drbd_ast ocf:linbit:drbd \
        params drbd_resource="ast" \
        op monitor interval="20s" timeout="20s" \
        op demote interval="0" timeout="90s" \
        op promote interval="0" timeout="90s"
primitive drbd_mt ocf:linbit:drbd \
        params drbd_resource="mt" \
        op monitor interval="20s" timeout="20s" \
        op demote interval="0" timeout="90s" \
        op promote interval="0" timeout="90s"
primitive drbd_zer ocf:linbit:drbd \
        params drbd_resource="zer" \
        op monitor interval="20s" timeout="20s" \
        op demote interval="0" timeout="90s" \
        op promote interval="0" timeout="90s"
primitive kvm_ast ocf:variantb:kvm \
        params config="/etc/ha_cluster/ast.config" shutdown_timeout="2" \
        meta allow-migrate="false" target-role="Started" \
        op start interval="0" timeout="90" \
        op stop interval="0" timeout="90" \
        op monitor interval="10" timeout="30" depth="0"
primitive kvm_mt ocf:variantb:kvm \
        params config="/etc/ha_cluster/mt.config" shutdown_timeout="2" \
        meta allow-migrate="false" target-role="Started" is-managed="true" \
        op start interval="0" timeout="90" \
        op stop interval="0" timeout="90" \
        op monitor interval="10" timeout="30" depth="0"
primitive kvm_zer ocf:variantb:kvm \
        params config="/etc/ha_cluster/zer.config" shutdown_timeout="2" \
        meta allow-migrate="false" target-role="Started" \
        op start interval="0" timeout="90" \
        op stop interval="0" timeout="90" \
        op monitor interval="10" timeout="30" depth="0"
primitive stssh stonith:external/ssh \
        params hostlist="1.1.1.1 1.1.1.2"
ms drbd_ast-clone drbd_ast \
        meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true"
ms drbd_mt-clone drbd_mt \
        meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true"
ms drbd_zer-clone drbd_zer \
        meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true"
clone fencing stssh
location kvm_ast_location kvm_ast 50: eva
location kvm_mt_location kvm_mt 50: adam
location kvm_zer_location kvm_zer 50: eva
colocation kvm_ast-together-drbd_ast inf: kvm_ast drbd_ast-clone:Master
colocation kvm_mt-together-drbd_mt inf: kvm_mt drbd_mt-clone:Master
colocation kvm_zer-together-drbd_zer inf: kvm_zer drbd_zer-clone:Master
order kvm_ast-after-drbd_ast inf: drbd_ast-clone:promote kvm_ast:start
order kvm_mt-after-drbd_mt inf: drbd_mt-clone:promote kvm_mt:start
order kvm_zer-after-drbd_zer inf: drbd_zer-clone:promote kvm_zer:start
property $id="cib-bootstrap-options" \
        dc-version="1.0.9-unknown" \
        cluster-infrastructure="openais" \
        expected-quorum-votes="2" \
        no-quorum-policy="ignore" \
        stonith-enabled="false"
rsc_defaults $id="rsc-options" \
        resource-stickiness="100"
Online: [ eva adam ]

kvm_ast (ocf::variantb:kvm):    Started eva
kvm_mt  (ocf::variantb:kvm):    Started adam
kvm_zer (ocf::variantb:kvm):    Started eva
 Master/Slave Set: drbd_ast-clone
     Masters: [ eva ]
     Slaves: [ adam ]
 Master/Slave Set: drbd_mt-clone
     Masters: [ adam ]
     Slaves: [ eva ]
 Master/Slave Set: drbd_zer-clone
     Masters: [ eva ]
     Slaves: [ adam ]
 Clone Set: fencing
     Started: [ eva adam ]

Прокомментируйте кто может, любой информации даже для размышления буду очень рад.

petav
()

Проброс видеокарты в KVM

Форум — Admin

Привет.
Пытаюсь сделать сабж. Вроде бы устройство проброшено, гостевая система его опознаёт, но говорит, что «Это устройство было остановлено, поскольку оно сообщило о возникновении неполадок. (Код 43)»
Хост – Debian 7, гость – Windows 7.

Видеокарта:

% lspci -nn | grep 81
81:00.0 VGA compatible controller [0300]: Advanced Micro Devices [AMD] nee ATI RV610 [Radeon HD 2400 XT] [1002:94c1]
Конфигурация устройства ВМ:
<hostdev mode='subsystem' type='pci' managed='yes'>
 <source>
  <address domain='0x0000' bus='0x81' slot='0x00' function='0x0'/>
 </source>
 <address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/>
</hostdev>
Модули:
% cat /etc/modprobe.d/kvm-options.conf
blacklist nouveau
blacklist radeon
options kvm allow_unsafe_assigned_interrupts=1
Что я делаю не так?

 , , , ,

gasinvein
()