LINUX.ORG.RU

Сообщения apmucm

 

Ищется linux admin эникей

Форум — Job

Всем доброго.

Ищется linux admin В офис В Москве. круг обязанностей :

  • Обеспечение бесперебойной работы всех рабочих станций компании;
  • Развитие и обновление компьютеров компании;
  • Поддержка бесперебойной работы телефонии IP и мобильной;
  • Управление доступами сотрудников (выдача/отключение/замена);
  • Поддержка бесперобойной работы локальной сети, сетевого оборудования, переферийный устройств;
  • Поддержка сотрудников в решении технических вопросов;
  • Учет / выдача оборудования;
  • Участие в проектах модернизации и обновления систем компании;
  • Стратегическое планирование и оптимизация затрат на модернизацию рабочих станций компании,

Инраструктура:

  • ~ 80 компов/ноутбуков
  • 90% компьютеров на Ubuntu + Есть несколько на Винде + Несколько ноутов на MacOS
  • Wifi сеть на точках досутпа asus для ноутов, мобильников + некоторые компы тоже через вайфай
  • часть компов подключены кабелем в сеть из неуправляемых dlink
  • есть один сервер HP ML c Centos: dhcp server, dns server, фаерволл и шлюз в инет, voip Asterisk(администрирование через веб интерфейс, сам astersik на внешнем аутсорсе), OpenVPN для удалённых сотрудников

Занятость рассматривается частичная или полная Зарплата до 55000 рублей за полную занятость

Писать сюда: hr (dog) relocom (dot) ru

 

apmucm
()

kvm: динамическая память гостевой вм

Форум — Admin

Имею сервер с гипервизором kvm и вм с Windows, хотелось бы что бы вм забирала у хоста столько же памяти, сколько использует реально внутри гостя. Попробовал balloning устройство , но есть два минуса: 1. при старте гость всеравно съедает всю память и потом постепенно отдает 2. Внутри вм в task manager-e винды заполняется вся память и становится немного неудобно узнавать сколько реально занимает винда.

 ,

apmucm
()

ZFS: производительность при использовании ZIL на SSD

Форум — Admin

Всем доброго.

Интересует опыт тех, кто использовал ZFSonLinux в связке с ZIL на ssd и L2ARC на ssd. Насколько ZIL на ssd увеличивает производительность на запись (иопсы, МБ/с)

Думаю купить два sata диска в зеркале и к нему зеркало ssd для ZIL и незеркало на техже ssd для L2ARC, будет локальный сторадж для виртуалок.

 ,

apmucm
()

Большой iostat await

Форум — Admin

Всем доброго.

Имеется ВМ с mysql на борту , который довольно много пишет. Диск ВМ имеет формат qcow, драйвер virtio, параметр запуска cache=none На хосте установлен Proxmox

Судя по iostat время ожидания операции записи очень большое, вот типовые средние значения

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          17.88    0.00    4.20    0.60    0.00   77.32

Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    17.80    0.00   96.07     0.00     4.31    91.85     7.84  687.20    0.00  687.20   1.83  17.61

Далее даю нагрузку на mysql с помощью sysbench. Имеем:

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
          28.72    0.00    7.66    1.37    0.00   62.26

Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
vda               0.00    26.69    0.00  204.03     0.00     9.91    99.49    11.98  320.32    0.00  320.32   1.49  30.48

Итак нагрузка на диск выросла в два раза, await уменьшился в два раза. что за магия такая, почему при увеличении нагрузки на диск await уменьшается?

протестировал с помощью fio производительность диска внутри ВМ (средний латенси для одного потока на чистую рандомную запись 0,6ms) и на хосте на том же разделе , где расположен образ (сред. латенси 0,5 ms)

 ,

apmucm
()

Низкая производительность диска в гостевой ВМ Qemu/KVM

Форум — Admin

Всем доброго.

Столкнулся с низкой производительностью диска в гостевой вм. Имею на хосте Ubuntu 14.04 c qemu 2.0. Виртуалка Centos 6.5. На хостовой системе

dd if=/dev/zero of=/dev/vg0/vm2 bs=4K count=100000  oflag=direct
409600000 bytes (410 MB) copied, 7.9134 s, 51.8 MB/s
Этот же том в виртуалке:
dd if=/dev/zero of=/dev/vdb bs=4k count=100000 oflag=direct
409600000 bytes (410 MB) copied, 25.9333 s, 15.8 MB/s
Конфиг диска
<disk type='block' device='disk'>
      <driver name='qemu' type='raw' cache='none'/>
      <source dev='/dev/vg0/vm2'/>
      <target dev='vdb' bus='virtio'/>
      <address type='pci' domain='0x0000' bus='0x00' slot='0x06' function='0x0'/>
    </disk>

Чую, что гдето не так настроено, но где?

 

apmucm
()

RHEV: отказоустойчивость хоста

Форум — Admin

Всем привет.

Изучаю возможности отказоустойчивости RHEV. Имею один сервер rhev-m и два сервера rhev-h подключенных к СХД по файберу. В серверах по одному блоку питания. На хостах настроен Power managment и фенсинг через ILO. Провел ряд экспериментов: 1. Выдергиваю файбер из хоста - ВМ заморозились и остались на хосте в состоянии паузы 2. выдергиваю провод из блока питания - rhev пытается убить хост через ilo, но он тоже не доступен, т.к. питания нет. ВМ никуда не перехали.

Вопрос к гуру rhev можно ли изменить поведение в данных ситуациях? Чтобы ВМ со сбойного хоста запустились на живом.

п.2 тут можно было бы придумать чтото типа кворумного диска , неужели редхат не продумал такую ситуацию?

 ,

apmucm
()

RHEV: в ISO домене не отображаются закаченные файлы.

Форум — General

Всем привет.

Надеюсь найдется, кто пользуется RHEV. Вообщем, такая проблема: создан ISO сторадж домен в RHEV, с помощью rhevm-iso-uploader закачены в него iso файлы. закачались корректно без ошибок, в директории iso домена есть на всех нодах. Но в веб-интерфейсе в разделе Image нет файлов, соответственно ничего не могу примонтировать в сdrom виртуалки. Версии ПО: rhevm-iso-uploader-3.2.2-2.el6ev.noarch rhevm-3.2.0-11.33.el6ev.noarch

Может кто сталкивался.

 iso domain,

apmucm
()

Посоветуйте тонкий клиент для LTSP сервера

Форум — Linux-hardware

Всем привет.

Посоветуйте железку (тонкий клиент), который поддерживает подключение к LTSP Серверу. Или железку на которую можно накатить линукс и там уже LTSP клиента.

apmucm
()

Жесткий диск в брендовый сервак IBM

Форум — Linux-hardware

Всем привет.

Подобрал сервак IBM ExpSell x3250M4, но он без дисков. Покупать и переплачивать сигейтовский диск с наклейкой IBM не вижу смысла. Можно ли в него купить диски от WD или Seagate? Хотел такой WD RE4 WD5003ABYX.

apmucm
()

Мать ATX в серверный корпус EEB

Форум — Linux-hardware

Сойдутся ли дырки? мать АТХ в корпус формфактора EEB

apmucm
()

Посоветуйте датацентр для collocation

Форум — Talks

Всем привет.

Посоветуйте хороший датацентр в Москве для размещения нескольких серверов. А то у хостера, которого мы сейчас, постоянные проблемы с сетью. Важно, чтобы у датацентра было резервирование каналов в инет.

apmucm
()

Проблема с bonding + VLANs

Форум — Admin

Приветствую.

Есть сервер (ОС RHEL 6.3), подключенный через два интерфейса к транковым портам двух свитчей. Настроил бондинг на этих интерфейсах bond0. Конфиг ifcfg-bond0:

DEVICE=bond0
ONBOOT=yes
BOOTPROTO=none
BONDING_OPTS="mode=1 miimon=120"
интерфейсы в бондинге ifcfg-eth1
DEVICE=eth1
HWADDR=9C:8E:99:2D:16:40
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
ifcfg-eth2
DEVICE=eth2
HWADDR=9C:8E:99:2D:16:41
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
Создал конфиг интерфейса с VLAN ifcfg-bond0.3 :
DEVICE=bond0.3
ONBOOT=yes
BOOTPROTO=static
VLAN=yes
TYPE=Ethernet
IPADDR=192.168.0.144
NETMASK=255.255.255.0
GATEWAY=192.168.0.158

Однако при старте системы, а также после

 service network restart
сеть на bond0.3 не работает (ни ping, ни arping соседнего хоста не отвечают). Достаточно перезапустить интерфес bond0
 ifdown bond0 && ifup bond0 
как сеть начинает работать. Но снова делаю
 service network restart
и опять не фурычит. Также при добавлении интерфейса с VLAN в ручную
 vconfig add bond0 3 && ifconfig bond0.3 192.168.0.144/24 up 
сеть работает.

У кого-нибудь есть мысли по этому поводу?

apmucm
()

сервера Procase

Форум — Linux-hardware

Кто нибудь имел дело с корпусами фирмы Procase, например, такой железкой - http://elmall77.ru/description?goods=1331114&group=1231

Или посоветуйте хороший дешевый корпус с бэкплэйном и горячей заменой для файлопомойки с кол-вом дисков 16-20.

apmucm
()

RSS подписка на новые темы