LINUX.ORG.RU

Сообщения Hanuken

 

KVM, сеть, фиксированные IP-адреса.

Добрый вечер, лор.

Прошу помощи с KVM. Имеется сеть IPv4 /24, хост-машина с KVM на борту. Требуется запускать виртуалки, к каждой из которых будет фиксированно привязаны ip адреса.

Вопрос: как наилучшим образом реализовать данную схему, учитывая, что с виртуалок можно поднять только определённые ip? Механизм их получения на самой виртуалке не имеет значения - DHCP или статика. С мостом и DHCP пока не получилось ограничивать пул выдачи для одной виртуалки до одного или нескольких адресов.

 , ,

Hanuken
()

Intel s2600gz. Видны только 4 HDD.

Добрый день.

Возникла проблема на платформе Intel S2600GZ. В машине имеется 8 корзин для HDD. Харды подключаются по 4 штуки по sff-8087 папа-папа к матери. При этом видны харды только с первого канала. С настройками bios игрался, менял режимы в mass storage configuration (AHCI, RAID, ENHANCED) - ничего, видны только 4 первых харда.

Куда копать?

 , , ,

Hanuken
()

Ceph, переезд с двойной на тройную репликацию.

Добрый вечер. Имеется кластер на Ceph: 4 машины, 36 OSD, один RBD-пул на 1024 pg. В пуле ~200 томов виртуальных машин, раскиданных по трём серверам. Между всем этим делом 20Gb линк. На данный момент, size = 2, min_size = 1, что, судя по докам Ceph, не очень то хорошо в плане HA.

Собственно, вопрос. Насколько болезненно, в плане просадок производительности менять на живом пуле size на 3, а min_size на 2? И как вообще это отразится в дальнейшем на производительности? Анализ доков не даёт однозначного ответа на этот вопрос.

 , , ,

Hanuken
()

Ceph, systemd, Debian Stretch. Как управлять OSD?

Всем привет.

Подскажите, как рулить OSD в Debian Stretch? Systemd 232, ceph 12.1.3.

Из мануала

systemctl start ceph-osd@0
Выдаёт естественно:
Unknown unit: ceph-osd@0.service

 , ,

Hanuken
()

Bonding с резервированием.

Добрый день. Гуру, прошу совета по бондингу. Ответ очевиден и прост, но гуглёжка не помогает.

Есть несколько серверов и пара коммутаторов. Сервера цепляются к каждому коммутатору отдельной сетевухой. Конечная цель - получить скорость 20Gb/s и отказоустойчивость по бондингу. При настройке round-robin (type 0) всё хорошо, но при отказе одного из коммутаторов начинаются потери пакетов в пределах 20-25%, что крайне негативно сказывается на дисковых операциях, для которых собственно и городится огород. Вопрос. Какой режим бондинга нужен в данном случае и возможно ли в принципе реализовать такую схему без потерь пакетов при отказе коммутатора?

 , ,

Hanuken
()

Glusterfs + Tiering

Добрый день. Возможно, кто-нибудь сталкивался с такой проблемой? Имеется две ноды. В создании массива используется 6 HDD + раздел на SSD. Создаётся массив Glusterfs по следующей схеме: 1 хард = 1 брик с XFS. Простая репликация с одной ноды на другую, без заморочек:

gluster volume create gm0 stripe 6 replica 2 gl0:/mnt/brick0/gm0 gl1:/mnt/brick0/gm0 gl0:/mnt/brick1/gm0 gl1:/mnt/brick1/gm0 и так далее...
Под Hot tier на каждой ноде зарезервирован отдельный брик, являющийся просто разделом с SSD, так же под XFS:
gluster volume tier gm0 attach replica 2 gl0:/mnt/hot0/tier gl1:/mnt/hot0/tier
Tier добавляется успешно, о чём сразу же говорит гластер и добавляет новую задачу на добавление слоя. Статус задачи сразу же меняется failed, слой не пристыковывается. В логах следующая картина:
 
[2017-03-30 12:28:39.289192] I [MSGID: 100030] [glusterfsd.c:2454:main] 0-/usr/sbin/glusterfs: Started running /usr/sbin/glusterfs version 3.8.8 (args: /usr/sbin/glusterfs -s localhost --volfile-id rebalance/gm0 --xlator-option *dht.use-readdirp=yes --xlator-option *dht.lookup-unhashed=yes --xlator-option *dht.assert-no-child-down=yes --xlator-option *replicate*.data-self-heal=off --xlator-option *replicate*.metadata-self-heal=off --xlator-option *replicate*.entry-self-heal=off --xlator-option *dht.readdir-optimize=on --xlator-option *tier-dht.xattr-name=trusted.tier.tier-dht --xlator-option *dht.rebalance-cmd=6 --xlator-option *dht.node-uuid=d95d07bb-eae4-4284-b58f-a34bf72b76e2 --xlator-option *dht.commit-hash=3337080764 --socket-file /var/run/gluster/gluster-tier-9cab50ef-b1ad-4daf-ad3e-154b59837c2b.sock --pid-file /var/lib/glusterd/vols/gm0/tier/d95d07bb-eae4-4284-b58f-a34bf72b76e2.pid -l /var/log/glusterfs/gm0-tier.log)
[2017-03-30 12:28:39.296611] I [MSGID: 101190] [event-epoll.c:628:event_dispatch_epoll_worker] 0-epoll: Started thread with index 1
[2017-03-30 12:28:44.287246] E [MSGID: 101179] [graph.y:153:new_volume] 0-parser: Line 196: volume 'gm0-replicate-0' defined again
[2017-03-30 12:28:44.288413] E [MSGID: 100026] [glusterfsd.c:2307:glusterfs_process_volfp] 0-: failed to construct the graph
[2017-03-30 12:28:44.288736] E [graph.c:982:glusterfs_graph_destroy] (-->/usr/sbin/glusterfs(mgmt_getspec_cbk+0x12e) [0x55aeac20338e] -->/usr/sbin/glusterfs(glusterfs_process_volfp+0x148) [0x55aeac1fddc8] -->/usr/lib/x86_64-linux-gnu/libglusterfs.so.0(glusterfs_graph_destroy+0x6b) [0x7f56ec04f68b] ) 0-graph: invalid argument: graph [Invalid argument]
[2017-03-30 12:28:44.288810] W [glusterfsd.c:1327:cleanup_and_exit] (-->/usr/sbin/glusterfs(mgmt_getspec_cbk+0x12e) [0x55aeac20338e] -->/usr/sbin/glusterfs(glusterfs_process_volfp+0x16f) [0x55aeac1fddef] -->/usr/sbin/glusterfs(cleanup_and_exit+0x54) [0x55aeac1fd444] ) 0-: received signum (1), shutting down
Гуру, подскажите, куда копать? Кстати, на Centos 7 картина та же. Debian 9, 4.9.13-1, Gluster 3.8.8.

 , ,

Hanuken
()

Gluster 2x2 = LVM. Возможно ли?

Всем доброго времени суток. Появилась мысль о создании распределённого хранилища дисков для виртуалок. Наибольший интерес вызвал GlusterFS, на тестовой площадке показал себя весьма приятно. Возник вопрос: а возможно ли реализовать с его помощью хранилище, скажем из 2 страйпов + 2 реплики этих страйпов таким образом, чтобы при подключении рабочих нод к этому хранилищу на каждой ноде была доступна группа томов LVM?

 , ,

Hanuken
()

Спонтанное отключение SSD после ребута

Всем привет. Имеется ноут ASUS K53SM, установлен HDD в стандартный слот и SSD, который вкручен в заглушку вместо CD-rom. После ребута SSD стал спонтанно пропадать, причём перестаёт определяться в bios, а HDD работает отлично. В чём может быть проблема? Куда копать?

HDD:

Model Family:     HGST Travelstar 7K1000
Device Model:     HGST HTS721010A9E630
Serial Number:    JG40006EG491WC
LU WWN Device Id: 5 000cca 6a6c1f37f
Firmware Version: JB0OA3B0
User Capacity:    1 000 203 804 160 bytes [1,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    7200 rpm
Form Factor:      2.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 6
SATA Version is:  SATA 2.6, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Thu Oct 20 02:26:36 2016 MSK
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
И SSD:
Model Family:     Indilinx Barefoot 3 based SSDs
Device Model:     OCZ-VECTOR150
Serial Number:    OCZ-2N89RK2D1RYJN8HJ
LU WWN Device Id: 5 e83a97 86fe04743
Firmware Version: 1.2
User Capacity:    120 034 123 776 bytes [120 GB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    Solid State Device
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS (minor revision not indicated)
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Thu Oct 20 02:23:57 2016 MSK
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

 , ,

Hanuken
()

Горячее переключение между звуковухами. i3

Доброго времени суток. Подскажите, как настроить горячее переключение между двумя звуковыми картами в i3? В том же гноме, с которого перешёл на данную DE, в настройках звука это очень просто реализовано.

Debian stable

Девайс 1 - Audio device: NVIDIA Corporation GF114 HDMI Audio Controller (rev a1)

Девайс 2 - Multimedia audio controller: Creative Labs CA0106 Soundblaster

 , , , ,

Hanuken
()

RSS подписка на новые темы