LINUX.ORG.RU

5
Всего сообщений: 103

Targetcli. Как разместить кеш на локальном диске клиента?

Здравствуйте.

Давно сделал для одной конторы ISCSI систему на основе targetcli. Делал по этому мануалу: http://etherboot.org/wiki/appnotes/cow

Заранее извиняюсь, в терминах могу путаться.

Система такая. Есть основной образ диска с установленными программами, они почти не меняются. Меняются кофиги, временные файлы, всякий мусор не критичный. Клиенты (Win), по ISCSI, подключают этот образ как диск и работают с этими прогами. Каждый раз, при начале рабочего дня, этот образ у клиента сбрасывается до оригинального. Всё работает без ошибок, все хорошо.

Но возникла проблема. Иногда клиентам не хватает места для кеша этого ISCSI диска. Клиенты забивают диск, выделенный для кеша клиентов, и targetcli зависает. Помогает ребут сервера и пересоздание лунов.

Возникла идей: у каждого клиента физически есть како-то диск. Можно ли клиентский кеш перенести на комп клиента?

Конфиг targetcli:


sysadmin@fserver:~$ sudo targetcli ls
o- / ......................................................................................................................... [...]
  o- backstores .............................................................................................................. [...]
  | o- block ................................................................................................ [Storage Objects: 101]
  | | o- client1 ........................................................ [/dev/mapper/lun0.img.cow.1 (2.7TiB) write-thru activated]
  | | o- client100 .................................................... [/dev/mapper/lun0.img.cow.100 (2.7TiB) write-thru activated]
  | | o- client101 .................................................... [/dev/mapper/lun0.img.cow.101 (2.7TiB) write-thru activated]
  | o- fileio ................................................................................................. [Storage Objects: 1]
  | | o- storage1 ............................................................... [/storage1/lun0.img (2.7TiB) write-back activated]
  | o- pscsi .................................................................................................. [Storage Objects: 0]
  | o- ramdisk ................................................................................................ [Storage Objects: 0]
  o- iscsi .......................................................................................................... [Targets: 102]
  | o- iqn.2019-02.pro.office24:1 ........................................................................................... [TPGs: 1]
  | | o- tpg1 ............................................................................................... [no-gen-acls, no-auth]
  | |   o- acls .......................................................................................................... [ACLs: 1]
  | |   | o- iqn.1991-05.com.microsoft:cl01 ...................................................................... [Mapped LUNs: 1]
  | |   |   o- mapped_lun0 ............................................................................... [lun0 block/client1 (rw)]
  | |   o- luns .......................................................................................................... [LUNs: 1]
  | |   | o- lun0 ..................................................................... [block/client1 (/dev/mapper/lun0.img.cow.1)]
  | |   o- portals .................................................................................................... [Portals: 1]
  | |     o- 0.0.0.0:3260 ..................................................................................................... [OK]
  | o- iqn.2019-02.pro.office24:100 ......................................................................................... [TPGs: 1]
  | | o- tpg1 ............................................................................................... [no-gen-acls, no-auth]
  | |   o- acls .......................................................................................................... [ACLs: 1]
  | |   | o- iqn.1991-05.com.microsoft:cl100 ..................................................................... [Mapped LUNs: 1]
  | |   |   o- mapped_lun0 ............................................................................. [lun0 block/client100 (rw)]
  | |   o- luns .......................................................................................................... [LUNs: 1]
  | |   | o- lun0 ................................................................. [block/client100 (/dev/mapper/lun0.img.cow.100)]
  | |   o- portals .................................................................................................... [Portals: 1]
  | |     o- 0.0.0.0:3260 ..................................................................................................... [OK]
  | o- iqn.2019-02.pro.office24:101 ......................................................................................... [TPGs: 1]
  | | o- tpg1 ............................................................................................... [no-gen-acls, no-auth]
  | |   o- acls .......................................................................................................... [ACLs: 1]
  | |   | o- iqn.1991-05.com.microsoft:work3 ...................................................................... [Mapped LUNs: 1]
  | |   |   o- mapped_lun0 ............................................................................. [lun0 block/client101 (rw)]
  | |   o- luns .......................................................................................................... [LUNs: 1]
  | |   | o- lun0 ................................................................. [block/client101 (/dev/mapper/lun0.img.cow.101)]
  | |   o- portals .................................................................................................... [Portals: 1]
  | |     o- 0.0.0.0:3260 ..................................................................................................... [OK]
  | o- iqn.2019-02.pro.office24:gserver ..................................................................................... [TPGs: 1]
  |   o- tpg1 ............................................................................................... [no-gen-acls, no-auth]
  |     o- acls .......................................................................................................... [ACLs: 1]
  |     | o- iqn.1991-05.com.microsoft:gserver .................................................................... [Mapped LUNs: 1]
  |     |   o- mapped_lun0 ............................................................................. [lun0 fileio/storage1 (rw)]
  |     o- luns .......................................................................................................... [LUNs: 1]
  |     | o- lun0 ........................................................................... [fileio/storage1 (/storage1/lun0.img)]
  |     o- portals .................................................................................................... [Portals: 1]
  |       o- 0.0.0.0:3260 ..................................................................................................... [OK]
  o- loopback ......................................................................................................... [Targets: 0]
  o- vhost ............................................................................................................ [Targets: 0]


 

INDIGO ()

Ошибка proxmox при добавлении хранилища ISCSI (unexpected property 'prune-backups' (500)

Поставлена задача собрать кластер из двух нод и хранилища, возможности подключить по FС хранилища нет. По этому пытаюсь через ISCSI.Райд поднят на CXD, target знаю , ip знаю. делаю след Датацентр - Хранилище. Кликаем Добавить и выбираем тип (в нашем случае, iSCSI): после введения данных выходит ошибка

(unexpected property ‘prune-backups’ (500)

везде на форумах пишут что связано с заблокированной VM при неудачной миграции или репликации(когда то попробовал создать). Но VM и ее ID удалена.

нашел еще способ подключить ее через /etc/pve/storage.cfg ,опять же прописал все свое, она отобразилась и можно создать VM уже в хранилище СXD.

конфиг примера iscsi: mynas portal 10.10.10.1 target iqn.2006-01.openfiler.com:tsn.dcb5aaaddd content none

В целом вопроса два 1.Куда можно еще капнуть по этому проблеме (unexpected property ‘prune-backups’ (500) 2.На сколько правильно я второй способ задействовал. так как я только осваиваю эту стихию, палками прошу не кидаться, спасибо)

 , ,

venom11 ()

Отваливаюся LUN при перезагрузке хранилища tgt

Изучаю Proxmox VE, версия 6.4-4. Пытаюсь использовать LVM через iSCSI. В качестве хранилища использую физический сервер с контроллером Avago MegaRAID SAS 9361-8i 2GB, ОС Debian 10, собрано три массива RAID-1 из шести SAS дисков по 6TB под LVM плюс RAID-1 200GB под систему, итого 4 диска /dev/sd{a,b,c,d} , установлен пакет tgt.

  • root@omv1:~# cat /etc/tgt/conf.d/omv1_iscsi.conf

  • #LUN1

  • target iqn.2021-09.loc.truba:omv1.volume1

  • backing-store /dev/mapper/vgiscsi-volume1

  • initiator-address 172.20.0.0/24

  • /target

  • root@omv1:~# tgt-admin -s

  • Target 1: iqn.2021-09.loc.truba:omv1.volume1

  • System information:

  •    Driver: iscsi
    
  •    State: ready
    
  • I_T nexus information:

  • LUN information:

  •    LUN: 0
    
  •        Type: controller
    
  •        SCSI ID: IET     00010000
    
  •        SCSI SN: beaf10
    
  •        Size: 0 MB, Block size: 1
    
  •        Online: Yes
    
  •        Removable media: No
    
  •        Prevent removal: No
    
  •        Readonly: No
    
  •        SWP: No
    
  •        Thin-provisioning: No
    
  •        Backing store type: null
    
  •        Backing store path: None
    
  •        Backing store flags:
    
  •    LUN: 1
    
  •        Type: disk
    
  •        SCSI ID: IET     00010001
    
  •        SCSI SN: beaf11
    
  •        Size: 214748 MB, Block size: 512
    
  •        Online: Yes
    
  •        Removable media: No
    
  •        Prevent removal: No
    
  •        Readonly: No
    
  •        SWP: No
    
  •        Thin-provisioning: No
    
  •        Backing store type: rdwr
    
  •        Backing store path: /dev/mapper/vgiscsi-volume1
    
  •        Backing store flags:
    
  • Account information:

  • ACL information:

  •    172.20.0.0/24  
    

В Proxmox всё делаю через web-gui, подключаю target, подключаю через него LVM раздел, всё прекрасно работает, перезагружаю proxmox и хранилище tgt, проверяю – всё работает. Проблема начинается тогда, когда в LVM раздел переносится диск виртуальной машины из local-zfs, либо когда машина сразу устанавливается в раздел LVM. В этом случае связка работает только если не перезагружать хранилище. Иначе после перезагрузки теряется LUN1, в proxmox LVM-iscsi отваливается со Status: unknown

  • root@omv1:~# pvs

  • PV VG Fmt Attr PSize PFree

  • /dev/sdb vgiscsi lvm2 a– <5,46t 5,26t

  • /dev/sdc vgiscsi lvm2 a– <5,46t <5,46t

  • /dev/sdd vgiscsi lvm2 a– <5,46t <5,46t

  • /dev/vgiscsi/volume1 VG1 lvm2 a– <200,00g <184,00g

  • root@omv1:~# vgs

  • VG * #PV * #LV * #SN * Attr * VSize * VFree

  • VG1 * 1 * 1 * 0 * wz–n- * <200,00g * <184,00g

  • vgiscsi * 3 * 1 * 0 * wz–n- * 16,37t * <16,18t

  • root@omv1:~# lvs

  • LV * VG * Attr * LSize

  • vm-100-disk-0 * VG1 * -wi-a—– * 16,00g

  • volume1 * vgiscsi * -wi-ao—- * 200,00g

Что-то делаю не так. ?

 , ,

pa-74 ()

Как правильно и грамотно настроить iSCSI на СХД для использования LVM over ISCSi

Есть DX200 S4

8 дисков по 950 GB

5 дисков по 3.90 TB

цель - отдать всё это proxmox-у в виде двух независимых LVM over iSCSI.

4 порта на DX200, 4 IP-адреса две панели (на случай выхода из строя) CM00 и CM01 по два порта на каждый.

Как вижу:

  1. создать два Thin Provisioning Pool на два RAID GROUP (RAID5 из 8 дисков + RAID5 из 5 дисков)

  2. создать два Volume (Thin Provisioning Volume)

  3. Host Group для нужных серверов

  4. Port Group - каждый из 4х портов это своя node1, nod2, node3, node4. Две Port Group в которых все 4 порта.

  5. 2 LUN для каждого Volume

  6. 2 Host Affinity. Host Group - CA Port Group, в каждом соответствующие им Host Group, CA Port Group, LUN Group.

вопросы: нужна ли Deduplication/Compression или это лишние расходы?

сделать две ноды, вместо четырёх?

возможно делать надо как-то по другому, потому что пока не понимаю, как в multipath в proxmox-е настроить оба LUN-а, учитываю, что кажды LUN висит на всех портах/таргетах/нодах, или надо разделять, одну LUN Group прикрепить на одну панель (CM00) только с двумя портами, а второй на другую (CM01), но будут проблемы, если выйдет из строя одна из CM?

 , , ,

mishki ()

Переезд iscsi с esxi 6.7 на proxmox

Имею nas который по iscsi отдает дисковое пространство гипервизору esxi. Это пространство преобразовано в диск vmdk 3,7 Тб и подключено к ВМ windows server как диск, который расшарен и является файловым обмеником. Сейчас задача перенести все в proxmox, подозреваю что можно переподключить это дело, но что я там увижу если увижу и как с этим быть не совсем понимаю, подскажите, спасибо !

 , ,

s38 ()

Алгоритм шифрования CHAP для iSCSI

Приветствую. Подключаюсь к цели на NAS Synology с хоста под OpenSUSE Leap15.2 KDE. Без CHAP подключение работает отлично, с двусторонним CHAP - не пускает. Неверный ввод логин/пароля и ограничения по их содержимому исключим. В основном конфиге инициатора вижу:

# To configure which CHAP algorithms to enable set
# node.session.auth.chap_algs to a comma seperated list.
# The algorithms should be listen with most prefered first.
# Valid values are MD5, SHA1, SHA256, and SHA3-256.
# The default is MD5.
# node.session.auth.chap_algs = SHA3-256,SHA256,SHA1,MD5

Соответственно, в конфиге конкретной ноды с CHAP дефолтно получаю:

node.session.auth.chap_algs = MD5

Насколько понимаю, инициатор отдает цели на проверку свой секрет в MD5 и сам ожидает от нее секрет в MD5. Но что если цель (Synology те ещё придумщики) не поддерживает все эти алгоритмы для проверки CHAP? Или так не бывает?

Или это самодеятельность OpenSUSE? Как тогда отключить такое поведение инициатора? Просто закомментировать для ноды?

 , ,

mexx ()

Ubuntu 18.4 Server + MB Z390 Taichi Ultimate Lan 10Gb

Здравствуйте.

Надо собрать сервер для раздачи диска по ISCSI (targetcli)

Конфиг будет такой:

MB: Z390 Taichi Ultimate

3 NWME диска, соберу в софтовый RAID0. На рейде будет образ диска для таргета.

1 NWME диск под кеш.

1 SSD диск под ОС

Вопрос: сеть 10Gb заведётся на Ubunte из коробки? Или надо будет что-нибудь настраивать?

 

INDIGO ()

Не запускается служба ISCSI

Статус выдает:

systemctl status iscsi
● iscsi.service - Login and scanning of iSCSI devices
   Loaded: loaded (/etc/systemd/system/iscsi.service; enabled; vendor preset: disabled)
   Active: inactive (dead)
Condition: start condition failed at Ср 2021-04-07 10:56:41 MSK; 9min ago
           none of the trigger conditions were met

Попробовал поискать в интернете. Нашел пару решений, например вот. Тут идет замена файлов, вариант не помог.

Или вот нашел вариант. Но тоже не помог. В нем говорится что файл iscsi.service должен содержать строку

ConditionDirectoryNotEmpty=/var/lib/iscsi/nodes

Но он итак его содержит.

Кто-то сталкивался? Что еще можно попробовать?

 ,

maximice ()

А поясните за iqn (iscsi)

Где ни читаю, там в iqn.date.domain:target поле target может быть вообще любым. Но! Оказалось, некоторые хранилки отдают при создании таргетов этот самый iqn в виде iqn.date.domain:target:grp, где grp – имя группы портов. Вопрос: это поведение стандартизировано или просто самодеятельность, и можно ли закладываться на такое поведение для автоматического объединения таких таргетов через mpio?

 ,

olegkrutov ()

Зачем ISCSI таргету экспортировать значение RPM?

Всех с новым годом!

Во многих iscsi-таргетах (i.e. LIO, istgt) у LUN’а можно указать скорость диска в RPM. В каких случаях это вообще играет какую-либо роль и какие инициаторы вообще на это смотрят? Или это только для администраторов?

Вопрос тем, кто в теме. Интересует только практика, а не теоретические размышления. С гуглом я сейчас не в ладах, возможно, ответ лежит на поверхности. Заранее спасибо.

 , , , ,

kreksoverzum ()

targetcli - при записи на диск больших файлов получаем битые файлы.

Здравствуйте.

Использовал targetcli, Ubuntu18, клиент WIn10

Комп:

Lan 1Gb, 3SSD 1Tb, собранные в софтовый RAID0, ext4 Смонтировал этот райд на /storage1

Создал файл:

dd if=/dev/zero of=/storage1/lun0.img bs=1M count=1782579

Настройки таргета:

targetcli /backstores/fileio/ create storage1 /storage1/lun0.img
targetcli /iscsi/ create iqn.2019-02.pro.home:gserver
targetcli  /iscsi/iqn.2019-02.pro.home:gserver/tpg1/luns create /backstores/fileio/storage1
targetcli /iscsi/iqn.2019-02.pro.home:gserver/tpg1/acls/ create iqn.1991-05.com.microsoft:gserver

В винде подключился к таргету, появился диск, отформатировал в NTFS, назвал Z

Всё работает, залил файлы.

И тут началось:

При копировании больших файлов (15Gb) на диск Z, получаем битые файлы, не верная контрольная сумма.

Где смотреть? Винда? Убунта? Железо?

 

INDIGO ()

systemd unit ждать появления lvm тома

Raspberry pi при загрузке подключает iscsi диск.

На iscsi диске lvm тома с ФС lxc контейнеров.

Явно указал в lxc.service After= ... open-iscsi.service

Проблема - на момент запуска lvm.service iscsi диск уже подключен, но pvscan ещё не отработал и lvm томов для контейнеров нет. Как итог контейнеры не стартуют.

Сейчас в виде костыля добавил в lxc.service ExecStart=/bin/sleep 5

Есть более правильные варианты решения?

К примеру. Было бы хорошо в lxc@my_container.service добавить ожидание появления файла /dev/vg0/my_container

PS Пробовал дописать в lvm.service After= ... lvm2-pvscan@8:1 Эффекта не дало.

Linux raspberrypi 5.4.51-v8+ #1333 SMP PREEMPT Mon Aug 10 16:58:35 BST 2020 aarch64 GNU/Linux
systemd 241 (241)
+PAM +AUDIT +SELINUX +IMA +APPARMOR +SMACK +SYSVINIT +UTMP +LIBCRYPTSETUP +GCRYPT +GNUTLS +ACL +XZ +LZ4 +SECCOMP +BLKID +ELFUTILS +KMOD -IDN2 +IDN -PCRE2 default-hierarchy=hybrid

 , ,

Flotsky ()

Подключение схд ISCSI ESXI 6.5

Добрый день. Подскажите пожалуйста как решить проблему. Арендовал HP BL460cGen8 и лун на схд по iscsi. Хостер выдал следующие настройки: targetname: ….. ip addr: 10.10.0.25 user: user pass: password Настройки – IP 10.15.0.17, маска 255.255.255.0 Для доступа к IP iSCSI 10.10.0.25 необходимо настроить маршрут на 10.10.0.24/29 через 10.15.0.1

Вопрос в последнем пункте. «Для доступа к IP iSCSI 10.10.0.25 необходимо настроить маршрут на 10.10.0.24/29 через 10.15.0.1»

 ,

marrt ()

NAS — QNAP D2 или Zyxel NAS326?

Привет,

Кто-нибудь работал или использовал QNAP D2 или Zyxel NAS326?

https://catalog.onliner.by/nas/qnap/qnapd2 https://catalog.onliner.by/nas/zyxel/nas326

Что посоветуете для домашних задач?

 , , , ,

int13h ()

Proxmox + Eternus DX200, проблема с multipath, wwid not in wwids file

Что я могу делать нее так?

SAN - 2 порта in Port Group c разными IP и IQN
172.16.20.228:3260,3 iqn.2000-09.com.fujitsu:storage-system.eternus-dxl:002c0534
172.16.20.229:3260,4 iqn.2000-09.com.fujitsu:storage-system.eternus-dxl:002c0535

Proxmox - добавлен iSCSI, потом LVM over iSCSI
172.16.20.149

/etc/multipath.conf

defaults {
    user_friendly_names    yes
        polling_interval        2
        path_selector           "round-robin 0"
        path_grouping_policy    multibus
        path_checker            readsector0
        uid_attribute          "ID_SERIAL"
        rr_min_io               100
        failback                immediate
        no_path_retry           queue
}
blacklist {
        wwid .*
}
blacklist_exceptions {
        wwid "3600000e00d2c0000002c014d00020000"
}
multipaths {
  multipath {
        wwid "3600000e00d2c0000002c014d00020000"
        alias mpath0
  }
}

# multipath -ll

ничего..

# multipath -v3

===== paths list =====
uuid                              hcil     dev dev_t pri dm_st chk_st vend/pro
3600000e00d2c0000002c014d00020000 33:0:0:1 sdb 8:16  50  undef undef  FUJITSU,
3600000e00d2c0000002c014d00020000 34:0:0:1 sdc 8:32  50  undef undef  FUJITSU,
May 23 01:37:48 | libdevmapper version 1.02.155 (2018-12-18)
May 23 01:37:48 | DM multipath kernel driver v1.13.0
May 23 01:37:48 | sdb: udev property ID_WWN whitelisted
May 23 01:37:48 | sdb: wwid 3600000e00d2c0000002c014d00020000 whitelisted
May 23 01:37:48 | wwid 3600000e00d2c0000002c014d00020000 not in wwids file, skipping sdb
May 23 01:37:#48 | sdb: orphan path, only one path
May 23 01:37:48 | sysfs prioritizer refcount 2
May 23 01:37:48 | sdc: udev property ID_WWN whitelisted
May 23 01:37:48 | sdc: wwid 3600000e00d2c0000002c014d00020000 whitelisted
May 23 01:37:48 | wwid 3600000e00d2c0000002c014d00020000 not in wwids file, skipping sdc
May 23 01:37:48 | sdc: orphan path, only one path
May 23 01:37:48 | sysfs prioritizer refcount 1
May 23 01:37:48 | unloading sysfs prioritizer
May 23 01:37:48 | unloading const prioritizer
May 23 01:37:48 | unloading tur checker

# lsscsi

Code:
[2:0:0:0]    disk    VMware   Virtual disk     2.0   /dev/sda
[3:0:0:0]    cd/dvd  NECVMWar VMware SATA CD00 1.00  /dev/sr0
[33:0:0:1]   disk    FUJITSU  ETERNUS_DXL      1088  /dev/sdb
[34:0:0:1]   disk    FUJITSU  ETERNUS_DXL      1088  /dev/sdc

# /lib/udev/scsi_id -g -d /dev/sdb
3600000e00d2c0000002c014d00020000

# /lib/udev/scsi_id -g -d /dev/sdc
3600000e00d2c0000002c014d00020000

# pvesm scan lvm

Code:
WARNING: Not using device /dev/sdc for PV MdueSG-N3wH-J11f-8BNN-Ddrq-CEY2-LPTJk9.
  WARNING: PV MdueSG-N3wH-J11f-8BNN-Ddrq-CEY2-LPTJk9 prefers device /dev/sdb because device was seen first.
lvm
pve

Если исключаю один порт, естественно, мультипат не нужен и проблемы нет. Все подобные топикие где только можно изучил, но всё-равно, не могу понять где я туплю.

 , , ,

mishki ()

iscsiadm: cannot make connection to 192.168.2.1: No route to host

установил iscsi на 192.168.2.1 с CentOS 8. ping есть.
добавил порт 3260/tcp в фаерволд.
С 192.168.2.2 ввожу команду:
iscsiadm -m discovery -t st -p 192.168.2.1
Результат: iscsiadm: cannot make connection to 192.168.2.1: No route to host
Отключал фаервол, очищал iptables - не помогло
. Где смотреть? Если надо ещё какие-то конфиги, скажите.

 ,

chart41 ()

Не могу добавить iscsi target в LVM в proxmox .

Добрый день коллеги. Подскажите пожалуйста почему не получается добавить iscsi target в lvm в proxmox? Вот скриншот добавления iscsi target в proxmox (скриншот https://ibb.co/bs2bgQW), он успешно добавляется, вот скриншот попытки добавить iscsi target в proxmox (скриншот https://ibb.co/qn2KDjb). Как видно из скриншота поле «Base volume» в ниспадающем меню пустое и неактивное. Подскажите что делаю не так. Готов предоставить еще материалы. Спасибо.

 , ,

niger12321 ()

Автомонтирование iSCSI

Приветствую. На NAS поднят iSCSI.

На локальном хосте (linux) инициатором используется open-iscsi.

Обнаружение — ОК, ручное подключение — ОК, диск (LUN) доступен, отформатирован и предсказуемо работает.

systemctl status open-iscsi.service — без ошибок, добавлен в автозапуск и реально автозапускается.

Но при перезагрузке хоста автомонтирования диска НЕ случается.

В /etc/iscsi/iscsid.conf определено:

iscsid.startup = /sbin/iscsid

node.startup = automatic

node.leading_login = Yes

Что еще и где надо поправить/посмотреть?

 , ,

mexx ()

Скорость iSCSI в связке centos 7 + vmware

Построил схему:

target - centos 7 , 4 порта в teamd с балансом L4

initiator - vmware ESXI 6.7.0 U3, 4 порта vmkernel с разными адресами.

Трафик раскладывается на 4 интерфейса, но скорость даже до гигабита не дотягивает.

Есть варианты исправить ситуацию, получив скорость больше гигабита?

Схема построения: https://lazy-masty.livejournal.com/12053.html

 , ,

Masty ()

Сockpit — отсутсвует виджет iSCSI в Centos 7.7

В Cockpit 195 нет виджета iSCSI. Как это устроено?

# yum list installed cockpit* udisks*
cockpit.x86_64                                                195.1-1.el7.centos.0.1                                        @extras
cockpit-bridge.x86_64                                         195.1-1.el7.centos.0.1                                        @extras
cockpit-machines.noarch                                       195.1-1.el7.centos.0.1                                        @extras
cockpit-storaged.noarch                                       195.1-1.el7.centos.0.1                                        @extras
cockpit-system.noarch                                         195.1-1.el7.centos.0.1                                        @extras
cockpit-ws.x86_64                                             195.1-1.el7.centos.0.1                                        @extras
udisks2.x86_64                                                2.7.3-9.el7                                                   @base  
udisks2-iscsi.x86_64                                          2.7.3-9.el7                                                   @base  
udisks2-lvm2.x86_64                                           2.7.3-9.el7                                                   @base  

 , , , ,

i586 ()