LINUX.ORG.RU

Сообщения mishki

 

Как правильно и грамотно настроить iSCSI на СХД для использования LVM over ISCSi

Форум — Admin

Есть DX200 S4

8 дисков по 950 GB

5 дисков по 3.90 TB

цель - отдать всё это proxmox-у в виде двух независимых LVM over iSCSI.

4 порта на DX200, 4 IP-адреса две панели (на случай выхода из строя) CM00 и CM01 по два порта на каждый.

Как вижу:

  1. создать два Thin Provisioning Pool на два RAID GROUP (RAID5 из 8 дисков + RAID5 из 5 дисков)

  2. создать два Volume (Thin Provisioning Volume)

  3. Host Group для нужных серверов

  4. Port Group - каждый из 4х портов это своя node1, nod2, node3, node4. Две Port Group в которых все 4 порта.

  5. 2 LUN для каждого Volume

  6. 2 Host Affinity. Host Group - CA Port Group, в каждом соответствующие им Host Group, CA Port Group, LUN Group.

вопросы: нужна ли Deduplication/Compression или это лишние расходы?

сделать две ноды, вместо четырёх?

возможно делать надо как-то по другому, потому что пока не понимаю, как в multipath в proxmox-е настроить оба LUN-а, учитываю, что кажды LUN висит на всех портах/таргетах/нодах, или надо разделять, одну LUN Group прикрепить на одну панель (CM00) только с двумя портами, а второй на другую (CM01), но будут проблемы, если выйдет из строя одна из CM?

 , , ,

mishki
()

[РЕШЕНО] Proxmox, один GPU для нескольких VM

Форум — Admin

Есть такая конфигурация.

Virtual Environment 6.4-6 PVE 5.11.17-1
PRIMERGY RX2540 M5
2xNVIDIA Quadro RTX 6000

Есть ли способ использовать графический процессор для нескольких виртуальных машин? Если да, то как?

  1. Citrix или Horizon внутри Proxmox, возможно ли это?

  2. Это полезная информация, можно это использовать? Https://www.techpowerup.com/280454/...rtual-machines-on-consumer-grade-geforce-gpus

  3. SR-IOV? Как это использовать? Нужен ли мне в proxmox специальный драйвер? Нужна лицензия, может быть, пробная версия для теста?

  4. Возможно ли это с Deskpool? https://www.deskpool.com

  5. virgil3d? кто-то работал с этим?

  6. GPU passthrough в Windows 10/2019. потом GPU-Partitioning в Hyper-V. Возможно ли это?

Я успешно использую GPU PCIe Passthrough, но только для 1 виртуальной машины. (или по 2 ВМ на каждую карту)

qm config 820 agent: 1 | bios: ovmf boot: order=scsi0 cores: 4 efidisk0: ssdlvm:vm-820-disk-1,size=4M hostpci0: 18:00,pcie=1,x-vga=1 machine: pc-q35-5.2 memory: 16384 name: w10showdesktop net0: virtio=E6:F2:98:4A:46:2B,bridge=vmbr0,firewall=1 numa: 1 ostype: win10 scsi0: ssdlvm:vm-820-disk-0,backup=0,cache=writeback,discard=on,iothread=1,replicate=0,size=50G,ssd=1 scsihw: virtio-scsi-pci smbios1: uuid=c2a9352c-637c-4d0b-998d-3cadf3e9d19d sockets: 2 vga: virtio

 ,

mishki
()

Proxmox + Eternus DX200, проблема с multipath, wwid not in wwids file

Форум — Admin

Что я могу делать нее так?

SAN - 2 порта in Port Group c разными IP и IQN
172.16.20.228:3260,3 iqn.2000-09.com.fujitsu:storage-system.eternus-dxl:002c0534
172.16.20.229:3260,4 iqn.2000-09.com.fujitsu:storage-system.eternus-dxl:002c0535

Proxmox - добавлен iSCSI, потом LVM over iSCSI
172.16.20.149

/etc/multipath.conf

defaults {
    user_friendly_names    yes
        polling_interval        2
        path_selector           "round-robin 0"
        path_grouping_policy    multibus
        path_checker            readsector0
        uid_attribute          "ID_SERIAL"
        rr_min_io               100
        failback                immediate
        no_path_retry           queue
}
blacklist {
        wwid .*
}
blacklist_exceptions {
        wwid "3600000e00d2c0000002c014d00020000"
}
multipaths {
  multipath {
        wwid "3600000e00d2c0000002c014d00020000"
        alias mpath0
  }
}

# multipath -ll

ничего..

# multipath -v3

===== paths list =====
uuid                              hcil     dev dev_t pri dm_st chk_st vend/pro
3600000e00d2c0000002c014d00020000 33:0:0:1 sdb 8:16  50  undef undef  FUJITSU,
3600000e00d2c0000002c014d00020000 34:0:0:1 sdc 8:32  50  undef undef  FUJITSU,
May 23 01:37:48 | libdevmapper version 1.02.155 (2018-12-18)
May 23 01:37:48 | DM multipath kernel driver v1.13.0
May 23 01:37:48 | sdb: udev property ID_WWN whitelisted
May 23 01:37:48 | sdb: wwid 3600000e00d2c0000002c014d00020000 whitelisted
May 23 01:37:48 | wwid 3600000e00d2c0000002c014d00020000 not in wwids file, skipping sdb
May 23 01:37:#48 | sdb: orphan path, only one path
May 23 01:37:48 | sysfs prioritizer refcount 2
May 23 01:37:48 | sdc: udev property ID_WWN whitelisted
May 23 01:37:48 | sdc: wwid 3600000e00d2c0000002c014d00020000 whitelisted
May 23 01:37:48 | wwid 3600000e00d2c0000002c014d00020000 not in wwids file, skipping sdc
May 23 01:37:48 | sdc: orphan path, only one path
May 23 01:37:48 | sysfs prioritizer refcount 1
May 23 01:37:48 | unloading sysfs prioritizer
May 23 01:37:48 | unloading const prioritizer
May 23 01:37:48 | unloading tur checker

# lsscsi

Code:
[2:0:0:0]    disk    VMware   Virtual disk     2.0   /dev/sda
[3:0:0:0]    cd/dvd  NECVMWar VMware SATA CD00 1.00  /dev/sr0
[33:0:0:1]   disk    FUJITSU  ETERNUS_DXL      1088  /dev/sdb
[34:0:0:1]   disk    FUJITSU  ETERNUS_DXL      1088  /dev/sdc

# /lib/udev/scsi_id -g -d /dev/sdb
3600000e00d2c0000002c014d00020000

# /lib/udev/scsi_id -g -d /dev/sdc
3600000e00d2c0000002c014d00020000

# pvesm scan lvm

Code:
WARNING: Not using device /dev/sdc for PV MdueSG-N3wH-J11f-8BNN-Ddrq-CEY2-LPTJk9.
  WARNING: PV MdueSG-N3wH-J11f-8BNN-Ddrq-CEY2-LPTJk9 prefers device /dev/sdb because device was seen first.
lvm
pve

Если исключаю один порт, естественно, мультипат не нужен и проблемы нет. Все подобные топикие где только можно изучил, но всё-равно, не могу понять где я туплю.

 , , ,

mishki
()

RSS подписка на новые темы