LINUX.ORG.RU
ФорумAdmin

Скорость iSCSI в связке centos 7 + vmware

 , ,


0

1

Построил схему:

target - centos 7 , 4 порта в teamd с балансом L4

initiator - vmware ESXI 6.7.0 U3, 4 порта vmkernel с разными адресами.

Трафик раскладывается на 4 интерфейса, но скорость даже до гигабита не дотягивает.

Есть варианты исправить ситуацию, получив скорость больше гигабита?

Схема построения: https://lazy-masty.livejournal.com/12053.html


На СХД 4 порта I350-T4 — team'инг с балансером L4

Зочем ? Используй mpio.
Массив на схд вообще способен гигабит прокачать ? Может ты raid6 на днищедисках собрал.

Deleted ()

Насколько я понимаю, бондинг в случае iSCSI помогает мало - все упирается не в пропускную способность сети, а в латентность, которую бондинг только ухудшает :(. Вы можете, конечно, попробовать стандартные оптимизации (поиграться с размерами пакетов, например), но на сильное улучшение я бы не рассчитывал...

Serge10 ★★★★★ ()
Ответ на: комментарий от Deleted

Массив на схд вообще способен гигабит прокачать ?

Что raid1 на Seagate Exos X10, что один диск ST8000AS0002-1NA

Скорость одинакова и меньше в полтора раза, чем на smb 1 GB порт

Masty ()
Ответ на: комментарий от Deleted

И вдогонку

См. ссылку в топике - mpio пользую.

Разобрать статический транк на коммутаторе? Перейти на 802.3ad? Режим teamd поменять на layer2? Или в моей конфигурации это мёртвому припарки?

Masty ()
Ответ на: комментарий от Masty

Скорость на запись или чтение проверяешь ?
Пропустил, что ты купил smr диск. Поидее на чтение больше гигабита диск отдавать не сможет, на запись возможно будет половина гигабита.

Deleted ()
Ответ на: комментарий от Masty

Разобрать team и multipath сделать с порта на порт?

Да, но рассчитывать на серьезное ускорение я бы не стал. Если нужна скорость, надо думать об 10 Gb, а то и вовсе об IB.

Serge10 ★★★★★ ()
Ответ на: И вдогонку от Masty

Мультипас в вмтвари по умолчанию настроен нечестно, он отправляет пачку запросов по одному пути и потом вторую пачку по второму. По крайней мере так раньше было. Поэтому все эти мультипасы при обычном копировании мертвому припарка.

Ну и опять же, где иостаты с таргета и с инициатора. Это как бы первый пункт в списке с которым можно начинать работать.

Nastishka ★★★★ ()
Ответ на: комментарий от Nastishka

«В конце настройки не забыть в политике roundrobin подкрутить преключение на другой канал при iops=1.

esxcli storage nmp psp roundrobin deviceconfig set --type=iops --iops 1 –device=naa.600140582ab748e6b164d0a99a1221ca»

Masty ()
Ответ на: комментарий от Nastishka

К сожалению это избыточно. :(

Ограничением служит SATA3.

ssd и hdd показывают практически одинаковую скорость по nload: ~300Mbit/s, tmpfs - ~ 750Mbit/s

Думаю можно сделать определенные выводы и смотреть в сторону sas, raid10, 10GB ethernet и специализированное оборудование san/nas

Masty ()
Ответ на: комментарий от Nastishka

всё неутешительно

Заявленная разница в скорости осталась.

Два RAID 1 на SEAGATE Exos 10T на одной машине, один рейд - SAMBA, второй - iSCSI.

Linux srv-backup 3.10.0-1062.4.1.el7.x86_64 #1 SMP Fri Oct 18 17:15:30 UTC 2019 x86_64 x86_64 x86_64 GNU/Linux

Сеть:

I350 Gigabit Network 4 порта в team

iSCSI:

cat /sys/kernel/config/target/version

Target Engine Core ConfigFS Infrastructure v5.0 on Linux/x86_64 on 3.10.0-1062.4.1.el7.x86_64

SAMBA:

smbd -V Version 4.9.1

Masty ()