LINUX.ORG.RU

Оптимизация пропускной способности сети в Linux


0

0

В статье "Networking scalability on high-performance servers" рассматривается тема оптимизации сетевого обмена между четырьмя Linux машинами, снабженными гигабитными сетевыми картами. Представлены интересные графики изменения пропускной способности, в зависимости от методов соединения машин и используемых параметров тюнинга: numactl (ftp://ftp.suse.com/pub/people/ak/numa...), SMP IRQ affinitization (запрещение миграции обработки прерываний между CPU), объединение нескольких ethernet интерфейсов.

Взято с http://www.opennet.ru/opennews/art.sh...

>>> Подробности

★★★★

Проверено: maxcom ()

Ответ на: комментарий от swar0g

Вероятно подразумевается, что те, которых беспокоит сабж, осилили английский? ;)

Bod ★★★★
() автор топика

Немного не то что ищу. Есть в одном месте у меня сеть где 9 бездисковых рабочих станций по NFS работают с одного сервера. Сеть 100Mb Fullduplex, swich... Вот меня оптимальные настройки NFS бы интересовали....

anonymous
()
Ответ на: комментарий от anonymous

> Немного не то что ищу. Есть в одном месте у меня сеть где 9 бездисковых рабочих станций по NFS работают с одного сервера. Сеть 100Mb Fullduplex, swich... Вот меня оптимальные настройки NFS бы интересовали....

если обмениваются маленькими файлами, очень помогает определить размер блоков чтения/записи поменьше, например: rsize=1024,wsize=1024

Lelik_13a
()
Ответ на: комментарий от anonymous

Может кто дать реальный совет по оптимизации сетевой производительности? Стоит как маршрутизатор Debian Lenny. В пике выдаёт 40 мегабит в 100мегабитной сети. загрузка процессора при этом 20-30%. Видно, что рости есть куда, но никак н получается его раскочегарить хотя бы на 60-70.

anonymous
()
Ответ на: комментарий от anonymous

Не все зависит от сервера. Да и написали здесь что от объемов так же зависит передаваемых данных.

anonymous
()
Ответ на: комментарий от anonymous

А как подкрутить то, что зависит от сервера?

anonymous
()
Ответ на: комментарий от Bod

>http://how-to.ru/linux/howto/NFS-HOWTO-4.html

Ну при такой оптимизации меня бы побили когда пару машин одновременно грузили кеды, а остальные опенофис ;)

man nfs !!!

rsize=32768,wsize=32768,tcp,intr

Далее разнёс всё по двум шарам одна с не изменяющимися файлами ro где ставлю большие таймауты

actimeo=N

и шару с изменяющимися файлами rw с малыми, таймаутами по умолчанию.

Где ещё можно что то улучшить? Использую NFS-3 стоит ли переходить на NFS-4 имею ввиду прирост производительности будет?

>http://www.osp.ru/lan/1999/11/134507/

Так это реклама книги. Мне ссылки бы в инете на статьи какие то...

anonymous
()
Ответ на: комментарий от Lelik_13a

>если обмениваются маленькими файлами, очень помогает определить размер блоков чтения/записи поменьше, например: rsize=1024,wsize=1024

Интересное мнение, ну вообще то бездисковые станции стягивают ВСЕ файлы Линукс для своей работы в большинства которых размер больше 1024. Я максимум производительности получил при rsize=32768,wsize=32768. Да если есть директории с мелкими файлами типа древа портов portage то действительно стоит размер блока устанавливать поменьше и монтировать такие директории отдельно.

anonymous
()
Ответ на: комментарий от anonymous

Да ещё в сильно загруженной 100Mb сети стоит увеличить timeo=28 чтобы после неудачи машина опять сразу в сеть не обращалась.

anonymous
()
Ответ на: комментарий от anonymous

Да ещё такой вопрос: может ли увеличить предварительное связывание скорость работы бездисковых узлов? Теоретически думаю что нет и поэтому не пробывал...

anonymous
()
Ответ на: комментарий от anonymous

>Может кто дать реальный совет по оптимизации сетевой производительности? Стоит как маршрутизатор Debian Lenny. В пике выдаёт 40 мегабит в 100мегабитной сети. загрузка процессора при этом 20-30%. Видно, что рости есть куда, но никак н получается его раскочегарить хотя бы на 60-70.

Попробуйте - http://www.opennet.ru/tips/info/273.shtml

qwe ★★★
()
Ответ на: комментарий от anonymous

объедени несколько сетевых в один канал.

anonymous
()
Ответ на: комментарий от anonymous

>Где ещё можно что то улучшить?

Гуглю на тему: NFS+load+balancing стоит ли рыть в этом направлении, за одно и failover проблему решить, кто то хорошею статейку в тему знает?

anonymous
()
Ответ на: комментарий от anonymous

NFS поверх DRBD позволяет решить проблему с failover + возможно на новом drbd8 писать сразу на две машины.

anonymous
()
Ответ на: комментарий от anonymous

>NFS поверх DRBD позволяет решить проблему с failover

там это не кретично

>+ возможно на новом drbd8 писать сразу на две машины.

_возможно_?? надо будет посмотреть, хорошо бы было, спасибо. А с кластерными fs чтото простое и эфективное есть?

anonymous
()
Ответ на: комментарий от anonymous

> Немного не то что ищу. Есть в одном месте у меня сеть где 9 бездисковых рабочих станций по NFS работают с одного сервера. Сеть 100Mb Fullduplex, swich...

я в таком варианте впихнул несколько сетевых, настроил binding и весьма доволен

три 100 МВ сетевых на файлопомойке работают заметно быстрее гигабитной

а если впихнуто несколько гигабитых, то узким местом могут быть только винты на сервере

vadiml ★★★★★
()
Ответ на: комментарий от vadiml

>я в таком варианте впихнул несколько сетевых, настроил binding и весьма доволен

СПАСИБО ОГРОМНОЕ!!! Так и сделаю, попробую засунуть ещё одну сетевуху.

anonymous
()
Ответ на: комментарий от anonymous

>+ возможно на новом drbd8 писать сразу на две машины.

поставил, посмотрел, на две машины можно писать только в случаи если по верху drbd стоит GFS или OCFS2 но тогда и без drbd обойтись можно. Предыдущий вариант с несколько сетевыми мне понравился больше!

anonymous
()

Вот, как раз.. Почитаем на досуге..

MiracleMan ★★★★★
()
Ответ на: комментарий от vadiml

> три 100 МВ сетевых на файлопомойке работают заметно быстрее гигабитной

как же так? ведь пропускная способность гагабитки = 10 * пропускную способность сотки. Вы делали замеры? насколько быстрее?

ЗЫ, подозреваю, что что-то не так с вашей гигабиткой. Ибо странный результат.

Может спецы местные чего расскажут? как такое может быть?

AndreyKl ★★★★★
()
Ответ на: комментарий от anonymous

> 40 мегабит в 100мегабитной сети. загрузка процессора при этом 20-30%
мегабит или мегабайт? если мегабайт и используете какой-нибудь старый хлам типа десктопной мамы и эзернеты простые desktop и pci - ничего удивительного, так как узким местом в этом случае является сама PCI шина (при 33 Мгц - 133 Мбайт в секунду max на всё!) эмпирически установлено что маршрутизатор на пеньке с 3-4 100MB pci ethernet на борту может максимум выжать 30-40% от скорости PCI. отсюда и Ваши 40-50 мбайт. это предел для 33 мгц 32-битного pci!
чтобы пересылать пакеты быстрее - используйте 66 мгц и 64 бит.

mumpster ★★★★★
()
Ответ на: комментарий от AndreyKl

>как же так? ведь пропускная способность гагабитки = 10 * пропускную способность сотки.

Тут нельзя так в тупую считать. Одно дело соединить две машинки штурком на 100 и 1000 мбитах и передать один большой поток и совсем другое физическая сеть с рандомным доступом и различными задержками на концах, и различными данными которые надо передавать. Не надо забывать, что хоть гигабит и быстрее сотни в 10 раз, но это одно физическое устройство с конечным размером буферов, подключенное к одной физической линии и т.д. А в случае трех карт - физических подключений три. Так что порсто умножать и делить идеальные цифры - это не то же самое что физическая реальность.

r ★★★★★
()

надоели такие статьи - ниачом. лучше бы писали статьи о том как сделать, чтобы система из 10 линуксов на третьем пне и с ide дисками и с 10мбиткой выдерживала триллионы соединений одновременно, вот это была бы статья...

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.