LINUX.ORG.RU
решено ФорумAdmin

Вопрос производительности

 ,


1

2

Здравствуй ЛОР! Есть у меня один вопрос, на который я думаю, что знаю ответ, но всё таки хочу спросить Вашего мнения - вдруг, что-то можно сделать. Итак к сути. Есть два «сервера», вернее сказать - два ПК выделенных для работы серверов samba. На обоих функционируют софтовые RAID массивы. ЖМД, понятое дело, для RAID не предназначены.

Характеристики следующие:

Первый (назовём его шустрик): Debian 7 (Samba - 16 клиентов) Intel Core i3-7100 (3900 MHz, 2 ядра, 4 потока) 12 Гб ОЗУ DDR4 RAID 5 (mdadm) - 3 ЖМД wd10ezex 1tb

Второй (он и по жизни второй): Debian 9 (Samba - 8 клиентов) Intel Core i3-7350k (4200 MHz, 2 ядра, 4 потока) 16 Гб ОЗУ DDR4 RAID 1 (mdadm) - 2 ЖМД wd10ezex 1tb и Toshiba DT01ACA100

Берём 100 Gb и копируем. У первого CPU average (1 min) 2.1, у второго 4.9 и адские муки :) CPU нагружается на процентов 50-60 у обоих процессоров.

Вопрос - почему так? Я думаю, что дело в том, что процессор слабее и Toshiba медленнее WD, раньше Toshiba было два, сразу после поставки поскрипывали и я решил, что дело в них (скоро мне придёт второй WD и попробую Toshiba заменить). Почему сомневаюсь? Вроде разница процессоров не такая большая, как и дисков - а работает заметно медленнее. Читал статьи, где говорилось, что RAID1 шустрее «на запись» чем RAID5. Как Вы считаете, дело в разнице процессоров? Или стоит всё-таки второй ЖМД заменить?

Load average в Linux включает в себя время, которое процесс провел в ожидании дискового ввода/вывода (uninterruptable sleep).

На первом сервере у тебя информация читается сразу с трех дисков параллельно, на втором сервере - записывается на один диск.

Конечно же, чтение с трех дисков будет быстрее, чем запись на 1, поэтому на первом сервере процесс проводит меньше времени в ожидании ввода/вывода, что и отражается на load average.

bigbit ★★★★★
()

В дополнение к посту выше, скажу, что производительность на запись RAID1 равна самому медленному диску в массиве. Там прирост только на чтение.

system-root ★★★★★
()

Процессорных мощностей для работы софтрейда у обоих твоих серверов с большим запасом (на порядок наверное даже?).

BOOBLIK ★★★
()
Ответ на: комментарий от bigbit

Я наверно не точно выразился. Берём 100 Gb и копируем на оба сервера (не с первого на второй). То есть первый не читает, а тоже пишет. Только с работы пришёл. Первый стабильно 2.5, второй 7.9 (!!!). Это ппц какой-то :)

Sandro331k
() автор топика
Ответ на: комментарий от Sandro331k

Ещё забыл упомянуть, на первом swap раздел отсутствует (упустил этот момент). На втором swap в массиве (читал пару статей в интернете, сомневался но сделал так).

Sandro331k
() автор топика
Ответ на: комментарий от Sandro331k

Запись последовательная? Тогда все тоже самое. На три диска данные запишутся быстрее, чем на 1 диск.

А вот если запись случайная, то будет пенальти на запись и не должно быть разницы со вторым сервером.

bigbit ★★★★★
()
Ответ на: комментарий от bigbit

Raid 5 ещё биты чётности считает, за счёт этого запись ниже. Во всех статьях Raid 5 позиционируется, как медленная запись. А RAID 1, как запись равная скорости диска. Например, вот тут даже калькулятор есть - https://efsol.ru/articles/raid-performance.html Может всё же я не попал и оставил Toshiba с дефектом… Хотя смотрел данные smart ничего подозрительного не видел.

Sandro331k
() автор топика
Ответ на: комментарий от Sandro331k

RAID-5 «позиционируется» как медленный на запись вовсе не из-за четности. А из-за пенальти, потому что приходится вычитывать блоки с диска.

У тебя последовательная запись - пенальти не будет.

Я же уже выше про это писал.

bigbit ★★★★★
()
Последнее исправление: bigbit (всего исправлений: 1)

Raid5 на 3х дисках - это плохо.

zemidius
()

Проблема была в дисковой подсистеме. А именно в диске Toshiba. Обратил внимание на график температуры диска в Zabbix. В моменты пиковой нагрузки график Toshiba не строился (появлялись пробельные участки). В то время диск WD отвечал всегда, при любой нагрузке. Заменил Toshiba на WD и производительность существенно выросла.

Sandro331k
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.