LINUX.ORG.RU

Какая должна быть скорость Samsung 970 evo M.2 NVMe на материнке asus m5a97 проц X6 ?

 , ,


1

2

Спека матери: https://www.asus.com/Motherboards/M5A97/specifications/

SSD: https://ssd.userbenchmark.com/SpeedTest/494033/Samsung-SSD-970-EVO-250GB

SSD воткнута в слот: 1 x PCIe 2.0 x16 (x4 mode, black)

Чтение:

 dd bs=1M if=/dev/nvme0n1p1 | pv > /dev/null
^C70GiB 0:01:15 [ 959MiB/s] [                                                <=>                                                 ]
72060+0 records in                                                                                                            
72059+0 records out
75559337984 bytes (76 GB, 70 GiB) copied, 75.3651 s, 1.0 GB/s



dstat

usr sys idl wai hiq siq| read  writ| recv  send|  in   out | int   csw 
 0  19  79   1   0   1|1928M   17k| 236B 1448B|   0     0 |  31k   59k
  0  19  81   0   0   0|1940M    0 | 236B 1448B|   0     0 |  32k   60k
  0  18  81   0   0   0|1926M    0 | 236B 1432B|   0     0 |  31k   59k
  0  19  81   0   0   0|1934M    0 | 236B 1432B|   0     0 |  31k   59k
  0  18  74   6   0   1|1912M  687k|1076B 2196B|   0     0 |  32k   60k
  0  19  77   3   0   1|1912M  225k| 640B 2100B|   0     0 |  31k   59k
  0  19  80   0   0   0|1942M    0 | 236B 1448B|   0     0 |  31k   59k
  0  19  81   0   0   0|1938M    0 | 236B 1432B|   0     0 |  31k   59k
  0  19  80   0   0   0|1922M    0 | 236B 1432B|   0     0 |  31k   59k
  1  19  76   4   0   1|1918M  591k|1286B 1764B|   0     0 |  32k   60k
  0  19  75   4   0   1|1908M  318k| 586B 1532B|   0     0 |  31k   59k
  0  19  81   0   0   0|1920M    0 | 236B 1400B|   0     0 |  31k   58k
  0  19  81   0   0   0|1924M    0 | 236B 1384B|   0     0 |  31k   58k
  1  19  80   0   0   1|1924M    0 | 236B 1384B|   0     0 |  31k   59k
  0  19  77   3   0   1|1912M  397k| 236B 1384B|   0     0 |  31k   59k
  0  19  65  13   0   2|1868M 3714k| 236B 1400B|   0     0 |  32k   60k
  0  19  79   2   0   0|1920M 8192B| 236B 1400B|   0     0 |  31k   59k
  0  15  84   0   0   0|1538M    0 |1112B 3336B|   0     0 |  25k   47k

Запись:

mount
tmpfs on /mnt/d3 type tmpfs (rw,relatime,size=26214400k)

cat /mnt/d3/3.bin | pv | dd bs=1M of=/dev/nvme0n1p1
16.5GiB 0:00:22 [ 758MiB/s] [                                                        <=>                                                                   ]
0+136068 records in
0+136068 records out
17738137600 bytes (18 GB, 17 GiB) copied, 29.9738 s, 592 MB/s

dstat
You did not select any stats, using -cdngy by default.
----total-cpu-usage---- -dsk/total- -net/total- ---paging-- ---system--
usr sys idl wai hiq siq| read  writ| recv  send|  in   out | int   csw 
  1   3  84  12   0   0|  50M   78M|   0     0 |   0     0 |  13k   24k
  1  34  65   0   0   1| 512B 1384M| 236B 2376B|   0     0 |  39k   75k
  1  36  55   8   0   1|   0  1655M| 236B 1448B|   0     0 |  37k   70k
  0  33  65   0   0   1|   0  1386M| 236B 1432B|   0     0 |  39k   74k
  0  35  64   0   0   1|   0  1613M| 236B 1432B|   0     0 |  38k   73k
  0  34  65   0   0   1|   0  1623M| 236B 1432B|   0     0 |  35k   67k
  0  34  65   0   0   0|   0  1541M| 236B 1432B|   0     0 |  38k   73k
  0  34  52  12   0   1|   0  1401M| 354B 1732B|   0     0 |  37k   70k
  0  34  62   3   0   1|   0  1416M| 236B 1432B|   0     0 |  35k   68k
  0  34  64   0   0   1|   0  1510M| 236B 1432B|   0     0 |  35k   71k
  0  35  64   0   0   1|   0  1546M| 410B 1768B|   0     0 |  38k   72k
  0  34  65   0   0   1|   0  1516M| 236B 1432B|   0     0 |  33k   63k
  0  34  56   7   0   2|   0  1538M| 236B 1432B|   0     0 |  37k   70k
  0  32  61   7   0   0|   0   982M| 354B 1732B|   0     0 |  38k   74k
  1  30  55  13   0   1|   0   615M| 236B 1432B|   0     0 |  37k   71k
  0  31  55  14   0   1|   0   613M| 236B 1432B|   0     0 |  36k   69k
  0  33  54  12   0   0|   0   613M| 236B 1432B|   0     0 |  37k   72k
  1  27  52  19   0   2|   0   616M| 472B 2184B|   0     0 |  32k   63k
  0   1  67  32   0   0|   0   614M|1394B 1860B|   0     0 |3269  5884 
  0   1  67  32   0   0|   0   616M| 118B  812B|   0     0 |2636  3927 
  0   5  70  25   0   0|   0   611M| 118B  812B|   0     0 |  28k   54k
  0   4  70  26   0   0|   0   613M| 118B  812B|   0     0 |  29k   55k
  0   5  63  31   0   1|   0   613M| 118B  812B|   0     0 |  31k   60k
  0   4  63  33   0   0|   0   614M| 118B  812B|   0     0 |  23k   44k
  0   2  81  17   0   0|   0   610M| 118B  812B|   0     0 |5412  9945 
  0  10  89   0   0   0|2068k    0 | 354B 1700B|   0     0 | 720   384 





Последнее исправление: linlin (всего исправлений: 2)

Почему по dstat вычитывается в 2 раза больше, чем логически в dd? Наверно это что-то связанное с размером блока и смещениями? Как можно увеличить скорость логического чтения до физического, т.е. в 2 раза?

linlin
() автор топика

Я через гномовскую утилиту Disks свой 960 evo когда-то тестил, на неразмеченном всё сосало, а когда разметил попёрло 3.3гб/с при последовательном чтении по 100мб, на запись тоже что-то эпичное было.

WitcherGeralt ★★
()

ну 592 это ещё хорошо, т.к. по второй твоей ссылке

Weaknesses
Avg. Sustained Write Speed 414MB/s
Avg. 4K Random Write Speed 142MB/s

а так 970 250 и =>500 это небо и земля, см виндовые тесты тут

так шта эт норма(с)Малышева.жпг


так же возможен тротлинг по перегреву при долгом тестировании. радиатор/обдув?

etwrq ★★★★★
()
Последнее исправление: etwrq (всего исправлений: 2)
Ответ на: комментарий от linlin

Как можно увеличить скорость логического чтения до физического, т.е. в 2 раза?

Выровнять границы блоков ФС по 4k-сектору.

iZEN ★★★★★
()
Ответ на: комментарий от iZEN

Выровнять границы блоков ФС по 4k-сектору.

Причем тут выравнивание? Скорость чтения должна быть в 2 раза выше

dd if=/dev/nvme0n1 bs=1M | pv > /dev/null                             
^C.5GiB 0:01:21 [ 965MiB/s] [                      <=>                                      ]
80301+0 records in                                                                         
80300+0 records out                                                                        
84200652800 bytes (84 GB, 78 GiB) copied, 82.4371 s, 1.0 GB/s  

linlin
() автор топика
Ответ на: комментарий от anonymous

Да, твоя мамка и проц тыквят твой ssd. Ещё вопросы есть?

Почему тогда запись достигает своих максимальных значений?

linlin
() автор топика
Ответ на: комментарий от linlin

Ты читаешь с размеченного раздела, так? Попробуй читать с RAW-носителя - увидишь, если скорости чтения различаются, значит раздел неправильно выровнен.

iZEN ★★★★★
()
Ответ на: комментарий от linlin

А чем dd вообще такое особенное, кроме полезности в редких случаях, когда нужны bs/skip/seek/conv? Замени его cat или сразу pv. pv /dev/zero > /dev/null

anonymous
()
Ответ на: комментарий от anonymous

cat cat /sys/devices/system/cpu/vulnerabilities/spectre_v2

Mitigation: Full AMD retpoline

Отключение оставит проц без патчей? Чем это черевато?

linlin
() автор топика
Ответ на: комментарий от linlin

Если это домашний десктоп, то ничем. В любом случае, за время замера злые хакеры не успеют ничего сломать.

anonymous
()

Настоятельно рекомендую научиться испоьзовать fio. Самая мякотка ssd не в линейных скоростях, а вообще в iops.

Deleted
()
Ответ на: комментарий от linlin

lspci -vvv

07:00.0 Non-Volatile memory controller: Samsung Electronics Co Ltd Device a808 (prog-if 02 [NVM Express])
        Subsystem: Samsung Electronics Co Ltd Device a801
        Control: I/O- Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR- FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
        Latency: 0, Cache Line Size: 64 bytes
        Interrupt: pin A routed to IRQ 20
        NUMA node: 0
        Region 0: Memory at fe600000 (64-bit, non-prefetchable) [size=16K]
        Capabilities: [40] Power Management version 3
                Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
                Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
        Capabilities: [50] MSI: Enable- Count=1/1 Maskable- 64bit+
                Address: 0000000000000000  Data: 0000
        Capabilities: [70] Express (v2) Endpoint, MSI 00
                DevCap: MaxPayload 256 bytes, PhantFunc 0, Latency L0s unlimited, L1 unlimited
                        ExtTag- AttnBtn- AttnInd- PwrInd- RBE+ FLReset+ SlotPowerLimit 0.000W
                DevCtl: Report errors: Correctable+ Non-Fatal+ Fatal+ Unsupported+
                        RlxdOrd- ExtTag- PhantFunc- AuxPwr- NoSnoop+ FLReset-
                        MaxPayload 128 bytes, MaxReadReq 512 bytes
                DevSta: CorrErr- UncorrErr- FatalErr- UnsuppReq- AuxPwr- TransPend-
                LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L1, Exit Latency L0s unlimited, L1 <64us
                        ClockPM+ Surprise- LLActRep- BwNot- ASPMOptComp+
                LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 5GT/s, Width x4, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
                DevCap2: Completion Timeout: Range ABCD, TimeoutDis+, LTR+, OBFF Not Supported
                DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis-, LTR-, OBFF Disabled
                LnkCtl2: Target Link Speed: 5GT/s, EnterCompliance- SpeedDis-
                         Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
                         Compliance De-emphasis: -6dB
                LnkSta2: Current De-emphasis Level: -3.5dB, EqualizationComplete-, EqualizationPhase1-
                         EqualizationPhase2-, EqualizationPhase3-, LinkEqualizationRequest-
        Capabilities: [b0] MSI-X: Enable+ Count=33 Masked-
                Vector table: BAR=0 offset=00003000
                PBA: BAR=0 offset=00002000
        Capabilities: [100 v2] Advanced Error Reporting
                UESta:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UEMsk:  DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
                UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
                CESta:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr-
                CEMsk:  RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr+
                AERCap: First Error Pointer: 00, GenCap+ CGenEn- ChkCap+ ChkEn-
        Capabilities: [148 v1] Device Serial Number 00-00-00-00-00-00-00-00
        Capabilities: [158 v1] Power Budgeting <?>
        Capabilities: [168 v1] #19
        Capabilities: [188 v1] Latency Tolerance Reporting
                Max snoop latency: 0ns
                Max no snoop latency: 0ns
        Capabilities: [190 v1] L1 PM Substates
                L1SubCap: PCI-PM_L1.2+ PCI-PM_L1.1+ ASPM_L1.2+ ASPM_L1.1+ L1_PM_Substates+
                          PortCommonModeRestoreTime=10us PortTPowerOnTime=10us
                L1SubCtl1: PCI-PM_L1.2- PCI-PM_L1.1- ASPM_L1.2- ASPM_L1.1-
                           T_CommonMode=0us LTR1.2_Threshold=0ns
                L1SubCtl2: T_PwrOn=10us
        Kernel driver in use: nvme
        Kernel modules: nvme

linlin
() автор топика
Ответ на: комментарий от linlin

PCIe 2.0 doubles the per-lane throughput to 5GT/s, which gives us 500MB/s of actual data transfer per lane.

Получается 4x lanes должно пропускать до 2гигабайт в секунду, тогда, наверно, имеет смысл поменять Samsung 256GB на более быструю Samsung 512GB?

linlin
() автор топика
Ответ на: комментарий от linlin

имеет смысл поменять Samsung 256GB на более быструю Samsung 512GB?

Имеет смысл поменять свой муляж на компьютер:

# nvme list
Node             SN                   Model                                    Namespace Usage                      Format           FW Rev  
---------------- -------------------- ---------------------------------------- --------- -------------------------- ---------------- --------
/dev/nvme0n1     XXXXXXXXXXXXXXX      Samsung SSD 970 EVO 250GB                1         101,62  GB / 250,06  GB    512   B +  0 B   XXXXXXXX

# pv /dev/nvme0n1 > /dev/null
^C,7GiB 0:00:18 [3,08GiB/s] [==========>                                                          ] 16% ETA 0:01:33
anonymous
()

1. Зависит от объема диска.
2. Зависит от записываемого файла.
3. Зависит от степени «усталости» диска (как давно был трим).

А вообще посмотри обзоры. В рунете есть офигенно подробные разборы этих дисков.

dk-
()
Ответ на: комментарий от anonymous

А для снижения утилизации на рандомных иопсах имеет смысл поменять на 512GB на моей старенькой материнке?

iostat для 256GB показывает временами утилизацию до 90%

SSDха разбита на несколько разделов, 3 ZFS лога и 3 ZFS кэша.

linlin
() автор топика
Ответ на: комментарий от linlin

При этом количество передаваемых данных относительно невилико:

Device            r/s     w/s     rkB/s     wkB/s   rrqm/s   wrqm/s  %rrqm  %wrqm r_await w_await aqu-sz rareq-sz wareq-sz  svctm  %util
nvme0n1          0.00    3.00      0.00     32.00     0.00     0.00   0.00   0.00    0.00    8.00   0.92     0.00    10.67 301.33  90.40

linlin
() автор топика
Ответ на: комментарий от linlin

Потому что случайный доступ. Потому оперативка и кэш в процессорах есть, хотя у них линейные скорости по современным меркам не такие уж большие, а вот случайный доступ в сотни и тысячи раз быстрее.

anonymous
()
Ответ на: комментарий от linlin

А для снижения утилизации на рандомных иопсах имеет смысл поменять на 512GB на моей старенькой материнке?

Для увеличения объёма — имеет. Для каких-то гипотетических иопсов — не факт, скорее всего на глаз никогда не увидишь разницы.

anonymous
()
Ответ на: комментарий от anonymous

Ну и что, что случайный? 3 iops и 90% утилизации?

В тестах упоминаются тысячи рандомных IOPs, тогда утилизация получается десятки тысяч процентов чтоли?

linlin
() автор топика
Ответ на: комментарий от linlin

Там разъем 16X, наверно, задействованно только 2 по 4X.

linlin
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.