LINUX.ORG.RU

47
Всего сообщений: 999

M.2 NVMe SSD под корень на десктопе.

Добрый день! Имеется Athlon 3000g и материнка с поддержкой загрузочного SSD m.2 NVMe. Решил попробовать попробовать новую технологию, но как обстоит дело с ней в Linux (рабочий дистрибутив Debian 11)? Я в курсе, что поддержка NVMe давно включена в ядро, но в Интернете маловато информации именно об десктопном использовании. Кто-то писал, что присутствуют проблемы с загрузкой, если на NVMe будет располагаться корень. И подобные диски каких-нибудь производителей могут случайно не поддерживаться материнской платой, или это слухи (в списке поддерживаемых платой Asrock дисков нет производителя Goodram)?

 , , , ,

faositb ()

Thinkpad t440p m.2 интерфейс.

Thinkpad t440p , m.2 разьем , какой ссд можно вставить? Sata или pci express?

 , , ,

psiman ()

RTL9210 SSD зависает.

Приветствую камрады!

Прикупил Orico NVMe M.2 SSD 10Gbps, на базе бриджа RTL9210, установил туда KINGSTON SA400S37120G, который до этого стоял в домашней машине и бутстрапнул туда арч, чтобы можно было загрузиться в полноценную систему на рабочей машине (на которой стоит оффтопик).

Первые проблемы начали вылазить в процессе бутстрапа и выглядели как ошибки драйвера UAS с отвалом диска. Лог ядра добавлю позже, если получится проблему воспроизвести. UAS я попробовал вылечить через usb-storage.quirks=0bda:9210:u, что вроде как помогло доустановисть систему и загрузиться с самого диска. Но в процессе работы с диска он периодически отваливается с полным зависанием системы (разумеется). После резета машины, диск не детектится в BIOS (но это возможно связано с кривым ASUS-овским биосом), его необходимо переподключить.

Решать проблему я начал с кабелей. Изначально адаптер был подключен через родной короткий шнурок USB3.0 <-> Type-C к удлинителю USB2.0. Дома, при подключении к ноуту родным шнурком в USB2 порт, проблема воспроизвелась. Я предположил, что у адаптера плохая поддержка USB2 и подключил его в USB3.0 на работе коротким кабелем. При работе на порте 3.0 зависаний не происходило (возможно мне повезло), но лазить каждый раз под стол не прикольно, поэтому был куплен 3.0 <-> Type-C на 1.8м.

Прошивка. На форуме есть тред по прошивке RTL9210 и аналогичных бриджей, а на station-drivers.com есть последняя версия 1.25, на которую я обновился с текущей 1.24. Вот старый дамп MPTool до прошивки:

( читать дальше... )

Попутно инфо системы:

( читать дальше... )

И лог ядра, в момент отвала диска, когда я был загружен с флешки:

( читать дальше... )

Прошивка не помогла, как и установка DISK_IPS_THRES отвечающего за отключение питания шины PCI по таймауту во имя энергосбережения (некоторым помогало с отвалами). Передача в параметре ядра quirks для отключения UAS не помогает.

В текущий момент проверяю короткий кабель, есть подозрение на длинный 1.8м, который китайский и бюджетный за ~5$, хотя производитель указал на упаковке по экрану на каждую дифференциальную пару включая общий экран.

Есть идеи? Кто-то вообще с такими адаптерами работал? Может они вообще не предназначены, чтобы с них грузились?

 , ,

wheelman ()

Чем смотреть модели подключенных дисков в пингвине

В данный момент к моей машине подключено три диска. Один SSD от самсунга и два тошибовских харда (один на терабайт, другой на два терабайта). Их удобно различать по моделям. Чем, кроме fdisk -l можно смотреть модель диска. Не плющит меня каждый раз его от рута запускать.

 , , ,

hateWin ()

Перенос ОС на другой диск

Здравствуйте. Как перенести ОС на другой диск, если вставить одновременно можно только один? В качестве буффера внешний hdd по usb, но его форматировать нельзя. Если так проще, можно использовать не только средства linux. Спасибо

 ,

AndreyPr ()

NVME накопитель и GNU / Linux

Всем бодрого дня!
Пока клиенты идут, хочу собрать себе рабочий комп. Поставить туда GNU / Linux Mint скорее всего будет и оффтоик в VMWare. Уже купил проц i3-10100F(1200), хочу купить SSD накопитель KINGSTON A2000 SA2000M8/500G 500ГБ, M.2 2280, PCI-E x4, NVMe.
Меня интересует как он будет работать на самом деле? Клиентке ставил на оффтопик 10 он действительно выдаёт 2000 чтение и 1500 на запись по-моему. Нужно ли будет ставить отдельные дрова или взять обычный Sata на 500/300MB?

 , , ,

xwicked ()

Что лучше: HDD или SSD?

Приветствую всех кто это читает (и не читает тоже)! В прошлой теме Проблемы с системой я понял что жесткий диск уже начал сдаваться (и судя по SMART). В общем решил я его заменить. И такой вопрос: а что быстрее: HDD или SSD? Работаю я много, особенно с файлами.

 , ,

Dumppper001 ()

fstrim и hdd рейд

Заметил, что запускаемый по расписанию fstrim на Debian 11, усиленно насилует hdd диски! Если запускать

sudo fstrim --listed-in /etc/fstab --verbose
то работает долго и слышно как обычные диски, связанные в рейд, усиленно насилуются, если /etc/fstab скопировать и закомментить hdd раздел, то
sudo fstrim --listed-in /tmp/fstab --verbose
пролетает мгновенно. Что это за подстава? И для hdd надо что-то в fstab прописывать, чтоб его в покое оставили???

vitus@vitus-home:/data/Видео$ cat /etc/fstab
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# systemd generates mount units based on this file, see systemd.mount(5).
# Please run 'systemctl daemon-reload' after making changes here.
#
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
# / was on /dev/nvme0n1p2 during installation
UUID=2068fd14-5203-4232-98d2-59a4dd517163 /               ext4    noatime,nodiratime,errors=remount-ro 0       1
# /boot/efi was on /dev/nvme0n1p1 during installation
UUID=A544-D3FB  /boot/efi       vfat    umask=0077      0       1
# /data was on /dev/md0 during installation
UUID=1102cf02-8776-4331-9eb4-dea36bf6ae08 /data           ext4    defaults        0       2
# swap was on /dev/nvme0n1p3 during installation
UUID=b1667351-0f67-48ad-a68a-a06548ef6641 none            swap    sw              0       0

 , , ,

vtVitus ()

Samsung, линуксы, трим – опять как всегда

У обладателей Samsung SSD 860 и 870 сюрпризы с линуксами

https://www.phoronix.com/scan.php?page=news_item&px=Samsung-860-870-More-Quirks

 , ,

fornlr ()

выхлоп flashbench не могу сообразить

эта штука считывает с выравниванием от больших к маленьким,
блоки размером с -b, а не с размером выравнивания

направление не понятно мне

pre  align - blocksize
on   align - blocksize / 2
post align

https://github.com/bartman/flashbench/blob/master/flashbench.c#L300

в итоге наколдовал

256M группа распределения? т.е. выполнение на них распараллеливается, 128MB 1/2, а 64M лишь 1/4
32M тоже нормально паралелятся, но что-то мне подсказывает что это из-за слабой нагрузки?
8M блок стирания максимальный? т.е. выполнение на границе медленное
<=16K для запросов чтения?

остановился пока на этом, zone 256M скорость записи была выше, чем с 32M

mkfs.f2fs -s $((8388608/1024/1024/2)) -z $((268435456/8388608)) /dev/sdX

flashbench -a -c 5000 -b $((1024)) /dev/sda

align 68719476736	pre 76µs	on 86.2µs	post 72.8µs	diff 11.9µs
align 34359738368	pre 89.3µs	on 100µs	post 84µs	diff 13.7µs

align 17179869184	pre 101µs	on 114µs	post 97.8µs	diff 14.9µs
align 8589934592	pre 97µs	on 112µs	post 95.3µs	diff 16.1µs
align 4294967296	pre 99.1µs	on 107µs	post 97.1µs	diff  9.2µs
align 2147483648	pre 82.9µs	on 108µs	post 101µs	diff 16.7µs
# 1-4 гигабайт, данун ах
align 1073741824	pre 88.4µs	on 98.3µs	post 85µs	diff 11.6µs
align 536870912		pre 87.7µs	on 99.8µs	post 87.6µs	diff 12.2µs
# считывание с разных 256MB быстро
align 268435456		pre 83.6µs	on 90.5µs	post 84.2µs	diff  6.61µs
# считывание с разных 128M нормально
align 134217728		pre 87.6µs	on 96.3µs	post 87.5µs	diff  8.82µs #128M
# медленно считывает на границе 64M
align 67108864		pre 87.2µs	on 118µs	post 83.4µs	diff 32.3µs
# с границей 32M непонятно
align 33554432		pre 85.6µs	on 92.9µs	post 85.3µs	diff 7.48µs #32M
align 16777216		pre 87.2µs	on 114µs	post 87µs	diff 26.9µs
align 8388608		pre 80.9µs	on 108µs	post 86.8µs	diff 23.9µs #8MB
# в пределах 8M и на границе  4M считывает быстро
align 4194304		pre 77.3µs	on 80.7µs	post 74.5µs	diff  4.78µs
align 2097152		pre 74.9µs	on 89.1µs	post 79.1µs	diff 12.1µs
# самые быстрые 1M, но не с другого конца
align 1048576		pre 71.8µs	on 86.5µs	post 80.8µs	diff 10.2µs
align 524288		pre 82.1µs	on 89.4µs	post 74.1µs	diff 11.3µs
align 262144		pre 88.8µs	on 96.8µs	post 83.1µs	diff 10.9µs
align 131072		pre 90.5µs	on 94.7µs	post 89µs	diff  4.96µs
align 65536		pre 87.3µs	on 97.9µs	post 85.7µs	diff 11.4µs
align 32768		pre 85.6µs	on 94.2µs	post 85.8µs	diff  8.53µs
# на границе 16к считывает медленно, но почему большие выравнивания быстрые
align 16384		pre 87µs	on 104µs	post 85µs	diff 17.9µs
# на границе  8к считывает быстро, значит в  пределах 16к блока
align 8192		pre 84.5µs	on 95.5µs	post 90.4µs	diff  8.08µs
align 4096		pre 87.6µs	on 96.7µs	post 85µs	diff 10.4µs
align 2048		pre 86.1µs	on 86.6µs	post 85.9µs	diff 592ns

ничего не понимаю

 , , , ,

nanosecond ()

f2fs разница между segment section zone ?

допустим у меня sdcard
допустим мне известны: page, multi-plane access, erase block, allocation group

что указывать в mkfs.f2fs? для уже выровненного раздела

       -s #-of-segments-per-section
              Specify  the  number  of segments per section. A section consists of multiple consecutive segments, and is the unit of garbage collection.  The default number is 1, which means one segment is
              assigned to a section.
       -z #-of-sections-per-zone
              Specify the number of sections per zone. A zone consists of multiple sections.  F2FS allocates segments for active logs with separated zones as much as possible.  The  default  number  is  1,
              which means a zone consists of one section.

https://www.kernel.org/doc/Documentation/filesystems/f2fs.txt

In order to align F2FS with underlying flash-based storage, F2FS allocates a segment in a unit of section. F2FS expects that the section size would be the same as the unit size of garbage collection in FTL. Furthermore, with respect to the mapping granularity in FTL, F2FS allocates each section of the active logs from different zones as much as possible, since FTL can write the data in the active logs into one allocation unit according to its mapping granularity.


ничего не понимаю, но вот что получается ??

segment не меняется, и тупо 2MB

section для garbage collection in FTL, наверное здесь указывать блок стирания если тут мусорщик?

zone так понял чтобы разные active logs одновременно в нее не записывали, но не понимаю зачем это нужно, группа распределения?

 , ,

nanosecond ()

ресурс ssd

в общем, ноутбук живет уже год, задумался о ресурсе моего ssd, в документах нашел только, что ресурс 3000000ч, сколько TB, не сказано, смарт показывает

Data Units Read:                    3,192,703 [1.63 TB]
Data Units Written:                 4,805,015 [2.46 TB]

скажите, это много или можно пока забить? диск KBG30ZMV256G KIOXIA

 , ,

IvanR ()

Уменьшается емкость раздела на SSD

Сабж. Стала выскакивать уведомлялка, что кончается место на /home, ранее не обращал внимания, просто чистил от мусора и всё, но теперь заметил - место выжрано в ноль, но занято меньше емкости диска:

$ df -h
/dev/sdc3         81G          77G     0          100% /home

Более того, прибил почти весь софт, удалил ещё гигабайт - и с охренением наблюдал как он испарился:

$ df -h
/dev/sdc3         81G          76G     0          100% /home

Вывод SMART:

Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAGS    VALUE WORST THRESH FAIL RAW_VALUE
  1 Raw_Read_Error_Rate     PO-R--   100   100   050    -    0
  9 Power_On_Hours          -O--C-   100   100   000    -    16615
 12 Power_Cycle_Count       -O--C-   100   100   000    -    9633
 17 Unknown_Attribute       -O--C-   100   100   000    -    54
168 SATA_Phy_Error_Count    -O--C-   100   100   000    -    6
170 Bad_Blk_Ct_Erl/Lat      PO----   100   100   010    -    0/255
173 MaxAvgErase_Ct          -O--C-   100   100   000    -    576 (Average 220)
192 Unsafe_Shutdown_Count   -O--C-   100   100   000    -    487
194 Temperature_Celsius     PO---K   070   070   030    -    30 (Min/Max 29/30)
218 CRC_Error_Count         PO-R--   100   100   050    -    3
231 SSD_Life_Left           PO--C-   100   100   000    -    93
233 Flash_Writes_GiB        PO-R--   100   100   000    -    79025
241 Lifetime_Writes_GiB     -O--C-   100   100   000    -    10298

Device Statistics (GP Log 0x04)
Page  Offset Size        Value Flags Description
0x01  =====  =               =  ===  == General Statistics (rev 2) ==
0x01  0x008  4            9633  ---  Lifetime Power-On Resets
0x01  0x018  6     21598282234  ---  Logical Sectors Written
0x01  0x020  6       130444916  ---  Number of Write Commands
0x01  0x028  6     19760364680  ---  Logical Sectors Read
0x01  0x030  6       357862452  ---  Number of Read Commands
0x04  =====  =               =  ===  == General Errors Statistics (rev 1) ==
0x04  0x008  4              22  ---  Number of Reported Uncorrectable Errors
0x04  0x010  4               0  ---  Resets Between Cmd Acceptance and Completion
0x05  =====  =               =  ===  == Temperature Statistics (rev 1) ==
0x05  0x008  1              32  ---  Current Temperature
0x05  0x010  1              32  ---  Average Short Term Temperature
0x05  0x018  1              32  ---  Average Long Term Temperature
0x05  0x020  1              50  ---  Highest Temperature
0x05  0x028  1               5  ---  Lowest Temperature
0x05  0x030  1              50  ---  Highest Average Short Term Temperature
0x05  0x038  1              16  ---  Lowest Average Short Term Temperature
0x05  0x040  1              50  ---  Highest Average Long Term Temperature
0x05  0x048  1              16  ---  Lowest Average Long Term Temperature
0x05  0x050  4               0  ---  Time in Over-Temperature
0x05  0x058  1              50  ---  Specified Maximum Operating Temperature
0x05  0x060  4               0  ---  Time in Under-Temperature
0x05  0x068  1               5  ---  Specified Minimum Operating Temperature
0x06  =====  =               =  ===  == Transport Statistics (rev 1) ==
0x06  0x008  4         2588008  ---  Number of Hardware Resets
0x06  0x018  4               3  ---  Number of Interface CRC Errors
0x07  =====  =               =  ===  == Solid State Device Statistics (rev 1) ==
0x07  0x008  1               5  ---  Percentage Used Endurance Indicator

Это какие-то ssd-шные приколы? Запускал fstrim, он оттримал 4 гига, но место так и не появилось. Что вообще происходит?

 

eagleivg ()

srm vs wipe vs shred

Добрый вечер, стало любопытно какой способ удаления данных самый безопасный? Какой лучше всего подходит под HDD, а какой под SSD. Команды которые на мой взгляд самые адекватные в соотношении безопасность/время: srm -rvf -D; shred -zvu -n 5; просто wipe(с нем лень разбираться))

 , ,

ZeeCaptain ()

Низкая производительность файловых операций PHP

Есть сайт на битриксе на дедике.

И в этот самый битрикс встроена функция тестирования производительнсти система. Один из тестов - скорость файловых операций - подсчитывается сколько за секунду может быть создано, заинклюжено и удалено файлов. Нормой считается 10000. По факту хорошая система на SSD выдает 40-50 тысяч (специально взял VDSку и проверил).

Однако на вышеупомянутом сайте это число не больше 20000, а в срденем вообще в районе той самой хилой нормы. При этот деди имеет два интеловских nvme в рейд1.

root@site ~# hdparm -t /dev/md126 

/dev/md126:
 Timing buffered disk reads: 2532 MB in  3.00 seconds = 843.80 MB/sec
root@site ~# sync; dd if=/dev/zero of=tempfile bs=1M count=1024; sync
1024+0 записей получено
1024+0 записей отправлено
 скопировано 1073741824 байта (1,1 GB), 0,672519 c, 1,6 GB/c

Из самой системы вроде все неплохо. С рандомным доступом тоже все хорошо.

Но тесты в PHP плохие. Выковырнул код теста в отдельный скрипт: https://pastebin.com/f8NW8JKv

Прогнал его на специально купленной VDS (server2) и подопытном (server1):

bitrix@server2 ~> php www/file_test.php
17076.859502993

user@sever1 ~/w/mysite.ru> php _test/file_test.php
11523.489278892

При этом тесты производительности из системы показывают в два раза меньшую скорость на server2, а server1 в тестах PHP показывают в 5 раз меньшую скорость.

Т.е. тормозит именно PHP. При этом и там и там 7.4.21. И там и там CentOS 7 и ядро 3.10 что-тот там. Настройки переносить пробовал. Модули php активированные делал идентичными наборами - ничего не помогает.

Я похоже не один такой: https://dev.1c-bitrix.ru/support/forum/forum32/topic86027/

Куда копать?

UPD:

Ранее были не совсем верные данные по скриптам при запуске из консоли, разница не такая ощутимая, как при запуске из вэб интерфейса где продакшен проигрывает 15000 к 44000.

Сейчас данные тестов из коносли честные.

UPD2: Низкая производительность файловых операций PHP (комментарий)

 , , , ,

Suntechnic ()

Насколько важен показатель DWPD у SSD?

Это значение можно считать условным? Насколько я понимаю, TBW несколько условно, потому что на практике диск может подохнуть и до достижения этой отметки. А возможно, что он сможет функционировать ещё некоторое время после пересечения TBW.

Если верить этой формуле (из источника: DWPD = TBW * 1000 / (365 * годы_использования * объём_диска), DWPD пропорционален TBW, и тогда его не нужно рассматривать отдельно. А есть всякие статьи, которые говорят, что DWPD тоже влияет на жизнь диска.

Чему верить?

 

xt1zer ()

ssd почти всё? (SMART)

Есть диск

smartctl 7.0 2018-12-30 r4883 [x86_64-linux-5.4.106] (local build)
Copyright (C) 2002-18, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Intel 730 and DC S35x0/3610/3700 Series SSDs
Device Model:     INTEL SSDSC2BB240G4

...
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  5 Reallocated_Sector_Ct   0x0032   016   016   000    Old_age   Always       -       2040
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       50408
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       21
170 Available_Reservd_Space 0x0033   058   058   010    Pre-fail  Always       -       0
174 Unsafe_Shutdown_Count   0x0032   100   100   000    Old_age   Always       -       10
175 Power_Loss_Cap_Test     0x0033   100   100   010    Pre-fail  Always       -       651 (297 2533)
190 Temperature_Case        0x0022   079   079   000    Old_age   Always       -       21 (Min/Max 15/24)
192 Unsafe_Shutdown_Count   0x0032   100   100   000    Old_age   Always       -       10
194 Temperature_Internal    0x0022   100   100   000    Old_age   Always       -       30
197 Current_Pending_Sector  0x0032   100   100   000    Old_age   Always       -       2
199 CRC_Error_Count         0x003e   100   100   000    Old_age   Always       -       0
225 Host_Writes_32MiB       0x0032   100   100   000    Old_age   Always       -       559836
226 Workld_Media_Wear_Indic 0x0032   100   100   000    Old_age   Always       -       4331
227 Workld_Host_Reads_Perc  0x0032   100   100   000    Old_age   Always       -       28
228 Workload_Minutes        0x0032   100   100   000    Old_age   Always       -       3024340
232 Available_Reservd_Space 0x0033   054   054   010    Pre-fail  Always       -       0
233 Media_Wearout_Indicator 0x0032   096   096   000    Old_age   Always       -       0
234 Thermal_Throttle        0x0032   100   100   000    Old_age   Always       -       0/0
241 Host_Writes_32MiB       0x0032   100   100   000    Old_age   Always       -       559836
242 Host_Reads_32MiB        0x0032   100   100   000    Old_age   Always       -       220101
На основании #5, #17, #232 есть смысл его заменить?

У брата близнеца с PoH 47305 часов «Host_Writes_32MiB» 1274304, #5 - 0, #170 - 100/10, #232 - 100/10

 ,

vel ()

SSD 24/7 для OS Linux + Кэш

Добрый день. Есть у кого-то опыт, чтобы SSD работал 24/7 годами без проблем, а также выступал кэшем для HDD накопителей на NAS сервере? Как они себя показывают в надежности? В целом есть опыт только SSD Samsung на рабочих станциях.

 , ,

TheLinuxUser ()

BFQ не очень хорош для многих SSD

Public Service Announcement:

Случайно обнаружил, что bfq на многих ssd сводит производительность к однопоточной.
На nvme и sata Samsung’ах всё в порядке, и пропускная способность bfq растёт с количеством одновременных запросов.
А на ADATA и Transcend вот так:

    Device Model:     TS256GMTS400S
    Serial Number:    0F109200E32506200140
    Firmware Version: P1225CH4
    ATA Version is:   ACS-2 (minor revision not indicated)
    SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
    Timing O_DIRECT disk reads: 1472 MB in  3.00 seconds = 489.96 MB/sec

    /dev/sda, 256.06 GB, 1 threads:
     512   B blocks: 11361.3 IO/s,   5.5 MiB/s ( 46.5 Mbit/s)
       1 KiB blocks: 7762.1 IO/s,   7.6 MiB/s ( 63.6 Mbit/s)
       2 KiB blocks: 4545.7 IO/s,   8.9 MiB/s ( 74.5 Mbit/s)
       4 KiB blocks: 2476.4 IO/s,   9.7 MiB/s ( 81.1 Mbit/s)
       8 KiB blocks: 2483.9 IO/s,  19.4 MiB/s (162.8 Mbit/s)
      16 KiB blocks: 2271.1 IO/s,  35.5 MiB/s (297.7 Mbit/s)
      32 KiB blocks: 1941.6 IO/s,  60.7 MiB/s (509.0 Mbit/s)
      64 KiB blocks: 1360.1 IO/s,  85.0 MiB/s (713.1 Mbit/s)
     128 KiB blocks:  968.5 IO/s, 121.1 MiB/s (  1.0 Gbit/s)

    /dev/sda, 256.06 GB, 4 threads:
     512   B blocks: 12958.1 IO/s,   6.3 MiB/s ( 53.1 Mbit/s)
       1 KiB blocks: 8832.4 IO/s,   8.6 MiB/s ( 72.4 Mbit/s)
       2 KiB blocks: 4945.6 IO/s,   9.7 MiB/s ( 81.0 Mbit/s)
       4 KiB blocks: 2598.6 IO/s,  10.2 MiB/s ( 85.2 Mbit/s)
       8 KiB blocks: 2553.3 IO/s,  19.9 MiB/s (167.3 Mbit/s)
      16 KiB blocks: 2410.9 IO/s,  37.7 MiB/s (316.0 Mbit/s)
      32 KiB blocks: 2089.0 IO/s,  65.3 MiB/s (547.6 Mbit/s)
      64 KiB blocks: 1463.4 IO/s,  91.5 MiB/s (767.2 Mbit/s)
     128 KiB blocks: 1056.8 IO/s, 132.1 MiB/s (  1.1 Gbit/s)

Этот же Transcend, но с mq-deadline:

/dev/sda, 256.06 GB, 4 threads:
 512   B blocks: 42803.6 IO/s,  20.9 MiB/s (175.3 Mbit/s)
   1 KiB blocks: 34526.3 IO/s,  33.7 MiB/s (282.8 Mbit/s)
   2 KiB blocks: 24795.4 IO/s,  48.4 MiB/s (406.2 Mbit/s)
   4 KiB blocks: 15848.5 IO/s,  61.9 MiB/s (519.3 Mbit/s)
   8 KiB blocks: 15403.9 IO/s, 120.3 MiB/s (  1.0 Gbit/s)
  16 KiB blocks: 9705.9 IO/s, 151.7 MiB/s (  1.3 Gbit/s)
  32 KiB blocks: 5583.4 IO/s, 174.5 MiB/s (  1.5 Gbit/s)
  64 KiB blocks: 2967.9 IO/s, 185.5 MiB/s (  1.6 Gbit/s)
 128 KiB blocks: 1666.6 IO/s, 208.3 MiB/s (  1.7 Gbit/s)

Если у вас не Самсунг, то bfq лучше не использовать.

P.S. Ещё едет терабайтный WD Blue, дополню позже.
P.P.S. Linux lin 5.10.0-0.bpo.5-amd64 #1 SMP Debian 5.10.24-1~bpo10+1 (2021-03-29) x86_64 GNU/Linux

 , , ,

aidaho ()

После обновления linux-image не запускается Debian

Есть у меня комп с HDD, на котором стоял Debian рядом с виндой. Купил в этот комп SSD, зашифровал его и перенес туда Debian, boot сделал на флешке. Переносил систему с помощью rsync. Чтобы ОС начала загружатся из SSD я поменял UUID разделов и подправил UUID в файле /etc/grub/grub.cfg обновил GRUB и система работает. Винды на этом компе больше нет, ура! Но вот после обновления linux-image на более новую версию система перестает стартовать. Не появляется строчка для ввода пароля дешифровки корневого раздела, тупо мигает курсор и больше ничего не могу сделать кроме как перезагрузить комп. Кто может подсказать почему так и как заставить систему корректно загружатся при каждом обновлении linux-image?

 , , ,

MRX256 ()