LINUX.ORG.RU

hdd raid и физический сектор 4096

 ,


0

1

Добрый день!

Вот наконец-то дошли руки вникнуть в суть разметки дисков для которых физический сектор равен 4096B а логический 512B. На таких дисках собран raid5 - тормозит жутко (как для нормальной системы). Разметка диска выровнена на границу 8-ми секторов. Но в начале диска(раздела) лежит raid-superblock. Вот и вопрос: Как же нужно выровнять раздел, что-бы это все работало по человечески не попадая в пинальти при записи.

В гугле разные советы: но в комлекте с raid ответа нет.

1. Начало раздела должно быть выровнено на границу которая может быть разделена на 8(4к или 8секторов) без остатка. - Выполнено. Суперблок по документации занимает 4К что в принципе должно сместить содержимое на границу выровняную на физический сектор - но что-то идет не так. Диски работают нормально но скорость доступа.... :(

У того кто знает, где почитать или есть уже готовое описание процесса. Подскажите куда рыть. Или как можно посмотреть на трансляцию адресов смещения(типа отладочной информации)?

И можно ли сделать логический сектор равным физическому?

По поводу raid там от версии зависит где располагается суперблок. https://raid.wiki.kernel.org/index.php/RAID_superblock_formats тут все расписано и прочитано.

И если верить описанию все должно работать нормально но этого не происходит. Буду благодарен за любое(по теме) тыканье в документацию.

Ниже дампы.

~# fdisk -l /dev/sda
Disk /dev/sda: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Device        Start        End    Sectors  Size Type...
/dev/sda3  12615680   54560767   41945088   20G Linux RAID
...
или
~# parted 
GNU Parted 3.2
Using /dev/sda
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) unit s
(parted) print                                                            
Model: ATA ST3000DM001-1ER1 (scsi)
Disk /dev/sda: 5860533168s
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags: 

Number  Start      End          Size         System   Flags
....
 3      12615680s  54560767s    41945088s    ext4     primary
....
mdadm --detail /dev/md2
/dev/md2:
        Version : 0.90
  Creation Time : Tue Jun  9 04:39:27 2015
     Raid Level : raid5
     Array Size : 41944064 (40.00 GiB 42.95 GB)
  Used Dev Size : 20972032 (20.00 GiB 21.48 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 2
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Tue Jun 27 18:41:06 2017
          State : clean 
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           UUID : 217a10d0:3e68d4a7:132783e8:19cdff95
         Events : 0.4424

    Number   Major   Minor   RaidDevice State
       0       8        3        0      active sync   /dev/sda3
       1       8       35        1      active sync   /dev/sdc3
       2       8       19        2      active sync   /dev/sdb3
~# mdadm --detail /dev/md3
/dev/md3:
        Version : 1.2
  Creation Time : Tue Jun  9 03:44:50 2015
     Raid Level : raid5
     Array Size : 5805969408 (5537.00 GiB 5945.31 GB)
  Used Dev Size : 2902984704 (2768.50 GiB 2972.66 GB)
   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Tue Jun 27 18:00:47 2017
          State : clean 
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : test:3  (local to host test)
           UUID : b0595d85:7737a410:38aa3275:3d5f81f6
         Events : 59063

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       8       36        1      active sync   /dev/sdc4
       3       8       20        2      active sync   /dev/sdb4



Последнее исправление: vbv (всего исправлений: 1)

Приложу еще пару дампов о файловой системе

~# dumpe2fs -h /dev/md2       
dumpe2fs 1.42.13 (17-May-2015)
Filesystem volume name:   <none>
Last mounted on:          /
Filesystem UUID:          b746f8d5-99dc-487d-9739-a9c43a5563e8
Filesystem magic number:  0xEF53
Filesystem revision #:    1 (dynamic)
Filesystem features:      has_journal ext_attr resize_inode dir_index filetype needs_recovery extent flex_bg sparse_super large_file huge_file uninit_bg dir_nlink extra_isize
Filesystem flags:         signed_directory_hash 
Default mount options:    user_xattr acl
Filesystem state:         clean
Errors behavior:          Continue
Filesystem OS type:       Linux
Inode count:              2626560
Block count:              10485760
Reserved block count:     524287
Free blocks:              3027350
Free inodes:              1870772
First block:              0
Block size:               4096
Fragment size:            4096
Reserved GDT blocks:      1021
Blocks per group:         32768
Fragments per group:      32768
Inodes per group:         8208
Inode blocks per group:   513
RAID stride:              128
RAID stripe width:        256
Flex block group size:    16
Filesystem created:       Tue Mar  1 16:25:29 2016
Last mount time:          Tue Jun 27 13:11:07 2017
Last write time:          Tue Jun 27 13:11:07 2017
Mount count:              30
Maximum mount count:      -1
Last checked:             Thu Jun 22 23:42:44 2017
Check interval:           0 (<none>)
Lifetime writes:          187 GB
Reserved blocks uid:      0 (user root)
Reserved blocks gid:      0 (group root)
First inode:              11
Inode size:               256
Required extra isize:     28
Desired extra isize:      28
Journal inode:            8
First orphan inode:       1619711
Default directory hash:   half_md4
Directory Hash Seed:      0f131d9f-57b3-4a57-8f17-0a4ee2aaea1f
Journal backup:           inode blocks
Journal features:         journal_incompat_revoke
Journal size:             128M
Journal length:           32768
Journal sequence:         0x0018b2d2
Journal start:            1
~# dumpe2fs -h /dev/md3
dumpe2fs 1.42.13 (17-May-2015)
Filesystem volume name:   <none>
Last mounted on:          /home
Filesystem UUID:          b701d33f-c64f-400b-b415-b0137170da38
Filesystem magic number:  0xEF53
Filesystem revision #:    1 (dynamic)
Filesystem features:      has_journal ext_attr resize_inode dir_index filetype needs_recovery extent flex_bg sparse_super large_file huge_file uninit_bg dir_nlink extra_isize
Filesystem flags:         signed_directory_hash 
Default mount options:    user_xattr acl
Filesystem state:         clean
Errors behavior:          Continue
Filesystem OS type:       Linux
Inode count:              362881024
Block count:              1451492352
Reserved block count:     1451492
Free blocks:              408625111
Free inodes:              360861763
First block:              0
Block size:               4096
Fragment size:            4096
Reserved GDT blocks:      677
Blocks per group:         32768
Fragments per group:      32768
Inodes per group:         8192
Inode blocks per group:   512
RAID stride:              128
RAID stripe width:        256
Flex block group size:    16
Filesystem created:       Tue Jun  9 02:58:58 2015
Last mount time:          Tue Jun 27 13:11:11 2017
Last write time:          Tue Jun 27 13:11:11 2017
Mount count:              39
Maximum mount count:      -1
Last checked:             Wed May 17 15:42:54 2017
Check interval:           0 (<none>)
Lifetime writes:          10 TB
Reserved blocks uid:      0 (user root)
Reserved blocks gid:      0 (group root)
First inode:              11
Inode size:               256
Required extra isize:     28
Desired extra isize:      28
Journal inode:            8
First orphan inode:       316935061
Default directory hash:   half_md4
Directory Hash Seed:      c4cd9725-fa4b-40fc-8ff7-a0c574bb6bbe
Journal backup:           inode blocks
Journal features:         journal_incompat_revoke
Journal size:             128M
Journal length:           32768
Journal sequence:         0x00d2caad
Journal start:            235
vbv
() автор топика

Диски работают нормально но скорость доступа.... :(

А где она?
Может, ты просто привык к хорошим SSD и теперь вернулся в HDD-реальность?

pekmop1024 ★★★★★
()
29 июля 2017 г.

Диски

скорость доступа

Ахахахахах, бугагагаг.

anonymous
()
12 октября 2017 г.
Ответ на: комментарий от kmeaw

mdadm -E /dev/sda3

Извиняюсь немного не до этого было....

mdadm -E /dev/sda3 /dev/sda3: Magic : a92b4efc Version : 0.90.00 UUID : 217a10d0:3e68d4a7:132783e8:19cdff95 Creation Time : Tue Jun 9 04:39:27 2015 Raid Level : raid5 Used Dev Size : 20972032 (20.00 GiB 21.48 GB) Array Size : 41944064 (40.00 GiB 42.95 GB) Raid Devices : 3 Total Devices : 3 Preferred Minor : 2

Update Time : Thu Oct 12 23:45:00 2017 State : clean Internal Bitmap : present Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Checksum : e6a1f69e - correct Events : 4436

Layout : left-symmetric Chunk Size : 512K

Number Major Minor RaidDevice State this 0 8 3 0 active sync /dev/sda3

0 0 8 3 0 active sync /dev/sda3 1 1 8 35 1 active sync /dev/sdc3 2 2 8 19 2 active sync /dev/sdb3

vbv
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.