LINUX.ORG.RU

2
Всего сообщений: 36

Можно ли ускорить софтовый RAID 5 ?

Здравствуйте.

Есть сервак Ubuntu16 с софтовым RAID5.

RAID5 собран из 3 HDD Seagate SV35 ST1000VX000-1ES162. Винты воткнуты в SATA2 (нет возможности перейти на SATA3)

Мерить скорость рейда через hdparm как-то не правильно, но тем не менее...

root@fserver:~# hdparm -Tt /dev/md0

/dev/md0:
 Timing cached reads:   2452 MB in  2.00 seconds = 1225.76 MB/sec
 Timing buffered disk reads: 294 MB in  3.01 seconds =  97.73 MB/sec

Что делал:

echo 8192 > /sys/block/md0/md/stripe_cache_size

Что можно сделать для увеличения скорости чтения и записи?

 

INDIGO ()

HDD и RAID-5

Hi all !

Тема не совсем про linux а как бы сказать не зависима от OS. Почитав поглубже про сабж (сколько лет юзал сроду не задумывался) пришел к выводу что реально на ХДД полезного места не сколько написано а примерно на 1/3 больше (или вообще 1/2).

Т.е. на винт в 1ТБ влазит 1.3ТБ инфы.

Я правильно сделал выводы ?

 ,

mx__ ()

Как решить проблемы с производительностью массива RAID5?

У меня два сервера с аппаратьным массивом RAID 5. В первом 3 диска, во втором 4 диска. При копировании больших файлов внутри массива. Скорость по мониторингу забикса одинакова - 100 Мб/сек. Но утилизациция на первом массиве просто зашкаливает. Второй по утилизации не показывает проблем.

 ,

alekseev ()

mdadm raid-5, сбойный диск и загрузка

Удивило поведение mdadm - если при загрузке системы отсутствует один диск, то массив переходит в неактивное состояние и соответственно не удается примонтировать файловую систему и загрузить операционку. RAID-5 позволяет работать работать при отсутствии одного диска и по логике массив должен продолжить работать в degraded состоянии, ругаясь в логах и сообщениях про отсутствующий диск. По опыту работы с аппаратными дисковыми контроллерами это и происходит. Подозреваю что и в других отказоустойчивых типах raid (1/6/10/...) mdadm будет переводить массивы в inactive. Почему mdadm вообще отключает массив?

Если пересобрать руками:

sudo mdadm --stop /dev/md0
sudo mdadm --assemble /dev/md0 --run
то массив продолжает работать без одного диска, но поведение mdadm при загрузке явно не логичное.

Может есть какие-нибудь опции которые позволяют работать mdadm как надо?

 , , ,

gfh ()

Установка Centos 7 на Raid 5

Доброго дня. Нужно установить Центу на сервер, на сервере уже собран raid 5, т.е. есть 1 логический диск на 1,4TB, чуть не забыл сервер HP DL360e , контроллер b120i. При установке центы, не видится логический диск, только физические диски - 4штуки, в чем может быть проблема, или цента не совместима с данным контроллером? Тогда как мне сконфигурировать рэйд, через установочник центоса? Софтовый рейд он намного хуже програмного? И нужно ли через HP smart array удалить имеющийся созданный рейд?

 , , ,

Kran4i ()

Совместимость raid контроллеров

Я настроил RAID-5 из 4-х дисков на железном RAID контроллере 3ware 9650SE-4lpml. Если вдруг сам контроллер выйдет из строя (но диски будут в порядке), смогу ли я подключить свой уже собранный RAID массив к любому другому контроллеру и дальше использовать его или же мне нужен будет контроллер именно этой марки/модели?

 ,

user8823 ()

Расширение раздела диска без lvm

Добрый день! Возникла необходимость увеличить один из разделов диска. Сервер c RHEL5 имеет аппаратный raid5 из трёх дисков по 600Гб, суммарный объём 1.2Т, разделы нарезаны без lvm:

# fdisk -l

Disk /dev/cciss/c0d0: 1200.1 GB, 1200186941440 bytes
255 heads, 63 sectors/track, 145914 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

           Device Boot      Start         End      Blocks   Id  System
/dev/cciss/c0d0p1   *           1        1958    15727603+  83  Linux
/dev/cciss/c0d0p2            1959       41121   314576797+  83  Linux
/dev/cciss/c0d0p3           41122       80284   314576797+  83  Linux
/dev/cciss/c0d0p4           80285      145914   527172975    5  Extended
/dev/cciss/c0d0p5           80285       83548    26218048+  83  Linux
/dev/cciss/c0d0p6           83549       85637    16779861   82  Linux swap / Solaris
/dev/cciss/c0d0p7           85638       87595    15727603+  83  Linux
df -h показывает следующее:
]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/cciss/c0d0p1      15G  4.9G  9.0G  35% /
/dev/cciss/c0d0p7      15G  6.4G  7.4G  47% /var
/dev/cciss/c0d0p5      25G  5.2G   18G  23% /opt
/dev/cciss/c0d0p3     291G  266G  9.9G  97% /date
/dev/cciss/c0d0p2     291G   93G  183G  34% /home
tmpfs                  18G     0   18G   0% /dev/shm
то есть использовано ~600Гб. Смотрю свободное место:
# parted /dev/cciss/c0d0
GNU Parted 1.8.1
Using /dev/cciss/c0d0
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) print free

Model: Compaq Smart Array (cpqarray)
Disk /dev/cciss/c0d0: 1200GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number  Start   End     Size    Type      File system  Flags
 1      32.3kB  16.1GB  16.1GB  primary   ext3         boot
 2      16.1GB  338GB   322GB   primary   ext3
 3      338GB   660GB   322GB   primary   ext3
 4      660GB   1200GB  540GB   extended
 5      660GB   687GB   26.8GB  logical   ext3
 6      687GB   704GB   17.2GB  logical   linux-swap
 7      704GB   720GB   16.1GB  logical   ext3
        720GB   1200GB  480GB             Free Space
то есть имеется неразмеченная область в 480Гб.

Задача стоит расширить точку монтирования /date на 100Гб. Как правильно это сделать, желательно без простоя системы? Пока только есть вариант нарезать раздел из неразмеченной области, скопировать туда всё из /date и примонтировать его. Возможно ли существующие разделы как-то воткнуть в lvm без потери данных и спокойно увеличивать потом на лету?

 , , ,

barabulka ()

Smart Array p410

Добрый день! Имеется сервер HP c контролером smart array p410, OS debian 7, RAID5 с дисками sata HP 454273-001.

Подскажите ,как провести плановую замену жестких дисков не выключая сервер (горячую замену). Загуглил утилиту hpssacli(ssacli) , но не понял как ей пользоваться.

 ,

botanik26rus ()

RAID 5 mdadm. Проблемы после замены жесткого диска.

Здравствуйте. Я новичок, прошу помощи.

Ubuntu 10.04.4 LTS x86_64, RAID 5 mdadm, размером в 11TB и почти полностью забитый.

# cat /etc/mdadm/mdadm.conf

DEVICE partitions
ARRAY /dev/md0 level=raid5 num-devices=5 metadata=01.00 name=0 UUID=9e051d43:7a446627:0d3aa958:a6c30ba9

Сбойнул один из дисков:

faulty spare   /dev/sde1
State : clean, degraded

В таком состоянии он проработал несколько недель (может и больше). Я размонтировал рейд, удалил сбойный диск из рейда, подготовил новый жесткий для замены и добавил его в рейд.

Утром посмотрел mdstat.

# cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sde1[7](S) sdc1[5] sdd1[4] sdb1[1](F) sdf1[6]
      11721058304 blocks super 1.0 level 5, 512k chunk, algorithm 2 [5/3] [__UUU]

unused devices: <none>

# mdadm --detail /dev/md0

mdadm: metadata format 01.00 unknown, ignored.
/dev/md0:
        Version : 01.00
  Creation Time : Mon Nov  4 09:51:43 2013
     Raid Level : raid5
     Array Size : 11721058304 (11178.07 GiB 12002.36 GB)
  Used Dev Size : 5860529152 (5589.04 GiB 6001.18 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Sat Jan  6 07:14:55 2018
          State : clean, degraded
 Active Devices : 3
Working Devices : 4
 Failed Devices : 1
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

           Name : 0
           UUID : 9e051d43:7a446627:0d3aa958:a6c30ba9
         Events : 750198

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       0        0        1      removed
       5       8       33        2      active sync   /dev/sdc1
       4       8       49        3      active sync   /dev/sdd1
       6       8       81        4      active sync   /dev/sdf1

       1       8       17        -      faulty spare   /dev/sdb1
       7       8       65        -      spare   /dev/sde1

Новый диск, который я добавил:

7       8       65        -      spare   /dev/sde1

И теперь появился еще один сбойный:

1       8       17        -      faulty spare   /dev/sdb1
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       5
  3 Spin_Up_Time            0x0027   142   142   021    Pre-fail  Always       -       11858
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       31
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   050   050   000    Old_age   Always       -       36531
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       31
183 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       25
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       5
194 Temperature_Celsius     0x0022   107   094   000    Old_age   Always       -       45
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       6

# cat /var/log/messages

Jan  6 04:10:18 access kernel: [33259.993923] ata2.00: configured for UDMA/133
Jan  6 04:10:18 access kernel: [33259.993950] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.285997] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.286026] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.390773] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.390797] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.482241] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.482265] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.573688] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.573712] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.665190] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.665228] sd 1:0:0:0: [sdb] Unhandled sense code
Jan  6 04:10:21 access kernel: [33260.665230] sd 1:0:0:0: [sdb] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jan  6 04:10:21 access kernel: [33260.665233] sd 1:0:0:0: [sdb] Sense Key : Medium Error [current] [descriptor]
Jan  6 04:10:21 access kernel: [33260.665237] Descriptor sense data with sense descriptors (in hex):
Jan  6 04:10:21 access kernel: [33260.665239]         72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 01 
Jan  6 04:10:21 access kernel: [33260.665245]         28 f9 78 f4 
Jan  6 04:10:21 access kernel: [33260.665247] sd 1:0:0:0: [sdb] Add. Sense: Unrecovered read error - auto reallocate failed
Jan  6 04:10:21 access kernel: [33260.665252] sd 1:0:0:0: [sdb] CDB: Read(16): 88 00 00 00 00 01 28 f9 78 30 00 00 00 d0 00 00
Jan  6 04:10:21 access kernel: [33260.665263] raid5:md0: read error not correctable (sector 4982403312 on sdb1).
Jan  6 04:10:21 access kernel: [33260.665270] raid5:md0: read error not correctable (sector 4982403320 on sdb1).
Jan  6 04:10:21 access kernel: [33260.665279] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.764633] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.764655] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.856082] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.856105] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.955856] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.955878] ata2: EH complete
Jan  6 04:10:21 access kernel: [33261.055601] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33261.055623] sd 1:0:0:0: [sdb] Unhandled sense code
Jan  6 04:10:21 access kernel: [33261.055625] sd 1:0:0:0: [sdb] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jan  6 04:10:21 access kernel: [33261.055628] sd 1:0:0:0: [sdb] Sense Key : Medium Error [current] [descriptor]
Jan  6 04:10:21 access kernel: [33261.055631] Descriptor sense data with sense descriptors (in hex):
Jan  6 04:10:21 access kernel: [33261.055633]         72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 01 
Jan  6 04:10:21 access kernel: [33261.055638]         28 f9 79 00 
Jan  6 04:10:21 access kernel: [33261.055641] sd 1:0:0:0: [sdb] Add. Sense: Unrecovered read error - auto reallocate failed
Jan  6 04:10:21 access kernel: [33261.055645] sd 1:0:0:0: [sdb] CDB: Read(16): 88 00 00 00 00 01 28 f9 79 00 00 00 00 10 00 00
Jan  6 04:10:21 access kernel: [33261.055655] raid5:md0: read error not correctable (sector 4982403328 on sdb1).
Jan  6 04:10:21 access kernel: [33261.055661] raid5:md0: read error not correctable (sector 4982403336 on sdb1).
Jan  6 04:10:21 access kernel: [33261.055672] ata2: EH complete
Jan  6 04:10:21 access kernel: [33261.155367] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33261.155389] ata2: EH complete
Jan  6 04:10:21 access kernel: [33261.246832] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33261.246854] ata2: EH complete
Jan  6 04:10:21 access kernel: [33261.346604] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33261.346626] ata2: EH complete
Jan  6 04:10:21 access kernel: [33261.446357] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33261.446380] sd 1:0:0:0: [sdb] Unhandled sense code
Jan  6 04:10:21 access kernel: [33261.446382] sd 1:0:0:0: [sdb] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jan  6 04:10:21 access kernel: [33261.446385] sd 1:0:0:0: [sdb] Sense Key : Medium Error [current] [descriptor]
Jan  6 04:10:21 access kernel: [33261.446388] Descriptor sense data with sense descriptors (in hex):
Jan  6 04:10:21 access kernel: [33261.446390]         72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 01 
Jan  6 04:10:21 access kernel: [33261.446396]         28 f9 79 10 
Jan  6 04:10:21 access kernel: [33261.446398] sd 1:0:0:0: [sdb] Add. Sense: Unrecovered read error - auto reallocate failed
Jan  6 04:10:21 access kernel: [33261.446402] sd 1:0:0:0: [sdb] CDB: Read(16): 88 00 00 00 00 01 28 f9 79 10 00 00 00 f0 00 00
Jan  6 04:10:21 access kernel: [33261.446413] raid5:md0: read error not correctable (sector 4982403344 on sdb1).
Jan  6 04:10:21 access kernel: [33261.446418] raid5:md0: read error not correctable (sector 4982403352 on sdb1).
Jan  6 04:10:21 access kernel: [33261.446421] raid5:md0: read error not correctable (sector 4982403360 on sdb1).
Jan  6 04:10:21 access kernel: [33261.446424] raid5:md0: read error not correctable (sector 4982403368 on sdb1).
Jan  6 04:10:21 access kernel: [33261.446426] raid5:md0: read error not correctable (sector 4982403376 on sdb1).
Jan  6 04:10:21 access kernel: [33261.446429] raid5:md0: read error not correctable (sector 4982403384 on sdb1).
Jan  6 04:10:21 access kernel: [33261.446454] ata2: EH complete
Jan  6 04:10:21 access kernel: [33261.453315] md: md0: recovery done.
Jan  6 04:10:21 access kernel: [33261.577963] RAID5 conf printout:
Jan  6 04:10:21 access kernel: [33261.577966]  --- rd:5 wd:3
Jan  6 04:10:21 access kernel: [33261.577969]  disk 0, o:1, dev:sde1
Jan  6 04:10:21 access kernel: [33261.577971]  disk 1, o:0, dev:sdb1
Jan  6 04:10:21 access kernel: [33261.577973]  disk 2, o:1, dev:sdc1
Jan  6 04:10:21 access kernel: [33261.577974]  disk 3, o:1, dev:sdd1
Jan  6 04:10:21 access kernel: [33261.577976]  disk 4, o:1, dev:sdf1
Jan  6 04:10:21 access kernel: [33262.252744] RAID5 conf printout:
Jan  6 04:10:21 access kernel: [33262.252748]  --- rd:5 wd:3
Jan  6 04:10:21 access kernel: [33262.252751]  disk 1, o:0, dev:sdb1
Jan  6 04:10:21 access kernel: [33262.252753]  disk 2, o:1, dev:sdc1
Jan  6 04:10:21 access kernel: [33262.252755]  disk 3, o:1, dev:sdd1
Jan  6 04:10:21 access kernel: [33262.252757]  disk 4, o:1, dev:sdf1
Jan  6 04:10:21 access kernel: [33262.252765] RAID5 conf printout:
Jan  6 04:10:21 access kernel: [33262.252766]  --- rd:5 wd:3
Jan  6 04:10:21 access kernel: [33262.252768]  disk 1, o:0, dev:sdb1
Jan  6 04:10:21 access kernel: [33262.252770]  disk 2, o:1, dev:sdc1
Jan  6 04:10:21 access kernel: [33262.252772]  disk 3, o:1, dev:sdd1
Jan  6 04:10:21 access kernel: [33262.252774]  disk 4, o:1, dev:sdf1
Jan  6 04:10:21 access kernel: [33262.278896] RAID5 conf printout:
Jan  6 04:10:21 access kernel: [33262.278900]  --- rd:5 wd:3
Jan  6 04:10:21 access kernel: [33262.278903]  disk 2, o:1, dev:sdc1
Jan  6 04:10:21 access kernel: [33262.278906]  disk 3, o:1, dev:sdd1
Jan  6 04:10:21 access kernel: [33262.278908]  disk 4, o:1, dev:sdf1

Попытался смонтировать рейд.

# mount -t ext4 /dev/md0 /media/test/

mount: wrong fs type, bad option, bad superblock on /dev/md0

 ,

leenkmn ()

удалил Raid-5

Уважаемое сообщество, есть у меня домашний серверок на Xpenology и все бы хорошо, если бы я не полез его обновлять. обновил с удалением софтового Raid-5. файловая система BTRFS, на момент удаления с рейдом никаких проблем не было. все диски исправные. диски отключил, записал порядок их расположения. есть возможность потренироваться на кошках, тоесть собрать аналогичный рейд на других дисках вопрос: каковы мои шансы на восстановление данных? и укажите плиз верную последовательность восстановления, и где почитать?

 , ,

Kizilkum ()

raid 5 [UUUUU_]

не долго думая создал (в первый раз) рейд 5

mdadm --create --verbose /dev/md1 --level=5 --raid-devices=6 /dev/sdc /dev/sdd /dev/sde /dev/sdf /dev/sdg /dev/sdh
Смотрю на него
md1 : active raid5 sdh[6] sdg[4] sdf[3] sde[2] sdd[1] sdc[0]
      4883156480 blocks super 1.2 level 5, 512k chunk, algorithm 2 [6/5] [UUUUU_]
      [====>................]  recovery = 23.3% (227639680/976631296) finish=1363.9min speed=9152K/sec
      bitmap: 1/8 pages [4KB], 65536KB chunk
# mdadm --query --detail /dev/md1
/dev/md1:
        Version : 1.2
  Creation Time : Wed Apr  5 10:55:56 2017
     Raid Level : raid5
     Array Size : 4883156480 (4656.94 GiB 5000.35 GB)
  Used Dev Size : 976631296 (931.39 GiB 1000.07 GB)
   Raid Devices : 6
  Total Devices : 6
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Wed Apr  5 15:58:09 2017
          State : active, degraded, recovering 
 Active Devices : 5
Working Devices : 6
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

 Rebuild Status : 23% complete

           Name : s1:1  (local to host s1)
           UUID : c59f91ba:1683a43c:9a0d81f2:f058dd2b
         Events : 40725

    Number   Major   Minor   RaidDevice State
       0       8       32        0      active sync   /dev/sdc
       1       8       48        1      active sync   /dev/sdd
       2       8       64        2      active sync   /dev/sde
       3       8       80        3      active sync   /dev/sdf
       4       8       96        4      active sync   /dev/sdg
       6       8      112        5      spare rebuilding   /dev/sdh
Оно UUUUU_ потом станет UUUUUU или скрипты мониторинга переписывать?

 ,

petav ()

RAID5 + FS + SSD(TRIM)

Здравствуйте.

При попытке реализовать RAID и TRIM столкнулся с такой проблемой, что стандартный ext4 не поддерживает размер блока ниже 1024. Вкупе с mdadm - это выливается в то, что команда trim отработать не может.

Здесь Не включается TRIM на Samsung EVO (комментарий) мне рекомендовали использовать файловую систему XFS. Но и он не дает создать раздел с блоком меньше 512.

Кто нибудь реализовывал рабочую модель RAID5 + FS + TRIM?

Буду рад любому примеру софтварной реализации

 , , , ,

Krishnoved ()

Указание chunk при создании массива

Здравствуйте.

Интересует вопрос.

Можно ли указать размер chunk при создании raid5?

При создании используется mdadm

 ,

Krishnoved ()

Победить поставщика некондиции

Добрый день.

Произведя в серверном hardware RAID массиве замену винчестера и посмотрев его данные SMART обнаружил, что винчестер уже отмолотил 5 из заявленных 9 лет срока службы. Винчестер HP GB0500EAFJH SATA (Он же Seagate ST3500320NS). С голограммной наклеечкой-серийником от HP. Я расстроился, что деньги ушли на новое оборудование, а вместо этого получен очередной геморрой.

Вопрос: Могу ли я обратиться за данными по оборудованию к HP (дата выпуска, регион реализации) и потом забодать поставщика, что он поставил б/у оборудование вместо нового? Ранее с таким не сталкивался, и, возможно, что я неправильно подхожу к решению вопроса. Прошу коллег по цеху поделиться собственным опытом и советами в решении подобных проблем.

 , , ,

NIR ()

error: disk mduuid not found

Здравствуйте.

Столкнулся со следующей проблемой.

Имеет 2 массива RAID5 на mdadm c 3-мя накопителями. в первом расположен «/grub» во втором LVM с «/» и файлом подкачки.

Так же присутствует еще один диск для бэкапов вне массива.

После уменьшения раздела с «/» и уменьшения раздела LVM - система перестала грузится. Хотя по прежнему прекрасно монтируется.

При попытке загрузки системы выдается следующая ошибка:

error: disk 'mduuid/91be795a100a9b871dc3f6b967438e8b' not found.
Entering rescue mode...
grub rescue>

Я так полагаю, изменилось имя у массива, по этом груб не может его собрать.

Выхлоп на ls

grub rescue>ls
(hd0) (hd0,msdos2) (hd0,msdos1) (hd1) (hd1,msdos2) (hd1,msdos1) (hd2) (hd2,msdos2) (hd2,msdos1) (hd3) (hd0,msdos1) (md/1) (md/0)

Причем могу просмотреть содержимое, когда он не ругается на файловую систему лишь на (hd0,msdos1) (hd2,msdos1) и (hd3,msdos1). Но показывает как пустой раздел.

Можно как нибудь решить данную проблему? Есть предположение, что нужно переписать содержимое grub.cfg с новым наименованием массива, но верно ли оно? И как его можно зафиксировать с livecd на дисках?

Спасибо.

 , , , ,

Krishnoved ()

RAID (mdadm+LVM) и TRIM

Добрый день.

Столкнулся со следующей проблемой.

# fstrim -v /
fstrim: /: the discard operation is not supported

При проведении операции например на /boot - та жа песня.

Настройки следующие:

# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md1 : active raid5 sda2[0] sdc2[2] sdb2[1]
      933533696 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      bitmap: 1/4 pages [4KB], 65536KB chunk

md0 : active raid5 sdc1[5] sda1[3] sdb1[4]
      3901440 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

unused devices: <none>
# cat /etc/fstab
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point>   <type>  <options>       <dump>  <pass>
/dev/mapper/raid_md1-root_dir /               ext4    discard,errors=remount-ro 0       1
# /boot was on /dev/md0 during installation
UUID=a399b505-ab26-4a6b-863c-ca2032007be3 /boot           ext4    discard 0       2
/dev/mapper/mountdisk-mountdisk /mountdisk      ext4    defaults        0       2
/dev/mapper/raid_md1-tmp /tmp            ext4    discard 0       2
/dev/mapper/raid_md1-var /var            ext4    discard 0       2
/dev/mapper/raid_md1-archive /var/cache/apt/archives ext4    discard 0       2
/dev/mapper/raid_md1-log /var/log        ext4    discard 0       2
/dev/mapper/raid_md1-swap none            swap    sw              0       0
#  hdparm -I /dev/sda | grep "TRIM"
           *    Data Set Management TRIM supported (limit 8 blocks)
           *    Deterministic read ZEROs after TRIM
#  hdparm -I /dev/sdb | grep "TRIM"
           *    Data Set Management TRIM supported (limit 8 blocks)
           *    Deterministic read ZEROs after TRIM
#  hdparm -I /dev/sdc | grep "TRIM"
           *    Data Set Management TRIM supported (limit 8 blocks)
           *    Deterministic read ZEROs after TRIM
# lsblk -D
NAME                    DISC-ALN DISC-GRAN DISC-MAX DISC-ZERO
sda                            0        4K       2G         0
├─sda1                         0        4K       2G         0
│ └─md0                        0        1M     256M         0
└─sda2                         0        4K       2G         0
  └─md1                        0        1M     256M         0
    ├─raid_md1-swap            0        1M     256M         0
    ├─raid_md1-tmp             0        1M     256M         0
    ├─raid_md1-var             0        1M     256M         0
    ├─raid_md1-archive         0        1M     256M         0
    ├─raid_md1-log             0        1M     256M         0
    └─raid_md1-root_dir        0        1M     256M         0
sdb                            0        4K       2G         0
├─sdb1                         0        4K       2G         0
│ └─md0                        0        1M     256M         0
└─sdb2                         0        4K       2G         0
  └─md1                        0        1M     256M         0
    ├─raid_md1-swap            0        1M     256M         0
    ├─raid_md1-tmp             0        1M     256M         0
    ├─raid_md1-var             0        1M     256M         0
    ├─raid_md1-archive         0        1M     256M         0
    ├─raid_md1-log             0        1M     256M         0
    └─raid_md1-root_dir        0        1M     256M         0
sdc                            0        4K       2G         0
├─sdc1                         0        4K       2G         0
│ └─md0                        0        1M     256M         0
└─sdc2                         0        4K       2G         0
  └─md1                        0        1M     256M         0
    ├─raid_md1-swap            0        1M     256M         0
    ├─raid_md1-tmp             0        1M     256M         0
    ├─raid_md1-var             0        1M     256M         0
    ├─raid_md1-archive         0        1M     256M         0
    ├─raid_md1-log             0        1M     256M         0
    └─raid_md1-root_dir        0        1M     256M         0
sdd                            0        0B       0B         0
└─sdd1                         0        0B       0B         0
  └─mountdisk-mountdisk        0        0B       0B         0
sde                            0        0B       0B         0
└─sde1                         0        0B       0B         0

Как заставить TRIM работать?

 , , , ,

Krishnoved ()

Последовательность дисков в RAID

Здравствуйте.

Интересует вопрос.

Почему диски в RAID считаются следующим образом:

     1	Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
     2	md1 : active raid5 sda2[0] sdc2[2] sdb2[1]
     3	      933533696 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
     4	      bitmap: 2/4 pages [8KB], 65536KB chunk
     5	
     6	md0 : active raid5 sdc1[5] sda1[4] sdb1[3]
     7	      3901440 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
     8	      
     9	unused devices: <none>

На других серверах по примеру:

     1	Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
     2	md1 : active raid5 sda2[0] sdc2[2] sdb2[1]
     3	      933533696 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
     4	      bitmap: 2/4 pages [8KB], 65536KB chunk
     5	
     6	md0 : active raid5 sdc1[0] sda1[2] sdb1[1]
     7	      3901440 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
     8	      
     9	unused devices: <none>

От чего это зависит? И можно ли привести их к виду счета от нуля для каждого RAID.

Спасибо

 ,

Krishnoved ()

Вопрос по RAID (mdadm)

Добрый день.

Имеется сервер с Debian Jessie

На нем создано два raid5 из 3-х дисков.

# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md1 : active raid5 sdc2[2] sda2[0] sdb2[1]
      933533696 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      bitmap: 3/4 pages [12KB], 65536KB chunk

md0 : active raid5 sdc1[5] sda1[3] sdb1[4]
      3901440 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]

unused devices: <none>

Изначально пытался реализовать один RAID5 + LVM, но столкнулся с проблемой, что при отключении одного из дисков - GRUB отказывался загружаться, по этому я вывел /boot на отдельный RAID без LVM.

Теперь заметил другую проблему. При отключении одного из дисков, и после перезагрузки - повторного его подключения он не подтягивается автоматом к массиву. Так и должно быть? И если так, есть ли возможность реализовать автоподключение диска к массиву?

Спасибо.

P.S. И еще почему-то диски считаются последовательно. А не от каждого массива.

Т.е. на других серверах вот так:

 1	Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
     2	md1 : active raid5 sda2[0] sdc2[2] sdb2[1]
     3	      933533696 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
     4	      bitmap: 2/4 pages [8KB], 65536KB chunk
     5	
     6	md0 : active raid5 sdc1[0] sda1[2] sdb1[1]
     7	      3901440 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
     8	      
     9	unused devices: <none>

От чего это зависит и чем это черевато?

 , ,

Krishnoved ()

Замена дисков в рейде на большего размера.

Здравствуйте.

В наличии файловый сервер. Ubuntu 14.04. Из 3 HDD 1Gb собран RAID5.

Задача: заменить 3 HDD 1Gb на 3 HDD 2Gb

Как я это представляю: отключаю от рейда 1 диск, на его место ставлю новый диск, жду когда рейд сделает ребилд с новым диском. И так со всеми остальными дисками.

Всё верно?

Вопрос:

рейд поймет, что новый диск большего размера, чем был до этого?

 

INDIGO ()

Программный рейд

Тут мне помогали определиться с диском. Я таки решила раскошелиться и взяла WD Gold на 4Tb. Сейчас план такой: сделаю деградированый рейд-1 из одного диска. Через пару месяцев, когда накоплю деньжат, возьму второй такой же и добавлю его, получив нормальный зеркальный рейд. А когда месте мне перестанет хватить, куплю третий диск и рейд-1 прокачаю до рейд-5.

Почитав об программном рейде в линукс, я поняла, что так можно делать. Правильно?

Собственно, в чем заключается мой вопрос. Я бы делала рейд из физических устройств (/dev/sdb, /dev/sdc). А везде в статьях рейды делают из разделов, и уже поверх создают фс. Имеет ли это смысл? Если у меня есть отдельный жесткий диск под систему и набор одинаковых дисков под рейд, почему мне не стоит добавлять физические диски в рейд?

И еще вопрос. Вот будет у меня зеркальный рейд на двух 4Tb дисках. Добавлю еще один такой же с сделаю рейд-5. Полезного пространства будет 8Tb. У меня добавится свободное место в конце виртуального устройства /dev/md0? И я смогу просто расширить раздел?

Так не хочется заморачиваться с lvm :(

 ,

totik ()