LINUX.ORG.RU

2
Всего сообщений: 43

Конвертировать raid 5 в raid 0 HPE p420i

Всем привет. кто пробовал, можно ли конвертировать raid5 в raid0 на ходу?

В raid5 c raid0 получилось легко

ssacli ctrl slot=0 ld=1 modify raid=5

а таким же вариантом только наоборот можно?

ssacli ctrl slot=0 ld=1 modify raid=0

теоретически, по размеру проблем нет, raid0 больше чем raid5. но пробовать стремно. машина рабочая. бэкап то есть, но неохота оламать.

 

alexni ()

BTRFS - грабли. cat/copy/rsync = Input/Output Error (Решено)

Привет! Давно сижу на разных raid (mdadm, zfs, lvm2), но в такую ситуацию попадаю впервые. Ситуация c btrfs-raid5 простая: при копировании достаточно свежей работы я словил:

# cat /data/work/2021Q3.txt > /dev/null
cat: /data/work/2021Q3.txt: Input/output Error

После осмотра, который длился 5 дней в разных комбинациях диагноз: только 7 «битых» файлов и:

[/dev/sdd].corruption_errs  6
[/dev/sdf].corruption_errs  22

И дальше поехала целая серия танцев с бубном от btrfs, которую я попытался решить на arch-форуме - без успеха (Успех пришёл через 2 недели, ниже):

https://bbs.archlinux.org/viewtopic.php?id=270625

На текущий момент задачу по сохранению как минимум одного (самого важного для меня файла) из 7-ми «битых» файлов я выполнил - с помощью dd и дальнейшего красноглазого разбора.

Но вопросы остались: где же хвалёная избыточность raid5? Почему счётчики corruption_errs видит только btrfs и они живут своей жизнью? Как вытаскивать инфу с раненной btrfs и что делать, чтобы таких повреждений больше не было?

Про бэкапы просьба не напоминать - моя информация того не стоила вообще. Важен сам принцип - как сделать BTRFS-raid более «железобетонным»?

В моём опыте с mdadm, zfs - разрушения тоже бывали, с причинами и следствиями, но все они как-то последовательно решались, без шаманства, объективно, без магии и уж точно без потерь. А тут на ровном месте проблема из ничего…

Единственная операция, которую я еще не сделал:

btrfs balance start -mconvert=raid1 -sconvert=raid1 /data

Стоит оно того? (копию данных сделал)

 , , ,

SunDoc ()

Два raid массива на одном контроллере и proxmox

Всем доброго дня, я новичок в сфере системного администрирования, поэтому прошу отнестись с понимание к моей несистемности знаний в нижеизложенном. Имеется следующая проблема. От начальника была поставлена задача подключить к контроллеру intel rs2bl040 дополнительно два hdd и сделать из них raid 1. В то время как на этом контроллере уже есть raid5 из 6 дисков. После чего на новый raid1 поставить proxmox и windows server(proxmox нужен чтобы ввести этот сервер в кластер из уже рабочих двух серверов, но это не так важно). Если я правильно понял, то на этой модели контроллера возможно сделать два raid массива, что я собственно и сделал. От этого raid контроллера шло 4 sata кабеля, два шло в raid5 из 6 дисков(там стоит корзина intel SCAHSBPM1, если это важно) и два я подключил к двум новым дисках просто так, питание к дискам идет от материнки. Потом в raid bios console сделал из этих двух дисков raid 1, и по идее всё должно быть хорошо, на мой взгляд. Но проблема возникла при установке proxmox(ставил его через флешку, с которой proxmox уже ставил успешно на другие компы), на этапе установки, где выбирается место установки proxmox, был виден мой новый raid, я туда и указал установить всё файловой системой xfs. Proxmox успешно поставился и я нажал перезагрузить. Когда сервак включился и перешел в меню загрузки, то появилась, как и положено, строчка в этом меню «proxmox», на которую я и нажал, но ничего не произошло. Proxmox удалось запустить только когда, со вставленной загрузочной флешкой, я опять зашел в установку proxmox и выбрал в меню установочном не instal proxmox, а rescue boot, после этом он загрузился и работал даже при вытащенной флешке. Я подключил еще один диск, поставил винду седьмую, чтобы посмотреть как диски видятся, в управлении дисками все диски видятся адекватно, на них указана файловая система ntfs, но на этом диске не указана никакая система и я не могу им воспользоваться как другими дисками, поэтому полагаю, что проблема в неверной установке raid массива. Поэтому, дорогие товарищи, подскажите, пожалуйста, как мне сделать так чтобы proxmox мог бы запускаться как здоровый человек, а не через флешку? Что мне еще необходимо указать, чтобы была видна полнота проблемы?

Решено! Проблема решалась очень просто: в raid bios console во вкладке virtual drives надо выбрать нужный виртуальный диск и поставить галочку set boot drive)

 , ,

Teslazavr ()

развалился raid5

Ночью выпало из массива 2 диска из 3 (один пошел бэдами видимо, но в системе как устройство функционирует, а второй ваще по непонятной причине)

[root@dor /]# mdadm -D /dev/md127
/dev/md127:
        Version : 1.1
  Creation Time : Tue Dec 24 20:08:05 2013
     Raid Level : raid5
     Array Size : 976507904 (931.27 GiB 999.94 GB)
  Used Dev Size : 488253952 (465.64 GiB 499.97 GB)
   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Fri Feb 12 09:19:24 2021
          State : clean, FAILED 
 Active Devices : 1
Working Devices : 1
 Failed Devices : 2
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : his.xxx.ru:0
           UUID : c8a093fa:8bb45173:bf976911:cbdb4181
         Events : 6321696

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       33        1      active sync   /dev/sdc1
       -       0        0        2      removed

       0       8       17        -      faulty   /dev/sdb1
       3       8       49        -      faulty   /dev/sdd1

передобавил выпавшие диски в массив:

[root@dor /]# mdadm --re-add /dev/md127 /dev/sdb1
mdadm: re-add /dev/sdb1 to md127 succeed
[root@dor /]# mdadm --re-add /dev/md127 /dev/sdd1
mdadm: re-add /dev/sdd1 to md127 succeed

теперь диски пометились как «запасные»

[root@dor /]# mdadm -D /dev/md127
/dev/md127:
        Version : 1.1
  Creation Time : Tue Dec 24 20:08:05 2013
     Raid Level : raid5
     Array Size : 976507904 (931.27 GiB 999.94 GB)
  Used Dev Size : 488253952 (465.64 GiB 499.97 GB)
   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Fri Feb 12 09:20:42 2021
          State : clean, FAILED 
 Active Devices : 1
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 2

         Layout : left-symmetric
     Chunk Size : 512K

           Name : his.xxx.ru:0
           UUID : c8a093fa:8bb45173:bf976911:cbdb4181
         Events : 6321702

    Number   Major   Minor   RaidDevice State
       -       0        0        0      removed
       1       8       33        1      active sync   /dev/sdc1
       -       0        0        2      removed

       0       8       17        -      spare   /dev/sdb1
       3       8       49        -      spare   /dev/sdd1

тормознул рейд mdadm -S /dev/md127 в надежде пересобрать raid, но он не стартует, т.к. два винта из трех помечены как «подменные»

[root@dor etc]# mdadm --assemble --update=resync /dev/md127 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm: /dev/md127 assembled from 1 drive and 2 spares - not enough to start the array.

т.е. mdadm --examine /dev/sdX1 говорит, что «Device Role : spare» Как заменить роль у диска вне рейда, что запустить повторную сборку?

 ,

karasic ()

неудачное добавление диска в mdadm raid5

Всем привет! Помогите, пожалуйста, восстановить данные.

Был массив RAID5 из 3х дисков (sdc1, sdd1, sde1). На массиве был LUKS, а на нем ext4.

Понадобилось добавить 4й диск. Сделал так:

mdadm --add /dev/md0 /dev/sdf1
mdadm --grow --backup-file=/root/grow_md0.bak --raid-devices=4 /dev/md0

Примерно через 5 минут по какой-то неведомой причине машинка ребутнулась, возможно электричество… Как раз когда массив находился в состоянии reshape.

После ребута массив, естественно не собрался, в dmesg такая ошибка:

raid5: reshape_position too early for auto-recovery - aborting. md: pers->run() failed ...

Я попробовал (вероятно, зря) сделать так

mdadm --assemble --verbose --update=revert-reshape
--invalid-backup --backup-file=/root/grow_md0.bak /dev/md0 /dev/sd[cdef]1

/dev/md0 появился, даже открылся в cryptsetup luksOpen, попробовал смонтировать ext4 в readonly - видны директории, но без владельца и прав, в них нельзя зайти и т.д. fsck находит огромное кол-во ошибок, я пока не стал ему разрешать их фиксить.

P.S. Сейчас еще заметил, что бэкапа то и нет по какой-то причине, файлик /root/grow_md0.bak отсутствует.

Help!

 ,

lbv ()

Конвертация RAID5 в RAID1

Есть программный массив RAID5 из 2 дисков на 2Тб и одного на 1Тб. Надо исправить это недоразумение и сделать RAID1 из двух дисков на 2Тб, а остальные убрать. Вариант заново создать и скопировать все данные и т.д. не подходит.

На каждом диске 2 раздела, grub boot на 1мб и все остальное linux fd. Из всех fd создан raid5, поверх него lvm2, на lvm2 2 тома.

Как это сделать?

 , , , ,

systemisdown ()

RAID-5 на DL180 и CentOS7 как узнать объем дисков в этом RAID?

Собственно САБЖ.

 ,

sniper21 ()

Можно ли ускорить софтовый RAID 5 ?

Здравствуйте.

Есть сервак Ubuntu16 с софтовым RAID5.

RAID5 собран из 3 HDD Seagate SV35 ST1000VX000-1ES162. Винты воткнуты в SATA2 (нет возможности перейти на SATA3)

Мерить скорость рейда через hdparm как-то не правильно, но тем не менее...

root@fserver:~# hdparm -Tt /dev/md0

/dev/md0:
 Timing cached reads:   2452 MB in  2.00 seconds = 1225.76 MB/sec
 Timing buffered disk reads: 294 MB in  3.01 seconds =  97.73 MB/sec

Что делал:

echo 8192 > /sys/block/md0/md/stripe_cache_size

Что можно сделать для увеличения скорости чтения и записи?

 

INDIGO ()

HDD и RAID-5

Hi all !

Тема не совсем про linux а как бы сказать не зависима от OS. Почитав поглубже про сабж (сколько лет юзал сроду не задумывался) пришел к выводу что реально на ХДД полезного места не сколько написано а примерно на 1/3 больше (или вообще 1/2).

Т.е. на винт в 1ТБ влазит 1.3ТБ инфы.

Я правильно сделал выводы ?

 ,

mx__ ()

Как решить проблемы с производительностью массива RAID5?

У меня два сервера с аппаратьным массивом RAID 5. В первом 3 диска, во втором 4 диска. При копировании больших файлов внутри массива. Скорость по мониторингу забикса одинакова - 100 Мб/сек. Но утилизациция на первом массиве просто зашкаливает. Второй по утилизации не показывает проблем.

 ,

alekseev ()

mdadm raid-5, сбойный диск и загрузка

Удивило поведение mdadm - если при загрузке системы отсутствует один диск, то массив переходит в неактивное состояние и соответственно не удается примонтировать файловую систему и загрузить операционку. RAID-5 позволяет работать работать при отсутствии одного диска и по логике массив должен продолжить работать в degraded состоянии, ругаясь в логах и сообщениях про отсутствующий диск. По опыту работы с аппаратными дисковыми контроллерами это и происходит. Подозреваю что и в других отказоустойчивых типах raid (1/6/10/...) mdadm будет переводить массивы в inactive. Почему mdadm вообще отключает массив?

Если пересобрать руками:

sudo mdadm --stop /dev/md0
sudo mdadm --assemble /dev/md0 --run
то массив продолжает работать без одного диска, но поведение mdadm при загрузке явно не логичное.

Может есть какие-нибудь опции которые позволяют работать mdadm как надо?

 , , ,

gfh ()

Установка Centos 7 на Raid 5

Доброго дня. Нужно установить Центу на сервер, на сервере уже собран raid 5, т.е. есть 1 логический диск на 1,4TB, чуть не забыл сервер HP DL360e , контроллер b120i. При установке центы, не видится логический диск, только физические диски - 4штуки, в чем может быть проблема, или цента не совместима с данным контроллером? Тогда как мне сконфигурировать рэйд, через установочник центоса? Софтовый рейд он намного хуже програмного? И нужно ли через HP smart array удалить имеющийся созданный рейд?

 , , ,

Kran4i ()

Совместимость raid контроллеров

Я настроил RAID-5 из 4-х дисков на железном RAID контроллере 3ware 9650SE-4lpml. Если вдруг сам контроллер выйдет из строя (но диски будут в порядке), смогу ли я подключить свой уже собранный RAID массив к любому другому контроллеру и дальше использовать его или же мне нужен будет контроллер именно этой марки/модели?

 ,

user8823 ()

Расширение раздела диска без lvm

Добрый день! Возникла необходимость увеличить один из разделов диска. Сервер c RHEL5 имеет аппаратный raid5 из трёх дисков по 600Гб, суммарный объём 1.2Т, разделы нарезаны без lvm:

# fdisk -l

Disk /dev/cciss/c0d0: 1200.1 GB, 1200186941440 bytes
255 heads, 63 sectors/track, 145914 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

           Device Boot      Start         End      Blocks   Id  System
/dev/cciss/c0d0p1   *           1        1958    15727603+  83  Linux
/dev/cciss/c0d0p2            1959       41121   314576797+  83  Linux
/dev/cciss/c0d0p3           41122       80284   314576797+  83  Linux
/dev/cciss/c0d0p4           80285      145914   527172975    5  Extended
/dev/cciss/c0d0p5           80285       83548    26218048+  83  Linux
/dev/cciss/c0d0p6           83549       85637    16779861   82  Linux swap / Solaris
/dev/cciss/c0d0p7           85638       87595    15727603+  83  Linux
df -h показывает следующее:
]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/cciss/c0d0p1      15G  4.9G  9.0G  35% /
/dev/cciss/c0d0p7      15G  6.4G  7.4G  47% /var
/dev/cciss/c0d0p5      25G  5.2G   18G  23% /opt
/dev/cciss/c0d0p3     291G  266G  9.9G  97% /date
/dev/cciss/c0d0p2     291G   93G  183G  34% /home
tmpfs                  18G     0   18G   0% /dev/shm
то есть использовано ~600Гб. Смотрю свободное место:
# parted /dev/cciss/c0d0
GNU Parted 1.8.1
Using /dev/cciss/c0d0
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) print free

Model: Compaq Smart Array (cpqarray)
Disk /dev/cciss/c0d0: 1200GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number  Start   End     Size    Type      File system  Flags
 1      32.3kB  16.1GB  16.1GB  primary   ext3         boot
 2      16.1GB  338GB   322GB   primary   ext3
 3      338GB   660GB   322GB   primary   ext3
 4      660GB   1200GB  540GB   extended
 5      660GB   687GB   26.8GB  logical   ext3
 6      687GB   704GB   17.2GB  logical   linux-swap
 7      704GB   720GB   16.1GB  logical   ext3
        720GB   1200GB  480GB             Free Space
то есть имеется неразмеченная область в 480Гб.

Задача стоит расширить точку монтирования /date на 100Гб. Как правильно это сделать, желательно без простоя системы? Пока только есть вариант нарезать раздел из неразмеченной области, скопировать туда всё из /date и примонтировать его. Возможно ли существующие разделы как-то воткнуть в lvm без потери данных и спокойно увеличивать потом на лету?

 , , ,

barabulka ()

Smart Array p410

Добрый день! Имеется сервер HP c контролером smart array p410, OS debian 7, RAID5 с дисками sata HP 454273-001.

Подскажите ,как провести плановую замену жестких дисков не выключая сервер (горячую замену). Загуглил утилиту hpssacli(ssacli) , но не понял как ей пользоваться.

 ,

botanik26rus ()

RAID 5 mdadm. Проблемы после замены жесткого диска.

Здравствуйте. Я новичок, прошу помощи.

Ubuntu 10.04.4 LTS x86_64, RAID 5 mdadm, размером в 11TB и почти полностью забитый.

# cat /etc/mdadm/mdadm.conf

DEVICE partitions
ARRAY /dev/md0 level=raid5 num-devices=5 metadata=01.00 name=0 UUID=9e051d43:7a446627:0d3aa958:a6c30ba9

Сбойнул один из дисков:

faulty spare   /dev/sde1
State : clean, degraded

В таком состоянии он проработал несколько недель (может и больше). Я размонтировал рейд, удалил сбойный диск из рейда, подготовил новый жесткий для замены и добавил его в рейд.

Утром посмотрел mdstat.

# cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sde1[7](S) sdc1[5] sdd1[4] sdb1[1](F) sdf1[6]
      11721058304 blocks super 1.0 level 5, 512k chunk, algorithm 2 [5/3] [__UUU]

unused devices: <none>

# mdadm --detail /dev/md0

mdadm: metadata format 01.00 unknown, ignored.
/dev/md0:
        Version : 01.00
  Creation Time : Mon Nov  4 09:51:43 2013
     Raid Level : raid5
     Array Size : 11721058304 (11178.07 GiB 12002.36 GB)
  Used Dev Size : 5860529152 (5589.04 GiB 6001.18 GB)
   Raid Devices : 5
  Total Devices : 5
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Sat Jan  6 07:14:55 2018
          State : clean, degraded
 Active Devices : 3
Working Devices : 4
 Failed Devices : 1
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

           Name : 0
           UUID : 9e051d43:7a446627:0d3aa958:a6c30ba9
         Events : 750198

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       0        0        1      removed
       5       8       33        2      active sync   /dev/sdc1
       4       8       49        3      active sync   /dev/sdd1
       6       8       81        4      active sync   /dev/sdf1

       1       8       17        -      faulty spare   /dev/sdb1
       7       8       65        -      spare   /dev/sde1

Новый диск, который я добавил:

7       8       65        -      spare   /dev/sde1

И теперь появился еще один сбойный:

1       8       17        -      faulty spare   /dev/sdb1
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       5
  3 Spin_Up_Time            0x0027   142   142   021    Pre-fail  Always       -       11858
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       31
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   050   050   000    Old_age   Always       -       36531
 10 Spin_Retry_Count        0x0032   100   253   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   253   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       31
183 Unknown_Attribute       0x0032   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       25
193 Load_Cycle_Count        0x0032   200   200   000    Old_age   Always       -       5
194 Temperature_Celsius     0x0022   107   094   000    Old_age   Always       -       45
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       6

# cat /var/log/messages

Jan  6 04:10:18 access kernel: [33259.993923] ata2.00: configured for UDMA/133
Jan  6 04:10:18 access kernel: [33259.993950] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.285997] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.286026] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.390773] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.390797] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.482241] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.482265] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.573688] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.573712] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.665190] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.665228] sd 1:0:0:0: [sdb] Unhandled sense code
Jan  6 04:10:21 access kernel: [33260.665230] sd 1:0:0:0: [sdb] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jan  6 04:10:21 access kernel: [33260.665233] sd 1:0:0:0: [sdb] Sense Key : Medium Error [current] [descriptor]
Jan  6 04:10:21 access kernel: [33260.665237] Descriptor sense data with sense descriptors (in hex):
Jan  6 04:10:21 access kernel: [33260.665239]         72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 01 
Jan  6 04:10:21 access kernel: [33260.665245]         28 f9 78 f4 
Jan  6 04:10:21 access kernel: [33260.665247] sd 1:0:0:0: [sdb] Add. Sense: Unrecovered read error - auto reallocate failed
Jan  6 04:10:21 access kernel: [33260.665252] sd 1:0:0:0: [sdb] CDB: Read(16): 88 00 00 00 00 01 28 f9 78 30 00 00 00 d0 00 00
Jan  6 04:10:21 access kernel: [33260.665263] raid5:md0: read error not correctable (sector 4982403312 on sdb1).
Jan  6 04:10:21 access kernel: [33260.665270] raid5:md0: read error not correctable (sector 4982403320 on sdb1).
Jan  6 04:10:21 access kernel: [33260.665279] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.764633] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.764655] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.856082] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.856105] ata2: EH complete
Jan  6 04:10:21 access kernel: [33260.955856] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33260.955878] ata2: EH complete
Jan  6 04:10:21 access kernel: [33261.055601] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33261.055623] sd 1:0:0:0: [sdb] Unhandled sense code
Jan  6 04:10:21 access kernel: [33261.055625] sd 1:0:0:0: [sdb] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jan  6 04:10:21 access kernel: [33261.055628] sd 1:0:0:0: [sdb] Sense Key : Medium Error [current] [descriptor]
Jan  6 04:10:21 access kernel: [33261.055631] Descriptor sense data with sense descriptors (in hex):
Jan  6 04:10:21 access kernel: [33261.055633]         72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 01 
Jan  6 04:10:21 access kernel: [33261.055638]         28 f9 79 00 
Jan  6 04:10:21 access kernel: [33261.055641] sd 1:0:0:0: [sdb] Add. Sense: Unrecovered read error - auto reallocate failed
Jan  6 04:10:21 access kernel: [33261.055645] sd 1:0:0:0: [sdb] CDB: Read(16): 88 00 00 00 00 01 28 f9 79 00 00 00 00 10 00 00
Jan  6 04:10:21 access kernel: [33261.055655] raid5:md0: read error not correctable (sector 4982403328 on sdb1).
Jan  6 04:10:21 access kernel: [33261.055661] raid5:md0: read error not correctable (sector 4982403336 on sdb1).
Jan  6 04:10:21 access kernel: [33261.055672] ata2: EH complete
Jan  6 04:10:21 access kernel: [33261.155367] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33261.155389] ata2: EH complete
Jan  6 04:10:21 access kernel: [33261.246832] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33261.246854] ata2: EH complete
Jan  6 04:10:21 access kernel: [33261.346604] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33261.346626] ata2: EH complete
Jan  6 04:10:21 access kernel: [33261.446357] ata2.00: configured for UDMA/133
Jan  6 04:10:21 access kernel: [33261.446380] sd 1:0:0:0: [sdb] Unhandled sense code
Jan  6 04:10:21 access kernel: [33261.446382] sd 1:0:0:0: [sdb] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jan  6 04:10:21 access kernel: [33261.446385] sd 1:0:0:0: [sdb] Sense Key : Medium Error [current] [descriptor]
Jan  6 04:10:21 access kernel: [33261.446388] Descriptor sense data with sense descriptors (in hex):
Jan  6 04:10:21 access kernel: [33261.446390]         72 03 11 04 00 00 00 0c 00 0a 80 00 00 00 00 01 
Jan  6 04:10:21 access kernel: [33261.446396]         28 f9 79 10 
Jan  6 04:10:21 access kernel: [33261.446398] sd 1:0:0:0: [sdb] Add. Sense: Unrecovered read error - auto reallocate failed
Jan  6 04:10:21 access kernel: [33261.446402] sd 1:0:0:0: [sdb] CDB: Read(16): 88 00 00 00 00 01 28 f9 79 10 00 00 00 f0 00 00
Jan  6 04:10:21 access kernel: [33261.446413] raid5:md0: read error not correctable (sector 4982403344 on sdb1).
Jan  6 04:10:21 access kernel: [33261.446418] raid5:md0: read error not correctable (sector 4982403352 on sdb1).
Jan  6 04:10:21 access kernel: [33261.446421] raid5:md0: read error not correctable (sector 4982403360 on sdb1).
Jan  6 04:10:21 access kernel: [33261.446424] raid5:md0: read error not correctable (sector 4982403368 on sdb1).
Jan  6 04:10:21 access kernel: [33261.446426] raid5:md0: read error not correctable (sector 4982403376 on sdb1).
Jan  6 04:10:21 access kernel: [33261.446429] raid5:md0: read error not correctable (sector 4982403384 on sdb1).
Jan  6 04:10:21 access kernel: [33261.446454] ata2: EH complete
Jan  6 04:10:21 access kernel: [33261.453315] md: md0: recovery done.
Jan  6 04:10:21 access kernel: [33261.577963] RAID5 conf printout:
Jan  6 04:10:21 access kernel: [33261.577966]  --- rd:5 wd:3
Jan  6 04:10:21 access kernel: [33261.577969]  disk 0, o:1, dev:sde1
Jan  6 04:10:21 access kernel: [33261.577971]  disk 1, o:0, dev:sdb1
Jan  6 04:10:21 access kernel: [33261.577973]  disk 2, o:1, dev:sdc1
Jan  6 04:10:21 access kernel: [33261.577974]  disk 3, o:1, dev:sdd1
Jan  6 04:10:21 access kernel: [33261.577976]  disk 4, o:1, dev:sdf1
Jan  6 04:10:21 access kernel: [33262.252744] RAID5 conf printout:
Jan  6 04:10:21 access kernel: [33262.252748]  --- rd:5 wd:3
Jan  6 04:10:21 access kernel: [33262.252751]  disk 1, o:0, dev:sdb1
Jan  6 04:10:21 access kernel: [33262.252753]  disk 2, o:1, dev:sdc1
Jan  6 04:10:21 access kernel: [33262.252755]  disk 3, o:1, dev:sdd1
Jan  6 04:10:21 access kernel: [33262.252757]  disk 4, o:1, dev:sdf1
Jan  6 04:10:21 access kernel: [33262.252765] RAID5 conf printout:
Jan  6 04:10:21 access kernel: [33262.252766]  --- rd:5 wd:3
Jan  6 04:10:21 access kernel: [33262.252768]  disk 1, o:0, dev:sdb1
Jan  6 04:10:21 access kernel: [33262.252770]  disk 2, o:1, dev:sdc1
Jan  6 04:10:21 access kernel: [33262.252772]  disk 3, o:1, dev:sdd1
Jan  6 04:10:21 access kernel: [33262.252774]  disk 4, o:1, dev:sdf1
Jan  6 04:10:21 access kernel: [33262.278896] RAID5 conf printout:
Jan  6 04:10:21 access kernel: [33262.278900]  --- rd:5 wd:3
Jan  6 04:10:21 access kernel: [33262.278903]  disk 2, o:1, dev:sdc1
Jan  6 04:10:21 access kernel: [33262.278906]  disk 3, o:1, dev:sdd1
Jan  6 04:10:21 access kernel: [33262.278908]  disk 4, o:1, dev:sdf1

Попытался смонтировать рейд.

# mount -t ext4 /dev/md0 /media/test/

mount: wrong fs type, bad option, bad superblock on /dev/md0

 ,

leenkmn ()

удалил Raid-5

Уважаемое сообщество, есть у меня домашний серверок на Xpenology и все бы хорошо, если бы я не полез его обновлять. обновил с удалением софтового Raid-5. файловая система BTRFS, на момент удаления с рейдом никаких проблем не было. все диски исправные. диски отключил, записал порядок их расположения. есть возможность потренироваться на кошках, тоесть собрать аналогичный рейд на других дисках вопрос: каковы мои шансы на восстановление данных? и укажите плиз верную последовательность восстановления, и где почитать?

 , ,

Kizilkum ()

raid 5 [UUUUU_]

не долго думая создал (в первый раз) рейд 5

mdadm --create --verbose /dev/md1 --level=5 --raid-devices=6 /dev/sdc /dev/sdd /dev/sde /dev/sdf /dev/sdg /dev/sdh
Смотрю на него
md1 : active raid5 sdh[6] sdg[4] sdf[3] sde[2] sdd[1] sdc[0]
      4883156480 blocks super 1.2 level 5, 512k chunk, algorithm 2 [6/5] [UUUUU_]
      [====>................]  recovery = 23.3% (227639680/976631296) finish=1363.9min speed=9152K/sec
      bitmap: 1/8 pages [4KB], 65536KB chunk
# mdadm --query --detail /dev/md1
/dev/md1:
        Version : 1.2
  Creation Time : Wed Apr  5 10:55:56 2017
     Raid Level : raid5
     Array Size : 4883156480 (4656.94 GiB 5000.35 GB)
  Used Dev Size : 976631296 (931.39 GiB 1000.07 GB)
   Raid Devices : 6
  Total Devices : 6
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Wed Apr  5 15:58:09 2017
          State : active, degraded, recovering 
 Active Devices : 5
Working Devices : 6
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

 Rebuild Status : 23% complete

           Name : s1:1  (local to host s1)
           UUID : c59f91ba:1683a43c:9a0d81f2:f058dd2b
         Events : 40725

    Number   Major   Minor   RaidDevice State
       0       8       32        0      active sync   /dev/sdc
       1       8       48        1      active sync   /dev/sdd
       2       8       64        2      active sync   /dev/sde
       3       8       80        3      active sync   /dev/sdf
       4       8       96        4      active sync   /dev/sdg
       6       8      112        5      spare rebuilding   /dev/sdh
Оно UUUUU_ потом станет UUUUUU или скрипты мониторинга переписывать?

 ,

petav ()

RAID5 + FS + SSD(TRIM)

Здравствуйте.

При попытке реализовать RAID и TRIM столкнулся с такой проблемой, что стандартный ext4 не поддерживает размер блока ниже 1024. Вкупе с mdadm - это выливается в то, что команда trim отработать не может.

Здесь Не включается TRIM на Samsung EVO (комментарий) мне рекомендовали использовать файловую систему XFS. Но и он не дает создать раздел с блоком меньше 512.

Кто нибудь реализовывал рабочую модель RAID5 + FS + TRIM?

Буду рад любому примеру софтварной реализации

 , , , ,

Krishnoved ()

Указание chunk при создании массива

Здравствуйте.

Интересует вопрос.

Можно ли указать размер chunk при создании raid5?

При создании используется mdadm

 ,

Krishnoved ()