История изменений
Исправление gobot, (текущая версия) :
Почему не стоит? У меня получилось
mdadm /dev/md0 --grow --raid-devices=2 --add /dev/sdb1
mdadm: level of /dev/md0 changed to raid4
mdadm: level of /dev/md0 changed to raid0
mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Mon Dec 12 12:23:44 2022
Raid Level : raid0
Array Size : 6283264 (5.99 GiB 6.43 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Mon Dec 12 12:43:26 2022
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 64K
Consistency Policy : none
Name : debian:0 (local to host debian)
UUID : 50f6b25f:a0ac5ab8:715dbab4:1a832525
Events : 60
Number Major Minor RaidDevice State
0 8 33 0 active sync /dev/sdc1
2 8 17 1 active sync /dev/sdb1
Надо было raid-devices=2 указать. Создался raid4, потом сам стал raid0 снова.
Далее увеличил ФС
resize2fs /dev/md0
Filesystem at /dev/md0 is mounted on /raid; on-line resizing required
old_desc_blocks = 1, new_desc_blocks = 1
The filesystem on /dev/md0 is now 1570816 (4k) blocks long.
Вуаля, теперь раздел в 2 раза больше стал
Теперь делаю это на рабочем сервере, в rescue mode, но вот тут не удается...
sudo mdadm /dev/md126 --grow --level=0
mdadm: failed to remove internal bitmap.
Как это обойти? Может из-за того что массив в resync mode?
cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md126 : active raid1 sda3[1] sdb3[0]
5859340288 blocks super 1.2 [2/2] [UU]
[========>............] resync = 42.8% (2508455872/5859340288) finish=284.8min speed=196052K/sec
bitmap: 26/44 pages [104KB], 65536KB chunk
md127 : active (auto-read-only) raid1 sda2[1] sdb2[0]
523264 blocks super 1.2 [2/2] [UU]
unused devices: <none>
Исправление gobot, :
Почему не стоит? У меня получилось
mdadm /dev/md0 --grow --raid-devices=2 --add /dev/sdb1
mdadm: level of /dev/md0 changed to raid4
mdadm: level of /dev/md0 changed to raid0
mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Mon Dec 12 12:23:44 2022
Raid Level : raid0
Array Size : 6283264 (5.99 GiB 6.43 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Mon Dec 12 12:43:26 2022
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 64K
Consistency Policy : none
Name : debian:0 (local to host debian)
UUID : 50f6b25f:a0ac5ab8:715dbab4:1a832525
Events : 60
Number Major Minor RaidDevice State
0 8 33 0 active sync /dev/sdc1
2 8 17 1 active sync /dev/sdb1
Надо было raid-devices=2 указать. Создался raid4, потом сам стал raid0 снова.
Далее увеличил ФС
resize2fs /dev/md0
Filesystem at /dev/md0 is mounted on /raid; on-line resizing required
old_desc_blocks = 1, new_desc_blocks = 1
The filesystem on /dev/md0 is now 1570816 (4k) blocks long.
Вуаля, теперь раздел в 2 раза больше стал
Теперь делаю это на рабочем сервере, в rescue mode, но вот тут не удается...
sudo mdadm /dev/md126 --grow --level=0
mdadm: failed to remove internal bitmap.
Как это обойти?
Исходная версия gobot, :
Почему не стоит? У меня получилось
mdadm /dev/md0 --grow --raid-devices=2 --add /dev/sdb1
mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Mon Dec 12 12:23:44 2022
Raid Level : raid0
Array Size : 6283264 (5.99 GiB 6.43 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Mon Dec 12 12:43:26 2022
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 64K
Consistency Policy : none
Name : debian:0 (local to host debian)
UUID : 50f6b25f:a0ac5ab8:715dbab4:1a832525
Events : 60
Number Major Minor RaidDevice State
0 8 33 0 active sync /dev/sdc1
2 8 17 1 active sync /dev/sdb1
Надо было raid-devices=2 указать. Создался raid4, потом сам стал raid0 снова.
Далее увеличил ФС
resize2fs /dev/md0
Filesystem at /dev/md0 is mounted on /raid; on-line resizing required
old_desc_blocks = 1, new_desc_blocks = 1
The filesystem on /dev/md0 is now 1570816 (4k) blocks long.
Вуаля, теперь раздел в 2 раза больше стал
Теперь делаю это на рабочем сервере, в rescue mode, но вот тут не удается...
sudo mdadm /dev/md126 --grow --level=0
mdadm: failed to remove internal bitmap.
Как это обойти?