LINUX.ORG.RU

Не вижу часть SSD на арендованном сервере

 ,


0

1

Всех приветствую! Арендовал сервер на CentOS Stream release 8. На нем должен был быть основнй SSD на 500 GB и дополнительный HDD на 4T. HDD я вижу он почему-то подмонтирован для home, а вот SSD на системе только 70 GB, а где остальные 400GB?

fdisk -l

Disk /dev/sdb: 3.7 TiB, 4000787030016 bytes, 7814037168 sectors
Device     Start        End    Sectors  Size Type
/dev/sdb1   2048 7814035455 7814033408  3.7T Linux LVM


Disk /dev/sda: 447.1 GiB, 480103981056 bytes, 937703088 sectors
/dev/sda1  *       2048   2099199   2097152     1G 83 Linux
/dev/sda2       2099200 937701375 935602176 446.1G 8e Linux LVM


df -h
Filesystem                   Size  Used Avail Use% Mounted on
devtmpfs                     7.7G     0  7.7G   0% /dev
tmpfs                        7.8G     0  7.8G   0% /dev/shm
tmpfs                        7.8G  8.7M  7.8G   1% /run
tmpfs                        7.8G     0  7.8G   0% /sys/fs/cgroup
/dev/mapper/cs_s203827-root   70G  2.6G   68G   4% /
/dev/sda1                   1014M  214M  801M  22% /boot
/dev/mapper/cs_s203827-home  4.0T   29G  4.0T   1% /home
tmpfs                        1.6G     0  1.6G   0% /run/user/0

Мне нужно как-то расширить LVM раздел? или что? Никогда раньше с LVM дела не имел. Я правильно понимаю, я должен /dev/mapper/cs_s203827-root расширить с 70 GB до 446GB? но на нем стоит система, я могу двигать, не отмонтировав /dev/mapper/cs_s203827-root ?



Последнее исправление: dimagra (всего исправлений: 1)

Ответ на: комментарий от vvn_black

Ждать от службы поддержки ответа можно очень долго, я пытаюсь сначала сам разобраться, нагуглил:

vgextend cs_s203827 /dev/sda2
 lvextend -l 100%VG -r /dev/cs_s203827/root

Так? либо надо pvresize использовать?

dimagra
() автор топика
Ответ на: комментарий от aol

Терять нечего, сервер новый. Мне мудрить не нужно, пусть home будет HDD, а рутовый раздел весь SDD, все 100%, которые останутся за вычетом swap

pvdisplay
  --- Physical volume ---
  PV Name               /dev/sda2
  VG Name               cs_s203827
  PV Size               <446.13 GiB / not usable 0
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              114209
  Free PE               0
  Allocated PE          114209
  PV UUID               XdPQHT-COWL-ZtAW-2xdM-HDBI-bl1P-iMdZkg

  --- Physical volume ---
  PV Name               /dev/sdb1
  VG Name               cs_s203827
  PV Size               <3.64 TiB / not usable 2.00 MiB
  Allocatable           yes (but full)
  PE Size               4.00 MiB
  Total PE              953861
  Free PE               0
  Allocated PE          953861
  PV UUID               qZggAW-JFXS-xsi2-AvG1-WG8Q-oFd1-ORVmRi


lvdisplay
  --- Logical volume ---
  LV Path                /dev/cs_s203827/swap
  LV Name                swap
  VG Name                cs_s203827
  LV UUID                7HOjbf-f2gy-ZVtF-XZcH-YaEw-I7gV-YSuHxc
  LV Write Access        read/write
  LV Creation host, time truck.brookscareers.com, 2023-01-08 09:34:12 -0600
  LV Status              available
  # open                 2
  LV Size                7.87 GiB
  Current LE             2015
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:1

  --- Logical volume ---
  LV Path                /dev/cs_s203827/home
  LV Name                home
  VG Name                cs_s203827
  LV UUID                wRb015-mM1C-3BJs-0R6r-mUud-qCAr-G9X7ys
  LV Write Access        read/write
  LV Creation host, time truck.brookscareers.com, 2023-01-08 09:34:12 -0600
  LV Status              available
  # open                 1
  LV Size                <4.00 TiB
  Current LE             1048135
  Segments               2
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:2

  --- Logical volume ---
  LV Path                /dev/cs_s203827/root
  LV Name                root
  VG Name                cs_s203827
  LV UUID                0vJ4rI-rY0Y-xp89-AbWB-MXYh-uPTR-45bOMi
  LV Write Access        read/write
  LV Creation host, time truck.brookscareers.com, 2023-01-08 09:34:28 -0600
  LV Status              available
  # open                 1
  LV Size                70.00 GiB
  Current LE             17920
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     8192
  Block device           253:0


lvs
  LV   VG         Attr       LSize  Pool Origin Data%  Meta%  Move Log Cpy%Sync Convert
  home cs_s203827 -wi-ao---- <4.00t
  root cs_s203827 -wi-ao---- 70.00g
  swap cs_s203827 -wi-ao----  7.87g


vgs
  VG         #PV #LV #SN Attr   VSize VFree
  cs_s203827   2   3   0 wz--n- 4.07t    0



lsblk
NAME                MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                   8:0    0 447.1G  0 disk
|-sda1                8:1    0     1G  0 part /boot
`-sda2                8:2    0 446.1G  0 part
  |-cs_s203827-root 253:0    0    70G  0 lvm  /
  |-cs_s203827-swap 253:1    0   7.9G  0 lvm  [SWAP]
  `-cs_s203827-home 253:2    0     4T  0 lvm  /home
sdb                   8:16   0   3.7T  0 disk
`-sdb1                8:17   0   3.7T  0 part
  `-cs_s203827-home 253:2    0     4T  0 lvm  /home
sr0                  11:0    1  1024M  0 rom
dimagra
() автор топика
Последнее исправление: dimagra (всего исправлений: 1)
Ответ на: комментарий от dimagra

Подожду до завтра, может кто-то подправит, но я нашел мануал для Centos 7, а у меня Centos Stream 8. Для Centos 7 нужно сделать:

lvextend -l+100%FREE /dev/mapper/cs_s203827-root
vgscan
vgchange -ay

Поддержка откровенно послала ответив, что нужно использовать инструменты вашей ОС для настройки остальной части вашего места диска.

dimagra
() автор топика

У тебя оба диска sda2 (ssd) и sdb1 (hdd) объединены в одну VG

Сомнительное решение. Кто это сделал?

Зачем ты все 4Т выделил под /home?

Короче: у тебя всё утилизировано, нечего добавлять

futurama ★★★★★
()
Последнее исправление: futurama (всего исправлений: 1)
Ответ на: комментарий от dimagra

В принципе, одной командой всё решается:

lvextend -r -l+100%FREE /dev/mapper/cs_s203827-root

И проверочная перезагрузка сразу же.

Но лучше целевую картину на стадии конфигурирования сразу указывать, особенно если администрирование хранилищ (в т.ч. LVM) не является основным профилем работы.

NDfan
()
Последнее исправление: NDfan (всего исправлений: 1)
Ответ на: комментарий от NDfan

lvextend -r -l+100%FREE /dev/mapper/cs_s203827-root

мне кажется эта команда не правильная, т.к. я набрал findmnt, и к удивлению обнаружил, что файловая система xfs, возможно я ошибаюсь:

findmnt
TARGET                                SOURCE     FSTYPE     OPTIONS
/                                     /dev/mapper/cs_s203827-root
|                                                xfs        rw,relatime,attr2,inode64,logbufs=8,logbsize=32k,noquota
|-/sys                                sysfs      sysfs      rw,nosuid,nodev,noexec,relatime
| |-/sys/kernel/security              securityfs securityfs rw,nosuid,nodev,noexec,relatime
| |-/sys/fs/cgroup                    tmpfs      tmpfs      ro,nosuid,nodev,noexec,mode=755
| | |-/sys/fs/cgroup/systemd          cgroup     cgroup     rw,nosuid,nodev,noexec,relatime,xattr,release_agent=/usr/lib/systemd/system
| | |-/sys/fs/cgroup/rdma             cgroup     cgroup     rw,nosuid,nodev,noexec,relatime,rdma
| | |-/sys/fs/cgroup/cpu,cpuacct      cgroup     cgroup     rw,nosuid,nodev,noexec,relatime,cpu,cpuacct
| | |-/sys/fs/cgroup/blkio            cgroup     cgroup     rw,nosuid,nodev,noexec,relatime,blkio
| | |-/sys/fs/cgroup/cpuset           cgroup     cgroup     rw,nosuid,nodev,noexec,relatime,cpuset
| | |-/sys/fs/cgroup/net_cls,net_prio cgroup     cgroup     rw,nosuid,nodev,noexec,relatime,net_cls,net_prio
| | |-/sys/fs/cgroup/perf_event       cgroup     cgroup     rw,nosuid,nodev,noexec,relatime,perf_event
| | |-/sys/fs/cgroup/pids             cgroup     cgroup     rw,nosuid,nodev,noexec,relatime,pids
| | |-/sys/fs/cgroup/freezer          cgroup     cgroup     rw,nosuid,nodev,noexec,relatime,freezer
| | |-/sys/fs/cgroup/memory           cgroup     cgroup     rw,nosuid,nodev,noexec,relatime,memory
| | |-/sys/fs/cgroup/hugetlb          cgroup     cgroup     rw,nosuid,nodev,noexec,relatime,hugetlb
| | `-/sys/fs/cgroup/devices          cgroup     cgroup     rw,nosuid,nodev,noexec,relatime,devices
| |-/sys/fs/pstore                    pstore     pstore     rw,nosuid,nodev,noexec,relatime
| |-/sys/fs/bpf                       bpf        bpf        rw,nosuid,nodev,noexec,relatime,mode=700
| |-/sys/kernel/tracing               none       tracefs    rw,relatime
| |-/sys/kernel/debug                 debugfs    debugfs    rw,relatime
| `-/sys/kernel/config                configfs   configfs   rw,relatime
|-/proc                               proc       proc       rw,nosuid,nodev,noexec,relatime
| `-/proc/sys/fs/binfmt_misc          systemd-1  autofs     rw,relatime,fd=40,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=17
|-/dev                                devtmpfs   devtmpfs   rw,nosuid,size=8069316k,nr_inodes=2017329,mode=755
| |-/dev/mqueue                       mqueue     mqueue     rw,relatime
| |-/dev/shm                          tmpfs      tmpfs      rw,nosuid,nodev
| |-/dev/pts                          devpts     devpts     rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000
| `-/dev/hugepages                    hugetlbfs  hugetlbfs  rw,relatime,pagesize=2M
|-/run                                tmpfs      tmpfs      rw,nosuid,nodev,mode=755
| `-/run/user/1000                    tmpfs      tmpfs      rw,nosuid,nodev,relatime,size=1617852k,mode=700,uid=1000,gid=1000
|-/boot                               /dev/sda1  xfs        rw,relatime,attr2,inode64,logbufs=8,logbsize=32k,noquota
`-/home                               /dev/mapper/cs_s203827-home
                                                 xfs        rw,relatime,attr2,inode64,logbufs=8,logbsize=32k,noquota

В мануалах пишут, что помимо:

lvextend  -l+100%FREE /dev/mapper/cs_s203827-root 

Нужно еще делать:

# vgscan
  Reading all physical volumes.  This may take a while...
  

# vgchange -ay
  

А затем:

xfs_growfs /dev/mapper/cs_s203827-root 

Вот меня смущают две последних команды.

Сомнительное решение. Кто это сделал? Зачем ты все 4Т выделил под /home?

Я этого не делал, я получил такой сервер, который я арендовал за деньги. Видимо ошибкой было брать сервер с двумя винтами. Поддержка умеет только перегружать сервер и больше ничего. Деньги я уже потерял, остается только выжать что-то. Может научусь работать с LVM

dimagra
() автор топика
Ответ на: комментарий от dimagra

Видимо что-то еще нужно:

# lvextend -l+100%FREE /dev/mapper/cs_s203827-root
  New size (17920 extents) matches existing size (17920 extents).

# vgscan
  Found volume group "cs_s203827" using metadata type lvm2

# vgchange -ay
  3 logical volume(s) in volume group "cs_s203827" now active

# xfs_growfs /dev/mapper/cs_s203827-root
meta-data=/dev/mapper/cs_s203827-root isize=512    agcount=4, agsize=4587520 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=1    bigtime=0 inobtcount=0
data     =                       bsize=4096   blocks=18350080, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =internal log           bsize=4096   blocks=8960, version=2
         =                       sectsz=512   sunit=0 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

К сожалению место не прибавилось, может что-то еще надо?

Если проблема с hdd, я могу временно отключить /home и удалить из LVM hdd. Если это конечно возможно. Задача только одна, чтобы / стал больше 400GB. HDD можно потом подключить в любую точку монтирования

dimagra
() автор топика
Последнее исправление: dimagra (всего исправлений: 1)
Ответ на: комментарий от dimagra

В мануалах пишут

Хорошо, можно и почитать. Открываем оригинальную, вендорскую документацию Red Hat Enterprise Linux 8 (а свободный CentOS на их кодовой базе построен, насколько помним):

https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/8/html...

Советую внимательно посмотреть целиком раздельчик, но вот собственно ключевой момент

If you are not using the r option with the lvextend command to extend the LV and resize the file system with a single command, then resize the file system on the logical volume by using the following command:

xfs_growfs /mnt/mnt1/

Ну и всё, а дальше только проверка

Verify if the file system is growing by using the following command:

# df -Th

Относительно -r, сверяемся по системному мануалу (man lvresize):

-r|--resizefs

Resize underlying filesystem together with the LV using fsadm(8).

Т.е. , совместно с изменением размера LV, утилита при необходимости, подвинет границы ФС - при этом самостоятельно произведя необходимые расчёты, проверки, манипуляции (соответствующими штатными утилитами).

NDfan
()
Последнее исправление: NDfan (всего исправлений: 1)
Ответ на: комментарий от dimagra

Пара секретов:

1) Перед манипуляциями, выполняется резервное копирование (полный клон, либо пофайлово ключевые данные - это уже администратор решения сам принимает решение). В данном случае его можно пропустить, поскольку система раскатана из шаблона, и можно через панель управления её перенакатить (у нормальных поставщиков дедиков она так, по крайней мере).

2) Прежде чем разметить, есть смысл сделать тестовый прогон без правок, с расширенным выводом. Сразу вылезут нестыковки.

-t|--test

Run in test mode. Commands will not update metadata. This is implemented by disabling all metadata writing but nevertheless returning success to the calling function. This may lead to unusual error mes‐ sages in multi-stage operations if a tool relies on reading back metadata it believes has changed but hasn't.

-v|--verbose ...

Set verbose level. Repeat from 1 to 4 times to increase the detail of messages sent to stdout and stderr.

NDfan
()
Ответ на: комментарий от NDfan

Извините, глаза уже замылились и я прочитал, вместо resizefs это reiserfs.

# lvextend -r -l+100%FREE /dev/mapper/cs_s203827-root
  Size of logical volume cs_s203827/root unchanged from 70.00 GiB (17920 extents).
  Logical volume cs_s203827/root successfully resized.

Возможно я что-то еще упустил? Сервер перегружал после, место не добавилось

dimagra
() автор топика
Последнее исправление: dimagra (всего исправлений: 1)
Ответ на: комментарий от dimagra

Выходит, что всё свободное место в Volume Group, было исчерпано. Ранее использованные команды должны это подтвердить.

Сразу скажу, что объединять диски разных типов, скоростей в единое пространство - сильно нелогичное занятие, в общем случае. Выше уже об этом сказал коллега. Нужны 2 VG (где будут отдельно системные разделы, и отдельно медленное хранилище).

Т.е. сейчас скорее учебные эксперименты делаются, а так, всё бестолково, надо вдумчиво перенакатить систему, используя функционал поставщика железа.

Лучше их доки почитать, да и до разметки в саппорт написать, действительно.

NDfan
()
Ответ на: комментарий от NDfan

Всем спасибо за ответы! К сожалению, когда хочется взять сервер подешевле, можно попасть на такие криворукие установки OS. В Панеле нет возможности переустановить систему, буду писать в службу поддержки, чтобы переставили.

Но для каких целей Centos позволяет создавать уменьшенный LVM раздел, поглощая остальное содержимое SDD?

fdisk -l

Disk /dev/sda: 447.1 GiB, 480103981056 bytes, 937703088 sectors
/dev/sda1  *       2048   2099199   2097152     1G 83 Linux
/dev/sda2       2099200 937701375 935602176 446.1G 8e Linux LVM

Изначально /dev/sda2=446.1G, как так получилось, что часть пространства SSD пропала? Это ошибка LVM? или очень сильно снижен ресурс SSD, так, что осталось только 70G на систему и 8G на своп. Вряд ли в крупном датацентре, где очень много серверов, какой-то админ вручную ставит ОС. Скорее всего есть автоматический скрипт, который устанавливает систему и она получается такой кривой. Может это вина разработчиков Centos?

dimagra
() автор топика
Последнее исправление: dimagra (всего исправлений: 1)
Ответ на: комментарий от dimagra

Короче: у тебя всё утилизировано, нечего добавлять

К сожалению вы правы, 368G от SSD, которые я потерял объединены вместе с 3.7Т медленного HDD в один /home Это и правда странное решение. Возможно как-то можно отмонтировать /home, удалить /dev/mapper/cs_s203827-home и после, как освободится место у SSD добавить его для системы. А home потом подмонтировать с уже заново отформатированным HDD. Но это наверное сложно, написал пока просьбу переставить систему без LVM

dimagra
() автор топика
Последнее исправление: dimagra (всего исправлений: 1)
Ответ на: комментарий от dimagra

Но для каких целей Centos позволяет создавать уменьшенный LVM раздел, поглощая остальное содержимое SDD?

Это ошибка LVM?

Я, честно говоря, ошибок не вижу, кроме негибкой и сомнительной разбивки. Арендодатель сервера же не знает, какое решение будет крутиться. Поэтому в приличных местах, предлагается внести правки в предложенные умолчания, до автонаката системы (но можно и умолчания оставить).

Потому что переразбивка дискового пространства может быть на порядок дольше и «наукоёмче» - если требуется маленький корневой раздел, да на RAID-массиве, да в режиме восстановления, и т.п.

А что за провайдер такой?

NDfan
()
Ответ на: комментарий от dimagra

написал пока просьбу переставить систему без LVM

Ну самый разумный вариант, в данном случае.

Если хочется гибко настраивать хранилища, то точечных походов в google будет мало, нужен минимальный «курс молодого бойца».

Отлично подойдёт оригинальная документация вендора, либо соотв. главы из книг уважаемых батьков вроде Sander Van Vugt и Michael Jang.

Но, опять же, в это надо погружаться, далеко не для всех это вообще целесообразно.

NDfan
()
Ответ на: комментарий от NDfan

А что за провайдер такой?

Зарубежный. Не буду ему антирекламу делать. А если так?

umount /home/
lvremove /dev/mapper/cs_s203827-home
lvextend -r -l+100%FREE /dev/mapper/cs_s203827-root

Может еще что-то надо сделать, после удаления раздела?

dimagra
() автор топика
Последнее исправление: dimagra (всего исправлений: 1)
Ответ на: комментарий от dimagra

Проделал эти команды, но как чувствовал, что в середине надо было как-то удалить /dev/hdb из LVM, я этого не сделал, и теперь у меня / состоит из SSD и HDD вместе взятых. Можно еще как-то удалить HDD из lvm? или уже никак без переустановки системы?

dimagra
() автор топика

основнй SSD на 500 GB и дополнительный HDD на 4T

/dev/sda: 447.1 GiB похоже на 500гб, почему 447 - общайтесь с хостером
/dev/sdb: 3.7 TiB тоже близко к 4тб
хостер мб объёмы дает в размерностях 10^n
ос и оборудование считают в 2^k
пример: 10^3 = 1000, 2^10 = 1024, 3!=10, n!=k и гигабайт это как 10^9 так и 2^30 - разница ~73мб, ну и тупо 500 - 0.073*500 ~ 463,5гб должно быть, тут не совпадение - в тп провайдера
читайте контракт, общайтесь с тп - на информативные вопросы действительно может быть долгое время ответа - это не mission critical
ну и долго/не_долго хостер отвечает - на какое SLA денек хватило у Вас, такой и есть. если хостер нарушает SLA - в соответствии с контрактом должны быть штрафы к хостеру.

etwrq ★★★★★
()
Последнее исправление: etwrq (всего исправлений: 6)
Ответ на: комментарий от dimagra

Зарубежный. Не буду ему антирекламу делать

Пока ничего критичного не звучало, обычный «экономный» сервис лоукостера. На то он и форум, чтобы обоюдно обмениваться полезной информацией.

Считаю, что все аспекты простейшей работы с LVM, уже затронуты выше.

NDfan
()
Ответ на: комментарий от dimagra

Судя по приведенным выхлопом, ситуация у вас на данный момент такая:

Каждый из разделов /dev/sda2 (446 GiB) и /dev/sdb1 (3.6 TiB) назначен как physical volume системы LVM, и они объединены в volume group cs_s203827 суммарным размером 4.07TiB (446 GiB + 3.6 TiB).

Потом на этой volume group, раскатаны логические тома home (<4.00t), root (70.00g), swap (7.87g).

Здесь важно учесть, что суммарный размер этих логических томов полностью съедает свободное место в volume group cs_s203827. Так что на физических томов (разделов /dev/sda2 и /dev/sdb1) из которых она состоит, все место занято под логических томов. Это потверждается выхлопом pvdisplay, из которого видно что незанятых PE (free physical extents) в обоих /dev/sda2 и /dev/sdb1 по нулям.

Далее, на логических томов home, root накатаны соответные файловые системы.

Чтобы разгрести бардак, и вынуть раздел SSD /dev/sda2 из этой конфигурациий, в принципе нужно сделать следующее:

  • Высвободить все physical extents из /dev/sda2, чтобы он не изпользовался логическими томами, и чгобы его можно было далее удалить из volume group (и далее отвязать от физичесого тома lvm, если вообще его не использовать для lvm).

  • Однако чтобы высвободить все physical extents (PE) из /dev/sda2, нужно чтобы были свободные PE на других физических томов (/dev/sdb1) куда их можно было перенести.

  • Однако на /dev/sdb1 нет никаких свободных PE (ввиде того, что логические тома используют все свободное место volume group).

  • Значит, надо ужать логические тома (home), чтобы высвободить PE на /dev/sdb1 где далее можно было бы перенести занятые PE из /dev/sda2.

  • К сожалению, идиоты разметили логические тома, в частности home (от которого иначе спокойно можно было место откусить) через файловую систему xfs, которая сжатие не поддерживает.

Поэтому ничего нельзя сделать - из-за того, что у вас практически все доступное пространство (446 GiB из ssd + 3.6 TiB из HD) уже занято (размечено) несжимаемыми файловыми системами (xfs).

Точнее, вынуть 446 GiB /dev/sda2 ssd из данную конфигурацию теперь можно только прицепив ЕЩЕ один storage, минимум того же размера (~450 GiB) чтобы перезалить там данные из /dev/sda2 (что как бы бесполезно).

Вердикт: хостер (точнее тот кто делал разметку вашего сервера) - полный идиот:

  • Объединил разделы из разных типов storage (SSD и HD) в один VG. В результате случайным образом, и без всякой возможности контроля блоки из разных логических томов (и соответно файловых систем) будут попадать то на SSD, то на HD.

  • Разметил все свободное место в volume group логическими томами максимального размера (везде написано, что так нехорошо делать; а наращивать занятое место из VG по мере необходимости).

  • Создал на сервере файловую систему /home на 4 TiB - кому это нужно??

  • Использовал несжимаемую fs (xfs) для всего этого хозяйства - так что наоборот не вернуть, и поменять разметку и аллокацию пространства теперь никак нельзя - убив при этом начисто все преимущества и гибкость lvm.

manul91
()
Ответ на: комментарий от futurama

Можно сделать вот что:

В single-user mode под рутом, вручную перемаунтить логический том /dev/mapper/cs_s203827-home с /home например на /mnt/tmp; и скопировать все оттуда на /home (директория /home после размонтирования, будет просто частью 70g корневой файловой системы)

Потом убрать строчку с mount (UUID файловой системы /dev/mapper/cs_s203827-home) на /home из fstab, перебутить сервер

При этом прежний /home останется частью из рутовой файл-системы монтированной в корне / (которая расположена на 70g логический том root из volume group cs_s203827); система будет рабочей

Далее логический том home 3.6T никак не будет использоваться, его можно полностью стереть командой «lvremove /dev/mapper/cs_s203827-home», тем самым освободив 3.6T места в volume group cs_s203827.

Теперь, можно передвинуть занятые экстенты из /dev/sda2 командой «pvmove /dev/sda2», и через «pvdisplay /dev/sda2» убедиться что ничего на нем не занято.

Далее через vgreduce и pvremove можно вообще вынуть /dev/sda2 из lvm.

Здесь неплохой туториал как это проделать https://www.2daygeek.com/linux-remove-delete-physical-volume-pv-from-volume-group-vg-in-lvm/

(нужно понимать что делаете и как lvm организована: physical volumes объединяются в volume groups, из пространства volume groups откусываются logical volumes (которые выглядят как новые блочные девайсы); далее на них ставится уже файловая система).

manul91
()
Последнее исправление: manul91 (всего исправлений: 1)