LINUX.ORG.RU
ФорумAdmin

Научите пользоваться LVM

 


0

1

Вычитываю примеры по LVM, и понимаю что они все слегка не такие как я хочу, и очень не хотелось бы что то испортить.

С LVM столкнулся в лоб только 3 дня назад, до этого успешно его избегал.

Сейчас думаю как решить следующую задачу.

Нужно на диске, на котором уже есть несколько томов создать еще один.

С чего начать в таких случаях?


если это рабочая станция с графикой, просто установить gparted, если нет читать маны по консольным утилитам они ничем не хуже, просто придется почитать маны и возможно потренироваться на кошках в виртуалочке.

anonymous
()
Ответ на: комментарий от anonymous

ну gparted то я умею пользоваться, охота физику понять

и это не рабочая станция с графикой а тестовый сервер

Shulman
() автор топика

если на носителе нет разделов под управлением lvm, то надо отрезать кусок и отдать его на растерзание lvm.
если у тебя нет дикой необходимости шинковать пространство носителей постоянно и в онлайн, то тебе нахеръ не нужон lvm.
отрежь новый раздел и, вместо отдачи его на растерзание lvm, примени его так как нужно.

pfg ★★★★★
()
Ответ на: комментарий от Shulman

https://help.ubuntu.ru/wiki/lvm

Вполне достаточно для твоего случая.

как понять где создавать pv?

PV - Physical Volume, физический том. Раздел, который создан (g)parted, fdisk.

форматируешь его в pv pvcreate.

создаешь группу томов vgcreate. Условно, это как бы виртуальный диск, на котором можно создать разделы - логические тома.

создаешь логические тома LV в группе томов VG lvcreate

anonymous
()
Ответ на: комментарий от pfg

если на носителе нет разделов под управлением lvm

как понять как разбит диск?

root@pve01:~# lvdisplay
  --- Logical volume ---
  LV Path                /dev/pve/swap
  LV Name                swap
  VG Name                pve
  LV UUID                1WQdWu-TPmt-NlNP-VY2r-w5q9-MLEt-L3DIPE
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-06-10 12:16:41 +0500
  LV Status              available
  # open                 2
  LV Size                8.00 GiB
  Current LE             2048
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:0

  --- Logical volume ---
  LV Path                /dev/pve/root
  LV Name                root
  VG Name                pve
  LV UUID                9ZjXfv-eS3m-gZDR-DXoY-xVXX-RLl1-Zgraci
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-06-10 12:16:41 +0500
  LV Status              available
  # open                 1
  LV Size                96.00 GiB
  Current LE             24576
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:1

  --- Logical volume ---
  LV Name                data
  VG Name                pve
  LV UUID                z51g7s-KenY-Yqns-QM8y-HuYa-9P1B-3PxrYz
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-06-10 12:16:42 +0500
  LV Pool metadata       data_tmeta
  LV Pool data           data_tdata
  LV Status              available
  # open                 2
  LV Size                <1.67 TiB
  Allocated pool data    0.34%
  Allocated metadata     0.16%
  Current LE             437631
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:4

  --- Logical volume ---
  LV Path                /dev/pve/vm-100-disk-0
  LV Name                vm-100-disk-0
  VG Name                pve
  LV UUID                yfe129-Kgbe-9jAs-iwnP-OVyt-f8nu-0dOXtc
  LV Write Access        read/write
  LV Creation host, time pve01, 2020-06-10 17:17:12 +0500
  LV Pool name           data
  LV Status              available
  # open                 1
  LV Size                32.00 GiB
  Mapped size            18.09%
  Current LE             8192
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:11

  --- Logical volume ---
  LV Path                /dev/pve-OLD-5C5E6747/swap
  LV Name                swap
  VG Name                pve-OLD-5C5E6747
  LV UUID                c30icS-9J0f-1gdX-Qd8e-XMl0-fdYm-gzp1Y0
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-06-09 20:31:03 +0500
  LV Status              available
  # open                 0
  LV Size                8.00 GiB
  Current LE             2048
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:5

  --- Logical volume ---
  LV Path                /dev/pve-OLD-5C5E6747/root
  LV Name                root
  VG Name                pve-OLD-5C5E6747
  LV UUID                tJNDUd-wV8R-XQyH-BxFY-JYPw-Hac3-02Ak2w
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-06-09 20:31:03 +0500
  LV Status              available
  # open                 0
  LV Size                96.00 GiB
  Current LE             24576
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:6

  --- Logical volume ---
  LV Name                data
  VG Name                pve-OLD-5C5E6747
  LV UUID                OzHTh6-mxhY-YmgK-5kqd-R4xY-gSPu-q0i1eU
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-06-09 20:31:04 +0500
  LV Pool metadata       data_tmeta
  LV Pool data           data_tdata
  LV Status              available
  # open                 0
  LV Size                <320.10 GiB
  Allocated pool data    0.00%
  Allocated metadata     0.52%
  Current LE             81945
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           253:9
Shulman
() автор топика
Ответ на: комментарий от Shulman

так одно другому не замена, одно создает группу томов на pv, другое создает логический том из которых будет состоять эта группа. Вообще все в манах вполне доходчиво описано, тебе просто надо немного поэкспериментировать, проще всего это делать все-таки в виртуалках, потому что там ты можешь и накидать дисков без проблем задать им разные интерфейсы, разный размер.

Очевидно, что физический том нужно создавать там, где имеется свободное пространство, чтобы потом все эти физические тома объединить под одно группой которая у тебя была или будет, чтобы на ней раскатывать логические тома.

anonymous
()
Ответ на: комментарий от Shulman

сначала смотришь что есть вообще за железки, потом там где есть свободное место, оформляешь pv, потом из этих pv делаешь группу, в группе раскатываешь логические тома. Ты же показал просто список логических томов в группе pve

anonymous
()
Ответ на: комментарий от anonymous

ну и да в твоем случае раз есть уже группа, тебе нужно будет добавлять в нее pv твои которые ты создашь например на новом диске который ты доподключил рядом с остальными. Вот его заворачиваешь в pv

потом что-то типа такого https://www.thegeekdiary.com/centos-rhel-how-to-add-physical-volume-pv-to-a-volume-group-vg-in-lvm/

anonymous
()
Ответ на: комментарий от Shulman

как понять как разбит диск?

pvs - покажет все физические тома: раздел диска, в какой группе томов, размер

anonymous
()
Ответ на: комментарий от Pinkbyte

Ещё есть хороший ресурс для тех, кто суахили вместо английского изучал в школе: http://xgu.ru/wiki/LVM

anonymous
()
Ответ на: комментарий от anonymous

/dev/sdb3 pve

получается за этим phisical volume закреплено 1.82t, что значит 16.38g?

То есть всего 16 гигов свободно?

Shulman
() автор топика
Ответ на: комментарий от anonymous
root@pve01:~# df -h
Filesystem            Size  Used Avail Use% Mounted on
udev                  7.8G     0  7.8G   0% /dev
tmpfs                 1.6G  9.1M  1.6G   1% /run
/dev/mapper/pve-root   94G   15G   75G  17% /
tmpfs                 7.9G   43M  7.8G   1% /dev/shm
tmpfs                 5.0M     0  5.0M   0% /run/lock
tmpfs                 7.9G     0  7.9G   0% /sys/fs/cgroup
/dev/fuse              30M   16K   30M   1% /etc/pve
tmpfs                 1.6G     0  1.6G   0% /run/user/0

показывает что у меня в корне всего 94 гига, а диск на 2 терабайта, как создать дополнительный логический том и как расширить этот?

Shulman
() автор топика
Последнее исправление: Shulman (всего исправлений: 1)
Ответ на: комментарий от Shulman

как создать дополнительный логический том

lvcreate pve -n <имя-нового_тома> -L <размер_в_гигах>G

как расширить этот?

lvresize /dev/mapper/pve-root L +<прибавка_размера_в_гигах>G

te111011010
()
Ответ на: комментарий от Shulman

как создать дополнительный логический том и как расширить этот?

Ты используешь proxmox. Читай документацию к нему

anonymous
()
Ответ на: комментарий от Shulman

сюда:

  --- Logical volume ---
  LV Name                data
  VG Name                pve
  LV UUID                z51g7s-KenY-Yqns-QM8y-HuYa-9P1B-3PxrYz
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-06-10 12:16:42 +0500
  LV Pool metadata       data_tmeta
  LV Pool data           data_tdata
  LV Status              available
  # open                 2
  LV Size                <1.67 TiB

te111011010
()
Ответ на: комментарий от Shulman

LVM меня вынуждает использовать Proxmox, там же все на нем

Нет.

Более того, если там у тебя создался thin pool, то удаляй его, иначе дело закончится твоим увольнением. Ну, судя по твоему подходу, рано или поздно закончится место и все виртуалки посыплются как домино :) Proxmox отлично работает с файловым сториджем, которого с головой хватит мелкому энтерпрайзу.

anonymous
()
Ответ на: комментарий от Shulman

Может осилишь уже ссылку, что я тебе прислал? Там не просто man, там за ручку ведут и всё показывают - для новичка, который видит LVM первый раз - самое оно

Pinkbyte ★★★★★
()
Ответ на: комментарий от anonymous

Несколько лет уже использую thinpool в проксмокс-кластерах, ноль проблем. Гораздо чаще возникают проблемы с недостатком производительности дисковой системы, из-за чего рейды разваливаются, либо просто диски и накопители из строя выходят.

Конечно, если профукать исчерпание места под метаданные, то могут быть проблемы, но это надо во-первых, совсем не читать документацию, во-вторых, использовать этот thinpool для явно неподхоящих целей, где уже надо бы отдельная СХД с ZFS.

lizard ★★★
()
Ответ на: комментарий от lizard

но это надо во-первых, совсем не читать документацию

Обрати внимание на ТС :))

anonymous
()
Ответ на: комментарий от pfg

тебе нахеръ не нужон lvm

Нет таких случаев. Если у тебя lvm-том вместо раздела за всю жизнь ни разу не менялся, то, по сравнению с разделом, ты ничего не приобрёл, но и ничего не потерял. А если у тебя том и ему потребовалось измениться, то ты пожалеешь, что он не является lvm-томом. LVM и initrd — это обязательные вещи. Хотя зачастую можно обойтись и без них, но, всё равно, их отсутствие ничего полезного тебе не даст, а вот проблем, пусть и в каких-то редких случаях, создать может.

gremlin_the_red ★★★★★
()
Ответ на: комментарий от lizard

Конечно, если профукать исчерпание места под метаданные

как прогнозировать рост объема метаданных?

Shulman
() автор топика
Ответ на: комментарий от anonymous

Ну, судя по твоему подходу, рано или поздно закончится место и все виртуалки посыплются как домино

какой у меня подход и почему они должны посыпаться?

Shulman
() автор топика
Ответ на: комментарий от lizard

проблемы с недостатком производительности дисковой системы, из-за чего рейды разваливаются

лол, линукс такой линукс, ничего не поменялось

anonymous
()
Ответ на: комментарий от anonymous

Набросить-то надо, а так да, ничего не меняется.

anonymous
()
Ответ на: комментарий от gremlin_the_red

LVM и initrd — это обязательные вещи

Для админов локалхоста, которые никак не женятся? Безусловно. Никак не могут решить скока им чего нужно на подкроватном севере.

Для «просто работать» и не админов

Нет таких случаев.

slackwarrior ★★★★★
()
Последнее исправление: slackwarrior (всего исправлений: 2)
Ответ на: комментарий от gremlin_the_red

За последние 10 лет отсутствие лвм не создало мне никаких проблем :) последний раз «очень важная» зодача пердолинга с разделами возникала на дуалбутном лолхосте ноутбука с одним винтом. Сейчас у всего тупо «свои ссд». Пересобирание ведра «с обязательным(нет) инитрд» обратно возникает не часто - когда в куренте еще нет поддержки чего-то что есть на цорнель.орк. итого нужно специально придумать «редкий случай» зачем тащить лвм.

slackwarrior ★★★★★
()
Ответ на: комментарий от slackwarrior

LVM или другая разновидность динамических томов поверх device mapper это просто удобно, по сравнению с правкой таблицы разделов fdisk и ручным подсчётом секторов. И да, этот инструмент позволяет отложить решение об аллокации места под задачу до того времени, когда оно действительно понадобится, что тоже удобно. Никакой особенной религии, которая бы разделяла людей на сорта, как ты это делаешь, здесь не предусмотрено.

d_a ★★★★★
()
Ответ на: комментарий от slackwarrior

Независимо от количества винтов, ты как правило не хочешь заполнить / на 100%, потому что система вероятно перестанет работать, или упереться в лимиты одной ФС (иноды, максимальное число объектов, максимальная длина пути, …). Поэтому какая-то разбивка нужна, если нужно хранить что-то кроме мусора в ~/Downloads. А разбивку, в свою очередь, удобнее делать современными (относительно) инструментами, а не образца 70х годов прошлого века.

d_a ★★★★★
()
Ответ на: комментарий от gremlin_the_red

По поводу ничего не потерял -- по идее LVM как дополнительный уровень индирекции в блочном стеке не может быть бесплатным. Также, по идее, усложняется восстановление данных в случае физической неисправности, поскольку файлы оказываются разорванными по экстентам. Я это не проверял конечно же, ни то, ни другое.

d_a ★★★★★
()
Ответ на: комментарий от d_a

Олдскульные дисковые разделы — это тоже дополнительный уровень индирекции. Типичный раздел в LVM состоит из одного экстента, так что разница минимальна.

Из плюсов лично для меня:

— При установке системы не нужно заранее думать, сколько места выделить под что.

— Можно увеличивать размер разделов прямо на лету, без отмонтирования.

— Можно переехать на новый диск прямо на лету, без отмонтирования и перезагрузки, вообще не прекращая работы.

К последнему до сих пор привыкнуть не могу. Подключил новый диск к работающему ПК, запустил pvmove и продолжаешь заниматься своими делами, пока оно в фоне шуршит. Потом вытащил пустой старый диск. Вообще космос.

anonymous
()
Ответ на: комментарий от anonymous

запустил pvmove

Запустил перемещение свопа с hdd на sdd и обратно 10 раз во время работы

Вообще космос.

anonymous
()
Ответ на: комментарий от anonymous

С увеличением размеров томов однако можно довольно часто напороться на чей-то идиотизм, когда некие дефолтные тома, скажем для / и /home занимают всё свободное место в группе, а ФС уменьшаться понятное дело не умеют, и хрен ты что поменяешь, без переезда или переустановки. Что рушит на корню всю идею. Редхатовские установщики в автоматическом режиме этим страдали, а может и по сей день страдают. Мне кажется простая идея что больше не надо сразу из магазина бежать форматировать все честно купленные терабайты для многих непостижима.

d_a ★★★★★
()
Ответ на: комментарий от gremlin_the_red

а вот проблем, пусть и в каких-то редких случаях, создать может.

Да совсем-совсем не редких случаях. Если у тебя lvm - то на хост при недостатке места ты просто добавляешь диск и расширяешь раздел. Это занимает 1 минуту. И эта операция возникает на 100% хостов, где хоть что-то полезное крутится, с чем люди работают. Это, конечно, относится и к VPSкам.

zendrz ★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.