LINUX.ORG.RU
решено ФорумAdmin

Перенос LVM

 ,


0

1

Есть LVM, в ней два LV - swap и root (/), boot - отдельно.

Диск sda - разбит следующим образом: sda1 - boot, sda2 и sda3 - LVM

Всё это - на одном диске. Сейчас делаю бэкап через снапшот /dev/VGname/root . После чего монтирую его и архивирую tar-ом — one-file-system. Также один раз, отмонтировал boot и скопировал его (dd if=/dev/sda1 of=/home/backup_boot). Допустим скину архив с (/) и backup_boot на сьёмный носитель и представлю ситуацию при которой винт умер. Вставлю новый винт, загружусь с Live-CD, примонтирую носитель с архивом и boot-ом, создам раздел для boot (вся разметка будет в той-же ФС, что и исходная, также размеры исходного и текущего boota будут до бита равны) dd if=/mnt/usb_hdd/backup_boot of=/dev/sda1 .

А затем ступор... С переносом на такую-же партацию разобрался, получилось, запустилось, но там не было LVM.

Вопрос: LVM нужно создать и разбить таким-же образом как и исходную (т.е. чтобы было PV (/dev/sda2 и /dev/sda3) - как и в исходном варианте) или можно обойтись только PV /dev/sda2 при этом количетсов PE и LE - не должно быть меньше, чем в исходной ?

Сейчас делаю бэкап через снапшот /dev/VGname/root

Какой бэкап? dd или по-файлово?

Структура LVM хранится в /etc/lvm/backup, можно быстро воссоздать структуру vgcfgrestore

sdio ★★★★★ ()
Ответ на: комментарий от sdio

создаю снапшот, монтирую его и архивирую (/) tar-ом с параметром — one-file-system. По-файлово.

Benefactor ()

если боишься за выход из строя своего диска, сунь туда ещё один диск и сделай рейд1, а ты пытаешься не разобравшись с lvm бекапить лежащие под ним разделы, судя по тому, что пишешь о PV и PE.

dr-yay ★★ ()
Ответ на: комментарий от dr-yay

я пытаюсь разобраться. За диск боюсь, хотел поставить рейд1, но почитал и склонился к модели LVM. Уж больно она гибкая и в итоге бэкапить с её помощью выходит оптимальнее, чем использование рейд1.

Benefactor ()
Ответ на: комментарий от dr-yay

Мой вариант конечно выглядит топорно - так как в нём один диск и LVM там по сути не нужен. Но это пока.

Benefactor ()
Ответ на: комментарий от Benefactor

так рейд лвму не мешает, поверх рейда его просто натягиваешь и всё

dr-yay ★★ ()
Ответ на: комментарий от Benefactor

tar-ом с параметром — one-file-system. По-файлово.

Тогда при восстановлении нужно будет подготовить и смонтировать файловую систему размер неважен, лишь бы не поместилось все. Но! по-скольку в /etc/fstab и /boot/grub/grub.cfg прописаны конкретные LV, создавая lv надо озаботиться восстановлением имен этих vg/lv

sdio ★★★★★ ()
Ответ на: комментарий от Benefactor

один диск и LVM там по сути не нужен

lvm нужен, не зависимо от кол-ва дисков.

sdio ★★★★★ ()

на кой хрен тебе lvm при одном-то диске, его одмины используют чтобы не обосраться при бэкапах или типа круто диск на горячую заменить, хотя оно того не стоит оно дико тормозное

дампь разделы и разворачивай их на новых фс, что может быть проще, man dump

anonymous ()
Ответ на: комментарий от anonymous

болтунишко, лвм не тормозит, зато позволяет ловко управлять дисками, а в man dump небось и про freeze ничо нету

dr-yay ★★ ()
Ответ на: комментарий от dr-yay

лвм не тормозит

да pvmove быстрее ветра, а стремительный бекап снапшотов каков.

man dump небось и про freeze ничо нету

зачем это православным ext*

anonymous ()
Ответ на: комментарий от anonymous

когда у него диск под корневой фс начнёт загибаться, скорости pvmove точно хватит для перетягивания системы живьём на другой диск, и да freeze для бекапов будет в тему на любой фс

dr-yay ★★ ()
Последнее исправление: dr-yay (всего исправлений: 1)
Ответ на: комментарий от sdio

Создал новую VG и два LV - название такие-же как и исходные, по-аналогии со старым диском, добавил /dev/sda2 /dev/sda3 в VG. После чего попробовал сделать: vgcfrestor -f /mnt/vda2_vackup/lvm/archive/VGname_00015-10764.........vg -v VGname. Ругается. Тогда зашел в этот файл (VGname_00015-10764...vg) и ручками поправил в группе: physical_volumes - pv0, pv1 - id (исправил на текущий UUID) и device (поправил на свой диск). Восстановление прошло, а вот примонтироваться не получается.

#mount /dev/VGname/root /mnt/vdb2_root
mount: /dev/mapper/VGname-root is write-protected, mounting read-only
mount: unknow filesystem type '(null)'
Benefactor ()
Ответ на: комментарий от Benefactor

это только разделы, их надо форматировать mkfs

sdio ★★★★★ ()
Ответ на: комментарий от Benefactor

бэкапить с её помощью выходит оптимальнее, чем использование рейд1.

рэйд - это НЕ бэкап, сколько можно уже это повторять

RAID не защищает твои данные от rm -rf /

Pinkbyte ★★★★★ ()
Ответ на: комментарий от anonymous

оно того не стоит оно дико тормозное

Просадки в I/O при использовании LVM БЕЗ снапшотов - ничтожны. Снапшоты там да - тормоза еще те, до снапшотов в ZFS им - как до луны пешком.

Pinkbyte ★★★★★ ()
Последнее исправление: Pinkbyte (всего исправлений: 1)

Не рекомендую пользоваться снепшотами LVM
Посмотри мой тред тут LVM Snapshot + RAID1
Не обращай внимания на слово «RAID1» в заголовке, и без рейда та же фигня. Короче, снепшоты LVM - это происки диявола, не пользуйтесь ими, если не хочется приключений на жопу в 5 утра во время бекапа из-за того, что все процессы на всех ФС повиснут в состоянии D.

Prius ()
Ответ на: комментарий от Pinkbyte

Сами по-себе снапшоты не тормоза (при чтении). Тормоза только при записи. Поэтому делаем снапшоты и бекапы в часы минимальной нагрузки сервера и все путём.

sdio ★★★★★ ()
Ответ на: комментарий от sdio

Я в курсе, собственно для бэкапов их использовать - очень даже гуд. Проблема как раз в том, что мне снапшоты больше для оперативного восстановления ну и для того чтоб можно было юзать их как источник данных(новый чрут сделать путем примонтирования writeable снапшота).

Поэтому LVM мне не подходит(про наличие патчей на rollback я в курсе, наложить тот патчсет из ЕМНИП 40 патчей мне в своё время так толком и не удалось), юзаю ZFS.

А на работе - CLVM на кластере, там снапшотов нет, увы.

Pinkbyte ★★★★★ ()
Ответ на: комментарий от Pinkbyte

я знаю, что ты в курсе, но ты и другие пишете о снапшотах lvm только плохое без объяснения условий использования, а это путает и пугает новичков.

sdio ★★★★★ ()
Ответ на: комментарий от sdio

Не, неправда, снапшоты способны положить диски даже при простом чтении, причем неинтенсивном. У меня, и ещё у пары человек из интернетов такая проблема была, решение неизвестно, джва года искал.

Prius ()
Ответ на: комментарий от Prius

Не, неправда, снапшоты способны положить диски даже при простом чтении

Брехня.

sdio ★★★★★ ()
Ответ на: комментарий от Pinkbyte

Снапшоты там да - тормоза еще те, до снапшотов в ZFS им - как до луны пешком.

+1

vxzvxz ★★★ ()
Ответ на: комментарий от Prius

Короче, снепшоты LVM - это происки диявола

в точку

vxzvxz ★★★ ()
Ответ на: комментарий от Pinkbyte

а что скажешь про raid 10 в btrfs? я вот использовал его на файловый серверах, прекрасно работало, 10 дисков в рейде.

erzent ☆☆ ()
Ответ на: комментарий от Prius

Посмотри мой тред тут LVM Snapshot + RAID1

тоже отказался от такой каки как снапшот lvm, в пользу zfs, в ней снять бэкап с виртуалки дело считанных секунд и никаких проседаний в производительности дисков

vxzvxz ★★★ ()
Ответ на: комментарий от vxzvxz

только вот zfs гуя не имеет, и начинающим админам она сложнее lvm поэтому.

erzent ☆☆ ()
Ответ на: комментарий от erzent

Ничего не скажу, я пользовал btrfs когда она была еще неюзабельным говном - не умела удалять подтома. Это было года 3-4 назад, после этого я не использовал её.

Pinkbyte ★★★★★ ()
Ответ на: комментарий от Pinkbyte

попробуй сейчас вполне юзабельна, пока 5-6 рейды в альфа тесте, а вот 10ка и 1, 0 вполне рабочие. интересно будет узнать, как у тебя это работать будет, единственное ядра младше 3.14 даже не смотри, там она кучу всего не поддерживала.

erzent ☆☆ ()
Последнее исправление: erzent (всего исправлений: 1)
Ответ на: комментарий от sdio

с форматированием тупанул. После восстановление загрузчика ребутнулся, загрузчик появился, после него начинает грузится, появился фон, а потом чёрный экран и всё. У меня получилось другим способом, если представить ситуацию, что есть только снапшот и нужно поднять систему на новом диске. На новом диске поставил ту-же систему, что и в оригинале. Затем загрузился в rescue режиме. Примонтировал внешний диск на котором находится архив, который делал со снапшота (root).Примонтировал /dev/centos/root (из только-что установленной системы) (/mnt/root)

#mount /dev/usb_hdd /mnt/backup
#mount /dev/centos/root /mnt/root

Затем скопировал lvm с только-что установленной системы.

#cp -a /mnt/root/etc/lvm/* /mnt/backup/lvm_root/

Затем накатил архив со снапшота на только-что установленную систему

#cd /mnt/root
#tar xvpf /mnt/backup/backup_root.tar ./

И перенес (скопировал) заранее скопированную директорию с lvm

#cp -a /mnt/backup/lvm_root/* ./etc/lvm/

После перезагрузки всё заработало. Подскажите, правильно-ли это ? Так как теситровал в виртуальной машине, а система на ней, фактически дефолтная. Если-бы эта была рабочая система с базами данных и т.д. Были-бы в этом случае проблемы ?

Benefactor ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.