LINUX.ORG.RU

lvm, чего ждать при сбоях и что потом делать?

 ,


0

2

Задача простая: объединить несколько дисков в одно блочное устройство, забить файлопомойкой на ехт4. Никаких сложных конфигураций raid, никаких снапшотов и всяких быстрых кешей и прочего.

Но что произойдёт когда диски начнут отваливаться? Будет ли ФС так же легко восстанавливаться как и на обычном диске? Как будет выглядеть переподключение логического тома на горячую, без перезагрузки системы?

З.Ы. Яндекс вываливает много всяких странных и сложных случаев, а простых вариантов как будто никто не описывал. Хотелось бы заранее знать что меня ждёт прежде чем я солью 2 терабайтника в одну кучу.

З.З.Ы. И сопутствующий вопрос: а как оно будет выглядеть если решить вопрос через btrfs? Я где то читал что она сама по себе может занимать сразу несколько дисков.

★★★★★

Последнее исправление: kirill_rrr (всего исправлений: 1)

Хотелось бы заранее знать что меня ждёт прежде чем я солью 2 терабайтника в одну кучу.

Потеря данных. А вообще сделай два pv на флешке, забей их данными и потом удали один. Сразу будет понятно, что ждёт.

einhander ★★★★★
()
Ответ на: комментарий от einhander

ФС жестоко навернётся? Если выкидывать такое с одним диском повреждения обычно незначительны, лечение работает с вероятностью 99,99999%.

А тестовые флешки сейчас уже забиваются.

kirill_rrr ★★★★★
() автор топика
Последнее исправление: kirill_rrr (всего исправлений: 1)

Дата регистрации: 18.11.10

Если 12 лет просто просматривать ЛОР по диагонали одним глазом, можно стать экспертом по LVM

Будет ли ФС так же легко восстанавливаться как и на обычном диске?

Как ты восстанавливаешь ФС на сгоревшем диске?

С LVM тоже самое.

futurama ★★★★★
()
Ответ на: комментарий от futurama

Если 12 лет просто просматривать ЛОР по диагонали одним глазом

...можно попасть в дурку. До сих пор мне не нужно было объединять диски и я обходился обычной dos-разметкой.

Как ты восстанавливаешь ФС на сгоревшем диске?

У меня нет сгоревших дисков. А вот отвалы usb-hdd уже почти штатный сцеарий. Раз в 2-4 месяца стабильно падает пакет отвалов, я шевелю провода, перезапускаю диски, запускаю fsck и потом фоновую проверку данных. После чего проблем обычно нет или известно что я потерял. А всякие статьи по lvm тонко намекают, что если у тебя не было бэкапа данных то можешь забыть и не пытаться собрать пакет братно и извлечь из него хоть что нибудь.

kirill_rrr ★★★★★
() автор топика
Ответ на: комментарий от kirill_rrr

отказоустойчивость достигается через избыточность. сделай, например, зеркало из двух дисков. отвал одного можно будет пережить. или исследуй другие режимы raid для того, чтобы понять соотношение полезный объём/отказоустойчивость.

LVM же не для этого. он чтобы ЛОГИЧЕСКИЕ тома организовывать поверх необъятного хранилища. То есть, по рабоче-крестьянски, резать его на кусочки разными способами.

aol ★★★★★
()
Ответ на: комментарий от aol

Мне не нужна отказоустойчивость, а только предсказуемость и знание заранее как это будет выглядеть. На флешках я месяц не натестируюсь.

Ну и если lvm не для этого, тогда что для этого?

kirill_rrr ★★★★★
() автор топика
Ответ на: комментарий от kirill_rrr

Где бред прочитал, там его и обсуждай. LVM тоже самое что и диск. Если диск после «отвала» возвращается к жизни, то и LVM вернется с той же легкостью. LVM – простейший список блоков, там ломаться нечему.

usb-hdd это не диски в нормальном понимании, это типа «флешки». Кто о них переживает.

futurama ★★★★★
()
Ответ на: комментарий от kirill_rrr

тогда что для этого?

чего «этого»?! давай начнем с определения.

твои хотелки, как я их прочитал:

  1. объединить все диски в необъятное хранилище
  2. чтобы отвалы дисков ничего не ломали. (то есть, отказоустойчивость. ты можешь это отрицать, но это так)

если тебе не надо резать на тома - собери рейд по вкусу и всё. заодно сразу будешь понимать, что пропало при отвале и сколько дисков может отвалиться и ты этого не заметишь.

Начни отсюда: https://en.wikipedia.org/wiki/Standard_RAID_levels

aol ★★★★★
()
Последнее исправление: aol (всего исправлений: 1)
Ответ на: комментарий от kirill_rrr

Ну сделай два файла с pv на флешке по 100мб, размер на самом деле не важен. Потом удали один и посмотри что будет с фс. Надеюсь 200мб найдется? Можешь поэкспериментировать с содержимым и попытаться его восстановить. Количество pv можно сделать любым.

einhander ★★★★★
()
Последнее исправление: einhander (всего исправлений: 1)
Ответ на: комментарий от aol

1. Да, именно, это. Это даже не программный raid0, а без чередования.

2. Мне не обязательно чтобы оно совсем не ломалось, мне достаточно чтобы группа собиралась обратно без перезагрузки и пересоздания а ФС после этого оказывалась пригодной к восстановлению. Ну и желательно ещё видеть сам факт сбоя по явным признакам а не когда не получится прочитать записанные в пустоту данные.

kirill_rrr ★★★★★
() автор топика
Ответ на: комментарий от futurama

Если диск после «отвала» возвращается к жизни, то и LVM вернется с той же легкостью

ну, давай не будем так вот голословно утверждать и распространять ложную уверенность во «всемогущести» лвм.

я бы, если честно, на сырых дисках лвм не использовал. собрал бы снизу рейд по вкусу. вот, сейчас у меня два ssd 860 самсунговские прошки, поверх них зеркало (аппаратное, ну, не суть), а вот на этом безобразии уже lvm с тонкими томами, но это тоже не суть.

то есть, на мой диванный взгляд, использовать лвм ради «объединения дисков», чтобы сделать одну лишь помойку - ну, такое… это можно решить и рейдом (dm raid), а вот разделение полученного пространства, особенно, если динамическое разделение - это как раз про лвм

aol ★★★★★
()
Ответ на: комментарий от einhander

Уже забивается. Вопрос насколько это будет полным и наглядным тестом.

root@raspberrypi:~# pvscan
  PV /dev/sdf   VG test_group   lvm2 [960,00 MiB / 0    free]
  PV /dev/sde   VG test_group   lvm2 [7,24 GiB / 0    free]
  Total: 2 [8,18 GiB] / in use: 2 [8,18 GiB] / in no VG: 0 [0   ]
kirill_rrr ★★★★★
() автор топика
Ответ на: комментарий от aol

«всемогущести» лвм.

Не приписывай мне, того что я не говорил.

Я сказал «lvm – простой как урановый лом. Там ломаться нечему»

то есть, на мой диванный взгляд, использовать лвм ради «объединения дисков», чтобы сделать одну лишь помойку - ну, такое… это можно решить и рейдом (dm raid),

Каким рейдом? RAID-0 ?

futurama ★★★★★
()
Последнее исправление: futurama (всего исправлений: 1)
Ответ на: комментарий от futurama

Ага, под виндой оно... Хотя постойте, под виндой малины вообще не работают, тем более в качестве многодисковой файлопомойки. Особенно так, чтобы без необратимых потерь данных с 2016 кажется года, когда за это время у меня сгорели 2 ссд, 3 hdd и накрылись 2 материнки от ПК и 1 ноут.

kirill_rrr ★★★★★
() автор топика
Ответ на: комментарий от kirill_rrr

не знаю, чо там за народное мнение, для меня «самый стандартный программный рейд в линуксах» - это dm raid (mdadm) :)

aol ★★★★★
()
Последнее исправление: aol (всего исправлений: 1)

Варианта два:

1) сделай raid1/raid5/raid6 (если они одинакового объёма)

2) примонтируй их по-отдельности в разные директории и раскидывай между ними файлы вручную

raid0 это чистое вредительство, не надо его использовать: при поломке одного диска теряется считай всё, никаких бонусов взамен не даётся

firkax ★★★★★
()
Последнее исправление: firkax (всего исправлений: 1)
Ответ на: комментарий от kirill_rrr

Ваше железо в студию!

Название, символ, номер 	Железо / Ferrum (Fe), 26
Группа, период, блок 	8 (устар. 8), 4,
d-элемент
Атомная масса
(молярная масса) 	55,845(2)[1] а. е. м. (г/моль)
Электронная конфигурация 	[Ar] 3d64s2
1s22s22p63s23p63d64s2
Радиус атома 	126 пм

Крути барабан, трольчонок!

futurama ★★★★★
()
Ответ на: комментарий от futurama

ой, ты жопой давай заканчивай читать, деда. и таблетки прими.

я против лвм ничего не имею, если ты не смог прочитать выше. более того, я её применяю в проде, не то что ТС и ты, хаха.

aol ★★★★★
()
Ответ на: комментарий от futurama

Ваше железо - говно. Сейчас используют как минимум марку Ст3* с пределом прочности 360-460МПа против 250-300МПа у чистого Fe.

kirill_rrr ★★★★★
() автор топика
Последнее исправление: kirill_rrr (всего исправлений: 2)
Ответ на: комментарий от einhander

aol, Собственно забил данными, отмонтировал, вытащил 2 флешки, поменял местами, включил снова.

root@raspberrypi:~# lvscan 
  /dev/test_group/test_lv: read failed after 0 of 4096 at 8778612736: Ошибка ввода/вывода
  /dev/test_group/test_lv: read failed after 0 of 4096 at 8778670080: Ошибка ввода/вывода
  /dev/test_group/test_lv: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
  /dev/test_group/test_lv: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
  ACTIVE            '/dev/test_group/test_lv' [8,18 GiB] inherit
root@raspberrypi:~# pvscan 
  /dev/test_group/test_lv: read failed after 0 of 4096 at 8778612736: Ошибка ввода/вывода
  /dev/test_group/test_lv: read failed after 0 of 4096 at 8778670080: Ошибка ввода/вывода
  /dev/test_group/test_lv: read failed after 0 of 4096 at 0: Ошибка ввода/вывода
  /dev/test_group/test_lv: read failed after 0 of 4096 at 4096: Ошибка ввода/вывода
  PV /dev/sdh   VG test_group   lvm2 [960,00 MiB / 0    free]
  PV /dev/sdg   VG test_group   lvm2 [7,24 GiB / 0    free]
  Total: 2 [8,18 GiB] / in use: 2 [8,18 GiB] / in no VG: 0 [0   ]
root@raspberrypi:~# fsck -f /dev/test_group/test_lv
fsck from util-linux 2.25.2
e2fsck 1.43.3 (04-Sep-2016)
fsck.ext2: Attempt to read block from filesystem resulted in short read while trying to open /dev/mapper/test_group-test_lv
Could this be a zero-length partition?

Т.е. тома оно вроде как видит, а устройство обратно не собирает. Известно как его передёрнуть не пересоздавая группы и без ребута?

Прежде чем переходить к mdadm, хотелось бы закончить с lvm.

kirill_rrr ★★★★★
() автор топика

Нормально всё будет. При ошибках фс уходит в ридонли и ничего там не навернуться. Современные фс достаточно умны. Как минимум на порядок умнее половины ЛОР-овцев

no-dashi-v2 ★★
()
Ответ на: комментарий от kirill_rrr

А если без рейд контроллера?

Тогда при помощи mdraid. О чём тебе здесь и талдычут.

lvm это и есть самый стандартный программный рейд в линуксах.

Ну, в 2010-м году, когда в ходу ещё был dmraid, так оно и было. Тогда программный RAID и LVM в ядре были частями одной подсистемы.

С тех пор прошло некоторое время. Не читай старые маны, они старые.

Aceler ★★★★★
()