LINUX.ORG.RU
ФорумAdmin

lvm, hi-load, vmware


0

0

Добрый день!

Помогите пожалуйста разобраться с проблемкой. Есть хостовая система Linux CentOS release 5.4 (Final) 2.6.18-164.11.1.el5 #1 SMP Wed Jan 20 07:32:21 EST 2010 x86_64 x86_64 x86_64 GNU/Linux

На ней имеются 2 HDD : быстрый раптор WD3000HLFS-01G6U0 и более медленный терабайтный WD1002FBYS-02A6B0. По какой-то причине,ещё до меня они были объединены в один логический раздел средствами lvm2. Сейчас на этот раздел установили vmware server, c гестовой windows 2008 server системой и начались проблемы с производительностью. iostat -x показывает, что медленный терабайтный винт загружается на 100%, в то время как более быстрый раптор простаивает. Возможно ли как-то удалить из этой конфигурации медленный терабайтный винчестер или скажем cказать, чтобы lvm сначала писал данные на более быстрый раптор, а когда он совсем уже забъётся переходил бы к более медленному терабайтному?

Да дело конечно осложняется тем, что сервер удалённый, и при этих операциях не хотелось бы потерять с ним связь ;)

Заранее спасибо!


> чтобы lvm сначала писал данные на более быстрый раптор, а когда он совсем уже забъётся переходил бы к более медленному терабайтному?

Сам-то понял что сказал? При использовании LVM система пишет на тот диск, на котором ты создал LV. Перемести LV куда надо и прекрати пороть чушь, ей же больно. man pvmove

</thread>

no-dashi ★★★★★ ()
Ответ на: комментарий от no-dashi

Нашёл такое вот:

To move all logical extents of any logical volumes on /dev/hda4 to free physical extents elsewhere in the volume group, giving verbose runtime information, use: pvmove -v /dev/hda4

Не могу только понять насколько безопасна эта операция, если я буду делать это удалённо раз, и два - возможно ли эта операция на смонтированном рутовом разделе?

epiq ()
Ответ на: комментарий от epiq

Абсолютно безопасна, даже при внезапном падении системы. Делается на смонтированном разделе без проблем. Сам переезжал 4 раздела суммарным объемом около 300 гигабайт «на ходу» без всякой перезагрузки.

no-dashi ★★★★★ ()

Если на терабайтном винте сейчас занято не больше, чем свободно на рапторе, то pvmove. Иначе предварительно надо ужимать ФС (в оффлайне наверняка) и LV.

const86 ★★★★★ ()
Ответ на: комментарий от const86

Да, именно так:
# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/VolGroup00-LogVol00
1.2T 121G 987G 11% /
/dev/sda1 99M 25M 69M 27% /boot
tmpfs 2.0G 0 2.0G 0% /dev/shm
# pvdisplay
/dev/hda: open failed: No medium found
--- Physical volume ---
PV Name /dev/sdb1
VG Name VolGroup00
PV Size 931.51 GB / not usable 11.19 MB
Allocatable yes (but full)
PE Size (KByte) 32768
Total PE 29808
Free PE 0
Allocated PE 29808
PV UUID AJdq6T-YJf0-LdWR-WnEE-J03P-SAHG-kAWb4I

--- Physical volume ---
PV Name /dev/sda2
VG Name VolGroup00
PV Size 279.36 GB / not usable 15.68 MB
Allocatable yes (but full)
PE Size (KByte) 32768
Total PE 8939
Free PE 0
Allocated PE 8939
PV UUID z5L5p9-XHHX-Mc4D-VYnZ-5BrH-1QH1-D2KqpU

получается что мне надо сказать
pvmove -v /dev/sdb1 ?

epiq ()
Ответ на: комментарий от epiq

создал на виртуалке похожую конфигурацию, пробую сделать
[root@localhost ~]# pvmove -v /dev/sdb1
получаю :
/dev/hdc: open failed: No medium found
Finding volume group «VolGroup00»
No extents available for allocation

хотя по идее места должно хватать .. погуглил по этому вопросу - обычно попадаются как раз те случаи, когда места не хватает но у меня случай другой:
[root@localhost ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/VolGroup00-LogVol00
23G 1.5G 20G 7% /
/dev/sda1 99M 14M 80M 15% /boot
tmpfs 432M 0 432M 0% /dev/shm
none 432M 104K 432M 1% /var/lib/xenstored
[root@localhost ~]# pvdisplay
/dev/hdc: open failed: No medium found
--- Physical volume ---
PV Name /dev/sda2
VG Name VolGroup00
PV Size 7.90 GB / not usable 23.41 MB
Allocatable yes (but full)
PE Size (KByte) 32768
Total PE 252
Free PE 0
Allocated PE 252
PV UUID r34Slb-dtg9-w1NU-Hl47-yggc-iOFE-nIu8bT

--- Physical volume ---
PV Name /dev/sdb1
VG Name VolGroup00
PV Size 15.00 GB / not usable 30.99 MB
Allocatable yes (but full)
PE Size (KByte) 32768
Total PE 479
Free PE 0
Allocated PE 479
PV UUID ApJCFd-ham9-QO5G-Hc7V-xIZa-yHXK-Fbf75V

в чём же может быть дело?

epiq ()
Ответ на: комментарий от epiq

> в чём же может быть дело?

Если я правильно понял плохо отформатированный листинг, дело в том, что свободного (не выделенного под LV) места не достаточно. LVM не лезет внутрь ФС никогда и для него нет разницы между забитым под завязку LV, занимающим весь винт, и девственно чистой ФС, натянутой на LV той же длины. Чтобы выдернуть sdb1, нужно чтобы все LV занимали не больше 7.9 GB и могли быть впихнуты в sda2. А LogVol00 занимает 23 GB.

const86 ★★★★★ ()
Ответ на: комментарий от const86

ясно, т.е. получается что в таком случае невозможно удалить один из винчестеров без дополнительных телодвижений(типа загрузки с флешки и переписывания ФС на третий винт), на лету?

epiq ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.