LINUX.ORG.RU
ФорумAdmin

Ошибки файловой системы на KVM

 ,


1

1

Собрал новый сервак, на нем крутятся виртуалки на KVM. Но один виртуальный сервер на cent os как то странно себя ведет, периодически падает, в логах сервера вот это:

Apr 19 16:32:23 sip kernel: Buffer I/O error on device vda, logical block 5242830
Apr 19 16:32:23 sip kernel: Buffer I/O error on device vda, logical block 5242830
Apr 19 16:32:23 sip kernel: Buffer I/O error on device vda3, logical block 256
Apr 19 16:32:23 sip kernel: Buffer I/O error on device vda2, logical block 4969200
Apr 19 16:32:23 sip kernel: Buffer I/O error on device vda3, logical block 256
Apr 19 16:32:23 sip kernel: Buffer I/O error on device vda2, logical block 4969200
Apr 19 16:32:23 sip kernel: Buffer I/O error on device vda2, logical block 4969214
Apr 19 16:32:23 sip kernel: Buffer I/O error on device vda2, logical block 4969214
Apr 19 16:32:23 sip kernel: Buffer I/O error on device vda2, logical block 4969215
Apr 19 16:32:23 sip kernel: end_request: I/O error, dev vda, sector 40370168
Apr 19 16:32:23 sip kernel: end_request: I/O error, dev vda, sector 40370432
Apr 19 16:32:23 sip kernel: end_request: I/O error, dev vda, sector 40370168
Apr 19 16:32:23 sip kernel: end_request: I/O error, dev vda, sector 40374272
Apr 19 16:32:23 sip kernel: end_request: I/O error, dev vda, sector 40374272

Во время перезагрузки делаю fsck -y. Находит битые сектора и фиксит их. После загрузки системы делаю: ]# badblocks -sv /dev/vda1

Checking blocks 0 to 307199
Checking for bad blocks (read-only test): done
Pass completed, 0 bad blocks found.

Остальные виртуальны сервера ведут себя адекватно. Пробовал даже подмонтировал его к другому серверу и чкал диск, тест проходил на ура. При этом иногда он может работать неделю, а потом за один день 2 раза упасть на ровном месте с этой ошибкой.

Держи нас в курсе.

anonymous ()
Ответ на: комментарий от int13h

Не получается, выдает постоянно ошибки, так как у меня там не один диск, а raid собран. Да и если бы сам raid глючил, то думаю что и остальные бы 10 виртуалок колбасило бы.

iliaxxx ()
Последнее исправление: iliaxxx (всего исправлений: 1)
Ответ на: комментарий от int13h

да, и какое кеширование для накопителя ВМ?

с dumpxml покажите.

int13h ★★★★★ ()
Ответ на: комментарий от int13h

Там много чего, ошибка всего одна проскачила:

6.904811] Error: Driver 'pcspkr' is already registered, aborting...
[    7.578599] kvm: VM_EXIT_LOAD_IA32_PERF_GLOBAL_CTRL does not work properly. Using workaround
[    7.635100] Adding 5849084k swap on /dev/sda5.  Priority:-1 extents:1 across:5849084k
[    7.653677] EXT4-fs (sda1): re-mounted. Opts: (null)
[    7.729952] EXT4-fs (sda1): re-mounted. Opts: errors=remount-ro
[    7.962865] loop: module loaded
[    8.625868] EXT4-fs (sdb1): mounted filesystem with ordered data mode. Opts: (null)
[    9.004035] ip_tables: (C) 2000-2006 Netfilter Core Team
[    9.064393] nf_conntrack version 0.5.0 (16384 buckets, 65536 max)
[    9.185168] Bridge firewalling registered
[    9.190209] device eth0 entered promiscuous mode

iliaxxx ()
Ответ на: комментарий от iliaxxx

Я переносил этот сервер с другого сервера на нем стоял Vmware, конвертировал на KVM через

qemu-img convert /mnt/hdd0/server/server.vmdk -c -O qcow2 /mnt/hdd0/server
Если на изначальном сервере были ошибки, то и при конвертации они перенесутся?

iliaxxx ()
Ответ на: комментарий от iliaxxx

Сейчас на этой виртуалке запустил проверку:

badblocks -sv /dev/vda2
Выхлоп получил такой:
************
19876858
19876859
19876860
19876861
19876862
19876863
done
Pass completed, 492402 bad blocks found.
Походу на старом сервере когда работал vmware, там были косяки по диску, а я при конвертации перенес эти косяки. Такое может быть?

iliaxxx ()
Ответ на: комментарий от iliaxxx

мне кажется всему виной кривые опции монтирования и внезапное отключение питания или остановка виртуалки.

Deleted ()
Ответ на: комментарий от int13h

Тогда ясно откеля ноги растут у ошибак на этой виртуалке.
Есть варианты решения данной ошибки, ибо монтировать то я пробовал и чикать, не помогло. Что можно еще сделать?
Может есть варианты самим KVM чикнуть диск и пофиксить бад сектора?

iliaxxx ()
Ответ на: комментарий от iliaxxx

По-моему, проще всего не парить мозг, завести новый образ диска, создать там нужные разделы и FS и скопировать данные rsync-ом (еще надо будет загрузчик поставить). Заодно скорее всего увидите, в каких файлах есть сбои при чтении.

undertaker ★★ ()
Ответ на: комментарий от int13h

В общем, ноги у проблемы растут именно из виртуалке. Выполнил проверку массива на железке:

 badblocks -s /dev/sdb1 > /root/badblock
Выхлоп показал что нет бадовых секторов

iliaxxx ()
Ответ на: комментарий от int13h

Никто не сталкивался с механизмами конвертации из Vmware в KVM с проверкой файловой системы? Мне просто нужно еще будет машины переносить.

iliaxxx ()
Ответ на: комментарий от iliaxxx

я постоянно конвертирую vmdk в qcow2. проблем нет.

я же вам написал, что qemu-img не работает с фс, и ему безразлично, что у вас проблемы на фс.

int13h ★★★★★ ()
Ответ на: комментарий от int13h

Всем привет и снова я.
А ларчик с этим багом проще открывался. Нашел виртуалку с такимже багом. На чек он выдавал вот такой выхлоп:

# qemu-img check server_name
Leaked cluster 115256 refcount=1 reference=0
Leaked cluster 188362 refcount=1 reference=0
Leaked cluster 188363 refcount=1 reference=0
Сделал вот так:
qemu-img convert -c -O qcow2 server_name server_name_clon
После чего на выхлопе чека получил:
qemu-img check server_name_clon
No errors were found on the image.
Супер, проблема с бад секторами на сервере решена. Но тот сервер веси всего 20 гигв. Сделал копию за 40 минут. Проблема том что процесс qemu-img использует всего одно ядро.
А мне нужно конвертировать сервер вером 580 гигов.
Вопрос, как запустить процесс qemu-img в многоядерном режиме?

iliaxxx ()
Ответ на: комментарий от iliaxxx

Оставил KVM включенным и через 2 дня сервак глюконул. На экране осталось то что в журнал логов не попадало:

http://images.vfl.ru/ii/1524722946/b96c233e/21514276.jpg
Может кто чего скажет по этой ошибке?

iliaxxx ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.