LINUX.ORG.RU
решено ФорумAdmin

Подскажите по parted


0

1

Подскажите, пожалуйста, почему так может быть. С помощью parted прикрутил RAID-10 размером 2 Тб. Все вроде бы нормально, с диском можно полноценно работать, даже перегружать для проверки пробовал, все работает, но смущает один момент:

Model: IBM VirtualDisk (scsi)

Disk /dev/sdc: 2048GB

Sector size (logical/physical): 512B/512B

Partition Table: loop

Number Start End Size File system Flags

Почему здесь пусто? Вроде как должен быть написан номер, размеры и файловая система, но их нет. Должно быть так:

Model: IBM VirtualDisk (scsi)

Disk /dev/sdb: 2048GB

Sector size (logical/physical): 512B/512B

Partition Table: loop

Number Start End Size File system Flags

1 0.00kB 2048GB 2048GB ext3



Последнее исправление: worsvch (всего исправлений: 1)

Ответ на: комментарий от anonymous

Для проверки в parted использовал команду print

worsvch
() автор топика

Как то не очень понятно. Что значит с «диском можно полноценно работать»?

  • Ты создал виртуальный раздел, являющийся RAID-10.
  • Ты создал ФС на этом виртуальном разделе? Если да, то как?
anonymous
()
Ответ на: комментарий от anonymous

1. Полноценно работать, имею ввиду, что можно с него читать, на него писать

2. RAID-10 был создан утилитой от IBM

3. Создал с помощью parted (вроде так, по памяти)

1) unit GB

1) mklabel loop

2) mkfs

4. tune2fs -j ...

5. mount -t ext3 ...

worsvch
() автор топика

Что такое partition table loop? Гугл подсказывает, что оно для raw disk access, но для этого не нужна никакая partition table. Моя не понимать

Проверь

tune2fs -l /dev/your/raid/device

Если оно выведет что-то разумное - всё ОК, задача parted - работать с табличами разделов, с ФС он может работать не очень, лучше полагаться на её родные утилиты.

selivan ★★★
()
Ответ на: комментарий от selivan

Результат такой:

Filesystem volume name: <none>

Last mounted on: <not available>

Filesystem magic number: 0xEF53

Filesystem revision #: 1 (dynamic)

Filesystem features: has_journal filetype needs_recovery sparse_super large_file

Default mount options: (none)

Filesystem state: clean

Errors behavior: Continue

Filesystem OS type: Linux

Inode count: 219578368

Block count: 439151493

Reserved block count: 21957574

Free blocks: 432228037

Free inodes: 219578357

First block: 0

Block size: 4096

Fragment size: 4096

Blocks per group: 32768

Fragments per group: 32768

Inodes per group: 16384

Inode blocks per group: 512

Last mount time: Wed Jan 15 16:30:02 2014

Last write time: Wed Jan 15 16:30:02 2014

Mount count: 3

Maximum mount count: 30

Last checked: Thu Jan 1 05:00:00 1970

Check interval: 0 (<none>)

Reserved blocks uid: 0 (user root)

Reserved blocks gid: 0 (group root)

First inode: 11

Inode size: 128

Journal inode: 8

Journal backup: inode blocks

А вот результат с точно такой же системы, тот результат который должен быть:

Filesystem volume name: <none>

Last mounted on: <not available>

Filesystem magic number: 0xEF53

Filesystem revision #: 1 (dynamic)

Filesystem features: has_journal resize_inode dir_index filetype needs_recovery sparse_super large_file

Default mount options: (none)

Filesystem state: clean

Errors behavior: Continue

Filesystem OS type: Linux

Inode count: 146391040

Block count: 292768710

Reserved block count: 14638435

Free blocks: 90563699

Free inodes: 146390966

First block: 0

Block size: 4096

Fragment size: 4096

Reserved GDT blocks: 954

Blocks per group: 32768

Fragments per group: 32768

Inodes per group: 16384

Inode blocks per group: 512

Filesystem created: Sat Oct 1 00:46:32 2011

Last mount time: Sun Jan 12 12:20:35 2014

Last write time: Sun Jan 12 12:20:35 2014

Mount count: 6

Maximum mount count: 28

Last checked: Tue Jan 7 12:37:08 2014

Check interval: 15552000 (6 months)

Next check after: Sun Jul 6 12:37:08 2014

Reserved blocks uid: 0 (user root)

Reserved blocks gid: 0 (group root)

First inode: 11

Inode size: 128

Journal inode: 8

Default directory hash: tea

Directory Hash Seed: 08216de1-428a-447c-ae70-69b636be9c48

Journal backup: inode blocks

Как видите есть несколько отличий

worsvch
() автор топика
Ответ на: комментарий от worsvch

http://pastebin.com

Да, первая, хоть и создана позже, беднее включенными опциями. Но проблем не вижу, работать должно. Для подстраховки можно попробовать примонитровать, загрузившись с LiveCD. Если прокатит - точно всё ОК

selivan ★★★
()
Ответ на: комментарий от selivan

Сейчас при выводе tune2fs -l оба сервера выдают один результат, спасибо вам за это, но все таки то что выдает parted до сих пор отличается:

Это на новой машине:

Partition Table: loop

Number Start End Size File system Flags

А это на старой:

Partition Table: loop

Number Start End Size File system Flags

1 0.00kB 2048GB 2048GB ext3

А должно быть одинаково. Вот до сих пор и стоит вопрос, как это исправить, и не повлияет ли это в будущем на что-нибудь?

worsvch
() автор топика
Ответ на: комментарий от worsvch

Файловую систему должны понимать модули ядра и родные утилиты для работы с этой ФС. Если сторонняя утилита, к тому же предназначенная для работы с разделами диска, а не с файловыми системами, её не видит - это ИМХО не должно ни на что влиять. Ну и свежий бекап всегда рулит

selivan ★★★
()
Последнее исправление: selivan (всего исправлений: 1)
Ответ на: комментарий от selivan

То есть новая система полностью идентична старой, даже несмотря на различия команды print в parted, правильно я вас понимаю?

worsvch
() автор топика
Ответ на: комментарий от selivan

В чем выражается неидентичность, если tune2fs -l -показывает одно и тоже, разница только при выводе команды print из parted, да и то в одной строчке. Разницы быть не должно, так как на новой системе будет работать БД Oracle, взятая со старой системы

worsvch
() автор топика
Ответ на: комментарий от worsvch

Для Oracle файловая система - абстракция, интерфейс к которой предоставляется ядром. Разницы не будет

selivan ★★★
()
Ответ на: комментарий от selivan

Большое спасибо за ответы, последнее что хотел у вас спросить: поставить точно такой же диск и клонировать со старой - имеете ввиду клонирование командой dd или с помощью acronis или какой-то другой вариант?

worsvch
() автор топика
Ответ на: комментарий от worsvch

Точно такой же, та же модель, тот же объём.

Clonezilla, она быстрее dd, потому что копирует только данные без мусора, и может проверить чек-суммы для надёжности.

Acronis когда-то был неплох, но я давно отказался от использования краденного ПО и сейчас о нём ничего сказать не могу.

selivan ★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.