LINUX.ORG.RU
ФорумAdmin

Есть 20 Tb. Как нарезать и что за FS создать?


0

1

Доброго времени суток! Камрады, реквестирую best practice и successfull stories. Ссылки и кейворды в гугл тоже приветствуются.

Есть сторадж, порядка 20 Тб SAS дисков. Планируется привести его по FC на хост x86_64 на котором будет стоять последний RHEL. По нагрузке: планируется использовать сторадж для хранения бэкапов с дедупликацией. Что означает от 32 до 128 потоков резервного копирования с баз данных.

В тёплом ламповом Solaris я бы нарезал LUN по 1 - 2 Тб и создал бы пул и сделал на нём ZFS или VXFS. В отношении RHEL на что смотреть, кроме XFS не знаю. Попробовал на тестовой машинке, оно работает и достаточно быстро. Но как будет вести себя с таким количеством потоков записи еще не известно. Также не нравится, что в RHEL mkfs.xfs не установлено, в родных репозиториях нет и пришлось ставить с CentOS. Хотя модуль в стандартном ядре есть.

Эту штуку - http://www.redhat.com/rhel/add-ons/scalable_file_system.html - кто нибудь пробовал? Выглядит как попытка продать XFS за деньги. Еще альтернативы XFS есть?


наша саксесс стори - делим на луны и пробрасываем на лезвия блейда и на сервера с FC-контроллерами. Пара серверов с FreeNAS раздают по iSCSI данные по серверам без FC-контроллеров. Завязывать всё на 1 сервер - очень необычная идея. Обычно производительность хранилища на 20ТБ больше, чем один канал FC, и даже 2 канала FC.

spunky
()

XFS хорошо оптимизирована для многопоточности — читай про Allocation Groups.

GotF
()
Ответ на: комментарий от spunky

>Завязывать всё на 1 сервер - очень необычная идея. Обычно производительность хранилища на 20ТБ больше, чем один канал FC, и даже 2 канала FC.

Планируем 4 - 6 FC портов. + мультипасинг бы нормально заработал. Судя по http://www.mail-archive.com/cbe-linux@yahoogroups.com/msg00266.html , даже просто конфигурирование девайсов через SAN довольно нетривиальная процедура...

TuxR
() автор топика
Ответ на: комментарий от TuxR

т.е. будет несколько серверов резервирования? Если нет - сам понимаешь, узкое место появится на пути к серверу резервирования.

Погоди... так эти 20ТБ - собраные на 1м сервере через SAS? Самосборное хранилище? Если так - то я вообще не о том говорю :)

spunky
()
Ответ на: комментарий от spunky

>Погоди... так эти 20ТБ - собраные на 1м сервере через SAS? Самосборное хранилище? Если так - то я вообще не о том говорю :)

Никакого самосбора. Storage <-> SAN <-> Brocade DCX <-> HBA QLogic <-> Server. Вопрос про линуксовую FS и как нарезать.

TuxR
() автор топика
Ответ на: комментарий от TuxR

>>Вопрос про линуксовую FS и как нарезать.

а что мешает использовать vxfs? раз уж

В тёплом ламповом Solaris я бы нарезал LUN по 1 - 2 Тб и создал бы пул и сделал на нём ZFS или VXFS.


EvgGad_303
()

Я бы гигабайтов 200 отдал под разные дистрибутивы (у меня их много) и пару разделов про запас, остальное - на хранилище данных, ext4.

ZenitharChampion
()
Ответ на: комментарий от EvgGad_303

>а что мешает использовать vxfs? раз уж

Решение больше экономическое. Сановский сервер не покупаем, потому что x86 для данной задачи дешевле и скорость потока у него тупо выше. Софт не поддерживает Solaris x86, только solaris/sparc или linux/x86_64. Veritas Storage Foundation или его часть тоже под такую задачу покупать не хотим.

Про allocation groups и тюнинг XFS сейчас читаю, спасибо за кейворды! Вот бы похожую доку, но для больших ФС http://everything2.com/index.pl?node_id=1479435 найти! Пока представляю концепцию, чтобы нарезать десяток LUN'ов по 2 Тб (в дальнейшем изменить будет весьма проблематично, разве что на ленты всё сливать), а потом экспериментировать с опциями XFS на месте.

TuxR
() автор топика
Ответ на: комментарий от ZenitharChampion

>Я бы гигабайтов 200 отдал под разные дистрибутивы

блин, а у меня уютная гента с портеджами на 10 гигов. 190 будет простаивать.

остальное - на хранилище данных, ext4.

fsck за неделю на EXT4 закончится? :)

TuxR
() автор топика
Ответ на: комментарий от TuxR

Гента всего лишь 10 гигов? Завидую.
У меня терабайт и 400 гигабайтов отдано под хранилище файлов. Я хотел от них постепенно отрезать понемногу для новых дистрибутивов, но быстро заполнил файлами. Там ext2. И этот ext2 проверяется очень долго! Остальные разделы ext4 и когда проверяются по причине «монтировалось 37 раз без проверки, хочу проверить», проверяются мгновенно! ext2 и ext3 проверялись долго.

ZenitharChampion
()
Ответ на: комментарий от Othniel

>ZFS же. Как там порты под Линух поживають?

Bussiness critical данные под ФС в статусе experimental, да еще и с модулями-самособранными? ROFL...

TuxR
() автор топика
Ответ на: комментарий от TuxR

>Bussiness critical данные под ФС в статусе experimental, да еще и с модулями-самособранными? ROFL...

Не флейма ради, но половина современного ядра в статусе experimental. Во FreeBSD ZFS уже отмечена как стабильная (ещё в 8.1 ЕМНИП), вот я и спрашиваю, есть ли порты под Linux.

Othniel
()

В тёплом ламповом Solaris я бы нарезал LUN по 1 - 2 Тб

Объясните, почему вы не хотите отдавать RAW-носители в полное владение ZFS, а делаете дополнительнуюый прокладку слой изоляции?

iZEN
()
Ответ на: комментарий от iZEN

Причин достаточно

Самое первое, что приходит в голову - организация отказоустойчивости. К примеру, на полке одна хотспара может ездить в случае аварии между всеми дисковыми группами, т.е. разными хостами. Так же ресинком будет заниматься не хост, на котором произошел сбой, а полка. А хост будет работать в штатном режиме, ну разве что iopsы упадут на время ресинка возможно.

AnViar
()
Ответ на: комментарий от TuxR

Veritas Storage Foundation Basic is a free version of the

industry-leading Storage Foundation solution designed for heterogeneous online storage management of edge-tier workloads with up to four file systems, four volumes, and two processor sockets per system

Это случайно не подходит под вашу систему?

testuser123
()
Ответ на: комментарий от ZenitharChampion

>Я бы гигабайтов 200 отдал под разные дистрибутивы

Наркоман? Или не знаешь про livecd/виртмашины?

anonymous
()
Ответ на: комментарий от testuser123

>with up to four file systems, four volumes, and two processor sockets per system

Спасибо, но в такие минимальные требования не уложусь.

Объясните, почему вы не хотите отдавать RAW-носители в полное владение ZFS, а делаете дополнительнуюый прокладку слой изоляции?

Только в случае ZFS значимых аргументов против объединения RAW-девайсов в zpool действительно сложно найти. Особенно, если сторадж используется эксклюзивно на одном хосте. В случае любой другой ФС или RAW для Оракла преимущества очевидны. Контроллеры дисковой полки всё-же оптимизированы именно для своей задачи. Вот пусть и занимаются расчётом чётности для RAID5. Также, если вылетит диск, иногда бывают случаи, когда ОС не может корректно эту ситуацию обработать, ввод/вывод будет стоять, к диску ушла SCSI команда, а подтверждения от устройства нет. Аппаратный RAID будет надёжнее.

TuxR
() автор топика

2GB RAM на 1TB FS

замечательная утилита xfscheck требует для работы примерно 2GB памяти на каждый терабайт файловой системы

HighwayStar
()
Ответ на: 2GB RAM на 1TB FS от HighwayStar

>замечательная утилита xfscheck требует для работы примерно 2GB памяти на каждый терабайт файловой системы

Значит, с 64 Гб на борту взлетит. Нормально.

TuxR
() автор топика
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.