LINUX.ORG.RU
ФорумAdmin

Пути создания Raid массивов

 , ,


0

1

Здравствуйте уважаемые пользователи форума. Несколько дней подряд изучаю вопрос подключения жестких дисков и объединения их в Raid массивы. Есть ряд вопросов, которые трудно гуглятся, буду признателен, если поможете разобраться.

  1. Правильно ли я понимаю, что в настоящее время Raid массивы созданные программным способом не медленнее, чем созданные Raid контроллером, потому что сейчас у процессоров достаточно вычислительной мощности, чтобы не замечать эту нагрузку?

  2. Raid массивы созданные на софтверном уровне надежнее в плане независимости от производителя контроллера и совместимости с определенными контроллерами?

  3. Если HBA имеет 4 порта Mini-SAS HD SFF-8644, то это равносильно 16 SATA портам через переходники? Но как к такому адаптеру подключить до 1024 дисков? Я про это - http://joxi.ru/82QPpBWi9aW1om

Буду очень благодарен, если кто-то поможет разобраться без насмешек и приколов. Заранее благодарю

Ответ на: комментарий от DALDON

У селектела из-за этого был эпичный даунтайм в 2012, чуть не на сутки, потом на хабре был разбор полетов.

У mdadm речек проходит как-то совсем негуманно. Даже если урезать его по скорости, все равно будет заметно

Попробуй запустить вручную и посмотреть, в дебиане он запускается скриптом из крона раз в месяц

router ★★★★★
()
Последнее исправление: router (всего исправлений: 1)
Ответ на: комментарий от bigbit

Давно это было, врать не стану, не помню, помню только, что статус BBU был в норме, а оно, а оно… :(

olegkrutov ★★
()
Ответ на: комментарий от symbiman

если сделать пул из нескольких mirror, то получится аналог raid 10.
О каком линейном рейде ты говоришь я хз, вообще странный термин какой-то.

Minona ★★☆
()
Ответ на: комментарий от symbiman

Почему же не разделяют. Linear raid – это то ж самое, что JBOD (just bunch of disks), там сперва заполняется первый диск, потом второй и т.д. А raid0 (stripe) – это сперва пишем на первый N байт (например, 64К), потом на второй с_начала N байт. То есть 0 сектор рейда0 – это 0 сектор диска 0. А 128 сектор рейда0 (для stripe size=64Kbytes) – это 0 сектор диска 1.

olegkrutov ★★
()
Ответ на: комментарий от router

Даже если урезать его по скорости, все равно будет заметно

Именно из-за этого я его ставлю на выходные раз в (пол)месяц. На выходных всё равно, если и будет кто-то работать, то явно нагрузка на серв будет не та и, в принципе, вывезет.

Ну ест-но тем, у кого нагрузка непрерывная это не вариант.

ИМХО по теме: надо плясать от того, в каком режиме ТС собирается пользовать RAID. Если нужен постоянный аптайм и высокая нагрузка - то только аппаратный RAID и желательно не самый редкооткапываемый на рынке (цены мягко-говоря кусаются), потому что, если не приведи Ктулху, навернётся, то далеко не факт, что с другим контроллером поднимешь.

А если есть периоды когда можно запускаться на checkarray, железо более-менее нормальное и нагрузка средненькая, то можно и программный RAID (даже пожалуй будет удобней). В плане производительности записи/чтения - без разницы.

А чиповые fake-raid днище - это да, самое последнее что можно использовать, но лучше не использовать.

SkyMaverick ★★★★★
()
Ответ на: комментарий от olegkrutov

Linear raid – это то ж самое, что JBOD

ааа, точно, их еще называли concatenated disks.
вот только ФС то ничего не знает что диски соединены и метаданные пишет так как будто это один большой.
поэтому вылет диска № 1 уносит с собой все данные.
в ZFS работает немного по другому, поэтому часть фалов размером <= recordsize восстановить можно, остальные будут битые.

Minona ★★☆
()
Ответ на: комментарий от Minona

Ну например для ntfs это не так, обычно там таблица размещения лежит в начале, потом да, может фрагментироваться, но первый диск критичней. В ext4, xfs есть группы размещения, там вроде бы в основном файлы можно добыть в пределах своей группы. Не уверен, правда, как там с инодами и таблицами экстентов файлов, группируются они там же или раскиданы по диску. Но в любом случае если первый диск жив, шансы что-то добыть есть…

olegkrutov ★★
()
Ответ на: комментарий от Minona

Все решения, где фс накатывается сверху нескольких дисков, но не знает про диски, это заведомо провал для восстановления данных с одного диска.

symbiman
() автор топика
Ответ на: комментарий от olegkrutov

это которые 512е
а есть еще 4к, вот эти реальный размер 4096 сообщают.

Minona ★★☆
()
Ответ на: комментарий от olegkrutov

во всех ФС с динамическим распределением метаданных всегда есть некий каталог где все эти места с метаданными описаны. этакая центральная точка входа в данные ФС, их обычно записывают несколько копий чтобы не факапнуть всё.
но ты их попробуй потом найди если йопнется именно первый диск из jbod-а.

Minona ★★☆
()
Ответ на: комментарий от symbiman

=)
а на аппаратных рейдах все решения такие — фс видит рейд как один диск.

Minona ★★☆
()
Ответ на: комментарий от AS

вообще-то, помимо того, что нормальный контроллер умеет это детектить, батарейки принято менять на регулярной основе, а не ждать сигнала от контроллера, когда может быть уже поздно.

anonymous
()
Ответ на: комментарий от anonymous

батарейки принято менять на регулярной основе, а не
ждать сигнала от контроллера, когда может быть уже поздно.

Ну отключит кэш на запись. Небо не землю упадёт? Не у всех хай лоад.

AS ★★★★★
()
Ответ на: комментарий от symbiman

2 HDD по 14 ТБ хочу сделать в 28 ТБ, но пока не знаю как оптимально, чтобы при потере одного диска данные со второго остались, то есть Linear Raid.

рэйд и фс всё равно развалятся при потере диска и с твоим уровнем ты вряд ли вытащишь данные. в zfs для этого есть опция ditto blocks - кол-во копий блоков раскиданных по разным vdev, в этом случае массив может пережить вылет диска, но использовать это для двух идентичных дисков не имеет смысла, ибо потеря места будет как и у зеркала.

anonymous
()
Ответ на: комментарий от olegkrutov

Linear raid – это то ж самое, что JBOD (just bunch of disks)

лол, нет. ты сравил мух с котлетами. jbod - это просто набор независимых дисков.

anonymous
()
Ответ на: комментарий от Minona

воинствующие дурачки, вроде тебя, довольно жалкое зрелище, ты уже все темы про хранение данных засрал своим невежеством

anonymous
()
Ответ на: комментарий от anonymous

а воинствующие анонимы вообще достали, везде суются со своим ЕП мнением, не зная темы.
иди уроки грызи, мамкин админчег

Minona ★★☆
()
Ответ на: комментарий от symbiman

чтобы при потере одного диска данные со второго остались

Тогда тебе нужно использовать диски по отдельности, то есть делать без RAID.

Насколько я понял LVM и mdadm это не позволяют сделать, только RAID 0

Ээм. Нет, наоборот, с RAID 0 ты всё потеряешь. А с LVM ты можешь отдельно для каждого раздела настроить как угодно (RAID 0 / 1 или строго один диск). В случае с LVM потеряв один диск ты сможешь продолжить пользоваться данными, которые лежат на разделе использующем другой диск (или в RAID 1).

ei-grad ★★★★★
()
Последнее исправление: ei-grad (всего исправлений: 4)
Ответ на: комментарий от Minona

если у тебя файлопомойка то совершенно без разницы кто будет ребилдить диски - ЦПУ или контроллер

нет, если эта файлопомойка совмещена с рабочим desktop’ом

если профиль нагрузки подразумевает интенсивный вв/выв, то опять же пофиг, в обоих случаях он просядет

опять же нет - в случае production i/o-bound сервисов нужно обязательно закладываться на просадку дисков при восстановлении массива, а вот излишнюю нагрузку остальных ресурсов плодить не обязательно… но тут вообще вопрос про использование RAID в production, обычно проще переключить нагрузку на другой сервак, а сломаный починить и переналить (ну или диск просто новый воткнуть вместо мертвого, и пусть там система сама разбирается чего где умерло, и чего с пустым диском делать)

ei-grad ★★★★★
()
Последнее исправление: ei-grad (всего исправлений: 1)
Ответ на: комментарий от Minona

я тырпрайз железки погонял, когда тебя ещё в планах небыло, jbod у него concat, ебала%тунг просто

, мамкин админчег

хорошо, хоть подписываться не забываешь

anonymous
()
Ответ на: комментарий от ei-grad

если эта файлопомойка совмещена с рабочим desktop’ом

ССЗБ
десктоп чувствителен к задержкам вв/выв, зачем вообще на десктопе рейд

обязательно закладываться на просадку дисков

так один хрен просядет, ЦПУ будет считать КС или контроллер, не важно что ты заложил избыток ИО, оно все равно просядет до заложенного уровня.

вопрос про использование RAID в production

ну так их там давно не юзают, используется репликация
хотя технически это один фик как минимум 3-way mirror, только диски на разных машинах

Minona ★★☆
()
Ответ на: комментарий от anonymous

я тырпрайз железки погонял

во сне.
ты грамоте научись сначала, погонщик тырпрайзов.

Minona ★★☆
()
Ответ на: комментарий от Minona

зачем вообще на десктопе рейд

чтобы коллекцию UHD-BD рипов с порнушкой по сети не гонять :)

На самом деле RAID 0 часто нужен, но тут действительно проще без контроллера. RAID 1 чтоб систему не переставлять / или какие-то важные рабочие данные не продолбать - тоже вполне нормальная идея. Но там действительно не важно, объемы не должны быть такие чтоб о контроллере париться.

ei-grad ★★★★★
()
Ответ на: комментарий от Minona

ну так их там давно не юзают, используется репликация

да ты совсем плох болезный

anonymous
()
Ответ на: комментарий от Minona

Ну и порно это конечно двигатель прогресса, но каналы в России пока точно не доросли до уровня когда ощутимая часть населения сможет видеопотоки с битрейтом под 100мбит/с смотреть.

ei-grad ★★★★★
()
Ответ на: комментарий от Minona

Пускать такое через бедный Tor… ты жесток.

ei-grad ★★★★★
()
Ответ на: комментарий от Minona

Да не, нафиг. Но согласись, это же круто (с технической стороны) что каждую мандавошку можно рассмотреть.

ei-grad ★★★★★
()
Ответ на: комментарий от anonymous

Если бы ты сказал «лол, не только», то был бы прав, так как кое-где действительно гуляет такая терминология. И то потому, что на некоторых контроллерах можно экспортировать диски по одному, сделав из каждого «jbod из одного диска». а так увы, учи матчасть…

olegkrutov ★★
()
Ответ на: комментарий от router

Да, подтверждаю что mdadm работал не гуманно даже на raid1. Может сейчас пофиксили?)

DALDON ★★★★★
()
Ответ на: комментарий от olegkrutov

если бы ты имел хоть чуть-чуть мозгов и мог самостоятельно залезть хотя бы в педевикию, но нет. но я тебе помогу болезный

https://en.wikipedia.org/wiki/Non-RAID_drive_architectures

JBOD (derived from «just a bunch of disks»): described multiple hard disk drives operated as individual independent hard disk drives.

и далее

JBOD (abbreviated from «Just a Bunch Of Disks»/«Just a Bunch Of Drives») is an architecture using multiple hard drives exposed as individual devices. Hard drives may be treated independently or may be combined into one or more logical volumes using a volume manager like LVM or mdadm

что на некоторых контроллерах можно экспортировать диски по одному

ало, болезный, кокой ещё контроллер на jbod полках?

anonymous
()
Ответ на: комментарий от anonymous

https://en.wikipedia.org/wiki/RAID JBOD RAID N+N: With JBOD (just a bunch of disks), it is possible to concatenate disks, but also volumes such as RAID sets. With larger drive capacities, write delay and rebuilding time increase dramatically (especially, as described above, with RAID 5 and RAID 6). By splitting a larger RAID N set into smaller subsets and concatenating them with linear JBOD,[clarification needed] write and rebuilding time will be reduced. If a hardware RAID controller is not capable of nesting linear JBOD with RAID N, then linear JBOD can be achieved with OS-level software RAID in combination with separate RAID N subset volumes created within one, or more, hardware RAID controller(s). Besides a drastic speed increase, this also provides a substantial advantage: the possibility to start a linear JBOD with a small set of disks and to be able to expand the total set with disks of different size, later on (in time, disks of bigger size become available on the market). There is another advantage in the form of disaster recovery (if a RAID N subset happens to fail, then the data on the other RAID N subsets is not lost, reducing restore time).[citation needed]

Давай, дятел, букварь в клюв и вперед на мины. Но так как ты дятел, то совет тебе вряд ли поможет…

olegkrutov ★★
()
Ответ на: комментарий от olegkrutov

ты сам-то прочитал, что скопипастил или ты в принципе не в состоянии понять прочитанное? я так-то не удивлён. что тебе непонятно в словосочетании hybrid raid? а в just a bunch of disks?

concatenating them with linear JBOD,[clarification needed] clarification needed

если рэйд контроллер перевести в режим jbod, то эти диски ты не объеденишь без сторонних приблуд, как и обычную jbod полку с кучей дисков, как ни приседай, а concat без lvm/mdadm/zfs ты не сделаешь

anonymous
()
Ответ на: комментарий от olegkrutov

ты реально такой дебил? я пройду за тебя по ссылке из того, что ты накопипастил, ещё раз

Hard drives may be treated independently or may be combined into one or more logical volumes using a volume manager like LVM or mdadm;

or may be combined into one or more logical volumes using a volume manager like LVM or mdadm;

using a volume manager like LVM or mdadm;

понимаешь, кукаретик, сторонними тулзами. а так это просто набор несвязанных между собой дисков

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.