LINUX.ORG.RU
ФорумAdmin

RAID 0 или LVM

 ,


0

2

Здравствуйте. Прошу помочь мне в выборе RAID 0 или LVM для объединения 2 харда в 1, т.к. я не пользовался ни тем, ни другим.

Есть у меня на hetzner выделенный сервер, на котором висит высоконагруженный сайт. На сервере стоит 2 одинаковых SSD харда и работают, как RAID 1. Места стало нехватать. Учитывая то, что бекапы делаются каждый день, а на восстановление системы с нуля необходимо часов 10, то к краху я готов, хотя сам сильно сомневаюсь в возможности такого случая. Принял я решение эти 2 харда объединить, но каким способом?

Теоретически на сервере стоит дорогой RAID контроллер, и вроде было бы просто переключить на RAID 0 и всё, но в интернете можно встретить фразы, что LVM вытеснил RAID 0 (по каким причинам я не понял).

Помогите в выборе, пожалуйста.


но в интернете можно встретить фразы, что LVM вытеснил RAID 0 (по каким причинам я не понял).

А потом ZFS вытеснил LVM

Никаких особых причин нет. Просто RAID0 это это случай объединения томов , проще сделать на LVM. Но кто использует LVM в 2020 году? ZFS наше все.

Теоретически на сервере стоит дорогой RAID контроллер, и вроде было бы просто переключить на RAID 0 и всё

И все? И ты не потеряешь данные?

constin ★★★★ ()
Ответ на: комментарий от futurama

ZFS это религия? Оно тут вообще никаким боком не лезет.

Не могли бы вы развернуть ваше утверждение? Не флейма ради, но понимания для.

Borifed ()

Ты путаешь понятия. Есть разные способы организации данных - raid1, raid0 stripe, raid0 span) и есть средства и инструменты - mdadm, LVM, ZFS, железные контроллеры.

LVM не может вытеснить RAID0 по той же причине, по которой тёплое не может вытеснить квадратное.

legolegs ★★★★★ ()

Разряжу обстановку уточнением вопроса: так что же выбрать - аппаратный raid 0 или программный LVM? (и контроллер есть, и lvm установлен)

DenNC ()
Ответ на: комментарий от futurama

ZFS это религия?

Это файловая система.

Оно тут вообще никаким боком не лезет.

Даже тем, что она умеет запихивать диски в пул, что равнозначно raid0?

constin ★★★★ ()
Ответ на: комментарий от legolegs

способы организации данных

Извини, но у тебя пробелы в познаниях. ZFS - это способы организации данных.

anonymous ()
Ответ на: комментарий от DenNC

Разряжу обстановку уточнением вопроса: так что же выбрать - аппаратный raid 0 или программный LVM? (и контроллер есть, и lvm установлен)

Можешь убрать из конфига контроллер и перестать платить за него каждый месяц.

constin ★★★★ ()

Учитывая то, что бекапы делаются каждый день, а на восстановление системы с нуля необходимо часов 10, то к краху я готов, хотя сам сильно сомневаюсь в возможности такого случая. Принял я решение эти 2 харда объединить, но каким способом?

Это твой собственный сайт, что ли? Ну тогда ладно, иначе...

Ты уже принял решение, как будешь компенсировать простой в течении этих 10 часов высоконагруженного сайта? С кем согласовывал? Ты правда хочешь потерять работу после аварии за самоуправство?

Vsevolod-linuxoid ★★★★★ ()
Ответ на: комментарий от DenNC

Кстати, раз уж ты все сносишь, то почему бы под это дело не поставить на сервер KVM/LXC и не виртуализировать , тогда откат после сбоя будет не 10 часов, а только лишь время на копирование имиджа бэкапа назад( будет зависить от размера бэкапа), но явно не больше часа. У Hetzner даже есть под это дело хранилища, которые можно цеплять по scp/smb/etc .

constin ★★★★ ()
Ответ на: комментарий от futurama

Ваши действия.

правильный вопрос, пока с этим сложности. потому что root ZFS не поддерживается из коробки, кроме как в последней десктопной убунте и то в тестовом режиме.

Тем не менее, это не невозможно. Ставим ZFS в рут, используя первый диск, потом добавляем в пул второй диск. Думаю, что через пару месяцев это будет можно делать из коробки при установке.

Конечно не надо ставить ZFS, если не собираешься полностью использовать ее функционал, а автор похоже не собирается. У него сервер даже не виртуализирован.

constin ★★★★ ()
Ответ на: комментарий от futurama

Установщик Proxmox’а позволяет (и это даже рекомендуется) сразу при установке разбить диски в ZFS. Ну и собственно поставить на ZFS Proxmox. Не вижу особой проблемы в этом. Хотя я бы тоже на стал городить ZFS на такой конфигурации.

chaos_dremel ★★ ()

Для SSD - Ext4+LVM оптимально.

anonymous ()
Ответ на: комментарий от futurama

Кстати, да. автору как раз неплохо бы виртуализацию, так что proxmox и там zfs на /

constin ★★★★ ()

Ни в коем случае нельзя высоконагруженный сайт класть весь на RAID0.

а на восстановление системы с нуля необходимо часов 10

Мда...

Deleted ()
Ответ на: комментарий от Deleted

На самом деле вопрос от samson_b имеет место быть.
На своем опыте часто от веберов слышу «я делаю высоконагруженный сайт[ы]» а по факту эта «высоконагруженность» сводиться к тому, что «идиоты копипасты» для сайта с «полторы» страницы требуют многопроцессорный сервак. Посетителей на этом сайте может быть так же «полтора» в сутки, но гордо называем «высоконагруженный» потому что эта падла сожрала все ресурсы как сервера так и браузера клиента.
ЗЫ Из «лучшего» от гордого вебера говорящего «я делаю высоконагруженный сайты» - клиенты (сотрудники компании): хреново все смотрится, вебер: вам надо заменить видиокарты, вот у вашего босса на iMac все хорошо смотрится и меня не имеет.

anc ★★★★★ ()
Ответ на: комментарий от Deleted

Потому-что в RAID0 нет R.

А это не обязательно. Я недавно сдал экзамен AWS Certified Solutions Architect. В процессе подготовки выяснил, что Амазон рекомендует, в целях повышения производительности дисковой подсистемы в т.ч. делать RAID-0. Там такой вопрос был, как раз про нагруженный веб сервер, мол вам нужна дисковая подсистема 100000 IOPS, как ее получить? Правильным ответом было сделать RAID-0 из 5(!) EBS volumes 20000 IOPS. Если не верите могу найти этот вопрос.

Просто redundancy предполагается организовывать другим способом. Кстати, также в процессе подготовки, я понял, что выбор решения - это всегда компромисс и это абсолютно нормально снижать надежность сервиса, в допустимых пределах, экономя деньги заказчика.

samson_b ()
Последнее исправление: samson_b (всего исправлений: 1)

А почему ты уверен, что хецнер не подрежет тебе крылышки в io на самой ноде? Им то как раз выгодно ССД тебе продать

anonymous ()
Ответ на: комментарий от anonymous

Им то как раз выгодно ССД тебе продать

Так они ему уже 2 SSD продали. Ему, как я понял, не их хватает. В конце концов можно у них спросить, есть ли у них какие-то ограничения, если сделать вот так?

samson_b ()
Последнее исправление: samson_b (всего исправлений: 2)

Если бы речь шла не о raid 0, то я бы советовал программный метод - т.е. тогда бы могла идти речь о восстановлении данных. Но ты хочешь потерять все данные, поэтому делай аппаратный рейд на железном контроллере - сэкономишь немножко цпу.

slowpony ★★★ ()
Ответ на: комментарий от anonymous

А почему ты уверен, что хецнер не подрежет тебе крылышки в io на самой ноде?

У него железная машина

constin ★★★★ ()
Ответ на: комментарий от samson_b

Правильным ответом было сделать RAID-0 из 5(!) EBS volumes 20000 IOPS.

Ох уж эти девопсы, умеющие только облака.

В амазоне EBS volume уже сам по себе резервирован внутри амазоном, в отличие от реального железного ssd.

Amazon EBS volumes are designed to be highly available and reliable. At no additional charge to you, Amazon EBS volume data is replicated across multiple servers in an Availability Zone to prevent the loss of data from the failure of any single component

И да, дешёвые хостеры ставят дешёвые ssd, которые отлично пилятся данными и замечательно выходят из строя. В случае зеркала ещё можно без потерь и даунтайма заменить ssd, в случае страйпа - уже никак.

Deleted ()
Последнее исправление: Deleted (всего исправлений: 3)
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.