LINUX.ORG.RU
ФорумAdmin

mdadm vs hw-raid


0

3

Собираю сервер для небольшой сети (25 чел). Дано железо:
- платформа SuperMicro 2U 6026T-6RF+
- 24 Гб оперативки
- CPU Intel Xeon X5670 1 Шт 6 ядер с HT и VT-x 3ГГц
- PCI-E контроллер Intel RAID Controller RS2WC080
- 8 SATA-серверных винтов 2Tb (модель не ясна)

Будет стоять Debian, сервак будет выполнять роль:
- файлопомойки
- сайта с посещением 100 чел/день
- почтовика на сотрудников
- виртуальной машины с 1C с 2мя бухгалтерами в терминальном доступе
- виртуалки для работы в терминальном доступе в офисе на 7 человек
- несколько виртуалок для тестирования ПО/тестирования сервисов (мало едят, сейчас с ними справляется старый core duo)

Винты будут объединяться в RAID10.

Собственно, вопросы:
1. Стоит ли настраивать PCI-E контроллер в RAID10, или лучше использовать mdadm? В пользу последнего - независимость от железа (если через год погорит контроллер, такой же можем и не найти, заранее купить никто не даст), далеко не 100%-я нагрузка сервера, так что он работе и не помешает особо и портируемость винтов на другую платформу будет хорошая.

2. Что посоветуете в качестве гипервизора? Сам использую Xen, но систему потом будет обслуживать человек, далекий от nix, но дружащий с виндой (omfg!!!). Посоветовали костылерешение - VirtualBox с переносом созданной машины в headless-режиме в init.d (старт при старте хоста, сохранение при ребуте/выключении хоста). Плюс для данной ситуации - не нужно nix-знаний, легкий проброс USB (бухгалтерских токенов и прочего), минус - понятен. Стоит присмотреться к VirtualBox?

Ответ на: комментарий от zgen

Сам склонялся к mdadm.
Еще вопрос - на матери 6SATA, контроллер так и так задействовать придется. На контроллере 8SATA. Лучше все засунуть в контроллер, или часть в матплату?

agr_74 ()

Лучше mdadm.
Виртуалбокс в топку, либо вмваре покупать, либо xen с панелькой какой-нибудь, аля vdsmanager.

tazhate ★★★★★ ()

1) mdadm
2) xen/kvm/vmware, про VirtualBox лучше сразу забыть. Только вот у KVM наживую с пробросом USB ЕМНИП плохо - надо рестартить виртуалку

Pinkbyte ★★★★★ ()

хардварный рэйд хорош тем, что у него кэш записи энергонезависимый (батарейка или флеш вновых моделях) т.е. при внезапном выдергивание питания данные не пропадут

такой же можем и не найти, заранее купить никто не даст)

фемозным нищебродам ставьте программный, больше им не положено

anonymous ()
Ответ на: комментарий от agr_74

Не разбираюсь в линейке VMware, что именно из нее?

Ну так разберитесь =)

Кстати, доп. софт купить не дадут...

ESXi бесплатен до 32 GB памяти включительно

anonymous ()
Ответ на: комментарий от anonymous

хардварный рэйд хорош тем, что у него кэш записи энергонезависимый (батарейка или флеш вновых моделях)

Тут есть маленькая проблема - сабжевый рейд не имеет кэша и батарейки. «Ну и где теперь твой бог?» (с)

redgremlin ★★★★★ ()

- PCI-E контроллер Intel RAID Controller RS2WC080

у интела очень плохие контроллеры. Лучше возьми LSI.

Посмотри Proxmox, там есть kvm.

xpahos ★★★★★ ()

только mdadm. иначе будет vendor lock-in

кэш записи энергонезависимый (батарейка или флеш вновых моделях)

да еще и с дополнительной подпиткой.

anonymous ()

В данном случае я бы выбрал mdadm, так-как никаких плюсов это того железного рейда, что у вас, не будет. Насчет гипервизора, если на хосте будет стоять debian, то смысла ставить vmware или virtualbox нету, поднимите kvm + virt-manager для управления через ssh -X (если без иксов на сервере) и даже win. админ разберется. Да, если будите ставить kvm, советую виртуалки размещать на LVM - так добьетесь оптимальной производительности для дисковой подсистемы, да и снепшоты можно будет делать и прочие радости которые позволят LVM. Терминальный сервер на win будет или на линухе?

strelok0101 ()
Ответ на: комментарий от agr_74

лучше все в контроллер, но без логики.

zgen ★★★★★ ()
Ответ на: комментарий от redgremlin

и у него будет RAID5 работать без доп ключей? ты в этом уверен?

xpahos ★★★★★ ()
Ответ на: комментарий от af5

5.0 не менее бесплатная

Но есть большое ограничение по памяти. Хотя 24Гб вписываются - вы правы.

zgen ★★★★★ ()
Ответ на: комментарий от zgen

Спасибо за ответ.
Но как понимаю, esxi ставится на голое железо (кстати, официально «мое» поддерживается только версией 5.0), а мне нужна ось на железе перед гипервизором. С тем самым mdadm. Или я чего-то не понимаю, есть другой способ поставить esxi?

Стрелку - терминальник - win2k8 x64.
Потестю virt-manager + kvm + lvm, хотя напрягает, что везде пишут что есть глюки с usb

agr_74 ()
Ответ на: комментарий от agr_74

что везде пишут что есть глюки с usb

А что именно собрался пробрасывать по USB? Если смарткарты, то с ними проблем нет.

Deleted ()
Ответ на: комментарий от agr_74

Стоп... Ты собрался ставить в виртуальную машину терминальный сервер на венде и прокидывать туда смарткарты средством KVM?

Deleted ()
Ответ на: комментарий от agr_74

физ. хост->debian->kvm->win2k8

Это не будет работать так, как ты ожидаешь. При использовании вендового сервера терминалов внутри RDP-сессий клиенты через стандартное API видят только свои ключи, проброшенные через RDP. Локальные ключи сервера клиентам не доступны.

Я лично уже наступал на эти грабли: http://www.linux.org.ru/forum/talks/5649475.

Deleted ()
Ответ на: комментарий от agr_74

Или я чего-то не понимаю

Все правильно понимаете.

zgen ★★★★★ ()
Ответ на: комментарий от agr_74

Какие глюки? У меня проброс usb в том числе и токенов бухов нормально работает.

strelok0101 ()
Ответ на: комментарий от Deleted

Локальные ключи сервера клиентам не доступны

Не совсем корректно утверждать подобное.

1) Не все ключи недоступны в RDP, а только некоторые.
2) Не обязательно использовать RDP, можно VNC - там такой проблемы нет :)

zgen ★★★★★ ()
Ответ на: комментарий от zgen

1) Не все ключи недоступны в RDP, а только некоторые.

В RDP-сессии через стандартное вендоAPI недоступны все ключи, подключенные к серверу локально.

2) Не обязательно использовать RDP, можно VNC - там такой проблемы нет :)

Проблема только в том, что через VNC на одном сервере сможет работать одновременно только один человек 8).

Deleted ()
Ответ на: комментарий от Deleted

В RDP-сессии через стандартное вендоAPI недоступны все ключи, подключенные к серверу локально.

Тебе скриншот выслать? O_O

zgen ★★★★★ ()
Ответ на: комментарий от zgen

Вышли! А заодно скажи как ты это сделал. Ибо мне даже вендоадмины сказали, что это невозможно 8).

Deleted ()
Ответ на: комментарий от Deleted

И в то же время, если зайти тем же пользователем, но через VNC, то всё работает как надо...

Deleted ()
Ответ на: комментарий от Deleted

Упс. Выходит это я ступил - мы использовали vmware server и к нему клиента, а не RDP - вот видимо я и перепутал - ща полез проверять на 5 десятках VM'ок - действительно, все так и есть :(

zgen ★★★★★ ()
Ответ на: комментарий от xpahos

у интела очень плохие контроллеры. Лучше возьми LSI.

разве интел не берёт контроллеры lsi для своих поделок?

И да, lsi говно.

true_admin ★★★★★ ()
Ответ на: комментарий от true_admin

разве интел не берёт контроллеры lsi для своих поделок?

они могут использовать чипы, как и HP и многие другие, но могут делать ключи для того, чтобы ты платил поверх еще пару тыщ за ключ на включение RAID5 или RAID6.

И да, lsi говно.

LSI/3Ware без проблем шьются из под Linux/FreeBSD. Когда Adaptec попросил шить его с _дискет_ это был адище. А другой просто не инициализировался при одном битом SAS диске.

xpahos ★★★★★ ()
Ответ на: комментарий от xpahos

Лси вполне годные контроллеры, по моим ощущениям лучше адаптеков. Последние кстати вполне себе шьются через arcconf уже много лет..

blind_oracle ★★★★★ ()

Пришло железо. До сегодняшнего дня не пытался использовать контроллеры без RAID-функционала. Покопался в настройках, не нашел режима, при котором диски не конфигурируются в RAID. Покопался в манах. Нашел, что можно сконфигурить диски в JBOD. Причем не в смысле, JBOD-страйп, а с отделением диска в отдельное устройство. Вопросы: 1. Это то, что я ищу (использование диска контроллером «как есть», без всяких железозависимых конфигах на диске и самом контроллере)? 2. Вытекает из первого. Теряет ли mdadm свою фичу - независимость от SATA-контроллера?

agr_74 ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.