LINUX.ORG.RU

HP BladeSystem p-Class (часть 4)

 , ,


1

1

Итак, наконец я приобрел себе хранилище - HP StorageWorks Modular Smart Array 1000. В нем установлено: 28 x 146 ГБ 10 000 об/мин. жестких дисков, 1 x MSA SAN-switch 2/8, но у RAID-контроллера сломанный дисплей и SCSI-контроллер для дополнительной полки сломан, и FibreChannel backplane-ы для коммутаторов Cisco GESM находятся у меня дома в другой стране, поэтому я не могу настроить все прямо сейчас. Я заказал все, что мне нужно, с eBay и жду. Планирую создать отказоустойчивый кластер из 7 x HP ProLiant BL20p G4 в ближайшем будущем. Никогда не делал этого раньше, так что, думаю, это будет интересно.

Сейчас у меня работает 2 x HP ProLiant BL20p G4. Я установил роли Hyper-V на обоих из них и создал несколько виртуальных машин для будущей инфраструктуры - пару DNS-серверов под Ubuntu 16.04.5 LTS, пару контроллеров домена под Windows Server 2012 R2 и LAMP-сервер под Ubuntu 16.04.5 LTS.

Сейчас Cisco Catalyst 3750 работает как обычный L2-коммутатор, но я планирую переместить на него DHCP-сервер с MikroTik hEX и реализовать функцию динамического DNS, чтобы все клиенты DHCP-сервера регистрировались на сервере DNS.

Также я планирую переместить все виртуальные машины с Dell PowerEdge R410 в будущий кластер, потому что они не требуют большой производительности, но я хочу, чтобы они были отказоустойчивыми.

Сейчас у меня есть 2 компании, и я размещаю их виртуальные инфраструктуры на сервере Dell: контроллеры домена, видеонаблюдение, базу данных SQL для ERP-системы backend для ERP-системы, сервера удаленных рабочих столов и т.д. Есть даже openHAB для управления светом в ​​моем кафе.

Спасибо за чтение, надеюсь, было интересно.

PS - прошу прощения за немножко странную стилистику поста, все дело в том, что сначала я его написал на английском для r/homelab, а потом перевел на русский через Google Translate, немножко подправив. Так будет и впредь, т.ч. привыкайте ;).

>>> Просмотр (3024x4032, 1303 Kb)



Проверено: JB ()

Ответ на: комментарий от Spoofing

с таким оборудованием не стыдно и девушку в гости пригласить, круто.

Я женат :).

ravdinve ()
Ответ на: комментарий от cetjs2

где ты держишь это? и да, это бизнес такой?

В своем офисе. Тут и инфраструктура для моих бизнесов, и личная песочница, все, можно сказать, вместе. За электричество не плачу :).

ravdinve ()
Ответ на: комментарий от nihirash

Железо красивое, а оси хочешь ставить сильно уж «выдержанные».

Hyper-V работает с процессорами этой архитектуры только на Windows 2012 R2, выше уже никак, там какого-то расширения нет, не помню точно. Под Ubuntu 18 до сих пор нет части ПО, тот же Unifi Video только в 16 официально поддерживается.

ravdinve ()
Ответ на: комментарий от Deleted

Так там и железо не первой свежести.

Почти ретро, года три, может, не дотягивает. Зато дешевое и enterprise.

ravdinve ()

Выглядит круто и энтерпрайзно. Тоже было бы интересно поковырять такое железо и понастраивать серверы, но применения для такого у меня нет.

Deleted ()
Ответ на: комментарий от kirill_rrr

Держать 28 форсированных дисков маленького объёма это считается нормой?

Норма - это скучно.

ravdinve ()
Ответ на: комментарий от Deleted

Выглядит круто и энтерпрайзно. Тоже было бы интересно поковырять такое железо и понастраивать серверы, но применения для такого у меня нет.

А оно обязательно? По-моему вполне можно делать то, что хочется.

ravdinve ()
Ответ на: комментарий от Difrex

Почему была выбрана винда в качестве гипервизора?

А почему бы и нет? Она не лучше и не хуже других гипервизоров. Свои задачи выполняет и удобна для меня.

ravdinve ()
Ответ на: комментарий от ravdinve

Миграция, в том числе живая, из коробки, и между разными процами. В Линукс можно конкретное ядро пробросить. Rdb-же, ну. Просто настраивающийся ha. Ну, и остальные фичи libvirt - сможешь контейнеры lxc гонять.

Но дело твое - раз ставишь Винду на серваки, значит, есть причины.

Difrex ★★★★ ()

все дело в том, что сначала я его написал на английском для r/homelab, а потом перевел на русский через Google Translate, немножко подправив.

Твои письма пусты или полны поноса словаря.

i-rinat ★★★★★ ()
Ответ на: комментарий от Deleted

Так там и железо не первой свежести.

Так и не второй.

ssh2 ★★★ ()

А как ты решаешь вопрос с резервированием сетевого канала, если твое железо в обычном офисе (как я понял) живет?

v9lij ★★★★★ ()

Hyper-V

фу, даже не понятно зачем.

Спасибо за чтение, надеюсь, было интересно.

нет, не было. ну сделал ты себе большую песочницу для тестов, а сообществу-то какой прок? админы на работе и покруче видали, а школьникам ставят лайки в контакте, а не здесь.

crypt ★★★★★ ()

+ к тому, что я сказал выше:

моей бывшей школе недавно на списание предложили HP EVA (кто не знает, это стойка полностью набитая дисковыми полками и парой (для резерва) управляющих голов, по-моему еще оптический свитч). мы спокойно отказались. а был бы я автором данного топика, так побежал бы за ней, настрочил 10 постов на лоре и селфи с ней сделал.:)

crypt ★★★★★ ()
Последнее исправление: crypt (всего исправлений: 1)
Ответ на: комментарий от ravdinve

Затейник.

Экспериментаторство экспериментаторством, но зачем же добровольно в помойку лезть?
Разве мало других полей и нив для экспериментов (KVM, Xen, bhyve, контейнеры... LPAR??), но при этом предназначенных для поставленной задачи?
Да и банальная чистоплотность... даже представить себе не могу что добровольно, для себя, заделаюсь RADMIN'ом)))

mos ★★☆☆☆ ()

сначала я его написал на английском для r/homelab

Unfortunately, your submission has been removed due to the following:
Content is not homelab related.

=P

Так будет и впредь, т.ч. привыкайте ;).

Choose your priorities wisely

mos ★★☆☆☆ ()
Ответ на: комментарий от kirill_rrr

Имхо, причин было две: 1) они дешевые, т.к. никому уже не нужны (и это главное); 2) много шпинделей в массиве = больше IOPS.

DummyBoy ()

установил роли Hyper-V

Зашквар какой-то. Есть отличные системы виртуализации, не связанные с windows.

Deleted ()
Ответ на: комментарий от Deleted

Дисковый массив

Да, да, да! Как мне это знакомо! Верхняя хранилка, которая с контроллером. Только у нас вместо заглушки слева стоял еще один контроллер. Все это дело ревет как два реактивных самолета. По личному опыту: 1.Эти диски не очень надежные - меняли несколько штук. 2.Меняли блок питания - вышел из строя вентилятор. 3.Меняли контроллер - уже не помню, что там было.

bitchevar ()
Ответ на: комментарий от Spoofing

с таким оборудованием не стыдно и девушку в гости пригласить, круто.

С таким оборудованием только бабушку )

Rubystar ★★ ()
Ответ на: комментарий от v9lij

А как ты решаешь вопрос с резервированием сетевого канала, если твое железо в обычном офисе (как я понял) живет?

Да и вообще - все в одном fire compartment и без georedundnancy... Как маленький, правда?

Kroz ★★★★★ ()

А пара каких-нибудь 2400G в proxmox-кластере сделало бы то же самое гораздо более энергоэффективно.

targitaj ★★★★★ ()

Некрасиво. Лаптоп не так должен выглядеть. Понты это всё.

Deleted ()
Ответ на: комментарий от targitaj

Капец - понятие растяжимое :) Там БП на 2квт, вроде как. То есть, потолок 2квт. Но хотелось бы узнать точную цифру в простое

BitSum ★★ ()

в офисе, говоришь, держишь? слабак. у меня типа такой стойки было дома, sun fire v240, cisco 3x2610xm, 2x3550, juniper srx210, asa 55..(не помню что), ещё куча ништяков (перечислил что вспомнил), всё это в реке от skeletek.

замечательные времена были.

epsilon1024 ()
Ответ на: комментарий от v9lij

Никак. За этот год - ни единого разрыва. Хотя в планах и есть подключение ко второму провайдеру, реальной необходимости в этом пока нет ибо простой в 1-2 часа для моего бизнеса не критичен.

ravdinve ()
Ответ на: комментарий от crypt

нет, не было. ну сделал ты себе большую песочницу для тестов, а сообществу-то какой прок? админы на работе и покруче видали, а школьникам ставят лайки в контакте, а не здесь.

Ну нет так нет, что могу поделать. Тут многие делятся фотографиями своих песочниц, вот и я поделился.

+ к тому, что я сказал выше:

моей бывшей школе недавно на списание предложили HP EVA (кто не знает, это стойка полностью набитая дисковыми полками и парой (для резерва) управляющих голов, по-моему еще оптический свитч). мы спокойно отказались. а был бы я автором данного топика, так побежал бы за ней, настрочил 10 постов на лоре и селфи с ней сделал.:)

Каждому свое. Мой бизнес не связан с ИТ, но поиграться с ретро-железом мне нравится, такое вот у меня хобби.

ravdinve ()
Ответ на: комментарий от shtulmanellosis

Сервера не перегреваются от того, что в шасси сплошные дыры?

Нет, все в порядке. Заглушек мне не хватает, увы.

ravdinve ()
Ответ на: комментарий от Aroshigami

Бесперебойник на 2200 вытягивает всё железо? Оо

Нет, разумеется. К нему подключено лишь то, что связано с бизнесом, а песочница - просто в розетку. Ведь перебои электричества в наших краях - большая редкость.

ravdinve ()
Ответ на: Затейник. от mos

Затейник. Экспериментаторство экспериментаторством, но зачем же добровольно в помойку лезть? Разве мало других полей и нив для экспериментов (KVM, Xen, bhyve, контейнеры... LPAR??), но при этом предназначенных для поставленной задачи? Д

С каких пор Windows - помойка?

а и банальная чистоплотность... даже представить себе не могу что добровольно, для себя, заделаюсь RADMIN'ом)))

Не понял, что ты хотел сказать.

ravdinve ()
Ответ на: комментарий от I_one

а какой уровень raid используете в дисковом массиве?

В данный момент - никакой. Но планирую 10, т.к. MSA 1000 поддерживает массивы до 2 ТБ, вот примерно столько на 10 уровне у меня и получится. Может еще про 2 массива на 5 уровне подумаю, с Hot Spare, но думаю, что производительность будет так себе.

ravdinve ()
Ответ на: комментарий от DummyBoy

Имхо, причин было две: 1) они дешевые, т.к. никому уже не нужны (и это главное); 2) много шпинделей в массиве = больше IOPS.

Нет, мне просто хотелось поиграться с Fibre Channel SAN. Ведь на всех лезвиях есть по FC-контроллеру, на Cisco GESM - FC-Backplane, ну и плюс SCSI-диски дешевые, да. Ну а большой объем мне в песочнице не нужен.

ravdinve ()
Последнее исправление: ravdinve (всего исправлений: 1)
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.