LINUX.ORG.RU

NexentaStor Developer Edition 1.0 вышла!

 , ,


0

0

NexentaStor - это программное решение для средних и больших предприятий, основной задачей которого является управление сервисами хранения данных на файловой системе ZFS. NexentaStor способен надежно хранить данные и предоставлять мгновенный доступ к архивам с давностью, измеряемой в часах/днях/неделях/месяцах/годах.

NexentaStor Developer Edition - полнофункциональная бесплатная версия без каких-либо ограничений.

В основе NexentaStor дистрибутива лежит Nexenta Core Platform 1.x, которая, в свою очередь, представляет из себя уникальную платформу, сочетающую в себе гибкость Linux/Debian и стабильность OpenSolaris.

>>> Сайт компании

anonymous

Проверено: Shaman007 ()

>предоставлять мгновенный доступ к архивам с давностью, измеряемой в часах/днях/неделях/месяцах/годах.

кстати, как в линаксе сделать версионность фс? только снапшоты lvm или еще как можно?

Muromec ☆☆
()
Ответ на: комментарий от anonymous

В биореактор, быдло!

Капча: looser

anonymous
()
Ответ на: комментарий от Sun-ch

Хм, не слышал, чтобы отказывал кулер на проце именно у сервера(у нормального сервера). Потому как на проце там только радиатор, и через этот радиатор воздух прогоняется другими кулерами, которые задублированы. Лично я не стал бы ставить на ответственные применения сервер без redundant fan-а.

agabekov
()
Ответ на: комментарий от agabekov

В том то и дело что темное дело :) Ну да оставим все потерянные данные на совести Саныча ;)

anonymous
()
Ответ на: комментарий от anonymous

>В том то и дело что темное дело :)

чего тут темного? O_o

сан-ыч вас тонко троллит, а вы все как нубы ведётесь. уже пора знать, что оборудование от Сана ломаться не может просто по определению

Muromec ☆☆
()
Ответ на: комментарий от ZANSWER

>Это тоже не забудь, компетентный Ты наш...;)

Может хватит уже?

nfs4 acls действительно ПОХОЖИ (см simular) на это не nt-style acls.

nfs4 не один сан разрабатывал, и модель acl там родом от AFS.

Вы слышали про AFS?

Вы согласны, что ZFS гарантирует лишь сохранность уже записанных данныз (кроме журналирования там еше считаются контрольные суммы на блоки)?

Вы согласны, что у сан до ZFS не было механизмов управления блочных устройств, по удобству и функциональности сравнимых с LVM(1,2) и MD?

Я не настаиваю на свою компетентность в этом вопросе, я лишь указал вам на вашу некомпетентнотсь.

vzard
()
Ответ на: комментарий от anonymous

Софт от дэбиан глючить не может по определению

anonymous
()
Ответ на: комментарий от vzard

>Вы согласны, что у сан до ZFS не было механизмов управления блочных устройств, по удобству и функциональности сравнимых с LVM(1,2) и MD?

Не согласен.

Sun-ch
()
Ответ на: комментарий от vzard

> Вы согласны, что у сан до ZFS не было механизмов управления блочных устройств, по удобству и функциональности сравнимых с LVM(1,2) и MD?

Не согласен.

ZANSWER
()
Ответ на: комментарий от Muromec

то наверное очередь в биореактор. логопед не лечит быдло.

anonymous
()
Ответ на: комментарий от Sun-ch

Хорошо.

LVM предоставляет полную абстракцию над дисковыми ресурсами, позволяя на ходу нарашивать, уменьшать размер группы томов. Она позволяет свободно управлять метаданными, пермемещая их в реальном времени. Поддерживает создание снапшотов блочных устройств в сыром виде, что очень кстати важно (применений - масса. От iSCSI и FC Target до виртуализации). Она понятна, удобна в оброщении. Базируется на стандартном механизме ядра Linux (DM). Универсальный инструмент. Есть расширения для кластеризации. Умеет реплицировать метаданные.

MD является на сегоднешний день самым быстрым и качественным софт рейдом. Умеет все возможные уровни + следит за состоянием жесткого диска. И он очень быстрый.

Solris volume manager, по сути своей, умеет не больше чем Dynamic Disks в Windows. К примеру, данные между физическими томами таскать он не умеет.

С софтрейдом в солярис вроде или никак или совсем плохо.

vzard
()
Ответ на: комментарий от ZANSWER

>Не согласен.

Вы, насколько я понял, вообще не согласны ни с чем.

vzard
()
Ответ на: комментарий от vzard

> С софтрейдом в солярис вроде или никак или совсем плохо.

Софтовый рейд, как раз и реализуеться с помощью SVM, он не как не тоже самое, что LVM, даже близко...:)

ZANSWER
()
Ответ на: комментарий от ZANSWER

А так в соляре все было в юзерспейсе, бедненькие.

$ /sbin/modinfo cifs
filename:       /lib/modules/2.6.18-6-686/kernel/fs/cifs/cifs.ko
author:         Steve French <sfrench@us.ibm.com>
license:        GPL
description:    VFS to access servers complying with the SNIA CIFS Specification e.g. Samba and Windows
version:        1.45
vermagic:       2.6.18-6-686 SMP mod_unload 686 REGPARM gcc-4.1
depends:        
srcversion:     628F76B5F97A5FA89AAB69B
parm:           cifs_max_pending:Simultaneous requests to server. Default: 50 Range: 2 to 256 (int)
parm:           cifs_min_small:Small network buffers in pool. Default: 30 Range: 2 to 256 (int)
parm:           cifs_min_rcv:Network buffers in pool. Default: 4 Range: 1 to 64 (int)
parm:           CIFSMaxBufSize:Network buffer size (not including header). Default: 16384 Range: 8192 to 130048 (int)

sdio ★★★★★
()
Ответ на: комментарий от ZANSWER

>Софтовый рейд, как раз и реализуеться с помощью SVM, он не как не тоже самое, что LVM, даже близко...:)

Ужос! :)

Согласно http://docs.sun.com/app/docs/doc/806-6111 SVM есть система управление логическими томами.

Я же уже написал - он как Dynamic Disks в windows.

Насчет того, что оно умеет RAID уровни я не знал, признюсь.

Но на мой вопрос ни вы ни санч не ответили - есть ли в solaris что-то, что способно предоставить полную абстракцию над дисковым массивом?

vzard
()
Ответ на: комментарий от vzard

# metastat -i

d0: RAID
State: Okay
Interlace: 32 blocks
Size: 105025768 blocks
Original device:
Size: 105029472 blocks
Device Start Block Dbase State Reloc Hot Spare
c0t10d0s0 5042 No Okay Yes
c0t11d0s0 5042 No Okay Yes
c0t12d0s0 5042 No Okay Yes
c0t9d0s0 5042 No Okay Yes
Device Relocation Information:
Device Reloc Device ID
c0t10d0 Yes id1,sd@SFUJITSU_MAA3182S_SUN18G_00B09360____
c0t11d0 Yes id1,sd@SFUJITSU_MAA3182S_SUN18G_00B09193____
c0t12d0 Yes id1,sd@SFUJITSU_MAA3182S_SUN18G_00B09621____
c0t9d0 Yes id1,sd@SFUJITSU_MAA3182S_SUN18G_00B09630____

А вот как с помощью lvm организовать пул логических томов, доступных всем нодам в кластере?

Sun-ch
()
Ответ на: комментарий от anonymous

>И что, это реально у вас произошло - остановка вентилятора на проце и последующая потеря данных, включая журналы? Вот я не верю. Скажи конкретно, хочу пополнить свою статистику. У меня подтверженных случаев остановки вентилятора на процессном кулере с последующей потерей данных на нормальным брендовом сервере НЕТ.

чел ты уже утомил постами про "брендовое" железо, брендовое не значит что не ломается не виснет и не бывает брака, вы может и купили пару серверов и думаете что проблем нет, а вот когда закупаются сервера десятками и довольн очасто то очень хороша видна картина "брендов" к воторых отваливается оперативка при работе, то перегрев случается и всякие пониения частот не помогают на нагруженом сервере он тупо виснет когда своп кончается если вы не в курсе.

Бесперебойник аналогично на 100% не может защитить, так-как бывают они сами вырубаются при скачке, да и ночью если электричество отрубается надолго и нету оператора следящего за всем этим то также всё рухнет

anonymous
()
Ответ на: комментарий от Sun-ch

>А вот как с помощью lvm организовать пул логических томов, доступных всем нодам в кластере?

clvm ясное дело :)

vzard
()
Ответ на: комментарий от anonymous

>Запарили пиарить этот глючный комбайн ZFS !
>LVM+XFS - рулид

Ога! Особенно умиляют урод^W анонимусы которые забывают добавить к этой парочке еще и RAID level :) и гордо называют это "Data Storage" вместо "Data Graveyard" :)

ZFS спасёт мир!

anonymous
()
Ответ на: комментарий от anonymous

>>ZFS - действительно то что надо для людей которые хоть немного заботяться о своих данных.
>Посмотрел, грязный пиар + куча непонятных костылей.

Дык ты моск дома забыл! ,) Хотя откуда у тебя то .....

anonymous
()
Ответ на: комментарий от tailgunner

>> бугога, иди доки и статьи почитай что есть ZFS тут не только лвм не нужен но и мдадм

>потому что он там встроенный? бугога
>tailgunner *


Да - потому, бугога, а ещё там stripped volumes (aka RAID) встроенный, бугога, и это все вместе, бугога, создаёт мощную и гибкую систему .... бугога кончились.

В линукс еЯ тащить нельзя, вот линуксовые и достали дерьмомёты ...
На фигня - замутят аналог и будут всё то что сейчяас в ZFS обирабт - возносить до небес ,) бугога?

anonymous
()
Ответ на: комментарий от Sun-ch

> Расскажи как тебя спасет UPS при зависании сервера от перегрева или отказе блока питания? Реальный случай из практики, ни журналов не осталось ни самой файловой системы, вообще ничего.

Сервер в сауне чтоль стоял? И бэкапы на той же машинке лежали? Сколько раз в день такое случается?

Lumi ★★★★★
()
Ответ на: комментарий от vzard

Ну и хрен ли. Придет электрик и рубанет ветку, несмотря, что УПС. Или ноль у вас не отгорал? Ну выгонят электрика - данных-то уже нету ...

anonymous
()
Ответ на: комментарий от anonymous

Странно как-то - серверы закупаете пачками, а на кондеи и онлайновые упсы денег жалко. Про зависание при закончившемся свопе вообще порадовал.

agabekov
()
Ответ на: комментарий от vzard

> ZFS - это попытка заменить все устаревшие костыли в соляре одним махом. ИХМО вполне удачная,

> в linux экстра функциональность ZFS не нужна, ибо есть LVM, MDADM и ко.

LVM, mdadm, mkfs, resize2fs, resize_reiserfs и ко - набор гребаных костылей!!! Посмотрел киношку - очень понравилось. Удобно, когда одним инструментом создаются разделы, логические разделы, файловые системы, осуществлется ресайз и контроль целостности данных(чего сраный order=data не обеспечивает).

anonymous
()
Ответ на: комментарий от sdio

> А так в соляре все было в юзерспейсе, бедненькие.

> /sbin/modinfo cifs

Далпаеп, это клиент! И там специально для таких тупых далпаепов как ты написано ангельским по белому:

> description: VFS to access servers complying with the SNIA CIFS Specification e.g. Samba and Windows

anonymous
()
Ответ на: комментарий от ZANSWER

> в Solaris 10 ZFS используються NT Style ACLs, а не POSIX...;)

Фигасе. NT ACL это интересно. А POSIX ACL - знатное говноубожише, без наследования и с ублюдочной концепцией, что менять права может только владелец - делегировать право смены атриубтов нельзя.

anonymous
()
Ответ на: комментарий от vzard

> LVM предоставляет полную абстракцию над дисковыми ресурсами, позволяя на ходу нарашивать, уменьшать размер группы томов. Она позволяет свободно управлять метаданными, пермемещая их в реальном времени. Поддерживает создание снапшотов блочных устройств в сыром виде, что очень кстати важно (применений - масса. От iSCSI и FC Target до виртуализации). Она понятна, удобна в оброщении. Базируется на стандартном механизме ядра Linux (DM). Универсальный инструмент. Есть расширения для кластеризации. Умеет реплицировать метаданные.

LVM это сраный костыль, к которому нужен еще mkfs и resize2fs/resize_reiserfs. Набор быдлокостылей

anonymous
()
Ответ на: комментарий от Sun-ch

> А что тебе даст твой мегашкаф с контролем климата, когда тупо откажет вентилятор на проце? Вещь маханическая, надежность очень низкая, такие случаи не единичны.

Саныч, неужели у сунь такие говняные процы, которые не умеют снижать производительность при выходе температуры ядра за допустимые пределы? Даже быдлоPenium 4 умел это много лет назад.

anonymous
()
Ответ на: комментарий от agabekov

и с каких пор вентиляция начала внутри сервер охлаждать при умерших кулерах? у вас явно нету высоко нагруженных продакшенов раз не видели когад машинка плюётся сообщениями что своп кончился, в этом время сервер перестаёт даже понимать alt+b+sysrq, в кластере то не фатально но очень не приятно. фряха тоже не исключение в плане свопа, также вешается.

anonymous
()
Ответ на: комментарий от anonymous

>Саныч, неужели у сунь такие говняные процы, которые не умеют снижать производительность при выходе температуры ядра за допустимые пределы? Даже быдлоPenium 4 умел это много лет назад.

понимаешь есть какая хреновина, если сервер нагружен а не тупо шлюзом служит и торенты крутит, то снижение частоты = снижение производительности, а на сервер инфы поступает не меньше, плюс програмный райд если он ешё проц кушает, в итоге накапливаются очереди, например МТА сервер, копятся копятся, места в оперативке меньше меньше, начинает всё свопится, как досвопилось и утыкается в предел, начинается чехарда и в итоге сервер виснет, точнее он не виснет а не обрабатывает инфу попросту, и по ссх уже ен подключится пупо не выдаёт приглашение на ввод пароля, с квма тоже 0 реакции, в итоге ресет остаётся. также и на сервера с базой транзкции идут и идут а производительности нехзватает, а программы сами по себе какимиыбы хорошими небыли при предельно загруженой системе отвратительно работают и не стабильно.

anonymous
()
Ответ на: комментарий от Sun-ch

Таки будет сделано или таки вы не в курсе, но хотите об этом поговорить?

По теме новости - пока не надо и ближайшем будущем тоже вряд ли, скорее уж распределённые хранилища, а кому надо - радуйтесь, счастье привалило.

iNode
()
Ответ на: комментарий от Sun-ch

"Тады ой", а именно - простой, потеря денег, увольнение [не]виновных, награждение непричастных, а оставшимся - думать на тему отказоустойчивых систем.

А готовность машины в целом определяется надёжностью всех необходимых для работы компонентов, а значит надёжность вашего гипотетического сервера, процессоры которого разучились троттлить и прочими способами предотвращать подобные сбои, очень низкая.

ZFS - это хорошо, но это не панацея и не надо это впаривать и выдавать Developer Edition за production решение, кому надо - сами прийдут и возьмут.

Вот пусть сначала пообкатывают потом включат в солярис, наткнутся на баги, пофиксят и только потом уже можно будет думать о серьёзном использовании этого решения.

iNode
()
Ответ на: комментарий от anonymous

Ни разу не видел, чтобы умирали сразу 2 кулера. Вот ни разу. И до активного свопа не доходило - в ST06 главное не лениться заходить(или по другому как-нить память мониторить - для других приложений). Активный своп по-любому означает сильно увеличившееся время реакции системы. Хотя, конечно, от взрывного роста нагрузки бог миловал.

agabekov
()

ZFS с ее raid-z - полное говно. Обычный raid емеет фиксированный размер блока (erasure block), а raid-z - переменный, и этот параметр лежит в метаданных, поэтому если грохнется содержимое иноды, то данные потеряны навсегда. А в классических некостыльных файловых системах ее можно восстановить (например появится безымянный файл в lost+found.

anonymous
()
Ответ на: комментарий от anonymous

mirror - наше все! Есть в btrfs кстати.

anonymous
()

Да-да.. знаем мы что это из себя представляет.. Однако, надо выкачать и глянуть последнюю версию..

MiracleMan ★★★★★
()
Ответ на: комментарий от anonymous

> понимаешь есть какая хреновина, если сервер нагружен а не тупо шлюзом служит и торенты крутит...

Да ну конечно - зависание при перегреве, "много-много перезагрузок" с убиством всех данных на винте это значительно лучше, чем снижение производительности. :)

anonymous
()
Ответ на: комментарий от sdio

> А так в соляре все было в юзерспейсе, бедненькие.

Да было в юзерспейсе, а теперь есть kernel CIFS сервер, такое есть в Linux, замечательно, что дальше??:)

ZANSWER
()
Ответ на: комментарий от vzard

> Но на мой вопрос ни вы ни санч не ответили - есть ли в solaris что-то, что способно предоставить полную абстракцию над дисковым массивом?

Эм... ну SVM в какой-то мере, со своими soft partiotion может выступать в той же роли, что и LVM, и выступает, но он уступает фичам LVM2, безспорно, потому, что его не развивают дальше, ввиду приходу на его смену ZFS...:)

ZANSWER
()
Ответ на: комментарий от anonymous

> ZFS с ее raid-z - полное говно. Обычный raid емеет фиксированный размер блока (erasure block), а raid-z - переменный, и этот параметр лежит в метаданных, поэтому если грохнется содержимое иноды, то данные потеряны навсегда. А в классических некостыльных файловых системах ее можно восстановить (например появится безымянный файл в lost+found.

Ну товарисч анонимус конечно же открыл всем глаза, но он не знал, что в ZFS, ещё со второй версии пула добавили Ditto Blocks для metadata, а в последствии и данных, и того, что это значит, что каждый metada block дублируеться 2 или 3 раза, в зависимости от настроек, заданных Администратором, повреждение 2 или 3 блоков, одновременно, расположенных на разных контролерах и стораджах, просто НЕ РЕАЛЬНО посему гуляйте лесом уважаемый...;)

ZANSWER
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.