LINUX.ORG.RU

Где бы ещё почитать подобную инфу для сетевых и системных админов? Очень полезная информация :)

Selecter ★★★★
()
Ответ на: комментарий от UncleAndy

>IMHO, преимущество SCSI над IDE на серверах очевидно. Лучше-бы сделали такое сравнение SCSI vs SATA.

Особенно с sata-шником от WD, 10000 об/мин.

Народ, не подскажите какую лучше карточку поставить для скази дисков под писишную мать? Так чтобы недорого но качественно и без проблем поддерживалось. Хочца попробовать.

Lautre ★★★★★
()

Автор совршенно забыл про загрузку CPU, что так-же немаловажно. SCSI, за счет "умного" контроллера, существенно (на порядки) снижает утилизацию процессора при интенсивном IO.

anonymous
()
Ответ на: комментарий от UncleAndy

>IMHO, преимущество SCSI над IDE на серверах очевидно. Лучше-бы сделали такое сравнение SCSI vs SATA.
IMHO, преимущества SCSI над SATA очевидно, нах сравнивать? :-)

anonymous
()
Ответ на: комментарий от Lautre

>не подскажите какую лучше карточку поставить для скази дисков под писишную мать? Так чтобы недорого но качественно и без проблем поддерживалось.

Adaptec 2940UW ("классика", только бу и не быстрее UW SCSI, но - самый дешевый вариант), 29160 (на сегодня лучший вариант по цена/производительность, Ultra160)

39ххх или хх320 для попробовать излишне, а на 19ххх можно обломаться.

Adaptec поддерживается в любой OS в полном объеме. Самый беспроблемный вариант.

anonymous
()

У меня на домашнем компьютере стоят два винта SCSI (IBM DCAS-32160W 2 Гбайт и FUJITSU MAE3091LP 9 Гбайт), подключенных к Adaptec 2940UW и по очереди стояли два винта IDE (Quantum и Maxtor оба по 20 Гбайт).

Если винт напрягает один процесс, то IDE быстрее, хотя нагрузка на процессор выше. Если винт напрягают несколько процессов, то SCSI работают с той же скоростью, а вот IDE винтам в плане производительности плохеет.

В общем, как всегда, выбор зависит от задач.

Helge
()
Ответ на: комментарий от UncleAndy

Лажа это все. Взять Promise, воткнуть десяток IDE, зазеркалировать и поставить бабочку - и покрыть любой набор сказюков в несколько раз. и по цене выиграть, и по надежности. любители ударопрочности могут взять двухдюймовые винчестеры. и все равно, дешевле и надежнее выйдет.

anonymous
()
Ответ на: комментарий от anonymous

>Лажа это все. Взять Promise, воткнуть десяток IDE, зазеркалировать и поставить бабочку -
А ты попробуй :-)
SCSI RAID - массивы наверное недалекие делают и недалеким продают :-)

anonymous
()
Ответ на: комментарий от anonymous

>Лажа это все. Взять Promise, воткнуть десяток IDE, зазеркалировать и поставить бабочку - и покрыть любой набор сказюков в несколько раз.

А че мелочится то :) Взять десяток Promise и воткнуть сотню IDE :)) потом нажать reset и ждать пока все зеркала соберутся...

>и все равно, дешевле и надежнее выйдет. Вроде речь про производительность шла...

mky ★★★★★
()
Ответ на: комментарий от anonymous

>А есть еще www.nag.ru и там рассказывают как оптику кусачками обжать. >А что? Тоже решение неплохое, а главное дешевое!
LOL :-)
Уже вижу, кулсисадмин обжимает кусачками разъемы Sun StorEdge T3 :-)
http://www.sun.com/storage/midrange/t3es/specs.xml

anonymous
()
Ответ на: комментарий от anonymous

Вдогонку...лижбы дешевле было. ;)

anonymous
()
Ответ на: комментарий от anonymous

> Лажа это все. Взять Promise, воткнуть десяток IDE, зазеркалировать и поставить бабочку

где-то были тесты - 4 х IDE харда в зеркале не могут порвать один SCSI на 15k RPM.. Являясь счастливым обладателем сказочного винта на 15к и адаптековского контроллера UW-SCSI320

FreeBSD ★★★
()

from Alex Korchmar, который Linux гуру:

AK>> У меня отказавший жесткий диск куда более актуальная проблема, чем
AK>> вентилятор.
ZK> Вот поэтому диски должны стоять в сервере и быть RAID-массивом с

подозреваю, что у тебя ровно нулевой опыт работы с такими серверами.
Поскольку оный слабо гармонирует с помойками на рабочих местах.
Так вот из моего опыта следует, что диски в сервер надо ставить
максимально дешевые из еще не совсем помойного (сейчас это все еще P-IDE,
к посленовогогода будут SATA), вместо RAID использовать software mirror,
а сэкономленные деньги потратить на покладание на полочку запасных дисков того
же сорта и бэкапы. Потому что цена scsi 36G и ide 200 примерно равна, как и
вероятность что оно йопнется. Более того, когда оно таки создаст подозрение
на вероятность йопа - ты их выдергиваешь, и продаешь за треть цены сотрудникам.
(то же - при апгрейде сервера).
А вот свалка из девяти скази-уродцев у нас в шкафу тенденции к рассасыванию
не имеет - фактически, выброшенные деньги.

anonymous
()

Насчет SATA vs. SCSI:

Интересная статейка: http://www.wdc.com/en/library/sata/2579-001097.pdf

Интересно было бы послушать авторитетные мнения по этому поводу, особенно пр поводу TCQ. Как-то это странно. Получается, SATA решает при помощи TCQ (в будущем и NCQ) присущую традиционному ATA проблему параллельного считывания с разных мест диска?

Die-Hard ★★★★★
()
Ответ на: комментарий от anonymous

2anonymous (*) (10.11.2004 23:27:01):
Диски надо ставить в сервер такие, чтоб они проработали 2-5 лет и потом еще живые отправились по остаточной стоимости сотрудникам или на помойку, пофиг. Ибо затраты на бесперебойную работу сервера 10 раз окупят затраты от простоя оного.
software mirror заместо RAID могут использовать только нищие, если учесть что сейчас 4х-канальный контроллер SATA RAID5 стоиит ~250$, hot-swap корзина на 5 SATA-дисков стоит нынче ~150$ и что позволит без проблем собрать RAID5 массив, емкостью ~0.6Tb всего за ~1000$, включая стоимость дисков. Только вот это практически гарантирует бесперебойную работу сервера, если конечно держать на полочке 1-2 резевных диска и не покупать всякий shit типа WD. :)
Впрочем если 0.6Tb мало, то вполне есть недорогие решения на SATA RAID5, емкостью до ~4Tb... Все что выше - уже либо самоделкины извраты, либо не SATA. :)

Irsi
()
Ответ на: комментарий от anonymous

Так вот из моего опыта следует, что диски в сервер надо ставить максимально дешевые из еще не совсем помойного (сейчас это все еще P-IDE, к посленовогогода будут SATA), вместо RAID использовать software mirror

Ага, что бы каждый раз операционку переустанавливать. 36Гб хватит что бы установить ОС и загнать их в РАИД5, отдать на сервер 40 штук баков, что бы туда ИДЕ засунуть?

anonymous
()
Ответ на: комментарий от Irsi

>Диски надо ставить в сервер такие, чтоб они проработали 2-5 лет и потом еще живые отправились по остаточной стоимости сотрудникам или на помойку, пофиг. Ибо затраты на бесперебойную работу сервера 10 раз окупят затраты от простоя оного.
Угу, а еще от сервера нужна производительность при большой нагрузке
(файлопомойки к серверам не отношу, туда можно все что угодно ставить, хоть флопповоды :-). Так вот, ставящему в БД сервер SATA-диски, надо конечности отрывать по самую ... шею.

anonymous
()
Ответ на: комментарий от anonymous

> Так вот, ставящему в БД сервер SATA-диски, надо конечности отрывать по самую ... шею.
А вот это сильно зависит от нагрузки на эту самую БД...:) Хотя конечно да - в общем случае здесь предпочтительней SCSI RAID...

Irsi
()
Ответ на: комментарий от anonymous

>Adaptec поддерживается в любой OS в полном объеме. Самый беспроблемный вариант. Ага... Этот беспроблемный вариант (29160) до сих пор отваливается по таймауту на дуальных атлонах в 2.6.x при хорошей нагрузке, если RAID софтвэрный...

anonymous
()

Человек пиарящий PATA в сервера и побольше бэкапа - безумный буратино. Утверждаю это как имевший опыт одновременной сборки, установки и поддержки серверов с Promise'ми и нормальными SCSI Adaptec'ами.
Ну начальство так решило. Давайте мол купим штуки три нормальных сервера задорого и штук 10 бюджетных решений с Promise'ами, они мол и RAID умеют и стоят недорого. Такое решение соблазнительное.
Суки, падлы, как я их ненавижу (Promise'ы), сколько винтов сдохло, сколько контроллеров сгорело за три года эксплуатации, сколько валится просто от перегрева, и вся эта ботва так и наровит забрать с собой всю ситсему с данными к праотцам.
В SCSI серверах за то же время сдох 1 (один) винт который был вынут из корзины и заменён новым без выключений и перезагрузок.
Так что каждый сам себе злобный буратино, я тоже три года назад был не против IDE, Promise и бюджетных RAID и так же лучезарно улыбаясь говорил друзьям что SCSI мёртв, зачем нам SCSI? Но сейчас я ударю каждого кто предложит мне поставить этот мусор в сервер. Спасибо, не первый раз замужем.

anonymous
()
Ответ на: комментарий от anonymous

Не качетсвенные RAID и не качественные винты это конечно проблема. Однако в случае качественного железа все далеко не так плохо.

Я не так давно гонял тесты MySQL на большом числе пользователей RAID10 (3WARE) 8 SATA 7200RPM vs RAID10 (LSI) 6 SCSI 15000

Преимущество в сторону SCSI было около 30% но стоило оно немеренно больше.

Далее если вы посмотрите что сейчас идет как NAS сервера то 90% это будет SATA - SCSI это хорошее дело - спонсорство отделов разработки соответствующих компаний при получении максимом выгоды из минимум денег они увы в жепе

Ах да касаемо очереди запросов - в SATA она есть это во первых. Во вторых умные операционки делают точно то же самое и в случае одного диска вполне успешно. Вот если RAID из многих дисков там OS не пооптимизирует.

anonymous
()
Ответ на: комментарий от anonymous

> Adaptec поддерживается в любой OS в полном объеме.

Иногда и не в полном. У них есть полупрограммные рэйды. Поддерживаются только родными закрытыми дровами. На открытых дровах рэйда нет - винты сами по себе.

anonymous
()
Ответ на: комментарий от anonymous

>> Я не так давно гонял тесты MySQL на большом числе пользователей
Что значит "большое" количество.
Гонял по селектам (какой селективности) или update.
Чё как маленькие......

ranckont
()
Ответ на: комментарий от ranckont

Не хотелось перегружать деталями.

Тест DBT2, по сути дела тот же TPC-C, 200warehouse (20GB размер бд) 20 клиентов.

anonymous
()
Ответ на: комментарий от anonymous

вчера поставил но новую тачку linux, там как раз raid scsi, будет заменён почтовый сервер, вот и посматрю как там производительность изменится :) а то на ide серваки уже вешаются.

abbath ★★
()
Ответ на: комментарий от anonymous

>> Adaptec поддерживается в любой OS в полном объеме. Самый беспроблемный вариант.

> Ага... Этот беспроблемный вариант (29160) до сих пор отваливается по таймауту на дуальных атлонах в 2.6.x при хорошей нагрузке, если RAID софтвэрный...

Боец, ты бредишь, похоже. Нечего валить на один-единственный нормальный компонент в системе все грехи. У меня аж волосы подмышками зашевелились после того, как ты описал свою ситуацию.

lapic
()
Ответ на: комментарий от FreeBSD

да. для фряхи с ее тормозной юфс без скази конечно никуда. согласен на все 100

anonymous
()

Cтатейка хорошая, но не хватает экономического обоснования :) в ходе которого выяснится, что сказя полюбому выгоднее

l-xoid ★★★★★
()
Ответ на: комментарий от l-xoid

Ну организуй нам ЭО, а мы посмеемся.

anonymous
()
Ответ на: комментарий от anonymous

ты это делал? ты похоже промайс только на картинках видел.

ss
()

http://linux.yyz.us/sata/sata-status.html#ich5

Справедливости ради, нужно заметить, что при выборе правильного железа, в том числе при обеспечении _качественного_ охлаждения дисков, под линуксом не все так плохо при жизни с SATA.

anonymous
()

Работал я со всем этим зоопарком (SATA, SCSI,PATA,FC). работа у меня такая :) Так вот, статья правильная, и выражает факты. SATA, до появления ОФИЦИАЛЬНО СТАНДАРТИЗИРОВОННОЙ очереди комманд - тот же PATA только в профиль... Со сказей сравнивать бесполезно, ввиду разный ниш применения, но одно могу сказать точно - деньги вложенные в дорогие диски (скази, фц), при условии ЦЕЛЕВОЙ эксплуатации окупаются сторицей. Да и по скорости сата диски даже в дорогих дисковых стойках уступают скази. не в разы конечно, но ощутимо. особенно на рандом рид :) хотя и тут все зависит от настроек массива, рейд контроллера и т.д.,но, опять же повторюсь - разница все равно в пользу скази. кстати в серверах цена считается не по стоимости железа, а по так достаточно сложной схеме выражаемой простым англицким выражением cost of ownership. так что в серверном рынке дешевое железо от дядюшки Ляо может оказатся дороже... такие пироги.

Amlin
()

Объясните мне, почему нельзя сделать TCQ(или его подобие) на уровне драйверов диска ? Пихать в контроллер не просто следующий блок в очереди, а тот, который ближе к текущему - никаких проблем нет.

alex73
()
Ответ на: комментарий от Irsi

2irsi

Ну я понимаю дети, ну да, в мире так много интресного, можно грузовики с легковушками посравнивать, но ты, "старый закаленный воин", коий уже 4 года тока служишь "мальчиком для битья" на ЛОР и все тебе "не почем", чего в песочницу подался??




ifconfig
()
Ответ на: комментарий от Irsi

> software mirror заместо RAID могут использовать только нищие, если учесть что сейчас 4х-канальный контроллер SATA RAID5 стоиит ~250$

какие есть ещё недостатки у софтверного рэйда по сравнению с аппаратным кроме меньшей производительности?

просто у меня есть сильное подозрение, что при выходе из строя аппаратного контроллера данные, что были в том рэйде уже не вернуть. софтверный рейд поднять должно быть проще.

производительность аппаратного рейда ограничена сверху параметрами самого контроллера и если он затыкается, то ничем ему уже не помочь. в случае же с программным можно просто проапгрейтить процессор, добавить памяти. в данном пункте я имею в виду аппаратные неSCSI рэйды, т.к. до SCSI-вых PC-юкам действительно не дотянуться.

XYAH
()
Ответ на: комментарий от Irsi

>сейчас 4х-канальный контроллер SATA RAID5 стоиит ~250$

Ирси, я вот сходил на nix.ru Controller LSI Logic MegaRAID SATA 150-4 (RTL) PCI64, SATA150, RAID 0/1/5/10, до 4 уст-в, Cache 64Mb $328

Так что не надо сказок.

motherfucker
()
Ответ на: комментарий от XYAH

>какие есть ещё недостатки у софтверного рэйда по сравнению с аппаратным кроме меньшей производительности?
Использовать CPU для разгребания того, чем должен заниматься HDD Controller можно позволить ТОЛЬКО на рабочих станциях.
хинт: если процу нечего делать, займем его RAID-5 :-)

anonymous
()
Ответ на: комментарий от anonymous

2anonymous (*) (10.11.2004 23:27:01)

не соглашусь... у меня с волосатых времён ещё дома 3 сказёвича стоят, 2 ибм и 1 сигейт по 9 гиг, ибм-ы в страйпе и сигейт был типа большой дискеты, так вот, оно живёт и не кашляет уже лет 5 или около этого, эти винты того года рождения когда они стоили под штуку зелени, а обычные IDE диски у меня почему-то больше 2х лет не живут, особенно вестерны, и хде тут равный шанс, что они иопнутся....??? только в том случае когда сервак со второго этажа упадёт? дык тут только бакуп спасёт, я видел в своей жизни только один навёрнутый сказёвич, он у меня как сувенир лежит, дык иронили его прямо на бетонный пол.... корзинка хотсвапа нахер разлетелась, а на нём ни царапины.... только не работает..;))

оч. неправ...

G_Luck
()
Ответ на: комментарий от G_Luck

>я видел в своей жизни только один навёрнутый сказёвич

Так мало живешь?

Приходи, покажу трупиков. btw, надо четко понимать что дохнут то винты одинаково. Вы просто посчитайте число идешных винтов в вашей конторе и сказевых, а потом поделите ;-)

motherfucker
()
Ответ на: комментарий от ifconfig

Вот странно, а чего все прицепились к Promise? У LSI есть отличное решение для 4 или 6 SATA дисков. Отлично работает RAID5 под Linux, быстро и с нормальным охлаждением этих дисков надежно. Диски WD.

anonymous
()
Ответ на: комментарий от XYAH

смею тебя успокоить. выход из строя аппаратного raid (в моем случае был raid10) и замена на аналогичный контроллер, не привела к потере данных (нормальные raid контроллеры сами определяют диски, т.е. ты их можешь хоть 20 раз перемешать, но работать все будет нормально. это проверено на scsi).
кстати, расскажи пожалуйста, сколько у тебя на raid мозгов стоит? 8м, 16м, 32м или 64м? а отложенная записть у тебя в софтварном raid есть?

ss
()
Ответ на: комментарий от Die-Hard

Есть вопрос : а почему в этой статье автор сравнивает sata-диски (rpm 15k) со scsi-дисками (rpm 10k) и безапелляционно делает вывод о преимцществах sata над всеми моделями scsi? Объясните, пожалуйста.

anonymous
()
Ответ на: комментарий от anonymous

Простите, я имею в виду ссылку с pdf.

anonymous
()
Ответ на: комментарий от anonymous

Достаточно зайти на сайт адаптека в раздел драйверы, особенно по ZCR контроллерам, и сразу становится понятным, что поддержка линукса у адаптека мягко говоря дохлая

anonymous
()
Ответ на: комментарий от motherfucker

а ты приходи ко мне в контору. я тебе покажу бааальшую кучу битых иде\сата хардов, и маааленькую кучу сказевых... причем последние чаще всего роняные... и статистику могу скинуть, по браку

Amlin
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.