LINUX.ORG.RU
ФорумAdmin

FS для сервера, что думает all?


0

0

subj, сервер с высоким трафиком (онлайн просмотр видео в основном), от 100000 до 1000000+ просмотров/загрузок в день, какую файловую систему посоветуете, и если не трудно - почему? Если это важно, то диски в основном WD Raptor 74Gb-150Gb, 10000rpm

Думаю перевести на ReiserFS, т.к. домашний комп с ней летает быстрее чем с ext3... Или может присматриваться к чему то другому типа JFS, XFS?

Заранее благодарю всех, выразивших свое мнение

★★

> 100000 до 1000000+ просмотров/загрузок в день

Предоставь выбор файловой системы профессионалу -- найми админа.

logIN
()

...и, кстати, спасибо за море порно ссылок с гостевой книги на твоей домашней странице.

logIN
()
Ответ на: комментарий от logIN

> Предоставь выбор файловой системы профессионалу -- найми админа.

сам учусь, поэтому и спрашиваю... сисадмин "настоящий" со временем появится )

ЗЫ домашняя страничка давно заброшена (уже лет пять как не просматривалась), поэтому и спама в гостевой было море :S

enby ★★
() автор топика

Зря ты это здесь спросил. Сейчас их все обругают по-чёрному, и у тебя не останется другого выборакроме fat32.

bugmaker ★★★★☆
()

Из личного опыта - когда на разделе с рейзером мало свободного места, фрагментация становится очень высокой, в то время как на xfs ее практически нет.

AiLr ★★
()
Ответ на: комментарий от AiLr

> Из личного опыта - когда на разделе с рейзером мало свободного места, фрагментация становится очень высокой, в то время как на xfs ее практически нет.

А как с производительностью? Я к ней тоже склоняюсь. Ее б еще научить буфер сбрасывать чаще (сразу записывать, а не держать в памяти), надеюсь для этого есть тулзы.

enby ★★
() автор топика

ext3 и не мучайся.

Упор делай не на файловую систему, а на RAID1+0. Или хотя бы контроллер SATA2, в котором есть NCQ.

Deleted
()

ext3 без вопросов. Ох сколько проблем мы имели со всякими jfs, xfs, reiserfs, эти фс нельзя ставить на продакш севра.

aspel
()

mkfs.ext3 -T largefile /dev/block_device

birdie ★★★★★
()
Ответ на: комментарий от birdie

> Буква n, случаем, в ваше nick'e не лишняя?

айайай - куда мысли направлены... здесь лишние "e" и "y"

enby ★★
() автор топика
Ответ на: комментарий от Deleted

+100

Главное это быстродействие дисковой подсистемы. И ext3 проверенная временем.

Ну и еще, если это в основном сисетма раздачи видео, то может ее все время держать в ro, и лишь изредка переводить в rw для записи фильма?

mky ★★★★★
()
Ответ на: комментарий от mky

> Ну и еще, если это в основном сисетма раздачи видео, то может ее все время держать в ro, и лишь изредка переводить в rw для записи фильма?

угу, примерно такая система будет, несколько больших хардов для хранения и раздачи, быстрые но маленькие - для аплоуда, конвертации и временного хранения, после чего, несколько раз в сутки с маленьких файлы будут синхроницированы на большие и опять смонтировано в ro

Значит, будем держать все в ext3

enby ★★
() автор топика
Ответ на: комментарий от logIN

Клево! порнуха рулит! вышлите если че есть интересного blogger.vrn.info@blogger.com

anonymous
()

ФС, конечно же, ext2/3. А вот raptor'ы в рейд - не самый лучший вариант :-\

Anoxemian ★★★★★
()
Ответ на: комментарий от anonymous

>Да ну в задницу этот рейзер, каждую неделю скрестив пальцы делать --rebuild-tree.

А я, вот, никогда в жизни ещё этот rebuild-tree не делал. За, наверное, около 20 машинолет :)

Зато на XFS на семь отрубаний света в течении полугода эксплуатайии на десктопной машине имел пять потерь файлов. После чего XFS с десктопа была снесена. Только на незагруженном серверочке ещё тормозит помаленьку...

KRoN73 ★★★★★
()
Ответ на: комментарий от AiLr

>Из личного опыта - когда на разделе с рейзером мало свободного места, фрагментация становится очень высокой, в то время как на xfs ее практически нет.

Из личного опыта - когда на разделе с XFS становится мало свободного места, чудовищно возрастает загрузка системы на интенсивных IO. Десяток раздач в rtorrent + десяток в mldonkey дают загрузку системы более пяти.

KRoN73 ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.