LINUX.ORG.RU
ФорумTalks

Фрагментация и скорость. Практические результаты.


0

0

Не поленился сегодня провести «дефрагментацию мувом» (tar cz в файл на другом разделе, потом rm -rf, потом tar xz). ReiserFS, Gentoo, на разных разделах изначально разнесены /var, /var/tmp, /home, /usr.

Загрузка системы до появления GUI.

До дефрагментации - 69 секунд. После - 59.

Для загрузки выигрыш невелик. Там, вообще, основное время checkfs занимает и nfsmount. А вот в остальном - интересно.

С момента введения логина до окончания загрузки Gnome.

До дефрагментации - 58 секунд. После дефрагментации - 36 секунд.

...

Запуск программ после загрузки стал происходить намного быстрее. Opera при первом запуске стартовала секунды за две против секунд 5..7 ранее. Firefox2 запускается примерно как и раньше. Basket грузится секунды за три против 7..8 секунд ранее. ezQuake грузится вообще едва за секунду (раньше - несколько секунд). Kazehakase грузится быстрее раза в полтора.

★★★★★

А жесткий диск какой? Зная тебя, можно предположить что-то "массивное" )

А на "ноутбучных" 5200 фрагментация особо заметна (

anonymous
()

...спринтер ты наш!!!

anonymous
()
Ответ на: комментарий от anonymous

>А на "ноутбучных" 5200 фрагментация особо заметна (

Не-а, опять же xfs. Парадокс - единственная фс с онлайн дефрагментатором, при этом нафиг не нужным. Раньше запускал его часто - паработает несколько секунд и всё. Ну нечего там дефрагментировать.

AiLr ★★
()
Ответ на: комментарий от AiLr

>Не-а, опять же xfs. Парадокс - единственная фс с онлайн дефрагментатором, при этом нафиг не нужным. Раньше запускал его часто - паработает несколько секунд и всё. Ну нечего там дефрагментировать.

+100

eR ★★★★★
()
Ответ на: комментарий от AiLr

> Не-а, опять же xfs. Парадокс - единственная фс с онлайн дефрагментатором, при этом нафиг не нужным. Раньше запускал его часто - паработает несколько секунд и всё. Ну нечего там дефрагментировать.

А чем ты занимаешься в GNU/Linux и в XFS?

P.S.: В какой версии ext девелы обещали дефрагментацию?

anonymous
()
Ответ на: комментарий от anonymous

>А жесткий диск какой?

250Г, SATA. Основная часть - под виндой, для игр. Расклад такой:

$ df -hl|grep ^/dev/sda
/dev/sda9              13G  3,0G  9,7G  24% /
/dev/sda8             4,0G  667M  3,4G  17% /var
/dev/sda2             6,4G  3,0G  3,5G  46% /var/tmp
/dev/sda10             20G   17G  3,5G  83% /home
/dev/sda11             17G   12G  5,4G  68% /usr
/dev/sda1             170G  148G   23G  87% /mnt/windows

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от eR

вот давно все хотел тему дефрагментации поднять...

прошу просвятить и не стебаться (в этим многих отпугиваете)

почему xfs, "не нуждается в дефрагментации" ?
а остальные как?

я вон у себя под вендой регулярно дефрагмент делаю. весьма помогает.

dk-
()
Ответ на: комментарий от AiLr

>Не-а, опять же xfs. Парадокс - единственная фс с онлайн дефрагментатором, при этом нафиг не нужным.

У меня XFS на домашнем сервере стоит, но на его производительность я не смотрю. А с десктопа прешлось сносить :) Так что по ней ничего в плане быстродействия сказать не могу.

Боюсь, что в общем случае это пофиг. Ибо тут влияет не фрагментация файлов, а фрагментация свободного пространства. Когда толстый бинарник при запуске дёргаеи .so-шки со всей поверхности диска, то весь пыл винчестера уходит в болтание головкой. А в пике это снижение общей эффективности на порядок-полтора.

KRoN73 ★★★★★
() автор топика

Отсутствие необходимости фрагментации в ext3 и reiserfs достигается путём разбрасывания файлов по всему жёсткому диску, а не записи в конец предыдущего файла. С одной стороны это хорошо: фрагментация файлов стремится к нулю. Но с другой — плохо: появляется фрагментация директорий. Если у программы в папке конфигов лежит много файлов (kde, гном), то для того, чтобы прочитать их всех при запуске, придётся облазить весь жёсткий диск.

RommeDeSerieux
()
Ответ на: комментарий от anonymous

>Попробуй сравнить zfs и что-нибудь аналогичное под линаксом?

Я не такой фанатик :D Просто сегодня достали тормоза (систему на этот винт переносил ещё чуть ли не прошлым летом), решил провести дефрагментацию переносом файлов (впервые на том же HDD, раньше обычно просто винт себе апгрейдил раньше) и до кучи - сделать немного замеров :) Чтобы были не только личные ощущения, но и цифры.

А ставить zfs и плотно жить на ней хотя бы полгода - это не для меня :D

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от anonymous

>Ты скорость его назови?

SAMSUNG SP2504C

Трансфер с дисков 73Мб/сек, сейчас - только 60, т.к. tracker резво индексирует виндовый диск через ntfs3g :)

Сик по паспорту - 8.9ms

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от KRoN73

по всему диску пишет говорите...
хм... ну ведь рано или поздно (если мало свободного места)
но файлы имеют свойства стираться, и заменяться другими (или изменять размер),
рано или поздно Обязательно возникнет ситуация, когда простора не хватит, чтоб файл целиком записать. особенно если большие файлы есть.

что тогда?

под венду одну тулузу для дефрагментации нашел
она, дефрагментируя, учитывает типа файла, и частоты к нему:
- обращений
- изменений
и располагает их в соттв. с этим.
в результате на глаз ускоряется запуск тяжелых софтин

dk-
()
Ответ на: комментарий от RommeDeSerieux

>Но с другой — плохо: появляется фрагментация директорий. Если у программы в папке конфигов лежит много файлов (kde, гном), то для того, чтобы прочитать их всех при запуске, придётся облазить весь жёсткий диск.

Собственно, эксперимент с дефрагментацией родился не сам по себе, а после игры со strace opera | grep open\( :) Я охренел, как оно шарится по диску... Следствием был перенос кеша Оперы на squid домашнего сервера, прекращение её использования в качестве почтовика, чистка её внутреннего кеша иконок сайтов и т.п. Результат впечатляет. Загрузка за 2 секунды с холодного старта и мгновенная загрузка интернет-страниц :D Фокс тоже немного ускорился после аналогичных процедур, правда, запускается всё равно не шустро.

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от dk-

> файлы имеют свойства стираться

Файлы не стираются.

> под венду одну тулузу для дефрагментации нашел

Через live-cd ты сделаешь ~1% фрагментацию.

anonymous
()
Ответ на: комментарий от dk-

>что тогда?

Тогда - опять дефрагментация :)

>под венду одну тулузу для дефрагментации нашел

Раньше это делал обычный Norton Speedisk. Сегодня это делает PerfectDisk. Для игрушек с подгрузкой данных в процессе игры (а таких сегодня большинство) игра без дефрагментации не особенно комфортна.

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от KRoN73

> Для игрушек с подгрузкой данных в процессе игры (а таких сегодня большинство) игра без дефрагментации не особенно комфортна.

Использовать RAID религия не позволяет?

anonymous
()
Ответ на: комментарий от anonymous

>Да.. Руки пачкать об гнусмас..

Самсунги (серия SpinPoint) - лучшие винты последних лет пяти-шести. Быстрые, тихие, холодные, надёжные, недорогие.

Тоже на них внимания не обращал, пока знакомые ремонтники в которе по восстановлению HDD не сказали, что меньше всего им Самсунгов несут :D

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от anonymous

>А кэш оперы двинуть в tmpfs религия не позволяет?

Можно и так, но мне сейчас скорости хватает с избытком :D ЛОР грузится просто мгновенно. Жмёшь кнопку ответа или ссылку - время реакции от десятой доли секунды до неуловимой :D

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от KRoN73

> Быстрые, тихие, холодные, надёжные, недорогие.

> тихие, холодные, надёжные, недорогие.

> холодные, надёжные, недорогие.

> надёжные, недорогие.

> недорогие.

Недорогие

anonymous
()
Ответ на: комментарий от anonymous

>Использовать RAID религия не позволяет?

RAID не сильно спасёт от лишних seek'ов.

Кроме того, зачем мне на десктопе больше одного HDD?

Наконец, винда на RAID'е - это лишний геморрой.

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от KRoN73

> Файлы не стираются.

уточню: запись о файле удаляется из каталога, место где был файл - становится "пустым местом", и тудаможно записать другой.

в игры я не играю. есть пара софтин к-е с шаблонами и прочей требухой к-ю им надо шевелить, весят по 10гб. вот для них кретично поменьше шуршать головками

dk-
()
Ответ на: комментарий от KRoN73

> Наконец, винда на RAID'е - это лишний геморрой.

Это как? Я правда не знаю ) У меня в молодость было все хорошо

anonymous
()
Ответ на: комментарий от dk-

> весят по 10гб. вот для них кретично поменьше шуршать головками

Используй для дефрагментации live-cd!

anonymous
()

Интересный прикол. На eeePC Firefox работает примерно раз в 10 быстрее (загрузка, переходы по страницам), чем на Cloudbook. (Ссылку на YT в параллельном топике кидал). Народ тут у меня на форуме не поверил. Дал им расчёт. Немного модифицирую его под наши условия:

На момент теста у меня в кеше браузера было 4560файлов суммарным объёмом 90Мб. Средний размер файла в кеше выходит - 20кБ.

Предположим, что нам нужно считать 20 файлов в двух вариантах, разнесённом по всему HDD и - если они лежат подряд и читаются без потерь на перемещения головки.

HDD возьмём мой, 8.9ms average seek, 70Мб/с трансфер.

Фрагментированный вариант. 20 позиционирований по 8.9ms + 20 чтений по 20кБ при скорости 70Мб/с = 20*8.9 + 1000*20*20/(70*1024) = 165ms.

Для нефрагментированного чтения одно позиционирование плюс 20 чтений = 13.5ms.

Итого соотношение 1:12 в пользу монолитного расположения файлов.

(Для общей информации - в случае Cloudbook vs eeePC соотношение вышло 1:27, у Cloudbook'а и seek ужасный, и transfer малый).

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от anonymous

>Причем здесь скорость? Это просто логично, не находишь?

Нет. _Логично_ в общем случае как раз постоянное хранение кеша. Чтобы не дёргать лишний раз сеть :)

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от KRoN73

> На момент теста у меня в кеше браузера было 4560файлов суммарным объёмом 90Мб. Средний размер файла в кеше выходит - 20кБ.

У тебя безлимит? Используй tmpfs для кэша.

> eeePC

Тем более tmpfs.

anonymous
()

Могу подтвердить собственно как (заключение тут, конечно, умозрительное, но всё же). Смотрю время компиляции больших пакетов с помощью genlop. Так вот чем больше прошло времени от установки системы (скомпилированной на другой машине и перенесённой tar' ом), тем дольше идёт компиляция. Конечно, обычно при изменении версии пакета оно может и должно компилироваться дольше за счёт наложения дополнительных патчей, увеличения размера исходников и т.д. Но вот например, для одной и той же версии gcc (с одними и теми же USE-флагами, просто revdep-rebuild требовался):

[octy@octylt mmm]$ genlop -t gcc
* sys-devel/gcc

Sun Feb 24 22:00:10 2008 >>> sys-devel/gcc-4.1.2
merge time: 1 hour, 8 minutes and 59 seconds.

Tue Feb 26 20:54:10 2008 >>> sys-devel/gcc-4.1.2
merge time: 1 hour, 12 minutes and 18 seconds.

Mon Mar 17 11:51:07 2008 >>> sys-devel/gcc-4.1.2
merge time: 1 hour, 19 minutes and 27 seconds.

И то же самое для большинства пакетов.
Да, система ext3 с noatime.

octy ★★
()
Ответ на: комментарий от KRoN73

> Чтобы не дёргать лишний раз сеть

А как браузер изнает о несоответствии локального кэша и удаленного контента ты не знаешь? Сеть все равно дергается.

anonymous
()
Ответ на: комментарий от anonymous

>У тебя безлимит?

Да. Но речь не об этом :)

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от octy

> Смотрю время компиляции больших пакетов с помощью genlop.

Сколько у тебя оперативной памяти? genlop не позволяет компилировать сплоет^W большие пакеты в tmpfs?

anonymous
()
Ответ на: комментарий от anonymous

>А как браузер изнает о несоответствии локального кэша и удаленного контента ты не знаешь? Сеть все равно дергается.

Дёрнуть сеть для IMS и для закачивания 20кБ файла - это 20-кратная разница :)

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от anonymous

> Используй для дефрагментации live-cd!

не понимаю о чем речь)
зачем?)
у меня из под самой венды нормально дефрагментируется раз в недельку.

от софтовых рейдов отказался. как от неэффективных.
(ну а былиб деньги на железные - купил бы скази диски)

dk-
()
Ответ на: комментарий от anonymous

>genlop не позволяет компилировать сплоет^W большие пакеты в tmpfs?

genlop не компилирует, он анализирует логи компиляции.

Компиляция в tmpfs прекрасно возможна, пока места хватает. OpenOffice2 при компиляции иногда до 5Гб хочет :D

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от KRoN73

> Дёрнуть сеть для IMS и для закачивания 20кБ файла - это 20-кратная разница :)

А отключить графику в своем браузере - _качественная_, а не количественная разница

anonymous
()
Ответ на: комментарий от KRoN73

> OpenOffice2 при компиляции иногда до 5Гб хочет

Честно, скажи чем именно тебя не устраивает бинарный пакет (как оно у вас называется?). Отстутствием оптимизации до ~5% процентов?

anonymous
()
Ответ на: комментарий от KRoN73

не много ни в тему. Хотелось бы узнать про ваши home serverы. какие службы подняты, какие роли он выполняет. p.s. спасибо всем кто ответит

anonymous
()
Ответ на: комментарий от anonymous

>Да? О каком RAID, на твой взгляд, идет речь?

RAID-0 конечно

anonymous
()
Ответ на: комментарий от dk-

> зачем?) у меня из под самой венды нормально дефрагментируется раз в недельку.

Честно скажи - ты купил этот дефрагментатор? Судя по тому, что ты даже не помнишь названия - нет. Прости, я уважаю закон.

> от софтовых рейдов

Я таких не знаю.

> (ну а былиб деньги на железные - купил бы скази диски)

А денег на PhotoShop у тебя же есть?

anonymous
()
Ответ на: комментарий от anonymous

>Честно, скажи чем именно тебя не устраивает бинарный пакет (как оно у вас называется?). Отстутствием оптимизации до ~5% процентов?

Нет, шрифты он рендерит криво.

KRoN73 ★★★★★
() автор топика
Ответ на: комментарий от anonymous

Вопрос о фрагментации, а не какие бинарные пакеты его устраивают, не сьезжай с темы

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.