LINUX.ORG.RU

FSF расставила приоритеты: даешь свободные видеодрайверы с 3D!


0

0

Сильная нехватка полноценных видеодрайверов с поддержкой 3D по сей день является одним из слабых мест свободного ПО, вызывая ехидный смех со стороны пользователей альтернативной ОС. Тем не менее, многие дистрибьюторы предлагают своим пользователям проприетарные драйвера от nVidia и ATi, которые так или иначе удовлетворяют нужды последних, однако проблема от этого не исчезает.

На текущий момент существуют два наиболее ярких проекта разработки открытых видеодрайверов для популярных видеокарт - Noveau и Avivo. Free Software Foundation задала высший приоритет проектам свободных видеодрайверов с поддержкой 3D. Это должно помочь в привлечении новых разработчиков и дополнительного финансирования. Jerome Glisse, координатор проекта Avivo, предполагает, что некоторую поддержку 3D в Avivo мы сможем получить уже к новому году.

Информация о других высокоприоритетных задачах (в т.ч. Gnash, FreeBios, DotGNU (замена .NET)) тут: http://www.fsf.org/campaigns/priority...

>>> Статья-интервью с Jerome Glisse

Ответ на: комментарий от Unnamed_Hero

Unnamed_Hero> Идиоты.

На себя посмотри.

Unnamed_Hero> Драйвера раздаются бесплатно - и нормально, работать можно.

Ага, только криво работают (я про AMD/ATI) и работать почти нельзя.

Unnamed_Hero> Зато в других областях проблем больше...

Например? (да, проблемы есть. Но нужна конкретика)

Unnamed_Hero> А это похоже на бодание с ветряными мельницами. Лишь бы спонсировали чтоль?

FSF и коммерческие конторы деньги просто так на ветер бросать не хотят. И ведь спонсируют. Они не дураки. А ты, похоже, считаешь себя намного умнее.

anonymous> Как? Поставить программеров к стенке или принудить шантажом, чтобы они отказались получать прибыль с каждой компии и стали надеяться на то, что поддержка тупых юзеров, которы не знают какие кнопки нажимать, принесет хотя бы десяткую часть прибыли, которую приносит продажа коробок?

Ну и? OpenOffice, к примеру, зарабатывает ведь. Да и никто не запрещает делать несвободные программы. А вот GIMP и Ananas развиваются. GIMP уже может быть конкурентом фотошопа в определённых областях. Ananas ещё в развитии. А вот у проприетарщиков такие проблемы есть как трудоёмкость при переносимости. Вывод: почва создана.

anonymous>А если "да"? Столько лет работали на силиконовских рабочих станциях, целиком закрытых и проприетарных. Был отличный процессор MIPS, 64 битная IRIX, закрытый софт. И прекрасно люди работали. А сейчас появилось "прозревшее" поколение next и осознало, что оказывается так работать просто невозможно, фанаты мля.

Там готовое комплексное решение предлагалось и было другое время. Умник, млин. Кстати. Вот раньше это было. А на чём сейчас эти задачи решают? ;) Правильно - под линуксом :)

anonymous> Только существует множество приложений, где требуется использовать видеокарту на полную катушку, чего ни один открытый драйвер предоставить никогда не сможет

Докажи, что никогда.

anonymous> gimp у них не хуже фотошопа

Именно так. И это факт. Но смотря чем лучше ;) Интерфейсом он гораздо лучше, чем фотошоп. Некоторые возможности GIMP'а напрочь отсутствуют в фотошопе.

anonymous> И SGI докатилась до грани банкротства как раз после того, как с линаксом связалась, от былого ее величия и следа не осталось.

Если бы не связалась, раньше сдохла бы. А так хоть выжила. Меньше затрат на разработку приходится вбухивать.

kondor> Ну да, FSC (Free Software Community) без этой бяки -- не FSC :). Ага, очень важный приоритет.

Когда быдлокодеры спросят, есть ли у нас дотнет, тогда и посмотрим, как ты без этой бяки будешь крутиться. Быдлокодерам сейчас дотнет ох как нужен. Или как ты на линукс будешь всех пересаживать, который в принципе лучше венды?

xargs> 3Д оно вообще для чего нужно?

Не волнуйся - не для емакса :) Или Beryl for Emacs?.. =)

anonymous> Как работать с видеокартой нужно узнавать не из спеков, а из материалов, которые предоставляются разработчику. И у разработчиков эти материалы имеются, поскольку им нужно работать, а не заниматься фанатизмом.

О каких разработчиках идёт речь? Так почему тогда всем желающим разрабатывать материалы не дают? Это ведь было бы на руку тем же nVidia и ATI - они не будут тратиться на разработку дров и отлавливание багов. И где тут фанатизм? Вот, например, я хочу, чтобы видеокарта работала на SPARC. А фиг! Сраные проприетарщики не дали мне дрова и даже спецификации не дали! И что? Похоронить целую архитектуру, которая в принципе лучше x86?

anonymous> линаксу до IRIX'a как до Луны пешком. IRIX был 64 битным с файловой системой xfs, когда линупс работал только на 386 с AT-винчестерами и файловой системой, слизанной из Minix

Вот только давай без некрофилии. IRIX труп. Linux жив. И у него сейчас и XFS есть, и многое другое.

anonymous> >>И не возникнет - мозги атрофировались от винды, не понимают, что закрытые драйвера прямо диктуют, к примеру, выбор ОС, лишая свободы выбора.

>Да, особенно закрытые драйверы под линукс:)

Именно! Некоторые не могут себе фряху поставить, чтобы полноценно с 3D работать. Это пример.

Quasar ★★★★★
()
Ответ на: комментарий от Sun-ch

>когда добьетесь на 200MHz ppc процессоре обработки 2млн realtime событий в секунду

Меня мучают смутные сомнения. 2 млн. - это 500 нс на событие, а теперь вопрос сколько инструкций, включая прерывание и обращения к памяти, спосбен выполнить 200 мгц ppc за 500 нс?

Sun-ch
()
Ответ на: комментарий от Sun-ch

>> когда добьетесь на 200MHz ppc процессоре обработки 2млн realtime событий в секунду

> Меня мучают смутные сомнения. 2 млн. - это 500 нс на событие

здесь 200 тиков на событие, если всё в кеше, а обработчики небольшие, то вполне можно

vadiml ★★★★★
()
Ответ на: комментарий от vadiml

200 мгц - 5 нс, 100 тактов на событие. Сколько инструкций можно выполнить за 100 тактов? Там ведь еще прерывание должно быть и данные поступают из внешнего источника?

Sun-ch
()
Ответ на: комментарий от Sun-ch

> Тогда вы получите 4 килобакса - зарплату проститутки из зассанаго пригорода Чикаго
Вы что в Чикаго живете? Уверен на 99% что нет. Какой смысл здесь про зарплату в сев. америке писать?

От 4 килобакса!! в Индии и России и это начальный уровень... Специалист нужного уровня на меньшее здесь не пойдет... разве что тот который себе цены не знает.

В USA обычно не менее $150K в год...

anonymous
()
Ответ на: комментарий от Sun-ch

>200 мгц - 5 нс, 100 тактов на событие. Сколько инструкций можно выполнить за 100 тактов? Там ведь еще прерывание должно быть и данные поступают из внешнего источника?

Конечно, и каждое событие обработать надо и данные считать подготовить записать, и ошибки проверить и workaround аппаратных багов сделать. И память там не 32bit за такт работает а помедленнее. Так что вы правильно поняли что есть трудности и это не легко было осуществить.

Но проблемма решена и в Infeneon не жалуются.

anonymous
()
Ответ на: комментарий от DNA_Seq

> вместо анизотропной фильтрации использовался суррогат ввиде брилинейной

Небыло такого никогда. Читаем ман про анизотропную фильтрацию. Да, на 8500-ом радике при включении анизотропной форсировалась билинейная, а не трилинейная (как на 9500 и дальше), да и сам алгоритм посредственно работал на некоторых углах. Честной и быстрой анизотропной фильтрацией из всех карт обладает ныне только GF8800. У GF4 была честная, только вот она давала падение скорости очень сильное. С 5-ой и по 7-ую серии включительно использовался алгоритм похожий на АТишный - т.е. тоже были проблемные углы (хоть и менее выраженные), тоже делалась она не по честному.

Civil
()
Ответ на: комментарий от Sun-ch

>Меня мучают смутные сомнения. 2 млн. - это 500 нс на событие, а теперь вопрос сколько инструкций, включая прерывание и обращения к памяти, спосбен выполнить 200 мгц ppc за 500 нс? использовалось ядро 405fx второй ревизии четвертого Virtex.

Если бы все помещалось в кэш и не было бы переферии то все было бы прекрасно =>100 инструкций на события минус пенальти в 1-2 такта на каждый неверно предсказанный условный переход.

Но правда жизни оказалась печальнее до 28 тактов на одиночные чтения переферии, 18 тактов на запись, 3-8 тактов на доступ к памяти. В первоначальном варианте HW все было совсем плохо, буржуи такое в железе нагородили что просто ужас... Хорошо что в команду на месяц толкового Verilog дизайнера наняли и мы с ним 80% Bottle Neck убрали, но к сожелению начальство довольно упертое было не удалось все по человечески доделать. А ведь можно было бы в десять раз все ускорить... Но тут уже совсем другая архитектура была бы... Где CPU бы просто бамбук курил...

anonymous
()
Ответ на: комментарий от user12

> Откуда вы взяли эти 5 процентов. С неба? Скомпиленная из исходников программа работает ощутимо быстрее обычной, раза в 1,5.

Да, с неба, как и эти ощущения про полтора раза. Собранный из исходников firefox работает ощутимо медленнее бинарной сборки. Убунта 7.04 собранная как и последний дебиан под i486 летает ощутимо быстрее, чем Gentoo собранный под -march=prescott. Это все ощущения... Собранный на машине с Pentium II openssl с -march=pentium2 показал на speed практически такие же результаты, как и собранный бинарный пакет Debian с -march=i486 (там вроде еще есть -mtune=i686).

> Зачем же компилить openoffice?

Да ради прикола, чтобы показать преимущества сборки.

> Выполнение таких операций предполагает вменяемость. Можно теоретически и опенофис. В свободное время :)

О том и речь, что у некоторых проявляется навязчивая идея - перекомпилировать все что движется, даже ping, telnet и traceroute под SSE3. ))

> То, что я чаще всего видел под виндой это бинарные программы, скомпиленные под 386 процессор в VS6. Такая программа не будет летать на современном проце, если ее не оптимизировать и не будет использовать все возможности техники.

Почему это не будет? Современный процессор сам внутренне перемалывает код в микрооперации и оптимизирует их - branch prediction, speculative execution, register renaming и т.д. Разница по набору целочисленных и FPU инструкций между i386+i387 и core duo небольшая. Ощутимый прирост будет лишь при использовании SIMD-инструкций, но компиляторы, кроме разве что icc, не настолько умны, чтобы автоматически задействовать SIMD. В том же gcc автовекторизация(-ftree-vectorize) появилась совсем недавно и серьезно глючила(невыровненные адреса передаваемые movapd). Наивным открою глаза: при включении -sse -mmx или -march=nocona не появляется ни одной SSE или MMX инструкции - компилятор просто не использует SIMD команды и XMM/MM регистры! До тех пор пока программист явно не использует специальные gcc-шные векторные расширения функции - в противном случае пользы от SSE и MMX ровным счетом никакой...

anonymous
()
Ответ на: комментарий от user12

> Какой хрен вам тогда процессор Atlon или P4.

Ну уж точно не для того он был задуман, чтобы на нем гонять emerge world. Предлагаешь использовать Pentium 200?

> На AMD виста, например, вообще работает значтительно медленнее linux'а.

И что бы это значило? То, что виста собрана с -march=i386, а линукс - с -march=i686, а не из-за неэффективности ли кода висты как таковой и внутреннего DRM-ового шифрования? )))

> Нет. Например настройка linux для работы на ноуте или старом компе

Что, штатное бинарное ядро не заработает на ноуте или старом ПК без плясок с бубном?

> наложение разичных полезных патчей, позволяющих соответствующим образом настроить софт под себя.

Какая польза от "полезных патчей", позволяющих "настроить софт по себя". Некоторые тут нативно полагают, что установить ОС на ноутбук и настроить программы можно и без влезания в исходники. Они неправы?

> Не сделать такого с бинарным софтом.

А нужно ли?

> Там получаешь то, что создано разработчиком со всеми глюками и неудобствами

Поражаюсь вашему профессионализму, так глубоко вскрыть и технически грамотно описать суть проблемы! )))

> лишними функциями(которые, кстати, в случае компиляции из исходников можно легко отключить).

Чем вас беспокоят лишние функции? А вас не беспокоит, что даже при более тонкой сборке есть неиспользуемые ветви кода и невызываемые функции?

> Получаешь то, что тебе нужно. Иногда бывает полезно.

Ну я вот не понимаю ради чего тратить часы компиляции только ради того, чтобы не было лишних функций (сейчас дишние а завтра может уже и не лишние) и сэкономить ну даже сотен мегабайт на 300-гиговом винте, зато забить distfile пятью гигабайтами исходников, каждый из которых весит гораздо больше, чем соотв-щий бинарный пакет. В чем польза-то?

> И кроме того, в репозитарии существуют часто пакеты в формате srpm. Они компилятся автоматически при установке. Установка из исходников занимает несколько минут в среднем.

apt-get upgrade в среднем длится несколько минут. emerge -u world в среднем длится до часа, если обновляется glibc или кде - то до суток. Очевидной пользы мало, зато есть полно лишних проблем на этапе сборки. Debian ставится за полчаса-час. Gentoo - от суток до недели.

anonymous
()
Ответ на: комментарий от Sun-ch

>И за сколько инструкций вы это ухитряетесь сделать? Конкретную цифру можно назвать?

Сейчас точно не помню, чтото около 60 в самой длинной по инструкциям ветке кода было. По тикам вроде около 82 +/- 2. но это другая ветка.

Еще 11.9% запас по времени был. Те на 31MHz входных/выходных данных стабильно работало.

цикл pollinga событий (ибо нафига 9 тактов на вызов прерывания тратить зря) состоял из 2 инструкций или из 4 или из 6 в зависимости от прошивки Virtex и опций сборки.

anonymous
()
Ответ на: комментарий от Sun-ch

>Дык, что же дядя, получается, что про обработку 2 млн. событий на 200 мгц ppc ты нам наврал?

Хочешь расстаться с лишними бабками? Я не против :)

anonymous
()
Ответ на: комментарий от anonymous

>> 3Д оно вообще для чего нужно?

>Во-во я о том же. Тут вон некоторые представители поколения пепси фанаты берила(или висты?) считают, что без 3Д на компьютере работать невозможно. =)))

Кому не нужно 3д довольствуются интегрированными видеочипами. Если куплена нормальная карта, хочется использовать ее возможности.

madcore ★★★★★
()
Ответ на: комментарий от anonymous

> Насколько процентов медленнее? Пальцем в небо и я могу ткнуть. Скорость отрисовки графики зависит от производительности 2D/3D процессора, а не от скорости драйвера.

Дадад. Именно поэтому у меня nv в 2D работал заметно быстрее nvidia.

AngryElf ★★★★★
()
Ответ на: комментарий от anonymous

>Теперь по теме: (цитата из ламерской книжки) ни ATI, ни nVidia в здравом уме полные спецификации никогда не откроют. Ибо этим могут воспользоваться их конкуренты.

Почему? Если ATI и nVidia договорятся открыть дрова одновременно, то это им пойдёт только на пользу!

Драйверы для оборудования должен писать производитель, а не кучка фанатиков, а написать полнофункциональный драйвер без досконального знания внутреннего устройства железки - по определению нельзя.

А если криворукий производитель не может написать нормальный драйвер, или видеокарта им уже не поддерживается?

> А для Linux разве есть для чего применить топовые графические возможности?

Конечно! К примеру в основном все профессионалы в 3D анимации работают именно Linux.

>К слову, под виндой те же драйверы Ati работают отлично, стало быть так нужен Ati этот линукс, раз дровами под него занимаются неграмотные индусы

А нормальным пользователям разве нужен маздай? Да и на ATI многие из них положили.

Rodegast ★★★★★
()
Ответ на: комментарий от anonymous

> А почему у меня нет с ними проблем?

По тому что тебе просто повезло.

>Какие плюсы несет свободное ПО простому пользователю, которому нет дела до лицензий, религиозного фанатизма,программирования и компьютеров вообще - тоже вопрос открытый

Нет вопрос другой: если пользователю не дочево нет дела зачем ему вобше нежен компьютер???

>Что ты предлагаешь? Переписать закрытые 1c, фотошоп и автокад с файнридером?

Когда вендикап настанет, ничего переписывать не придётся т.к. разработчик, не только всё откроет, но и перепишет.

>ИМХО ничего в этом плане не изменится никогда. Кто писал типовой закрытый профессиональный софт, трудозатраты на которой исчисляются десятками человеколет, тот так и будет продавать коробки с закрытым ПО и это естественно, потому что невозможно заработать на поддержке нормально работающего _типового_ решения, которое работает у юзера без всяких костылей, подпорок и шаманства "из коробки", после нажатия пары кнопок Next, без всякой поддержки.

Это вам только так кажется! Открытые проги уже теснят закрытые и ставят их перед выбором: "Или открыться или умереть" как раз этот процесс и называется вендикап.

> gimp у них не хуже фотошопа, а blender ничем не хуже Maya

А разве хуже? Жду обоснования!

Rodegast ★★★★★
()
Ответ на: комментарий от Rodegast

>Какие плюсы несет свободное ПО простому пользователю, которому нет дела до лицензий, религиозного фанатизма,программирования и компьютеров вообще - тоже вопрос открытый

И я свои пять копеек вставлю ... Я простой пользователь! И свободное ПО принесло мне здоровый сон. После очередного общения с микрософт, когда я им сказал, что у меня на предприятии Линукс, они отстали. А у меня таки действительно Линукс, и все работает, а с хорошими драйверами будет работать еще лучше. Открыте драйвера для Radeona, которые x11-drm, например лучше, чем закрытые от AMD/ATI. А собранная из исходников Гента работает на-а-а-а-а-а-много лучше, чем SUSE или Федора, или Альт. Это я все на своей шкуре перепробовал.

anonymous_pro
()
Ответ на: комментарий от anonymous

>линаксу до IRIX'a как до Луны пешком. IRIX был 64 битным с файловой системой xfs, когда линупс работал только на 386 с AT-винчестерами и файловой системой, слизанной из Minix

Если я правильно понял, то Сэр клоун утверждает что Linux не 64 битный и не может работать с xfs?

>Судя по Вашим словам, к "хорошему" Вы причисляете SPARC и Linux, однако слишком уж много грамотных людей с Вами не согласятся.

И ктоже с этим не согласен? Я таких ещё не видел(я имею в виду действительно грамотных людей).

Rodegast ★★★★★
()

>Какие плюсы несет свободное ПО простому пользователю, которому нет дела до лицензий, религиозного фанатизма,программирования и компьютеров вообще - тоже вопрос открытый

Да к стати свободные драва способны открыть доп. функции намерено не задействованные производителем, пример тут: http://www.nvworld.ru/docs/sq.html

Rodegast ★★★★★
()
Ответ на: комментарий от anonymous

Ммм, я не был бы столь оптимистичен. Из того что я сам видел, Ati-шные дрова под виндой сваливались от легкого дуновения, а прилагающийся к ним Control-Center, весящий чуть не 200 мегов и требующий то ли 2 то ли все 3 версии .Net-a вообще глючил по-черному.

naa
()

добавлю свои пять копеек, год назад промудохался несколько часов с закрытым драйвером написанным криворукими программистами ADLINK'а, чьи шелезяки PCI7200 у нас используются для чтения, короче эти редиски при аллокации памяти под DMA не проверяют, что память выделена ($#%*&!!!), в результате кернел паник при загрузке драйвера. Через гугл по матюкам ядра просёк, что трабл в малом размере IO space, вылечил увеличением размера IO space через загрузочный параметр ядру, если бы у меня был не линукс, не знаю сколько бы я мудохался и с каким результатом, драйверов никогда не писал, но за несколько часов самостоятельно разобрался кто виноват и что делать, понял две вещи, первое: открытость линукса и большое сообщество его разработчиков это громадный плюс; второе: бинарные драйвера - зло.

Ещё один тип шелезяки - интерфейс бит3 к вме-шной корзине, драйвера от производителя были только под 2.4, шелезяка довольно древняя, нашёл открытые самописные драйвера одного японца и без проблем скомпилировал под 2.6 и загрузил. Осталась только одна проблема - прерывания ловятся только когда APIC в биосе отключен (и соответственно двухядерный Pentium D smp-ядро видит как одноядерный). Причём родные драйвера на двухядерном проце не проверялись, возможно, у них та же проблема.

А кто-то ещё спрашивает зачем открытые драйвера, если вам комп нужен как печатная машинка/игральная приставка/смотрелка порносайтов, это не значит, что все такие...

filin ★★
()

Даёшь!!!!!!!!!!!!!!!!

anonymous
()
Ответ на: комментарий от anonymous

>Собранный из исходников firefox работает ощутимо медленнее бинарной сборки.

Все зависит от того, как собирать. И на чем сравнивать. Размер кэша, частота шины, настройки программы, фрагментация раздела -это все тоже влияет на производительность.

>Убунта 7.04 собранная как и последний дебиан под i486 летает ощутимо быстрее, чем Gentoo собранный под -march=prescott. Это все ощущения...

Неграмотно говорить, что одно быстрее другого. Можно сравнивать только скорость выполнения аналогичных отдельных операций сравниваемых программ. Тем более нельзя сравнивать по пригципу быстро-медленно дистрибутивы. Это вообще по-диллетански и непонимание того, что сравниваешь.

> То, что я чаще всего видел под виндой это бинарные программы, скомпиленные под 386 процессор в VS6. Такая программа не будет летать на современном проце, если ее не оптимизировать и не будет использовать все возможности техники. >Почему это не будет? Современный процессор сам внутренне перемалывает код в микрооперации и оптимизирует их - branch prediction, speculative execution, register renaming и т.д.

Но чтобы это оптимально работало надо оптимизировать под конкретный процессор. Оптимизация под 386 процессор на процессорах, использующих названные вами технологии приведет к замедлению выполнения. Что хорошо для 386 плохо для процессора с конвейерной архитектурой. Там вообще разные принципы оптмизации. В случае с 386 процессором оптимизация сводится к активному использованию регистров, что в случае с конвейерными процессорами(тем же P4) приводит к частым перезагрузкам конвейера и замедлению выполнения. Так вот. Программа под пентиум должна быть оптимизирована именно под пентиум, а не под 386. Тот, кто устанавливает все в бинарном виде, просто урезает возможности своего компа.

На самом деле оптимизация под конкретный процессор это критический фактор, определяющий производительность. Не зря ранние версии той же висты рекомендовали устанавливать на интелловкий процессор. На том же AMD она работала на 50% возможностей.

>Разница по набору целочисленных и FPU инструкций между i386+i387 и core duo небольшая. >Ощутимый прирост будет лишь при использовании SIMD-инструкций

Правильно. Еще следует добавить MMX-инсрукции. Нужно учитывать также тактовую частоту.

> Выполнение таких операций предполагает вменяемость. Можно теоретически и опенофис. В свободное время

>О том и речь, что у некоторых проявляется навязчивая идея - перекомпилировать все что движется, даже ping, telnet и traceroute под SSE3.

Ну почему же. Существуют примеры, когда компилируют для использования на ноутбуках. И полученный linux летает с тем же KDE о опенофисом.

user12
()
Ответ на: комментарий от anonymous

>В USA обычно не менее $150K в год...

Это означает полунищенское существование примерно как 5000 рублей в месяц в России.

>От 4 килобакса!! в Индии и России и это начальный уровень... Специалист нужного уровня на меньшее здесь не пойдет... разве что тот который себе цены не знает.

Бугога! Не за горами тот день, когда не только пойдёшь - побежишь!

anonymous
()
Ответ на: комментарий от anonymous

>А почему у меня они регулярно выпадают в Farcry с сообщением что GPU завис и в игрушках с ними полно артефактов? А почему после установки некоторых версий Catalyst начинались страшные глюки, рывки, артефакты, а у некоторых людей системе наступал капец? Просто с fglrx в Linux все гораздо хуже, поэтому некоторые считают, что дрова ATI под виндой идеальны.

>А почему у меня Farcry работает отлично? Может быть у Вас просто карточка уж очень noname'воская? Конечно же, сейчас Вы мне скажите, что карточка Ваша - Deluxe Box-вариант за тыщу баксов, присланная Вам лично президентом ATI

Ил-штурмовик не работает на ати, проверенно на нескольких карточах. Если у когото и работает, то это скорее исключение редкое.

XtouRusX
()
Ответ на: комментарий от anonymous

> И кроме того, в репозитарии существуют часто пакеты в формате srpm. Они компилятся автоматически при установке. Установка из исходников занимает несколько минут в среднем. >apt-get upgrade в среднем длится несколько минут. emerge -u world в среднем длится до часа, если обновляется glibc или кде - то до суток.

Имелось в виду время компиляции, естественно, а не закачка по сети. Тогда по-вашему можно не качать программы с инета:)

>Если обновляется glibc.

Значит, скорее всего, прога не из того репозитария или дистр устаревший.

>Очевидной пользы мало, зато есть полно лишних проблем на этапе сборки. Debian ставится за полчаса-час. Gentoo - от суток до недели.

Все зависит от того, какие пробемы решаются. Кого-то устраивает бинарный дистр, кто-то готов пожертвовать временем ради быстродействия. Проблемы-плата за возможности. Тот же опеноффис можно поставить на ночь компилиться. К утру скомпилится:) И времени не жалко.

> Не сделать такого с бинарным софтом. >А нужно ли?

Нужно. Из собственного опыта. Позволяет, например, настроить под себя оконные менеджеры, плейеры, программы для обмена сообщениями. Больше возможностей настроить, чем программу в бинарном виде. С бинарной прогой так не получится. Взять те же плейеры. Включение нужных кодеков , графических эффектов различных. Бесконечные возможности тюнинга. Пользователь, который этого не знает, будет пользоваться тем, что ему дадут.

> Там получаешь то, что создано разработчиком со всеми глюками и неудобствами

:) Просто даже не в профессионализме разработчиков дело. Хотя и они допускают ошибки, которые приходится исправлять(для этого патчи используются). Есть личные пристрастия у человека. Одному нравится одно, другому другое. Одному нужны определенные функции программы, другому не нужны. Более тонкая настройка интерфейса и т.д. Конечно же не утверждаю, что все всегда нужно компилить.

> Нет. Например настройка linux для работы на ноуте или старом компе >Что, штатное бинарное ядро не заработает на ноуте или старом ПК без плясок с бубном?

Ядро не самое важное. Далеко не все зависит от ядра. Оно конечно влияет на быстродействие, но больше иксы, всякие графичечкие либы типа gtk, сами проги. Та же glib сильно влияет. Если ее скомпилить проги будут заметно быстрее работать. Gtk влияет.

user12
()
Ответ на: комментарий от anonymous

> Эти компании тратят миллионы долларов на исследования, сотни специалистов работают над улучшением их чипов.

Реально над улучшением чипов работают буквально несколько человек, а не сотни. И так везде, аналогично есть архитекторы-программисты, а есть исполнители-кодеры.

> Драйверы для оборудования должен писать производитель, а не кучка фанатиков, а написать полнофункциональный драйвер без досконального знания внутреннего устройства железки - по определению нельзя.

Ровно наоборот - драйвера должны писать те кто их использует по полным спецификациям. Именно потому что необходимо хорошее знание устройства ОС .

> Теперь вопрос к любителям open-source драйверов видеокарт: зачем они вам? И чем вам бинарные не угодили?

Даже оставив в стороне потенциальный риск для безопасности из-за наличия неконтролируемых элементов, есть и чисто технические соображения.

Почитай, например интересное интервью с одним из разработчиков ядра Грегом Кроа-Хартманом в журнале LinuxFormat номер 81 http://www.linuxformat.ru/download/81.pdf

> Пользователи сообщают нам о своих проблемах с ядром, и если у них там стоит бинарный драйвер, мы не можем узнать, в чем дело – возможно, он записал что-то где-то поверх ядра и из-за этого – бах![сломалось], или что-то плохое случилось,а нам этого не понять. ну и если вы сломали ядро, мы сообщаем: у вас бинарный драйвер, мы не можем оказать вам поддержку... решайте вашу проблему сами. Люди знают: из сообщения об отказе ядра должно быть ясно, что они не работают с бинарными драйверами, иначе никакой поддержки им не будет.

И вообще, если ты считаешь, что разработчикам системы не нужны спецификации на управление используемым железом, то ты просто не представляешь себе работу программиста, по крайней мере, системного.

Реально отсутствие открытых спецификаций для взаимодействия с платами nvidia и ati сильно мешает.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от vtVitus

> Правда мне не понятно нахрен нужны свободный дот нет, и гугл земля. Остальное очень нужно.

Согласно стратегии FSF, нужна свободная альтернатива всем закрытым технологиям, что получили известность и активно используются. Чем больше бесправных пользователей, зажатых неким проприетарным решением, тем выше необходимость.

mihalych ★★★
()
Ответ на: комментарий от anonymous_incognito

Добавлю, что по оценкам разработчиков Windows в XP примерно 97% сбоев происходят из-за кривых драйверов сторонних производителей и только в 3% случаев виноват код M$. И я склонен им верить в данном вопросе, несмотря на то что это M$.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymous

> Столько лет работали на силиконовских рабочих станциях, целиком закрытых и проприетарных. Был отличный процессор MIPS, 64 битная IRIX, закрытый софт. И прекрасно люди работали.

Подменяешь предмет спора. Для разработчиков IRIX все спецификации были очень даже доступны.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymous

> Только существует множество приложений, где требуется использовать видеокарту на полную катушку, чего ни один открытый драйвер предоставить никогда не сможет

Только из-за отсутствия необходимых спецификаций.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymous

> И речь идет о том, что прекрасно люди работали на закрытой целиком платформе, причем именно с серьезной графикой.

Де-факто Unix со своего рождения был открытой системой, которую потом закрыли во всяких IRIX'ах, при этом разработчики серьёзного софта и аппаратуры в SGI разумеется имели доступ и к исходникам IRIX и к спецификациям на железо SGI.

Так что твой аргумент как раз против тебя же и работает.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymous

> И SGI докатилась до грани банкротства как раз после того, как с линаксом связалась, от былого ее величия и следа не осталось.

С помощью линукса она наоборот пыталась и небезуспешно выкарабкаться.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymous

> И у разработчиков эти материалы имеются, поскольку им нужно работать, а не заниматься фанатизмом. Программисту нужно знать, как заставить устройство работать, а не что у него внутри. То, что у FSF таких материалов нет, не говорит о том, что их нет ни у кого

Вот и FSF и другим разработчикам нужны эти материалы, а то закрытых драйверов на любые системы не напасёшься. И если для Linux ещё есть драйвера, пусть и закрытые, то для немалого количества ОС их нет и не будет пока не откроют документацию.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymous

> линаксу до IRIX'a как до Луны пешком. IRIX был 64 битным с файловой системой xfs, когда линупс

Аргумент из разряда "Ты под стол пешком ходил"./"Тебя и в проекте не было".

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymous

>>И не возникнет - мозги атрофировались от винды, не понимают, что закрытые драйвера прямо диктуют, к примеру, выбор ОС, лишая свободы выбора.

> Да, особенно закрытые драйверы под линукс:)

Да, они диктуют выбор дистрибутива и версии ядра.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от user12

> Неграмотно говорить, что одно быстрее другого. Можно сравнивать только скорость выполнения аналогичных отдельных операций сравниваемых программ.

Какой вопрос такой ответ. На заявление "мне кажется что собранная программа работает в 1.5 раза быстрее" получили такой же аргументированный ответ "а мне кажется что медленнее".

> Оптимизация под 386 процессор на процессорах, использующих названные вами технологии приведет к замедлению выполнения.

С какой это стати? Тот же P4 производит декодинг CISC-операций в RISC микроопсы, производит их оптимизацию, разруливает конфликты по регистрам, выполняет исполнение по предположению(спекулятивной выполнение) и т.д. Это i386 был сравнительно простой как три рубля, а PPro и выше сам занимается оптимизацией.

> что в случае с конвейерными процессорами(тем же P4) приводит к частым перезагрузкам конвейера и замедлению выполнения.

У конвейерных процессоров несколько банков регистров, соответствующих одному регистру для обхода конфликтов по регистрам. man register renaming

> Программа под пентиум должна быть оптимизирована именно под пентиум, а не под 386. Тот, кто устанавливает все в бинарном виде, просто урезает возможности своего компа.

До пентиума с двумя тупыми конвейерами U и V все было просто, начиная с PPro, когда процессор начал самостоятельно изменять порядок выполнения операций, разруливать конфликты по регистрам, пресказывать переходы и выполнять код по предположению ситуация несколько изменилась.

> На самом деле оптимизация под конкретный процессор это критический фактор, определяющий производительность.

А я считаю, что оптимизация на современных камнях дает не более 5%-10% увеличения производительности, если не происходит задействование SIMD, что может дать прирост производительности на некоторых участках до 100%.

> Не зря ранние версии той же висты рекомендовали устанавливать на интелловкий процессор. На том же AMD она работала на 50% возможностей.

Опять цифры с потолка? Если 32-разрядная свиста на AMD64, то я бы еще еще поверил.

> Правильно. Еще следует добавить MMX-инсрукции. Нужно учитывать также тактовую частоту.

Срочно учить матчасть что такое SIMD. MMX/SSE это конкретные реализации технологии SIMD для целочисленных и вещественных чисел.

> Существуют примеры, когда компилируют для использования на ноутбуках.

Существуют примеры того, что когда коту делать нечего он яйца лижет.

anonymous
()
Ответ на: комментарий от user12

> Имелось в виду время компиляции, естественно, а не закачка по сети. Тогда по-вашему можно не качать программы с инета:)

Естественно без закачки. glibc часов 3-5 компилируется где-то на P4 3GHz

> Значит, скорее всего, прога не из того репозитария или дистр устаревший.

Чего? 8| Какой еще устаревший?! emerge -u world ёмае

> Все зависит от того, какие пробемы решаются. Кого-то устраивает бинарный дистр, кто-то готов пожертвовать временем ради быстродействия.

Если быстродействие возсрастает на 5%, то это просто нерационально.

> Тот же опеноффис можно поставить на ночь компилиться. К утру скомпилится:) И времени не жалко.

Ну ставил я - сборка сдохла, оперативки со свопом не хватило.

> Нужно. Из собственного опыта. Позволяет, например, настроить под себя оконные менеджеры, плейеры, программы для обмена сообщениями.

Ну вот у меня КДЕ - нахера там ковырять код если итак все настраивается?! Программа для обмена сообщениями и что ты ёмае в ее сорснике "настраивал"?! Я себе илитную версию ставил, но это баловство и по сути вообще не нужно. Так что это все выдумки. Большинство из тех кто кричит про крутость открытых исходников ни разу эти сорсы не проверял и не исправлял ничего,болтают только.

> Взять те же плейеры. Включение нужных кодеков ,

Убунту видел? Как она без всяких тупых компиляций кодеки ставит из инета? Это называется плагины. А тупая сборка планарных ядер и включение плагинов путем перекомпиляции - наидебильнейшая концепция имхо. Технология плагинов-модулей намного гибче чем эти анахронизмы с #define-ами.

> графических эффектов различных.

Плагины, кнопочки... Спрашивается вот нахрена простому юзеру пересобирать весь плеер, ядро или все КДЕ ради включения одной рюшки, поддержки девайсы или кодека? Это чушь собачья для красноглазых. Поддержка девайса - стаим модуль, кодек - подключаем как плагин, рюшка - подключаем плагин. На компьютере юзера, который не заанимается программированием, инструментов сборки вообще не должно быть.

> Бесконечные возможности тюнинга.

О которых все гвоорят, но которые используют доли процента.

> Конечно же не утверждаю, что все всегда нужно компилить.

Ну хоть это хорошо. А то у меня уже депрессия от генты где нужно ВСЕ компилить. Наитупейший поход ИМХО. Оптимизировать еще имеет смысл glibc, kernel - т.е. критические участки многократно выполняемого кода от которого непосредственно зависит производительность, а не все подряд. И самая ИМХО гибкая оптимизация это не сборка на месте, а динамическая оптимизация, что-то вроде:

Detected SSE2 support.
Loading /usr/lib/sse2/libssl.so.0.9.8
Loading /usr/lib/sse2/libcrypto.so.0.9.8
...

Или вот так, как сделано в Debian:
$ ldd /usr/bin/openssl
linux-gate.so.1 => (0xffffe000)
libssl.so.0.9.8 => /usr/lib/i686/cmov/libssl.so.0.9.8 (0xb7f74000)
libcrypto.so.0.9.8 => /usr/lib/i686/cmov/libcrypto.so.0.9.8 (0xb7e3a000)
libdl.so.2 => /lib/tls/i686/cmov/libdl.so.2 (0xb7e36000)
libz.so.1 => /usr/lib/libz.so.1 (0xb7e22000)
libc.so.6 => /lib/tls/i686/cmov/libc.so.6 (0xb7cf1000)
/lib/ld-linux.so.2 (0xb7fbf000)

Вот оно где вменяемость, отсутствие красноглазия и гибкость.

> Та же glib сильно влияет. Если ее скомпилить проги будут заметно быстрее работать. Gtk влияет.

Ниболее гибким вариантом является динамическая загрузка соответствующих оптимизироавнных модулей, а не дурная статическачя оптимизация. Вы где-нибудь видели виндузятника, компилирующего игрушки? А ведь игрушки пытаются использовать железо максимально эффективно. Они используют динамическую оптимизацию. На эту концеци. и нужно равняться, а не страдать херней со статической оптимизацией путем недельной пересборки всей системы.







anonymous
()
Ответ на: комментарий от AngryElf

> Дадад. Именно поэтому у меня nv в 2D работал заметно быстрее nvidia.

Если кажется креститься надо.

anonymous
()
Ответ на: комментарий от Rodegast

> А нормальным пользователям разве нужен маздай? Да и на ATI многие из них положили.

Опять этот фанатизм. Снимите розовые очки! Норма это большинство. 95%-99% пользователей используют на ПК сами знаете что - оффтопик. Оставшееся меньшинство 1%-5%, пользователи Linux,Freebsd, BeOS, Minix, DOS, MacOS X, OS/2 - аномалия/мутанты.

anonymous
()
Ответ на: комментарий от Rodegast

> Когда вендикап настанет, ничего переписывать не придётся т.к. разработчик, не только всё откроет, но и перепишет.

А с чего вы решили что он настанет? Без этого софта и нормальной поддержки всего спектра десктопного железа наиболее вероятен линупсокапец, а не вендекапец.

anonymous
()
Ответ на: комментарий от anonymous

> А ты видел мультик Elefant Dreams? А ведь он полностью был отрендерен в блендере.

А ты видел клип про автомобиль, нарисованный в MS Paint? Сможешь так же нарисовать в кореле? Тото же. Значит MS Paint намного лучше Corel Draw!

anonymous
()
Ответ на: комментарий от anonymous

> Норма это большинство. 95%-99% пользователей используют на ПК сами знаете что - оффтопик. Оставшееся меньшинство 1%-5%, пользователи Linux,Freebsd, BeOS, Minix, DOS, MacOS X, OS/2 - аномалия/мутанты.

Норма - это разумное поведение и использование более правильного в перспективе выбора. Для примера: если вдруг 99% людей заболеют шизофренией, от этого шизофрения не станет психической нормой, нормой будет всё-таки 1% нешизофреников.

anonymous_incognito ★★★★★
()
Ответ на: комментарий от anonymousI

действительно :), только не во мне дело, те же IBM, Novell, Sun, Google и т.д. ( крупные организации ) + тысячи людей по всему миру делают реальные вещи под Linux, в то время как FSF лишь упорно пытается сделать вид, что они в этом процессе главные, да еще и задают направление развития, они ( ну и такие же как они ) еще умеют ругать виндовз, причем неся полный бред, чем создают весьма негативную репутацию Linux в глазах обычных людей, линукс надо рекламировать, надо доказывать, что он открытый, надежный, удобный, а не заниматься антирекламой винды, их BadVista ничем не лучше M$ с его GetTheFucks

lester ★★★★
()
Ответ на: комментарий от anonymous_incognito

>Норма - это разумное поведение

Вообще-то, строго формально, нормальный - обозначает средний, не выходящий за пределы допустимого отклонения от средней величины. Если 99% населения будут шизофрениками, то чисто формально нормой будет шизофрения.

А уж какой ты лично смысл придаёшь этому слову - это уже твои заморочки :D

KRoN73 ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.