LINUX.ORG.RU

Видеокарта с открытыми исходниками может быть уже не за горами


0

0

Начатая в 2004 году разработка видеокарты с открытой спецификацией (Open Graphics Project) выходит на финишную прямую. Самое позднее в сентябре будет выпущена прототипная плата на ПЛИС (FPGA). Срок выхода промышленного образца еще не определен.

Фирма-разработчик (Traversal Technology) планирует выпустить весь проект под двойной лицензией (GPL и коммерческая для закрытых разработок).

Интервью ведущего разработчика, взятое в начале проекта: http://kerneltrap.org/node/4622

>>> Подробности

Ответ на: комментарий от anonymous

>пи@#$ж и провокация! небывает такого.

Да ну. Я Q3 запускал на целке 400 со _встроенной видюхой_ с 4mb ram, аналогично было. Так что на p166 с voodoo вполне может быть 15-20 FPS.

Ramen ★★★★
()
Ответ на: комментарий от Ramen

>Да ну. Я Q3 запускал на целке 400 со _встроенной видюхой_ с 4mb ram, аналогично было. Так что на p166 с voodoo вполне может быть 15-20 FPS.

true

этож чистый OpenGl, а не тормозной D3D...

Killy
()
Ответ на: комментарий от Ramen

>Я Q3 запускал на целке 400 со _встроенной видюхой_ с 4mb ram, аналогично было. Так что на p166 с voodoo вполне может быть 15-20 FPS.

За p166 не скажу, а cyrix MII PR300 с первой вудой давал вполне съедобный результат. По крайней мере не "слайд шоу". С учетом же, отвратного FPU в данном камне, готов поверить и в p166

bigc ★★
()

По поводу сабжа: жизнь покажет, может и получится из этого чтото интересное, а может и нет. По поводу "15-20 FPS это играбельно": я не есть хардкоровый геймер, но в свое время на 566-м Целере, 128 оперативки и встроенной видяхе Интел 810 имея чтото около 30-35 ФПС-ов чувствовал себя немного некомфортно, хотя это уже действительно играбельно.

GhostDragon
()
Ответ на: комментарий от Quasar

> И вообще здорово, если там OpenGL 2 поддерживается...

Не поддерживается. "Most of OpenGL 1.3 plus many later features".

atrus ★★★★★
()

>у радеонов конечно картинка получше, но качество дров - мамадорогая!

Враньё. Ни под виндовс ни под линакс у меня проблем с драйверами ATI нет.

Меняйте то что вы называете операционной системой на работающую.

anonymous
()
Ответ на: комментарий от anonymous

>>15-20 FPS с 3-4 ботами. Вполне играбельно было.

> пи@#$ж и провокация! небывает такого.

Ну, доказывать, что я не верблюд, я не буду. Но то. что в третью кваку на описанном железе рубался - факт.

К слову. первая вуда по скорости была не особо медленне Riva 8-меговых, которые массово в компьютерных клубах стояли. Кваки на них не то что б летали, но играть можно было. Это в клубах. А дома уж, поверь, я умел отстроить и видюху, и винды, и саму игру...

AngryElf ★★★★★
()
Ответ на: комментарий от Quasar

> Кстати было бы хорошо иметь в видяхе слоты для расширения памяти и чипсетов (в том числе дополнительных ;) ).

дык в далеком 2001м я одному другу помогал поднять какой то брендовый хлам (от НР кажется) с процом на 200мгц. Там на борту была S3-trio с одним метром памяти, а рядом пустая панелька под память. Пошли мы с ним на базар, нашли у барыги еще одну S3 для PCI. и тоже с памятю в панельках. Убедили его что карту у него все равно никто не купит, так он нам выковырял память и продал отдельно... Впихнули в мать, и заработало как новенькое, выдеопамяти стало в два раза больше.

У меня в кладовке пылится Ti4200. Игрался с параметрами ХОрга в свое время, и после перезагрузки карта вытянула только 800х600 (Выше - висла), плюс две вертикальные темные полосы шириной пикселей 2-3 через екран. Ощупал руками - один чип памяти не греется. Сильное подозрение что именно он и полетел. А поменять - никак. Я так не запаяю, да и где взять? (хотя признаюсь на ebay не искал). В общем, карточка в консоли пашет на ура, если восстановил бы то еще послужила бы... и в иксах. На ней ut2004 просто замечательно летал...

firsttimeuser ★★★★★
()
Ответ на: комментарий от tailgunner

>По планам: для Xgl нормально, для навороченных игр не подойдет.

Если цена будет до 100 $, то купим, если найдём, а то проблемы с нвидией (не большие, но всё же проблемы) достали.

vtVitus ★★★★★
()

Интересно было бы посмотреть на окончательный вариант сего девайса

Rain ★★★★
()
Ответ на: комментарий от p_kolya

> Это ж отлично! Навороченных игрух не играю, а вот открытось это хорошо :)

Афтары ! Чем вам ни нравится видео Intel в таком случае ? Kak всегда хотим чтобы не как у всех, да ?

lenin
()
Ответ на: комментарий от Ramen

> Самую хорошую 2D картинку я видел на Matrox MGA Millenium.

Афтар, а что какое качество 2Д, о которо так постоянно говорят большевики ?

lenin
()
Ответ на: комментарий от the_one

>Зачем выдирать интегрированное родное видеоядро и приделывать туда что-то от стороннего производителя?

Напрмер в случае непрофильного бизнеса. Например Intel может не тратиться на разработку девайсов не шибко интересного им рынка и OEMать кого-то другого.

r ★★★★★
()
Ответ на: комментарий от lenin

>Афтары ! Чем вам ни нравится видео Intel в таком случае ? Kak всегда хотим чтобы не как у всех, да ?
Чем тебе не нравится AMD64? Твой ответ будет ответом на твой вопрос.

anonymous
()
Ответ на: комментарий от lenin

Хорошо, пусть будет не Intel. Matrox чем вас не нравится, афтары ? Вы просто охренели от желания как-то выделиться.

lenin
()
Ответ на: комментарий от vtVitus

> Если цена будет до 100 $, то купим,

Идите и купите Matrox прямо сейчас.

lenin
()
Ответ на: комментарий от Killy

> этож чистый OpenGl, а не тормозной D3D...

Практика почему-то показывает, что под D3D игры работают быстрее. Смотри любые игры, поддерживающие оба тулкита.

lenin
()
Ответ на: комментарий от tailgunner

> А чтобы глаза не уставали, когда работаешь - это приятный побочный эффект.

Афтары, вы всё ищё сидите за трубой, воткнули 6200 непонятно какого производителя и имеете наглость ругать NVidia ? Лечитесь, пока не поздно. Если уж выбираете трубу и хотите хорошую картинку, возмите NVidia Quadro какую-нить low profile, это меньше $100. А эти дешовки типа 6200 - это для офисных LCD мониторов.

lenin
()
Ответ на: комментарий от bigc

> Если 2D будет лучше чем у встроенных поделок

У встроенных "поделок" два недостатка. 1) Нет DVI. Хотя в последнее всемя и это исправляется потихоньку. 2) Если надо подключить, скажем 6 мониторов - вариантов нет. В остальном встроенные "поделки" класса i910 - запускают World of Warcraft не хуже GF6200/RX300. Этого хватает за глаза большинству. Учитивыая то, что Linux игр нет - ликусоидам вообще больше не надо. Драйвера открытые, встроенные идушие с иксами, тянущие XGL без проблем. "Качество 2D" - никаких проблем, вы просто рассуждатете о том, чего никогда не видели.

lenin
()
Ответ на: комментарий от lenin

И тут вождь залез на броневик.... и как начал задвигал простым рабочим какие-то небылицы и обещания что мол: "Фабрики рабочим! Земли Крестьянам!"

Metallic
()
Ответ на: комментарий от Metallic

Когда был Ленин маленький,

С курчавой головой,

Не знал, что будет лысенький,

И словно как живой.

Metallic
()
Ответ на: комментарий от lenin

Расскажу я вам проблему, которая действительно имеет место быть и которую может теретически решить данная разработка. В промышленности довольно часто требуются многомониторные станции. Много - это 4-8 мониторов. Материнкие платы формата PICMG, принятые к использованию в промышленности, не имеют не только PCI-E, но и AGP. Да если бы и были данные разъёмы, проблемы бы это не решило. Нужны видеокарты PCI с производительностью 3D класса i810 нормально работающие под странными ОС. Желательно с открытыми драйверами. Это желательно, в большистве случаев этого не требуется. Сейчас в Москве всё ещё можно приобрести видеокарты на шине PCI, но 1) сделать это быстро невозможно 2) буквально приходится скрести по сусекам, через год - ИМХО только вторичный рынок, а это неприемлемо. Вот если бы кто занялся выпуском таких PCI видеокарт - продавать их за 2-3 тысячи за штуку нет никаких проблем, даже разговаривать не будут кому это надо. Конечно, тиражи будут не как у NVidia, но ИМХО это рынок.

lenin
()
Ответ на: комментарий от lenin

> В промышленности довольно часто требуются многомониторные станции. Много - это 4-8 мониторов.

Зачем? Есть такая штука, зовется "X-терминал". Моноблок, в одном корпусе монитор, материнка со слабеньким камнем без движущихся частей и флешка с прошивкой (ядро + X-сервер). Оно стоит столько же, сколько специфическая PCI-ная видяшка и монитор, зато не требует выключать комп при замене и так далее. Иное дело, что под такую архитектуру софт надо уметь писать. Ну там про разделяемую память знать, про межпроцессорное взаимодействие и прочие умные слова.

no-dashi ★★★★★
()
Ответ на: комментарий от lenin

Лёня, дай я те на лысину плюну, а Metallic платочком протрет, дабы свет от тя идущий указывал линуксоидам в грехе с radeon'ами и непонятными nvidia погрязших дорогу во тьме указывал к светлому будущему быдла на инвалидках...

ZloySergant
()
Ответ на: комментарий от lenin

Вождь не прав. Разработчики UT2004 (под виндой - D3D рендерер, под линуксом - OpenGL) под Linux утверждают, что скорости сравнимые. Подтверждаю лично - на ATI X600 и там и там имею 80-170 фпс. Но при творческом подходе к игровому процессу :-) все равно приходится сидеть в виндах, потому как UnrealEd только под них, да и ucc линуксовый неполноценен. Игрушка все-таки разработана на виндах, и тяжелое наследие дает о себе знать...

anonymous
()
Ответ на: комментарий от no-dashi

> Оно стоит столько же, сколько специфическая PCI-ная видяшка и монитор

Пока ещё PCI видеокарту можно взять за $150, но это больше года ИМХО не продлится, NVidia производство PCI чипов уже свернула, распродаются остатки. PCI решения Matrox аппаратное 3D ускорение не умеют под Linux, качество драйверов ATI неприемлемо, Intel внешение карты не делает. А "мониторы" такие, для которых эти многомониторные станции, стОят шестизначные цифры. Поэтому о том и речь, что на такие цифры, как 2-3 штуки за карту, даже никто не посмотрит.

> Ну там про разделяемую память знать, про межпроцессорное взаимодействие и прочие умные слова.

И ещё читать man XSetLineWidth. На проект надо нарисовать до тысячи "картинок" и любая картинка должна работать одинково как на огромной панели так и на обычном LCD мониторе. Процам есть чем заняться кроме масштабирования. Всё это пройдено много лет назад. Масштабировать векторную картинку должно только железо, в проивном случае упираемся в производительность в любом случае, всё это пройдено много лет назад.

lenin
()
Ответ на: комментарий от bigc

> а скорости 3D хватит для XGL -- мне лично большего в принципе не надо.

Я купил бы, даже если бы была дороже аналогов от ати и нвидиа.

anonymous
()
Ответ на: комментарий от anonymous

> Я купил бы, даже если бы была дороже аналогов от ати и нвидиа.

Беги покупай Matrox прямо сейчас. Спасай неудачникоф рублём. Тока не умудрись PCI вариант купить, а то дровишечки для XGL самому лабать придётся.

lenin
()
Ответ на: комментарий от lenin

Вот недавно нарисовал картиночку для проекта, вообще-то я их не рисую, но просто надоело пинать товарищей, которые этим занимаютя. На картнке - ~1200 квадратиков размером ~100x80 все залитые, с разнывми размерами рамок столько же текстовых объектов, в среднем по 15 символов. Всё масштабируется на любой размер и текст в том числе. Вот попроуй подумай, какой огород пришлось бы городить иксовыми функциями, а у нас таких картинок в проекте несколько сотен. На софтверном OpenGL П4-2.4 занят на 60%. Это уже неприемлемо, какой там X-terminal. А это ещё простая картинка.

lenin
()
Ответ на: комментарий от anonymous

> И какой матрокс посоветуешь, чтоб бегал без проблем и GL держал прилично?

Matrox G550 AGP у меня работал недавно, никаких проблем как с исковыми дровами так и с проипиретарными. Оба поддерживают аппаратное 3D, но тока на одну голову, это специфика Matrox. Производительность уровня i810. Сейчас такую уже будет купить слождновато. G650/P650 - сам не пробовал, но проблем быть не должно.

lenin
()
Ответ на: комментарий от lenin

> Matrox G550 AGP у меня работал недавно, никаких проблем как с исковыми дровами так и с проипиретарными. Оба поддерживают аппаратное 3D, но тока на одну голову, это специфика Matrox.

Ясно.

> Производительность уровня i810.

Хм, я не в курсе какая там производительность, glxgears сколько показывает на полный экран и в каком разрешении.

> Сейчас такую уже будет купить слождновато.

Я уже заметил...

> G650/P650 - сам не пробовал, но проблем быть не должно.

Написано, что dri на них 3М не держит.

anonymous
()

> Практика почему-то показывает, что под D3D игры работают быстрее. Смотри любые игры, поддерживающие оба тулкита.

Warcraft III. У меня в OpenGL быстрее было.

Sikon ★★★
()
Ответ на: комментарий от Sikon

> Warcraft III. У меня в OpenGL быстрее было.

В Warcarft III невозможно посмотреть производительность, не надо, пожалуйста, свои фантазии выдавать за факт. А вот в World of Warcraft можно. Быстрее 2 раза (!) на D3D на моей конфигураци.

lenin
()
Ответ на: комментарий от lenin

> Масштабировать векторную картинку должно только железо, в проивном случае упираемся в производительность в любом случае

1. XSetLineWidth использует аппаратное ускорение, если это позволяет железка (к слову, XAA поддерживает куда большее количество видяшек, чем OpenGL).

2. Масштабирование и поворот 100000 векторов отнимает 52 тысячных секунды. Даже если каждая твоя картинка содержыт 5000 векторов и примитивов, ты обсчитаешь картинки для 5 рабочих мест c частотой 4 кадра в секунду ценой 5% процессорного времени. А эта величина вообще называется "погрешность измерения". А с учетом того, что это позволяет избежать лазания в ядро грязными кривым проприетарными драйверами, то это вообще называется "кое-что задаром"

no-dashi ★★★★★
()
Ответ на: комментарий от no-dashi

Афтар, если ты думаешь, что никто никогда не пытался рисовать иксовыми функциями, то ты ошибаешься. Афтароф, асиливших XSetLineWidth, будет гораздо поболее, чем асиливших OpenGL. С этого когда-то начинали. Если бы ты видел, что из этого вышло, тебе было очень стыдно за свои речи.

lenin
()
Ответ на: комментарий от lenin

>Афтары, вы всё ищё сидите за трубой, воткнули 6200 непонятно какого производителя и имеете наглость ругать NVidia ?

А что, есть много производителей, у которых 2D на NVidia лучше, чем у Asus или MSI?

>А эти дешовки типа 6200 - это для офисных LCD мониторов.

Что характерно, на ATI той же ценовой категории картинка в 2D - идеальная :)

KRoN73 ★★★★★
()
Ответ на: комментарий от no-dashi

> А с учетом того, что это позволяет избежать лазания в ядро грязными кривым проприетарными драйверами, то это вообще называется "кое-что задаром"

К сожалению, сегодня альтернатив нет. А качество свободных драйверов зачастую выше пропиретарных, в этом отношении надо отдать должное линуксоидам. Но фирма, открывающая специфакации, обрекает себя на поддержку спецификаций.

lenin
()
Ответ на: комментарий от KRoN73

> Что характерно, на ATI той же ценовой категории картинка в 2D - идеальная :)

Что харатерно, смотря какой производитель аналогично NVidia. Были у нас поделки некой Manli, сразу же выкинули, оно мутит даже на LCD.

lenin
()
Ответ на: комментарий от lenin

>Были у нас поделки некой Manli, сразу же выкинули, оно мутит даже на LCD.

В том то и фишка, что для "мути" на атишных карта надо еще постараться, а NVidia херово показывает завсегда, хоть Asus, хоть Gainward.

З.Ы. Видел я ATI от powercolor -- DSUB на шлейфе выведен и все помехи ловит, аж волны по экрану. Но это как раз случай единичной патологии, в отличие от.

bigc ★★
()
Ответ на: комментарий от no-dashi

Кстати, афтар, а ты видел XGL ? По-твоему, XGL придумали неисаливишие XSetLineWindth, да ? А пачиму под XGL всё настока быстрее, ни разу ни задумывался ?

lenin
()
Ответ на: комментарий от anonymous

Ну, ну. Небось как новая игруха выходит так сразу за новой видюхой бежишь? Вот именно из-за таких лемингов игрухи теперь хавают ресурсов мама не горюй. Производители и создатели игрушек сговорились всей толпой, а лемминги хавают, типа все довольны.

Дома старый комп: P200, 64MB, 30GB Seagate Barracuda IV S3Virge 2MB + Voodoo2 16MB (или сколько там) и в нагрузку Aureal Vortex 2 (с цифровым выходом).

Q3 вполне сносно бегает, брат играется, доволен.

ЗЫ Не навижу Creative за то что убили Aureal, звуковухи от Creative по тем временам даже рядом не валялись.

ЗЗЫ Мог бы то же самое про Nvidia и 3dfx сказать, но 3dfx сами по большей части виноваты.

gloomdemon
()
Ответ на: комментарий от lenin

А потому что небось вначале всё под D3D пишут, а потом только костыли для OpenGL приделывают. И даже если изначально под два писали, то всё равно оптимизируют под D3D.

ЗЫ >Практика почему-то показывает, что под D3D игры работают быстрее. Смотри любые игры, поддерживающие оба тулкита.

А на практику посмотреть можно?

gloomdemon
()
Ответ на: комментарий от anonymous

> Игрушка все-таки разработана на виндах, и тяжелое наследие дает о себе знать...

Угу, особенно если учесть что вначале она под linux появилась (demo), а потом под винду.

gloomdemon
()
Ответ на: комментарий от gloomdemon

> Ну, ну. Небось как новая игруха выходит так сразу за новой видюхой бежишь? Вот именно из-за таких лемингов игрухи теперь хавают ресурсов мама не горюй. Производители и создатели игрушек сговорились всей толпой, а лемминги хавают, типа все довольны.

Как раз изза таких "лемингов", в ближайшем будущем и доростут видюхи по мощности до рендеринга в реальном времени тяжелых сцен по цене до $300.

> Q3 вполне сносно бегает, брат играется, доволен. Кому-что, кто-то и 96kbps музыку кодирует и на "пищалках" слушает, а кто-то и CD не воспринимает, давай ему DVD-Audio. Некоторые получают удовольствие от 18-20 FPS. А некоторые их не могут понять. Каждому по потребностям.

nofate
()

Очень круто. Понятно, какая видеокарта будет у моего следующего компьютера. :)

mihalych ★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.