Epic Games founder and 3D engine architect <...> predicts that by 2020 developers will switch to a more flexible massively parallel programming model where all fixed functionality <...> have been replaced with a software implementation, backed by massive computing power.
Не думаю, что можно строить прогнозы на столь большой срок. Хоть развитие компьютерной техники и не ускоряется вроде, но, тем не менее, оно всё равно очень интенсивное.
В общем, неизвестно, что через 5 лет будет, а тут более 10.
Это конечно да, но там есть презентация, где Свини более подробно аргументирует такое предположение. Мол, все эти пайплайны и директиксы только ограничивают возможности.
По сабжу возник вопрос, чем померять флопсы? Пока поищу как включить pixomatic в ut2004/ut3
Вообще Тим Свини из тех, кто делает сам то, что предсказал. Так что посмотрим.
Вообще-то, такое развитие называется экстенсивным. Увеличение количества без увеличения качества. ничего действительно нового уже 15 лет не придумывают, а если и придумывают, то интель с микросовтом давят в зародыше.
>Увеличение количества без увеличения качества. ничего действительно нового уже 15 лет не придумывают, а если и придумывают, то интель с микросовтом давят в зародыше.
Не, ну в аспекте GPU много интересных финтифлюшек придумали. Достаточно сравнить TNT и GT200
Вообще как-то очень странно и непонятно куда идёт развитие десктопа. С одной стороны, увеличение мощностей, всё больше ядер, мощная графика, мультимедийные станции с огромными экранами, а с другой стороны, перенос расчетов на облако, нетбуки, неттопы, арм.
Нормально оно идет. Раньше один компьютер в доме - уже была офигенная роскошь. Теперь у каждого - свой десктоп. Но этого уже мало, теперь каждый хочет иметь и ноутбук. Но ноутбук не всегда возьмешь с собой, он большой, жрущий, а для некоторых задачь откровенно избыточный. Поэтому такой популярностью и пользуются нетбуки.
От зажратости все, короче.
Специализированные/программируемые FPGA (которые) всегда будут делать любые CPU в разы в своих задачах. Тим Свини типичный нуб, никогда ничего кроме CPU не видевший.
А всё-таки круто будет, если JVM/Lisp-машины/&_many_others будут работать на Larrabee... Мммм, терафлопы вычислительной мощности... И всё это на серверах... ^_^
>Специализированные/программируемые FPGA (которые) всегда будут делать любые CPU в разы в своих задачах. Тим Свини типичный нуб, никогда ничего кроме CPU не видевший.
Ага, типичный нуб с двумя машинами под $250 000, стажем 15 лет в игровой индустрии, а также авторством на самое дорогое и популярное ПО в той же игровой индустрии.
Похоже оно только было для x86 и уже выпилено. Можно попробовать скопировать с диска dll-ки (по словам иккулуса, там какой-то страшный мутант http://bugs.gentoo.org/114733 ) и в UT2004.ini выбрать RenderDevice=PixoDrv.PixoRenderDevice
>двумя машинами под $250 000, стажем 15 лет в игровой индустрии, а также авторством на самое дорогое и популярное ПО в той же игровой индустрии
И всё это ничего не говорит о его познаниях в железе. А то и я могу назвать куда более богатых и влиятельных людей, чьи домыслы в итоге оказались просто несостоятельными ("640к хватит всем")
Это хорошо Жду, когда наконец процы будут работать настолько быстро, что можно будет рендерить в память трехмерку с нормальной скоростью и выводить ее средствами карточки класса S3TrioV64. Никаких драйверов, никаких костылей типа шейдеров, видеокарточка просто кажет на монитор видеопамять, и все.
Это уже случилось (Квейк 2 и прочее), потом забылось. Щас с появлением дешевых многоядерников очень даже может вспомнится, учитывая что обратный райтрейсинг хорошо распараллеливается. А это - настоящие тени, отражения, всеголишь линейное возрастание времени обсчета при увеличении размера генрируемого изображения. И алгоритмы можно любые применять, и работать не с треугольниками, а, например, со сферами в параметрическом виде, не перегоняя их поверхность в треугольники. Вот это будет качественный скачек.
>Это уже случилось (Квейк 2 и прочее), потом забылось.
Да, и Unreal. У меня идёт в софтварном режиме в виртуалбоксе достаточно хорошо :D
>И алгоритмы можно любые применять, и работать не с треугольниками, а, например, со сферами в параметрическом виде, не перегоняя их поверхность в треугольники.
Ой, со сферами был эксперимент в какой-то игре, но это было давно и оказалось несостоятельной лабудой. Сейчас можно увеличив количество треугольников получить то же качество, не тратя ресурсы на обработку сомнительных сфер.
>И всё это ничего не говорит о его познаниях в железе.
Ладно, ты молодец, ты смыслишь в железе. Несомненно узкоспециализированное железо всегда будет делать более общее по скорости, но увы кроме своих основных функций он ничего выполнить не сможет, как ни пляши.
> Специализированные/программируемые FPGA (которые) всегда будут делать любые CPU в разы в своих задачах.
Будут, и что? Поставлять игры в комплекте с девайсами с custom-логикой? :D
FPGA всегда будут в разы дороже универсальных процессоров. Процессоры всегда будут более распространены за счет универсальности => ПЛИС ничего не светит на массовом рынке.
> FPGA всегда будут в разы дороже универсальных процессоров. Процессоры всегда будут более распространены за счет универсальности => ПЛИС ничего не светит на массовом рынке.
А если бы FPGA были реконфигурабельными? Вдруг появится такая технология? Как думаете, что тогда произойдет, ваш прогноз.
> А если бы FPGA были реконфигурабельными? Вдруг появится такая технология?
Я не нстолько спец :) ПЛИСы по определению реконфигурабельны. Но дело в том. что ПЛИС без обвязки - штука бесполезная. Какая обвязка будет у гипотетического ПЛИС? Выходы на какие шины? А главное - сколько это будет стоить? Здесь слишком много вопросов и технических деталей, на каждой из которых идея может запнуться.
Идея интересная, конечно, но скорее ПЛИС встроят в процессор.
>> А если бы FPGA были реконфигурабельными? Вдруг появится такая технология?
> Я не нстолько спец :) ПЛИСы по определению реконфигурабельны. Но дело в том. что ПЛИС без обвязки - штука бесполезная. Какая обвязка будет у гипотетического ПЛИС? Выходы на какие шины? А главное - сколько это будет стоить? Здесь слишком много вопросов и технических деталей, на каждой из которых идея может запнуться. Идея интересная, конечно, но скорее ПЛИС встроят в процессор.
Хм, я почему-то думал, что ПЛИС/FPGA однократно программируемы, пережигаются какие-то мостики, тем самым задается логика...
А они оказываются лехко реконфигурабельны.
Дык это же очень хорошая вещщ, еслибы на мамке ставили штатные плисы... Надо что-то распараллелить - раз, прога залила прошивочку в плиз, и потом молотит что нужно в полуаппаратном режиме, тот же H264. Нужно что-то другое - заменили прошивку. Правда, две разные проги с "полуаппаратным" ускорением не смогут одновременно работать. Но если задача на десктопе ресурсоемкая, то она обычно одна считается.