LINUX.ORG.RU

nVidia GT300 позволяет исполнять C++ код на GPU

 , , , ,


0

0

Вышел долгожданный релиз видеокарты GT300 от nVidia.
Эта карта содержит 512 процессорных модулей, имеет 6Gb памяти и
поддерживает архитектуру Fermi, которая позволяет
исполнять C++ код непосредственно на GPU.

>>> Подробности

писец, надо же было так криво новость написать.

>релиз видеокарты GT300

это не видеокарта, а графический процессор. Соответственно он не может иметь 6Gb памяти, он всего лишь поддерживает работу с таким объемом.

>исполнять C++ код непосредственно на GPU.

интересно, кто первый придумал эту феерическую фразу

nu11 ★★★★★
()
Ответ на: комментарий от nu11

>>исполнять C++ код непосредственно на GPU.

>интересно, кто первый придумал эту феерическую фразу

видимо, большой нелюбитель g++. ибо это g++капец :)

anonymous
()
Ответ на: комментарий от ist76

А расслабляющий массаж оно не сделает?
ist76 ***** (*) (01.10.2009 21:02:24)

А может ты и анального секса хочешь, детка?

anonymous
()

> Half Speed IEEE 754 Double Precision

Это значит, что double теперь всего лишь в два раза медленнее чем float? Это хорошо, но лучше бы поддержку float вообще выкинули и сделали бы double в два раза быстрее.

Reset ★★★★★
()
Ответ на: комментарий от Relan

Если там будет водяное охлаждение, то можно и паровую машину сделать для вращения вентиляторов

anonymous
()

Вообще конечно впечатляет, nvidia как всегда на шаг впереди своего основного конкурента. Если оно еще будет стоить вменяемых денег, то буду дома собирать кластер.

Reset ★★★★★
()
Ответ на: комментарий от anonymous

Произвольный c/c++ код на GPU? 512 потоков? 6 GB DDR5 памяти (в качестве кеша компилятора)? Как гентушнег я влюблён в эту железяку =)

haku ★★★★★
()
Ответ на: комментарий от r

> Скоро материнки будут втыкаться в видеокарты?

Если они там сделают PCI express...

www_linux_org_ru ★★★★★
()

Вот все радуются, а ведь большинство десктопных приложений и два ядра использовать не умеют, не то 512. И, хоть "C++ код исполняется", но компилятор в принципе не сумеет распаралелить программу автоматически. А языки, которые потенциально это могут (лисп, хаскель и прочие) все равно не имеют компиляторов, которые смогут распаралелить программу (или я не прав?). Вывод - только для научных расчетов. Даже для игр обычная видяха покатит.

anonymous
()

> осталось дело за малым, портировать под эту архитектуру ядро =)

Тоже об этом подумал =) Только вот одно интересно - а эта архитектура GPU вообще в принципе подобное позволит? Речь разумеется об uClinux ^_^

I-Love-Microsoft ★★★★★
()

Обидно только, что чтобы загрузить такую карточку нужный и мощьный процессор. Или она уже сама способна себя нагрузить, раз исполняет любой код С++?

anonymous
()
Ответ на: комментарий от anonymous

> Если там будет водяное охлаждение, то можно и паровую машину сделать для вращения вентиляторов

И за счет генерируемой энергии снижать энергопотребление. =)

YesSSS ★★★
()
Ответ на: комментарий от anonymous

> раз исполняет любой код С++?

Код там всеравно не любой и ясен пень написан конкретно для видях. Но всеже тенденция снижения гемороя разработчиков и расширения general-purpose возможностей в видюхах имеется.

YesSSS ★★★
()
Ответ на: комментарий от Reset

> Вообще конечно впечатляет, nvidia как всегда на шаг впереди своего основного конкурента.

Угу , ну пусть попонтуются квартал анонсами - потом, в рабочем порядке
через прилавок (как обычно) <сольют> до нового анонса.

elipse ★★★
()
Ответ на: комментарий от anonymous

Вот все радуются, а ведь большинство десктопных приложений и два ядра использовать не умеют, не то 512. И, хоть «C++ код исполняется», но компилятор в принципе не сумеет распаралелить программу автоматически. А языки, которые потенциально это могут (лисп, хаскель и прочие) все равно не имеют компиляторов, которые смогут распаралелить программу (или я не прав?). Вывод - только для научных расчетов. Даже для игр обычная видяха покатит.

Для ghc вроде существует, но еще весьма сыро дополнение Data Parallel Haskell. Оно используется для неявного паралелизма, но насколько я понимаю нужно использовать специальные типы, так что просто существующую программу многопоточной не сделаешь.

anonymous
()
Ответ на: комментарий от Reset

> угу, куда уж там ati, которая только только догнала g200

Бггг, c таким тепловым пакетом и Штеуд был бы в лидерах :)))

elipse ★★★
()
Ответ на: комментарий от Reset

> Это значит, что double теперь всего лишь в два раза медленнее чем float

Круто, а то было в 11. Когда это можн будет купить поиграться?

sv75 ★★★★★
()
Ответ на: комментарий от Reset

> Это значит, что double теперь всего лишь в два раза медленнее чем float? Это хорошо, но лучше бы поддержку float вообще выкинули и сделали бы double в два раза быстрее.

Лучше бы сделали long-double. И чтобы быстро работал.

mv ★★★★★
()
Ответ на: комментарий от sv75

не раньше чем в следующем году(2010Q1), на этом обсуждение сферических коней^Wядер в вакууме можно окончить

B084 ★★
()
Ответ на: комментарий от r

>Скоро материнки будут втыкаться в видеокарты?

Что значит "скоро"? ты видел "соввременные крутые видяхи для настоящих пацанов"? Если по площади они ещё не превышают ATX-материнки, то по весу - запросто

Led ★★★☆☆
()
Ответ на: комментарий от anonymous

>Вот все радуются, а ведь большинство десктопных приложений и два ядра использовать не умеют, не то 512. И, хоть "C++ код исполняется", но компилятор в принципе не сумеет распаралелить программу автоматически. А языки, которые потенциально это могут (лисп, хаскель и прочие) все равно не имеют компиляторов, которые смогут распаралелить программу (или я не прав?). Вывод - только для научных расчетов. Даже для игр обычная видяха покатит.

Мальчик, ты очень плохо учишся в школе! Судя по твоему высеру, для тебя даже таблица умножения - "научные расчеты"

Led ★★★☆☆
()
Ответ на: комментарий от Reset

>угу, куда уж там ati, которая только только догнала g200

Вы прослушали очередной громкий пук Reset'а

Led ★★★☆☆
()
Ответ на: комментарий от linuxfan

>>осталось прицепить на видюшку SATA&USB получим полноценный компик.

>Да ну нафиг. Видео-то встроенное тогда будет. Оно тебе надо?


Значит надо еще слот под нормальную видяшку от АМД прилепить, тогда можно будет пользоваться (или pci на крайняк, всякие вуды втыкать).

Anounax
()

nVidia представляет среду Nexus для разработчиков

Компания nVidia представила новую интегрированную GPU/CPU-среду для разработчиков, получившую название Nexus.

По заявлениям nVidia, платформа Nexus является первой в индустрии средой разработки для массивно-параллельных вычислений, интегрированной в Microsoft Visual Studio.

Новая среда должна помочь повысить эффективность вычислений на базе графических процессоров за счет применения инструментов Visual Studio, а также благодаря процессу, идущему в «прозрачном» режиме, без необходимости создания отдельной версии приложения с включением в него диагностических программных вызовов.

Nexus позволяет запускать код удаленно, на другом компьютере. Среда включает средства для одновременного анализа эффективности, производительности и скорости как графического, так и центрального процессора.

В состав Nexus входят три основных компонента — Debugger, Analyzer и Graphics Inspector. Модуль Debugger представляет собой отладчик для исходного кода GPU, такого как CUDA C, HLSL и DirectCompute. Analyzer — это инструмент настройки производительности системы для просмотра событий графического и центрального процессоров. Компонент Graphics Inspector предоставляет разработчикам возможность исправлять и профилировать кадры, отрисованные с помощью программных интерфейсов, таких как Direct3D.

Среда Nexus поддерживает операционные системы Windows 7 и Windows Vista; бета-версия платформы увидит свет 15 октября.

http://citcity.ru/22295/

http://www.nvidia.com/object/pr_nexus_093009.html

Хочу это в QtCreator, он няшный.

wyldrodney
()
Ответ на: комментарий от mv

тогда уж float с произвольной точностью :)

Reset ★★★★★
()
Ответ на: комментарий от Reset

>угу, куда уж там ati, которая только только догнала g200

смешная шутка. особенно в свете вышедшей 5ххх серии у АМД и еще только планирующемся релизе gх3хх у нвидии...

petrosha ★★★★★
()
Ответ на: комментарий от Reset

>угу, куда уж там ati, которая только только догнала g200

Не хочу затронуть ничьи религиозные чувства, но по моему поколение Radeon 48xx было крайне удачным в сравнении с g200 (с технико-экономической точки зрения). g200 оказался СЛИШКОМ дорогим. Да никто не спорит, что он быстрее, но это было достигнуто примитивными экстенсивными методами (сделали огромный монструозный чип). Решение AMD тут было более взвешенным. GT260 сейчас можно купить за вменяемые деньги лишь из-за того, что на рынке есть Radeon-ы 48xx. Из-за этого NVidia вынуждена сильно демпфинговать цены. Насколько я знаю видяхи g200 продаются практически по себестоимости, чтоб конкурировать в соотношении цена/производительность с AMD. И поэтому для NVidia g200 коммерчески не интересен.

pathfinder ★★★★
()
Ответ на: комментарий от anon000

>Все так фапают на нвидию...

А ты на что фапаешь?

>А ведь сейчас топовые атишные видяшки гораздо быстрее именно в качестве 3д-ускорителя. Сам, правда, не щупал.


Слабоват вброс.

e000xf000h
()
Ответ на: комментарий от Relan

>Ну, для GT200 допускается температура до 105 градусов, так что воду вскипятить на нем можно.

ну 6600 у меня отрубалась при 115, так что эта фича поддерживается давно

telepat
()
Ответ на: комментарий от pathfinder

> но по моему поколение Radeon 48xx было крайне удачным в сравнении с g200 (с технико-экономической точки зрения). g200 оказался СЛИШКОМ дорогим. Да никто не спорит, что он быстрее, но это было достигнуто примитивными экстенсивными методами (сделали огромный монструозный чип).

все гораздо проще, у ATI до сих пор нет вменяемых драйверов для их поделий, и хоть она трижды делает расп^W^прекрасные чипы, без програмной поддержки это всего лишь дорогой кусок текстолита.

>Решение AMD тут было более взвешенным. GT260 сейчас можно купить за вменяемые деньги лишь из-за того, что на рынке есть Radeon-ы 48xx. Из-за этого NVidia вынуждена сильно демпфинговать цены. Насколько я знаю видяхи g200 продаются практически по себестоимости, чтоб конкурировать в соотношении цена/производительность с AMD.


Да мне положить на то кто там демпфирует цены, со стороны потребителя для меня такая конкуренция экономически выгодна, из-за того что говно-ATI демпфирует цены, у меня есть возможность купить отличный продукт от nVidia, по привлекательной цене.

P.S. У ATI проблемы с драйверами вечные, сам раньше пользовался продукцией ATI, теперь даже даром не возьму, осталось только ноут поменять с говнорадеоном x200M на борту, на nVidia или Intel, и спокойно работать.

e000xf000h
()
Ответ на: комментарий от Genuine

>Когда то говорили процессор с частотой больше 2 ГГц будет обогревателем.

А разве не так? Посмотри скажем на размер кулера К6-2 450 мгц

DNA_Seq ★★☆☆☆
()
Ответ на: комментарий от anonymous

>Обидно только, что чтобы загрузить такую карточку нужный и мощьный процессор. Или она уже сама способна себя нагрузить, раз исполняет любой код С++?

Смотря что считаешь. Если тебе внешних данных не надо - то процессор на многих задачах может выступать лишь как запускалка GPU-кода.

halyavin
()
Ответ на: комментарий от e000xf000h

> доа-а, на сферических рабочих драйверах от ати, да?

Мимо лужи :))
Catalist 9.10 уже в тестировании как минимум неделю и поддерживает
HD5xxx (и под linux тоже).

elipse ★★★
()
Ответ на: комментарий от Genuine

Нвидеа молодцы, что делают мощный конвейер, который может превратиться в самостоятельную платформу.

Вас радует перспектива десятилетия анального рабства по версии nVidia и сумасбродные цены за их железяки?

fenris ★★★★★
()
Ответ на: комментарий от Relan

> Ну, для GT200 допускается температура до 105 градусов, так что воду вскипятить на нем можно.

А у меня моя GF 7600 GS от ASUS на радиаторе без кулера греется на Doom3 до 108, если крышку корпуса закрывать.

А компилю я gcc все еще на стареньком P4.

beda
()
Ответ на: комментарий от fenris

>Вас радует перспектива десятилетия анального рабства по версии nVidia

Определённо да!

frame ★★★
()
Ответ на: комментарий от Reset

>nvidia как всегда на шаг впереди своего основного конкурента

Фигвам. Cypress на днях вышел.

anonymous
()
Ответ на: комментарий от YesSSS

>Imho уже почти замечательная архитектура общего назначения, осталось только сделать удобное динамическое порождение новых легких потоков - и будет мега рулез.

Ага. А чтобы работало быстрее, к нему отдельную видеокарту.

kraw ★★★★
()
Ответ на: комментарий от Reset

Nvidia уж давно сливает ATI/AMD.И в нововведениях и быстродействии. А дрова уже давно стали нормально работать на ATI/AMD. А насчет 6 Гб на новом чипе GT300(gf100) это сколько он может поддерживать,но в реале на карту не думаю что столько ставить будут.

microhdd
()
Ответ на: комментарий от microhdd

>А дрова уже давно стали нормально работать на ATI/AMD.

Привет гостям из отдаленного будущего! Теперь обязательно завещаю своим внукам покупать атишные видюхи.

linuxfan
()
Ответ на: комментарий от microhdd

Ну-ну нормальные, рассказывай сказки. Пришлось купить мать с geforce 8300, а хотел AMD785, потому что XVBA не работает. .

linux4ever
()
Ответ на: комментарий от microhdd

>Nvidia уж давно сливает ATI/AMD.И в нововведениях и быстродействии. А дрова уже давно стали нормально работать на ATI/AMD.

произносите в слух 3-раза перед едой?

>А насчет 6 Гб на новом чипе GT300(gf100) это сколько он может поддерживать,но в реале на карту не думаю что столько ставить будут.



А почему бы и не поставить? Микросхемы памяти сейчас не дорого стоят, да и желающих хватит кто купит эту железку стоимостью over 9000$ для очередного попугайного "рекорда" в 3D Мраке.

e000xf000h
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.