LINUX.ORG.RU

NVIDIA CUDA 4.0 и CUDA-GDB

 ,


0

1

Состоялся релиз NVIDIA CUDA 4.0. Также можно отметить релиз CUDA-GDB. Далее - текст из официальной русскоязычной новости.

Набор инструментов NVIDIA CUDA 4.0 был создан, чтобы упростить параллельное программирование и позволить еще более широкому кругу разработчиков портировать свои приложения на GPU. Основные возможности новой архитектуры:

  • Технология NVIDIA GPUDirect™ 2.0 обеспечивает равноправную связь между GPU в рамках одного сервера или рабочей станции, что упрощает и ускоряет мультипроцессорное программирование и работу приложений.
  • Унифицированная виртуальная адресация (UVA) организует единое адресное пространство для основной системной памяти и памяти GPU, что делает параллельное программирование еще быстрее и проще.
  • Библиотеки примитивов Thrust C++ - набор алгоритмов C++ с открытым кодом для параллельных расчетов и структур данных, которые упрощают программирование для разработчиков на C++. Thrust ускоряет стандартные операции, такие как параллельное хранение, в 5-100 раз по сравнению с библиотеками Standard Template Library (STL) и Threading Building Blocks (TBB).

Другие функции и возможности:

  • интеграция MPI с приложениями CUDA – Модификация MPI, например, OpenMPI, автоматически пересылает данные в память GPU и обратно по Infiniband, когда приложение посылает или получает запрос от MPI.
  • Многопоточность и GPU – Многочисленные потоки с CPU хоста могут обмениваться контекстом на одном GPU, что упрощает совместное использование GPU многопоточными приложениями.
  • Использование нескольких GPU одним потоком с CPU – Один поток с CPU хоста может иметь доступ ко всем GPU в системе. Разработчики могут легко распределить работу между несколькими GPU для таких задач, как обмен «ореолами» в приложениях.
  • Новая библиотека NPP для обработки изображений и компьютерного видения – Большой набор операций по трансформации изображения, которые позволяют быстро разрабатывать приложения обработки изображений и компьютерного зрения.

Новые и улучшенные возможности:

  • Автоматический анализ производительности в Visual Profiler
  • Новые функции в cuda-gdb и поддержка MacOS
  • Поддержка функций C++, таких как new/delete и виртуальные функции
  • Новый бинарный дизассемлер на GPU

Подробности о новых возможностях можно узнать на странице с русскоязычной новостью. В ней не сказано о том, что состоялся релиз, потому что в тот день существовал ещё только кандидат в релизы. Англоязычная новость, в свою очередь, объявляет релиз, гораздо короче (просто список терминов без разъяснений) и подробнее.

Русскоязычная новость

>>> Англоязычная новость о релизе

★★★★★

Проверено: JB ()

Ответ на: комментарий от wstorm

Угу. Описался. Прога на OpenCL транслируется в VHDL.

Относительно цены на ansys hfss не скажу, а флуинт тот же да дорогой, но это уже другая проблема. Кластер, на котором можно крутить флуинт для реальных задач тоже не копейки стоит.

А сомневающимся могу предложить посмотреть тесты того же namd/gromacs. Очень даже неплохо ускоряется. Плюс исходники есть. И вещь нужная в хозяйстве. Так что профит от куды есть.

http://gpgpu.org/ - таки полезный сайт про вычисления на гпу.

Относительно OpenCL vs Native Close/Open API for NVIDIA/ATI/Cell. Есть один аспект. Возможно, что люди которые писали на OpenCL просветят. Вот например у ibm cell рекурсия была с самого начала (хотя и с особеностями), а у нвидии появилась только у тесел. у x86 с рекурсией все хорошо. И каким образом это можно учесть в одном универсальном языке ? Те у разных железок разные возможности.

b_a ()
Ответ на: комментарий от zenden

Гуглотранслятор с тобой не согласен. Первый вариант — именно «символ».

one_more_hokum ★★★ ()
Ответ на: комментарий от zenden

И ошибка, кстати, у тебя: «переводится» пишется без мягкого знака. :-)

А вообще ошибки там у меня есть, да.

one_more_hokum ★★★ ()
Ответ на: комментарий от zenden

А как же он по-вашему переводится?

char - сокращение от character. А character переводится как буква, символ.

Eddy_Em ☆☆☆☆☆ ()
Ответ на: комментарий от htower_

проекционный метод решения систем линейных уравнений большой размерности с использованием технологии CUDA

TERRANZ ★★★★ ()

> Новая библиотека NPP для обработки изображений и компьютерного видения

Компьютерного зрения может быть?

MPI интеграция с приложениями CUDA – Модификация MPI, такая как OpenMPI, автоматически пересылает данные из и в память GPU по Infiniband, когда приложение посылает или получает запрос с MPI.

Интересно звучит... но не понял, о чём речь, если честно.

А никто не подскажет.. какая IDE лучше подойдёт для того, чтобы писать приложения на CUDA?

BattleCoder ★★★★★ ()
Ответ на: комментарий от x4DA

Класс... действительно намного проще. Мне как раз редукция была нужна для кое-чего... теперь типа своё ядро писать не надо, а можно вызывать уже готовые методы?

BattleCoder ★★★★★ ()
Ответ на: комментарий от TERRANZ

Насчет метода - что-то из методов оптимизации ?

b_a ()
Ответ на: комментарий от TERRANZ

В данном контексте программист=пользователь. Пользователь библиотек или языков программирования - это программист...

И таки да, OpenCL унылый. Стандарт языка вроде бы и есть... А вот когда будет универсальный компилятор, который транслирует исходники в исполнимый код для _ЛЮБЫХ_ процессоров (ну хотя бы тех же x86 пускай) и для _ЛЮБЫХ_ видеокарт (те же NVIDIA и AMD).

Пока фактически из того, что есть - NVIDIA CUDA SDK - он умеет и OpenCL - но только на самих NVIDIA.

интеловский тулкит только под венду.

амдшный ещё есть... но у меня нет видяхи от амд. не на чем попробовать.

BattleCoder ★★★★★ ()
Ответ на: комментарий от b_a

Можно и без рекурсии обходиться. Если важна переносимость. Практически любой код, использующий рекурсию - можно переписать без использования оной.

BattleCoder ★★★★★ ()
Ответ на: комментарий от BattleCoder

Ога, в декабре прошел кучу этапов собеседований у них в московском офисе. В итоге мы друг другу не подошли.

Я кстати участник nvidia registered developer. Они могли подсмотреть код на моем сайте, который я указывал при регистрации. Интересно, у них эта штука для cpu может компилироваться? Мой array_device реально работает на хосте в случае отстутствия куды и всё получается прозрачно для пользователя класса :)

Reset ★★★★★ ()
Ответ на: комментарий от Evgueni

>А ATI/AMD не предоставляет альтернативы? В смысле интересно именно вычисления на GPU.

Предоставляет, стандартный OpenCL через AMD APP SDK, плюс у них внутри по сути доработанный llvm и этот код можно и на CPU, и на GPU выполнять. Плюс вычислительную функциональность десктопных карточек они не режут.

Тут просто слёт фанбоев нвидии, что в принципе неудивительно учитывая тему новости.

dn2010 ★★★★★ ()
Ответ на: комментарий от b_a

Тот же IBM тоже обещал компилятор OpenCL под Cell. Но воз и ныне там.

В смысле вот этот воз?

Stinky ()
Ответ на: комментарий от Reset

Ну вот, лучше бы для opensource что-нибудь писал. А так - как бы ни себе, ни людям. Nvidia только прикидывается хорошенькой, но на самом деле... :D

wstorm ★★ ()
Ответ на: комментарий от anonymous

Ты так говоришь, будто нвидию уже пора сдавать в музей.

wstorm ★★ ()
Ответ на: комментарий от one_more_hokum

>Вам что, 1С-а не хватает??? Писать программы «на русском языке» — это-ж страшный сон!

там можно и на английском писать. Сам по себе код на русском не так страшен на практике, и это лишь один из многих скелетов в этом большом пыльном желтом гробу.

nu11 ★★★★★ ()
Ответ на: комментарий от wstorm

>> Ну вот, лучше бы для opensource что-нибудь писал. А так - как бы ни себе, ни людям. Nvidia только прикидывается хорошенькой, но на самом деле... :D

В общем-то, какое вам дело до того, как люди развлекаются? Им нравится, есть знания и навыки. Взяли, да сделали для себя полезную вещь ради развлечения. Вам от этого хуже стало?

Конечно, во времена тотального потребленчества и обновления вещей ради их обновления, такое действие просто жутко бросается в глаза быдлу и небыдлу. «Смотрите, вот дурак! Нет чтобы подзаработать бабла, да купить себе новую видяху в компьютер, он фигнёй страдает - ни денег для себя не заработал, ни наш линупс лучше не сделал.» В наше время уметь что-то сделать своей головой и руками считается просто пошлостью.

ZenitharChampion ★★★★★ ()
Ответ на: комментарий от Eddy_Em

>- все настолько привыкли, что ATI производит дерьмовые карточки

в каком это году у ати были дерьмовые карточки? Вот дрова раньше действительно были кривоваты

nu11 ★★★★★ ()
Ответ на: комментарий от nu11

Атишники написали линуксовую библиотеку OpenGL и драйвер, глючные. Потом пришли AMD-шники и написали OpenCL, стабильный и быстрый.

ZenitharChampion ★★★★★ ()
Ответ на: комментарий от dn2010

> Предоставляет, стандартный OpenCL через AMD APP SDK, плюс у них внутри по сути доработанный llvm и этот код можно и на CPU, и на GPU выполнять. Плюс вычислительную функциональность десктопных карточек они не режут.

А есть ли у AMD что-то напоминающее Tesla? В смысле для боооольших кластерных систем.

Evgueni ★★★★★ ()
Ответ на: комментарий от nu11

в каком это году у ати были дерьмовые карточки? Вот дрова раньше действительно были кривоваты

Вот именно: пусть хоть супер-пупер железо делают, но если дрова - говно, то какой смысл от железа?

Eddy_Em ☆☆☆☆☆ ()
Ответ на: комментарий от Eddy_Em

>пусть хоть супер-пупер железо делают, но если дрова - говно, то какой смысл от железа?

под венду дрова всегда были вполне рабочие, иначе ати давно бы обанкротилась. Да, в них бывали баги, но основную функцию они выполняли.

Под линуксом не знаю как раньше (я на ати всего полгода), но сейчас дрова нормальные, причем есть выбор. Может, в игрушках под линухом не все гладко, но то, что мне нужно, работает как задумано: глобус в гуглоземле крутится, тиринга нет, webgl в браузере работает.

nu11 ★★★★★ ()
Ответ на: комментарий от Evgueni

>А есть ли у AMD что-то напоминающее Tesla? В смысле для боооольших кластерных систем.

Типа отдельный одноюнитовый модуль с теcлами внутри? Такого вроде не было, они на обычные карточки полагаются.

dn2010 ★★★★★ ()

Для сравнения цены на ATI и NVIDIA

Tesla GPU C2070 Compute Board - $2900 ATI FireStream 9370 $2999

В принципе наблюдаем практически одинаковые цены. Так что можно предположить, что с учетом того что куду любят (пока) больше чем OpenCL - куда (как платформа) более удобна.

b_a ()
Ответ на: комментарий от b_a

С точки зрения программиста - наверное. А пользователя - одинаковы. По скорости работы я имею в виду.

ZenitharChampion ★★★★★ ()
Ответ на: комментарий от dn2010

> Типа отдельный одноюнитовый модуль с теcлами внутри? Такого вроде не было, они на обычные карточки полагаются.

Жаль. Похоже кроме nvidia для HPC ничего и нет, а закладываться на nvidia в свете интереса к ней большой и мягкой корпорации как-то страшновастенько :(

Evgueni ★★★★★ ()
Ответ на: комментарий от Evgueni

Я не думаю, что мс будет рубить курицу несущую золотые яйца. Т.к. нвидия используется в куче суперкомпьютеров и это направление активно развивается. Представить, что бы на этих компах юзали винду, как то маловероятно.
Хотя с другой стороны нвидия сделала ide для куды только по visual studio, а не на основе Eclipse.

С другой стороны, ни что не мешает использовать тот же OpenCL и на нвидии.
Ну у ATI есть еще FireStream серия вроде как. Но это отдельные карточки для установки в комп. Решение нвидии в виде 1U сервера насколько я понимаю это просто 4 теслы + блок питания + карточка типа HIC x16 PCIE + корпус. Я так думаю, что для ATI тоже самое можно сделать и под спец заказ у добрых китайцев.

b_a ()
Ответ на: комментарий от Evgueni

а закладываться на nvidia в свете интереса к ней большой и мягкой корпорации как-то страшновастенько

Да нет у них никакого интереса, кроме «защиты инвестиций». Когда делали X-ящик (который НЕ 360, а первый), они заложились на NVidia, и чтобы никто не перекупил нвидию и не заблокировал MS доступ к технологиям и возможность делать приставки, они подписали договор с нвидией. Нвидия получила выход на новый рынок (приставки), а МС получила гарнтию что им не обрежут поставки железа.

no-dashi ★★★★★ ()
Ответ на: комментарий от Evgueni

>Похоже кроме nvidia для HPC ничего и нет, а закладываться на nvidia в свете интереса к ней большой и мягкой корпорации как-то страшновастенько

Ну типа никто не запрещает навтыкать в каждый узел кластера по несколько AMD_Firestream или обычных карточек пятитысячной серии и получить примерно то же самое. C десктопными карточками получается лучшее на сегодня соотношение между ценой и производительностью, если задача на них хорошо параллелится. Ну а дальше там уже APU на подходе, правда пока GPUшный сопроцессор там не слишком мощный.

У меня что-то не получается откопать в куче статей рекордную success-story.

dn2010 ★★★★★ ()
Ответ на: комментарий от wstorm

спасибо конечно, но неметчине не обучен(
скормлю гуголь-транслейту, посмотрю вечером

TERRANZ ★★★★ ()
Ответ на: комментарий от dn2010

>Ну типа никто не запрещает навтыкать в каждый узел кластера по несколько AMD_Firestream или обычных карточек пятитысячной серии и получить примерно то же самое. C десктопными карточками получается лучшее на сегодня соотношение между ценой и производительностью, если задача на них хорошо параллелится. Ну а дальше там уже APU на подходе, правда пока GPUшный сопроцессор там не слишком мощный.

В 1U больше 2х десктопных карточек в принципе не воткнешь, а, если вспомнить про рассеиваемую мощность, то думаю и одной не воткнуть. Для них надо специально рассчитывать корпуса и потоки воздуха в них, иначе все перегреется.

anonymous ()
Ответ на: комментарий от anonymous

>В 1U больше 2х десктопных карточек в принципе не воткнешь, а, если вспомнить про рассеиваемую мощность, то думаю и одной не воткнуть. Для них надо специально рассчитывать корпуса и потоки воздуха в них, иначе все перегреется.

Ну типа никто не заставляет запихивать всё в 1U, если кластер занимает не одну стойку.

dn2010 ★★★★★ ()
Ответ на: комментарий от dn2010

>Ну типа никто не заставляет запихивать всё в 1U, если кластер занимает не одну стойку.

В том смысле, что вместо 2-х стоек, он будет занимать 4?..

anonymous ()
Ответ на: комментарий от anonymous

>В том смысле, что вместо 2-х стоек, он будет занимать 4?..

Ну если 4 обойдутся дешевле 2х, то почему бы и нет? Стоимость помещения обычно для подобных систем не самое критичное, датацентры полупустые стоят. Да и не будет оно сильно крупнее, тепловыделение, размер радиаторов и прочие сопутствующие факторы у nvidia на данный момент несколько похуже, у них как-то излишне крупным/сложным чип получился.

dn2010 ★★★★★ ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.