LINUX.ORG.RU

Компания AMD открыла код ROCm — собственной реализации OpenCL

 , , ,


1

2

Компания AMD разместила под свободной лицензией ROCm (Radeon Open Compute) — собственную реализацию OpenCL. Доступен исходный код runtime-библиотеки, драйвера, патчей для LLVM/Clang и эталонной реализации загрузчика OpenCL ICD от Khronos.

В настоящее время этот стек доступен только для видеокарт на архитектурах Fiji и Polaris. Для более старых карт пока предлагается незавершённая реализация OpenCL Clover, поставляемая в составе Mesa.

>>> Подробности

★★★★★

Проверено: anonymous_incognito ()
Последнее исправление: sudopacman (всего исправлений: 3)

Ответ на: комментарий от shielcody

Оно в 1000раз медленнее реалтайма. Как будет в районе порядка - приходи.
Реалтайма даже в районе 5порядков нет.

Откуда эти данные? Вот код - https://github.com/google/FluidNet, можешь сам все проверить и сравнить.

Каких данных - чего сгенерено? Я бы сказал что там у тебя неограниченно.

Ты что-ли вообще не понимаешь как работают нейросети? Для их тренировки нужны большие объемы данных и это обычно проблема. Но в области графики таких данных можно сгенерировать практически бесконечное количество.

Вот еще один пример в графике - сеть тренируют увеличивать картинки. https://github.com/Tetrachrome/subpixel

Про ГО вообще смешно читать что ты написал. 10 строк кода, лол. Если так все просто, то чего-же никто так и не написал программу (без нейросетей) которая побеждает лучших из людей?

EvgenijM86
()
Ответ на: комментарий от awoland

В рамках проекта «Фазово-функциональная нейронная сеть» (Phase-Functioned Neural Network) учёные разработали самообучающуюся систему, которая позволяет моделировать движения виртуального персонажа в реальном времени.

Вы всё врете! Это жидовский заговор! На самом деле ничего не работает!

EvgenijM86
()

Блджад, столько тупняка в одном треде давно не видывал.

anonymous
()
Ответ на: комментарий от dn2010

Уже ж сделали супербота на нейросетках почти для всех популярных некогда игрушек. Теперь ждём такого же от производителей

Это другое, супербот эмулировал игрока, узнавал об игровой ситуации по картинке на экране и управлял как бы нажимая на кнопки. Внутриигровому ИИ это не надо.

khrundel ★★★★
()
Ответ на: комментарий от khrundel

Внутриигровому AI не надо распознавать картинку, принимать в текущей игровой ситуации правильное (или человеческое) решение ему всё равно надо, если он не скучный заскриптованный монстр, которых ты косишь тысячами.

dn2010 ★★★★★
()
Ответ на: комментарий от Sunderland93

Хитрые трюки для ускорения обучения сетей, да.

Solace ★★
()
Ответ на: комментарий от Sunderland93

Библиотека быстрых примитивов для операций, используемых внутри нейросеток, работающая как промежуточный уровень между CUDA и фреймворками самих нейросеток.

dn2010 ★★★★★
()
Ответ на: комментарий от dn2010

Вот только «человечность» решения определяется не тем, скрипт это или нейросеть, а как раз теми проблемами, с которыми внутриигровой ИИ не сталкивается. Человек по-разному обнаруживает объекты в зависимости от их контрастности к фону, пестрости объекта и фона, их статичности или движения. Человек ограничен в способности следить за слишком большим числом объектов, в памяти, в скорости реакции, скорости принятия решений и в темпе выдачи управляющих команд. Человек утомляем и подвержен эмоциям. Нейросети не обладают этими свойствами. Чтоб нейросеть вела себя так, всё это нужно прописать вне её, моделировать зрение, центр внимания, усталость. Соответственно вся «человечность» окажется скриптами и формулами.

khrundel ★★★★
()
Ответ на: комментарий от khrundel

Человечность нейросети можно вполне задавать теми примерами, на которых она учится, обучить её играть в танки исключительно на игроках с винрейтом сильно меньше половины, и она тоже будет изображать из себя оленеводческий совхоз имени Сергея Буркатовского, рашить по центру или работать героическим подкустовым выползнем не сильно хуже среднестатистического школьника-танкиста.

dn2010 ★★★★★
()
Ответ на: комментарий от Deliverance

Во первых это не графический драйвер, во вторых у Intelа не в git-снапшотах последний стабильный драйвер нерабочий вообще, если не откатывать 2D ускорение на legacy техники вручную, а в git он только изредка фризится при выходе, например, из 3D скринсейвера.

dn2010 ★★★★★
()
Ответ на: комментарий от dn2010

Реализации OpenCL работают, твоя проблема - что нет чего-то конкретного, написанного на OpenCL. Ну не повезло. Есть готовые опенсорсные библиотеки для BLAS и FFT, хэши для майнинга. Чего-то, написанного под куду, нет на OpenCL - всё можно дописать и расширить список поддерживаемого железа.

в molecular modelling есть рабочее на cuda и есть тестовое на opencl, которое кроме как на nvidia нигде не заводится из-за различий в реализации

А есть ссылка на реализацию? Там может быть как два пальца просто поправить - на C никогда не было проблемой писать нестандартный код который работает мимо спецификаций на одной реализации.

tim239 ★★
()
Ответ на: комментарий от shielcody

Да это очередной обчитавшийся всяких желтушных гиктаймсов и теперь фрилансящий кодогенерирующей нейросетью из умного марксианского поселения куда он долетел на ракете Маска.

anonymous
()
Ответ на: комментарий от tim239

Написать всё можно, только зелёные написали всё нужное уже несколько лет назад, а с opencl оно те же несколько лет пребывает в состоянии «почти всё работает, кроме вашего»

Вот, например, библиотека для расчётов: https://simtk.org/projects/openmm

dn2010 ★★★★★
()
Ответ на: комментарий от anonymous

Эта cuDNN - нафиг не нужное говнище. Лучше взять FPGA и на ней реализовать ускорение интересующего алгоритма в этой области. Будет быстрее и меньше энергии жрать. А ещё гибкость реализации алгоритмов куда выше.

Quasar ★★★★★
()
Ответ на: комментарий от anonymous

Невидия... Это та самая контора, которая до сих пор не может осилить профилировщик графического стека? Та самая контора, которая до сих пор OpenGL 4 не поддерживает? Та самая контора, которая нормальные драйверы для линуксе уже дофига лет выпустить не может? Та самая контора, которая зажимает спецификации на свои чипы и прямым тестом о характеристиках чипа врёт в описании? Ну офигеть впереди.

Quasar ★★★★★
()
Ответ на: комментарий от Sunderland93

Это нейросети, на вход которых подаются данные и на выходе которых получают данные с требуемыми параметрами. А нейросеть сама их перебирает и конечный результат делает. Эдакий динамический, но в конечном виде специализированный алгоритм, грубо говоря.

Quasar ★★★★★
()
Ответ на: комментарий от Quasar

Ага, только на cuDNN ездят машинки, сегментируются рентгеновские снимки и раковые биопсии и вообще овердофига применений в промышленности, а FPGA-сеток как-то не очень видно, они все пока в академии, хотя пишут, что очень круто в перспективе, в отдалённом светлом будущем, дайте денег немного на развитие.

dn2010 ★★★★★
()
Ответ на: комментарий от EvgenijM86

В будущем в общем-то так и будет. Даже для игр уже разрабатывают методы прорисовки и симуляции физики использующие нейросети.

Вот только GPU сейчас жёстко сливает FPGA в этой задаче.

И топовые карточки (GV100) уже затачиваются именно под нейросети.

Они до сих пор сливают FPGA. Увеличение производительности в этой области раза эдак в 2-2.5 по сравнению с использованием CUDA - это пшик. В современных FPGA производительность гораздо выше. Так что использование видеокарты для нейросетей - это либо от нищенства либо от тупости.

Quasar ★★★★★
()
Ответ на: комментарий от Quasar

OpenCL-only проги можно пересчитать по пальцам одной руки и они работают почти исключительно на костылях от nvidia. Почти все известные мне считающие на видюхах проги нормально работают с CUDA, иногда их получается завести в режиме ограниченной функциональности с использованием промышленного стандарта.

dn2010 ★★★★★
()
Ответ на: комментарий от EvgenijM86

Это уже шарлатанство. Для моделирования физики другие подходы требуются, а не нейросеть, так как тут надо не додумывать, а строго выполнять законы физики. А уж дорисовка... это уже виртуальная шизофрения. Единственно верное направление сейчас - это оптимизация железа под отрисовку и реализация ускорения нормальных алгоритмов в железе, таких как рейтрейсинг. Но невидия предпочла начать скупать и уничтожать конторы, которые рейтрейсинг в реальном времени разрабатывают, так как невидиевские карточки сосут в этой задаче, а у AMD решения даже в текущем виде производительнее выходят. Да и по мнению Хуанга нафига технологии развивать, когда можно одну и ту же видяху продавать дофига лет, уток подразгоняя?

Quasar ★★★★★
()
Ответ на: комментарий от shielcody

На самом деле VR уже вполне себе работает. Можно купить набор и играться сколько влезет. И там совсем не полторы демки, а целые полноценные игры.

Quasar ★★★★★
()
Ответ на: комментарий от dn2010

В нейросетях CUDA используют от нищенства. В молекулярной динамике уже вовсю OpenCL используют. И то такое ускорения надо с осторожностью эксплуатировать. Не так давно уже хипстеры в лабораториях на CUDA обожглись тем, что после CUDA неправильные результаты выдавались, так как не было там поддержки стандарта с плавающей точкой. CPU в сложных вычислениях не заменить видеокартой, и FPGA в специализированных вычислениях тоже - факт.

Quasar ★★★★★
()
Последнее исправление: Quasar (всего исправлений: 1)
Ответ на: комментарий от Quasar

Не так давно уже хипстеры в лабораториях на CUDA обожглись тем, что после CUDA неправильные результаты выдавались, так как не было там поддержки стандарта с плавающей точкой.

Что я только что увидел?

dn2010 ★★★★★
()
Ответ на: комментарий от anonymoos

Область применения - вычисления на GPU.

Quasar ★★★★★
()
Ответ на: комментарий от dn2010

Вряд ли ресурсоёмкая нейросеть для такого монстра потребуется. Один фиг можно под обучение скрипты подготовить, которые будут вести статистику и определять тем самым тактику, если на то пошло.

Quasar ★★★★★
()
Ответ на: комментарий от Deliverance

Тема про открытие блобика для вычислений на видюхах. Ну и опять же опенсорсный графический драйвер от AMD самый наверное беспроблемный, просто ставишь дистрибутив и всё работает, если дистрибутив старше или ровесник видеокарты, то подтягиваешь более свежий графический стек и всё работает ещё лучше. Блобики от nvidia, не поддерживающие последние дистрибутивные версии софта, или git dice от intel рядом не валяются.

dn2010 ★★★★★
()
Ответ на: комментарий от Quasar

Ну во первых нейросеть обученная может работать везде вплоть до мобильного телефона, во вторых их и придумали когда осознали, что мегабайты ifов все возможные случаи всё равно никогда не перебирают.

dn2010 ★★★★★
()
Ответ на: комментарий от dn2010

OpenCL-only как таковое не имеет большого смысла. Есть смысл в факте поддержки OpenCL. Что там ещё пакет поддерживает - это уже другой вопрос. Ну а то, что много чего поддерживает CUDA, так это исторически сложилось, так как CUDA это первое широко распространённое API для GPGPU.

Quasar ★★★★★
()
Ответ на: комментарий от dn2010

Такие не держу. Ссылку дал в комментарии выше.

Quasar ★★★★★
()
Ответ на: комментарий от dn2010

Утверждение о том, что CUDA пытаются пихать даже туда, куда не следует.

Quasar ★★★★★
()
Ответ на: комментарий от dn2010

В таком случае не нужно городить такие ускорители, так как достаточно поставить огромную машину со специальными процессорами, которые для нейросетей предназначены. Просто надо туда своевременно поставлять данные для обучения, а потом обученные нейросети раздавать. Всё.

Quasar ★★★★★
()
Ответ на: комментарий от Latynyna

Это даёт возможность не ставить блоб ради OpenCL на новых видеокартах. Сейчас в открытом драйвере есть практически всё - и OpenGL, и Vulkan, и теперь OpenCL прибавился. И производительность вполне на уровне.

Quasar ★★★★★
()
Ответ на: комментарий от Quasar

Есть такое. Но факт в том, что именно они будут рулить: https://www.nextplatform.com/2017/03/21/can-fpgas-beat-gpus-accelerating-next...

На GPU делать ставку не стоит.

Когда будут рулить, тогда и придёшь, а сегодня рулят GPU. В любом гастрономе можно купить видеокарту за ~$1000 купить видеокарту и обучать нейросети. Где я могу купить аналогичную считалку на FPGA, и сколько это будет стоить?

И что значит «делать ставку», ёпт? Нейросети - это TensorFlow, Torch, Theano. Сейчас в них есть поддержка куды,лениво пилится поддержка OpenCL. Когда решения на FPGA станут эффективнее GPU - добавят поддержку FPGA.

anonymous
()
Ответ на: комментарий от Quasar

В таком случае не нужно городить такие ускорители, так как достаточно поставить огромную машину со специальными процессорами, которые для нейросетей предназначены. Просто надо туда своевременно поставлять данные для обучения, а потом обученные нейросети раздавать. Всё.

А мы против, что ли? Кинь ссылку, где купить твою специальную машину.

anonymous
()
Ответ на: комментарий от Quasar

Ключевое слово тут будут, доклад по ссылке делает инженегр из конторы, купившей альтеру и неосилившей сделать нормальную параллельную архитектуру для видеокарт.

dn2010 ★★★★★
()
Ответ на: комментарий от Quasar

Специальные процессоры, предназначенные для нейросетей, на данном этапе развития это CUDA-ядра от nvidia, и очень редко робкие ростки чего-то другого.

dn2010 ★★★★★
()
Ответ на: комментарий от Quasar

Вот только GPU сейчас жёстко сливает FPGA в этой задаче.

Да, они наверно сливают строго специализированным решениям в разы, что не удивительно. Но дело в том, что в играх будущего помимо расчета нейронной сети надо сделать много чего еще, что требует чип более общего назначения. Вы помните так называемые PPU? Специализированный чип для расчета графики. И где они сейчас? Я думаю та же самая судьба будет ожидать и специализированные чипы для расчета нейронок в играх. Это разумеется не касается исследовательских центров, где 99.9% вычислительного времени тратится на обучение этих сетей - там специализированные чипы очень даже приживутся и вытеснят все остальное.

Это уже шарлатанство. Для моделирования физики другие подходы требуются, а не нейросеть, так как тут надо не додумывать, а строго выполнять законы физики. А уж дорисовка... это уже виртуальная шизофрения.

Согласен, что шарлатанство. Но в играх обычно нет задачи «строго промоделировать законы физики». Есть задача - «создать видимость исполнения законов физики». Аналогично и с прорисовкой картины. Обычно нет задачи «строгого фотореализма», но есть задача «приблизительной прорисовки с приемлемым качеством и приемлемым fps».

EvgenijM86
()
Ответ на: комментарий от EvgenijM86

Насчёт фотореализма в играх аффтар сделал всем очень смешно, поскольку не читал, что из себя представляли шейдеры и зачем они вообще были нужны.

dn2010 ★★★★★
()

то есть для более старых карт - фигу ? так ?

alwayslate ★★
()
Ответ на: комментарий от Deliverance

На ноутбуке A4 без дискретной видеокарты, KDE не лагает (Gnome не ставил пока), на десктопе RX 470 - ни Gnome, ни KDE не лагают.

ЧЯДНТ?

ishido
()
Ответ на: комментарий от EvgenijM86

PPU. Специализированный чип для расчета графики.

Перепутал. Для расчета физики.

EvgenijM86
()
Ответ на: комментарий от dn2010

Специальные процессоры, предназначенные для нейросетей, на данном этапе развития это CUDA-ядра от nvidia, и очень редко робкие ростки чего-то другого.

Гугл еще чего-то разрабатывает. Так называемые TPU.

https://www.youtube.com/watch?v=BH-lOKfinDw

EvgenijM86
()
Последнее исправление: EvgenijM86 (всего исправлений: 1)
Ответ на: комментарий от EvgenijM86

Гугл еще чего-то разрабатывает. Так называемые TPU.

Гугл их, во-первых, никому не продаёт. А во-вторых, эти TPU умеют только целочисленные операции и годятся только гонять уже обученые нейросети, ибо для обучения надо считать градиенты. Гугл свои сети учит на тех же видеокартах от нвидии.

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.