LINUX.ORG.RU

Лучшая на сегодня видеокарта

 , , , ,


1

1

Лет 9 назад собрал новый десктоп. И здорово ошибся с видеокартой Radeon HD 6950. HD 6000 были последними, не поддерживавшими Vulkan. OpenCL не взлетел, всюду требовался CUDA, а поддержка Radeon-ов была «на отвяжись» или отсутствовала.

Что брать сейчас? Что из имеющихся останется актуально ещё лет 10?

Назначение — игры, обработка видео, использование современных экспериментальных библиотек для синтеза и распознавания речи и обработки изображений.

★★★★★

Ответ на: комментарий от AlexVR

актуально ещё лет 10?

Ну ты загнул.

Если бы взял не самую дорогую карту в магазине, а в полтора раза дешевле, не утыкался бы сейчас постоянно в требование поддержки Вулкана.

question4 ★★★★★
() автор топика
Ответ на: комментарий от question4

Я тестировал на Nvidia 2060 на 12 Гб которая. Из программ была xVASynth 2, а вот что для картинок использовал не помню точно, ESRGAN, конкретно я использовал модель NMKD UltraYandere.

vbcnthfkmnth123 ★★★★★
()
Последнее исправление: vbcnthfkmnth123 (всего исправлений: 1)
Ответ на: комментарий от question4

использование современных экспериментальных библиотек для синтеза и распознавания речи и обработки изображений.

Если использовать нейронки, то у amd с этим сложнее, cuda сейчас рулит и педалит. Решение от amd больше экспериментальное, если их хочется то вперёд, но готовься, что оно не заработает и с 10 раза.

ESRGAN-NNN требует только вулкан, и пойдет на любой видеокарте, даже от amd и той что в мобилке.

einhander ★★★★★
()
Последнее исправление: einhander (всего исправлений: 1)
Ответ на: комментарий от question4

В целом всем, ну если опускаться до памяти то GDDR6X vs GDDR6 и как следствие разница в скоростях при равном обьеме. Вообще к огромному сожалению радики обосрались с последними видяхами :(

Noob_Linux ★★★★
()
Ответ на: комментарий от Noob_Linux

GDDR6X vs GDDR6 и как следствие разница в скоростях при равном обьеме

Ага,

GDDR6 обеспечивает пропускную способность 448 Гбайт/с, у GDDR6X 608 Гбайт/с

Но в списке характеристик для обоих (Radeon RX 7900 и GeForce RTX 4090) стоит GDDR6X. Врут?

question4 ★★★★★
() автор топика
Последнее исправление: question4 (всего исправлений: 1)
Ответ на: комментарий от vbcnthfkmnth123

Сети жиреют и если собирать комп не на 1 год вперёд, то лучше взять с запасом. Во вторых, если больше памяти, то можно увеличить размер батча при обучении.

ox55ff ★★★★★
()
Ответ на: комментарий от Polugnom

RTX A6000

Комментарии в ДНСе радуют.


486 999 ₽

Достоинства: Довольно бюджетная карта

Ты специально купил для того чтоб написать этот отзыв?

Достоинства: Выглядит круто, классно что в 2023 году делают такие бюджетные карты что даже школьник может её себе позволить!

Достоинства: Гта 5 запустилась в 16к и 50 фпс!
Недостатки: Гта 4 на ультрах всё-же лагает…

Достоинства: хорошая бюджетная клавиатура

Достоинства: Доступная цена, тихая

Достоинства: Бюджетная Цена
Комментарий: Доволен покупкой для бюджетного пк

Достоинства: обьём видеопамяти производительность в очень крупных проектах
Недостатки: цена

И ты хочешь сказать, что купил её ?

question4 ★★★★★
() автор топика
Ответ на: комментарий от question4

Ты издеваешься?) на коробке обычно маркировка идёт) В любом случае смотри официальные спеки а не агрегаторы, там тебе GDDR8 напишут и ничего им за это не будет.

Noob_Linux ★★★★
()
Ответ на: комментарий от uwuwuu

Сейчас идет переход на новые типы памяти DDR6/GDDR7. Не лучшее время покупать что-то

Когда они появятся в продаже? GDDR7 представили в декабре, а сейчас пишут, что «стандарт ещё не завершён». Насколько я понял из Википедии, стандарт с новой цифрой выпускают раз в 6-7 лет, первые чипы появляются через год-полтора после объявления, карты — ещё через полгода-год, а ещё попозже добавляют букву и снова ждать новые карты.

Таким образом, сейчас только-только освоили GDDR6X, а карты с GDDR7 появятся к концу 2024-го года, а скорее в 25-м. Или уже известно, что будут раньше?

Если все ждут новые, цена на старые должна падать. Или хотя бы меньше расти :)

question4 ★★★★★
() автор топика
Ответ на: комментарий от question4

Тем, что видеокарта, а не затычка в слот для видео.
Я уже ошибся разок, взяв rx580, софт, который поддерживает opencl безбожно глючил и падал, rocm, которая позволяет адаптировать cuda для AMD карт - работал с трудом и постоянно ломался, да ещё и глючил. Если нужно только смотреть видео и запускать Вейланд полюбоваться - то AMD твой выбор. В любом другом случае лучше брать Nvidia. Купил 3060 на 12 гигов - проблем теперь не знаю.

Landgraf ★★★★★
()

Интересно что мешает взять сейчас любой мидл под задачи, не обязательно же ТОП в максимуме, один фиг через пару лет следующий мидл в таких задачах будет как топ сейчас.

sv_warvar
()
Последнее исправление: sv_warvar (всего исправлений: 1)
Ответ на: комментарий от sv_warvar

через пару лет следующий мидл в таких задачах будет как топ сейчас.

Но эти пара лет - не такой уже и маленький срок. А не топ во что превратится ? В беспомощный мусор. Придётся ещё раз брать не топ, а с топом можно будет ещё держаться.

lenin386 ★★★★
()
Последнее исправление: lenin386 (всего исправлений: 1)
Ответ на: комментарий от lenin386

Но, тут такое дело, если завтра выкатят какой-нибудь новый стандарт подключения видео «с полным погружением» и новыми же мониторами - то в мусор превратится всё. Типа, как с RTX. Т.е. играть-то можно, но уже не комильфо.

tiinn ★★★★★
()
Ответ на: комментарий от question4

RTX 4090, Чем она хороша? Чем она лучше, скажем, RX 7900 при равном объёме памяти?

Видеокарты AMD последнее время слишком горячие, на тяжелых задачах (например, нейросети) долго может не протянуть. Поэтому лучше Nvidia.

unfo ★★★★★
()

Увы, весь компьют безмадежно завендорлочен на невидию. Кроме, может быть, взлома хешей.

Но «Майкрософт» любит Линукс, и поэтому усердно работает над разрешением данной проблемы. Некоторые успехи уже имеются.

token_polyak ★★★★
()
Ответ на: комментарий от tiinn

Андроид живет только потому, что Эппл не разрешает купить и установить IOS для планшета с Алиэкспресса. В тот момент, когда Эппол такое сделает, Андроид кончится.

lenin386 ★★★★
()
Последнее исправление: lenin386 (всего исправлений: 3)
Ответ на: комментарий от lenin386

Речь же про риски) Я предложил способ, если реально возникнет ситуация, что вышла новая технология, а ты уже вложился, то просто идёшь и покупаешь новую почти сразу))

Что мешало автору пойти и купить NVIDIA? Неизвестно, но видимо что то мешало) Даже интересно, неужели Geforce GTX 580 сегодня с объём памяти в ~ 1ГБ реально бы комфортно использовался в нейронках, даже при условии поддержки современной Cuda и драйверов

sv_warvar
()
Последнее исправление: sv_warvar (всего исправлений: 1)
Ответ на: комментарий от einhander

Нужен не клон, а поддержка в популярных библиотеках нейросетей. Факт в том, что cuda это дефолт. А клоны если и поддерживаются то экспериментально, не в полном объёме и с глюками.

ox55ff ★★★★★
()
Ответ на: комментарий от ox55ff

И ещё у nvidia есть поддержка тензорных ядер и чисел bf16,

В rx7000 (rdna3) тоже появились вычисления над bf16, как-раз из-за нейронок, а вот в rx6000 (rdna2) такого нету. Если кому интересно что это такое то тут инфа.
Кратко, операции ALU над fp16 выполняются в два раза быстрее чем над fp32, но перегнать fp32 в fp16 и обратно не просто, потому как размеры мантиссы и экспоненты отличают у этих типов. А вот bf16 по размерам экспоненты эквивалентен fp32, только в хвосте «откусанны» 16 бит у мантиссы, т.е. у bf16 1-бит знаковый, 8-бит экспонента (как и у fp32), но мантисса всего 7 бит.
Но у nvidia чуть круче, у них ALU работает с tf32, а это фактически bf19 =) т.е. bf16 + 3 дополнительных бита у мантиссы.

Aber ★★★★★
()
Последнее исправление: Aber (всего исправлений: 1)
Ответ на: комментарий от ox55ff

Как я понял, кудовый код перекомпилируется в нативный для амд. И в pytorch она есть. Для тезора есть форк. Поэтому и говорю, что для экспериментов.

einhander ★★★★★
()
Последнее исправление: einhander (всего исправлений: 2)