LINUX.ORG.RU
ФорумTalks

В новом процессоре AMD Ryzen 6000 будет мощная интегрированная видеокарта

 , ,


0

1

According to the first leak, an unknown processor of this line is gaining about 2700 points in 3DMark Time Spy. And that’s impressive for the integrated graphics core. For comparison, the Ryzen 7 5800U scores around 1200-1300 points, and even the desktop Ryzen 7 5700G only boasts about 1700 points. That is, relative to its direct predecessor, the new AMD product will be more than twice as fast! By the way, this is already a result of the level of the overclocked GTX 1050 Ti.

По утечке производительность интегрированной видеокарты в Ryzen 6000 лучше чем у GTX 1050 Ti

1050ti стоит 25к, а тут процессор с видеокартой за примерно такиеже деньги будет (стоимость не известна, я предполагаю)

(кто еще думает что Нвидия не накручивает цены еще один повод задуматься)

а мощной дискретной не будет?

darkenshvein ★★★★★
()
Ответ на: комментарий от int13h

как нет? у АМД есть но они все эксклюзивные - Xbox и СтимДек имеют очень мощную встроенную видеокарту.

Рынок ПК слишком мал чтоб всерьез к нему относиться - это основная причина что всем пофиг на ПК и есть один монополист Нвидия которая доит рынок. (куда антимонаполщики смотрят я хз)

svv20624
() автор топика
Ответ на: комментарий от Ford_Focus

нет смысла кратно разгонять производительность iGPU - реальная производительность всё равно воткнётся в пропускную способность оперативки

чел игровые приставки «технологически» обгоняют ПК на 5-10 лет

даже в прошлом поколении PS4 и Xbox One можно было невероятные оптимизации делать за счет того что видео память и РАМ можно читать/писать из CPU и GPU

и да скорость оперативки в сотни раз быстрее чем PCI-E, PCI-E нереальный тормоз

svv20624
() автор топика
Ответ на: комментарий от untitl3d

Для офиса кичиться мощной встройкой выглядит глупо, а хейтюфил тут поясняет, что для серьезных задач оно не подходит. Невыясненным остается одно — нафейхуа оно надо?

Нет, я такого не пояснял. Что такое серьёзные задачи? Встроенные заруливают в ляптопах просто на ура, потому что нормальную дискретку в небольшой ляптоп не вставишь: охлаждения и питания не хватит, если это не гигантский гроб.

hateyoufeel ★★★★★
()
Ответ на: комментарий от svv20624

чел игровые приставки «технологически» обгоняют ПК на 5-10 лет

Угу, учитывая что там тот же x86 сейчас. Причём устаревший даже на момент выхода приставки.

и да скорость оперативки в сотни раз быстрее чем PCI-E, PCI-E нереальный тормоз

Тебя обманули и очень жестоко. У DDR4 3200 пропускная способность 25.6 GB/s на канал. У PCIe 4.0 16x при этом – 32 GB/s. Так что завязывай с травой, чувак.

hateyoufeel ★★★★★
()
Последнее исправление: hateyoufeel (всего исправлений: 2)
Ответ на: комментарий от hateyoufeel

Тебя обманули и очень жестоко. У DDR4 3200 пропускная способность 25.6 GB/s на канал. У PCIe 4.0 16x при этом – 32 GB/s. Так что завязывай, чувак.

тыже конечно учитываешь тот факт что PCIe имеет односторонний канал, и выделение 256Мб памяти занимает 200миллисекунд, выделение 4Гб памяти занимает 1 секунду, общее время на выгрузку 256 Мб памяти из PCIe в RAM занимает пол секунды (как память в рам окажется). Когда копирование 256Мб внутри RAM занимает несколько миллисекунд

я говорю про реальную скорость а не маркетинговые цифры

svv20624
() автор топика
Последнее исправление: svv20624 (всего исправлений: 1)
Ответ на: комментарий от svv20624

тыже конечно учитываешь тот факт что PCIe имеет односторонний канал

PCI Express bus link supports full-duplex communication between any two endpoints, with no inherent limitation on concurrent access across multiple endpoints.

Ага, щаз.

выделение 256Мб памяти занимает 200миллисекунд, выделение 4Гб памяти занимает 1 секунду, общее время на выгрузку 256 Мб памяти из PCIe в RAM занимает пол секунды (как память в рам окажется).

Чувак, хватит нас своих тупняком заваливать. Это даже не смешно. Это просто очень тупо.

hateyoufeel ★★★★★
()
Ответ на: комментарий от hateyoufeel

перед тем как чтото писать поработай реально с PCIe видеокартами и их памятью, маркетинговые цифры не имеют ничего общего с реальностью (доказывать я тебе ничего не буду чел)

svv20624
() автор топика
Ответ на: комментарий от hateyoufeel

GeForce products feature a single DMA Engine* which is able to transfer data in one direction at a time. If data is being uploaded to the GPU, any results computed by the GPU cannot be returned until the upload is complete. Likewise, results being returned from the GPU will block any new data which needs to be uploaded to the GPU. The Tesla GPU products feature dual DMA Engines to alleviate this bottleneck. Data may be transferred into the GPU and out of the GPU simultaneously.

GeForce GPUs do not support GPU-Direct RDMA. Although the MPI calls will still return successfully, the transfers will be performed through the standard memory-copy paths. The only form of GPU-Direct which is supported on the GeForce cards is GPU Direct Peer-to-Peer (P2P). This allows for fast transfers within a single computer, but does nothing for applications which run across multiple servers/compute nodes. Tesla GPUs have full support for GPU Direct RDMA and the various other GPU Direct capabilities. They are the primary target for these capabilities and thus have the most testing and use in the field.

svv20624
() автор топика
Последнее исправление: svv20624 (всего исправлений: 1)
Ответ на: комментарий от untitl3d

А расскажите мне, кто знает, зачем нужны видеокарты встроенные в процессор?

Для работы. Они обычно потребляют в несколько раз меньше чем отдельные карты
Большинству людей не нужны отдельные видеокарты, так как они не интересуются компьютерными 3д игрушками.

И зачем тогда теперь нужны невстроенные?

Для компьютерных 3д игр которые потребляют очень много ресурсов в высоком разрешении

grim ★★☆☆
()
Ответ на: комментарий от lenin386

Например у Dell компьютер с мошной видеокартой стоит меньше $2k CAD

grim ★★☆☆
()
Ответ на: комментарий от otto

А что, использовать общую оперативу лучше?

HBM у Эпл показывает что да, лучше, причем как для процессора так и для видео.

grim ★★☆☆
()
Ответ на: комментарий от svv20624

Ну да, там где nvidia зарабатывает пару билов в квартал, для амд это же чепуха, если бы не плевать, то сделали бы 😄 У 3060 tdp что-то в районе 170-180Вт, gddr6 память с псп в 4 раза больше чем у только что вышедшей для пк ddr5 и площадь чипа больше чем у двухчиплетных ryzen 5000x. Фантазеры такие фантазёры

cobold ★★★★★
()
Ответ на: комментарий от svv20624

чел игровые приставки «технологически» обгоняют ПК на 5-10 лет

«технологически», игровые приставки = одноплатные компьютеры, и вертел я на пне такое «обгоняют»

и да скорость оперативки в сотни раз быстрее чем PCI-E, PCI-E нереальный тормоз

там, где PCI-E реально тормозит уже давно реализовали альтернативы - NVLink и xGMI

Ford_Focus ★★★★★
()
Ответ на: комментарий от svv20624

GeForce products feature a single DMA Engine* which is able to transfer data in one direction at a time.

Ты опять письку с пальцем попутал? Это не ограничение PCIe, это ограничение GeForce. У Quadro этого ограничения нет и ты можешь данные в обе стороны гонять.

GeForce GPUs do not support GPU-Direct RDMA.

А вот это ты вообще к чему привёл? RDMA – это про передачу данных между компами, а не в пределах одного компа. Читай дальше что ты сам скопипастил.

hateyoufeel ★★★★★
()
Ответ на: комментарий от svv20624

Давай тебе немного расскажу как работает cpu gpu pcie и память, чтоб ты больше бредятину не нёс.

Начнем с памяти. Для cpu всегда был важен только один её параметр - как быстро можно получить/записать 64 байта - с минимальной задержкой. Процессор даёт команду с адресом, память через некоторое время выплевывает данные. Частоты росли, но физику не обманешь и время команда->данные не поспевало за частотой. Также росло количество ядер, висящих на этой памяти, поэтому стало важно уметь параллельно исполнять как можно больше независимых запросов. Это можно достичь либо улучшая протокол, либо увеличивая количество независимых каналов (= «ширина»). Все вот эти переходы DDR2-3-4-5 не только про увеличение частот (= уменьшение напряжения), но и про изменение протокола. И ирония в том, что память *DDR, вообще-то, однонаправленная (полудуплексная) - одновременно на шине данных либо данные для чтения, либо для записи.

Теперь про то, как работает GPU - это куча ядер, которые пережевывают потоки данных из памяти. В целом неважно, из какой памяти идут данные, важно одно - насколько быстро она может прокормить кучу независимых ядер независимыми поточными данными. Это близко к понятию пропускной способности, задержка уже не так критична. И у GPU с самого с самого начала (нулевые, когда появились GP-GPU) висело куча ядер на одной несчастной памяти, поэтому начали делать отдельную память, заточенную под кучу параллельных операций - GDDR.

Типичные параметры памяти CPU (Zen 2) - 2 канала x 64 бита x 3200 MT/s = 51.2 GB/s

Типичные параметры памяти GPU (RTX 3070) - 8 каналов x 32 бита x 16000 MT/s = 512 GB/s

Теперь, PCIe. В отличие от памяти, он таки полнодуплексный, т.е. данные бегут одновременно в обе стороны. Типичные цифры - 16 линий x 16000 MT/s = 32 GB/s. Но проблема PCIe не в пропускной способности - а в задержках. Типичные цифры - 500нс на запрос, на десятичный порядок больше DDR. Почему PCIe не является узким местом для GPU в случае игрушек? Потому что процесс выглядит так: CPU грузит сцену (модели, текстуры, шейдеры) в память GPU через PCIe один раз и дальше только подкручивает помаленьку. GPU пережевывает в своей памяти данные 60-144-9000 раз в секунду и выводит картинку.

Но вот беда - в ноутбук или мобильник сложно засунуть 200-ватный GPU с его широкой и хорошей памятью. Давайте засунем GPU рядом с CPU и пустим его работать на памяти CPU. Будет жутко тормозить (см параметры памяти), но маркетологи могут сказать - «зато никаких накладных расходов на тормозной PCIe». Ну и GPU можно притупить - все равно память его данными не прокормит. В итоге имеем что память общая, грузить сцену не надо, но она жутко узкая для нормальных gpu и годится только рабочий стол композитить, да майнкрафт гонять. Для решения проблемы придумали гибридный стандарт памяти - LPDDR(X). Но помогло не сильно - например, в «божественном» Apple M1 - 4 канала x 32 бит x 4267MT/s = 68.3GB/s. Также, пытаются кастрировать (оптимизировать) 3d-рендеринг, чтобы GPU меньше лазил в память (tile-based rendering).

Проблему можно решить, если поставить CPU и GPU вместе с HBM-памятью рядом. Типичные параметры HBM (HBM2E): 8 каналов x 128-бит x 3200MT/s = 409.6 GB/s. HBM3 обещают 819 ГБ/с, что уже интересно, с учетом того, что в GPU их ставят по 4, получаем дикие 3276 GB/s Но HBM - это пока дорого, даже apple не решилась на это, поставив обычный ddr максимально рядом с cpu и пытаясь выдать за инновацию.

Итого имеем - пока не сделают быструю распаралеленную память (как gddr6) , хорошую и для cpu и для gpu встройки не догонят дискретные gpu.

Теперь про nvidia и dma. Nvidia четко разделяет рынок на энтерпрайз и геймеров. Чтобы энтерпрайз платил больше за квадру, джифорсы урезают, но не в области игрушек. Для игр нужна быстрая передача cpu->gpu, выгружать данные обратно не нужно. Поэтому они оставили только один dma engine, который тем не менее, загрузит весь pcie, но только в одну сторону. Также у гифорсов ограничено количество потоков для кодирования видео - до 3. Для стриминга на твитчик и одного-двух хватит.

RDMA - это вообще про общение gpu-gpu между узлами в кластере. Или между двумя gpu на одном pcie.

А майкрософт и сони поняли, что им не хватит ресурсов тягаться с ATI/AMD/Intel/Nvidia и сделали единственно верный ход - собирать средней паршивости ПК, обазывать TPM и DRMом, продавать по себестоимости и рубить бабло на оверпрайснутых играх

P.S.

GTX 1050 Ti: 4 канала x 32 бит x 7000 MT/s = 112GB/s

DDR5: 2 канала x 64 бит x (4800 - 7200) MT/s = 76.8-115.2GB/s

Вот и весь секрет. Наверняка ’утечка" была организована с топовой памятью и оверклоком. Так что никакой особой инновации и прорыва.

Kosyak ★★★★
()
Ответ на: комментарий от t184256

Для серьёзных задач нужны топовые видюхи

Сейчас стали делать некоторый софт через электрон, который в интерфейсе вместо 2D использует 3D и люто грузит видеокарту. Понятно, что это рукожопы, но дискретка даже в неигровых сценариях очень полезна.

Lordwind ★★★★★
()
Ответ на: комментарий от Lordwind

Да ладно тебе рассказывать, большинство ПК — ноуты с интеграшками. Что запускать, чтобы убедиться, что ты не прав?

t184256 ★★★★★
()
Ответ на: комментарий от sid350

4к монитор есть, даже вроде 630 в рабочем ноуте есть, но гном не тормозит, а значит куда уж винде?

Последний X1 Carbon должен их чуть ли не 4 тянуть без всяких дискреток.

t184256 ★★★★★
()
Последнее исправление: t184256 (всего исправлений: 1)
Ответ на: комментарий от t184256

Да. Но вейланд тоже медленнее винды. Точнее плавность ниже. Открой любой ролик на ютубе и поскроль - увидишь дичайшие тормоза.
В то же время на 3080 всё абсолютно плавно.

sid350 ★★★★★
()
Последнее исправление: sid350 (всего исправлений: 2)
Ответ на: комментарий от t184256

Видимо, тебе повезло, и у тебя самая мощная в мире Intel 630. Либо ты привык и не видишь. Здесь обитают персонажи, которые смотрят на тиринг и утверждают что его нет, так что веры не будет.

sid350 ★★★★★
()
Ответ на: комментарий от sid350

Я знаю, что такое тиринг, у меня была самая дохлая Intel GMA, да и иксы в принципе я застал.

t184256 ★★★★★
()
Ответ на: комментарий от Kosyak

ммм окей

Типичные цифры - 500нс на запрос, на десятичный порядок больше DDR. Почему PCIe не является узким местом для GPU в случае игрушек? Потому что процесс выглядит так: CPU грузит сцену (модели, текстуры, шейдеры) в память GPU через PCIe один раз и дальше только подкручивает помаленьку. GPU пережевывает в своей памяти данные 60-144-9000 раз в секунду и выводит картинку.

при ML/NN обучении загрузка 4гб в VRAM из RAM занимает 2+ секунды, ну и при майнинге не просто так видеокарты AMD в приоритете за счет более быстрого трансфера данных

svv20624
() автор топика
Ответ на: комментарий от t184256

Десктопное приложение Plex, но оно только на win/mac.

Lordwind ★★★★★
()
Ответ на: комментарий от sid350

Давным-давно, когда в видяшках был специальный видеооверлей, таких проблем не было.

Shadow ★★★★★
()
Ответ на: комментарий от Kosyak

Но HBM - это пока дорого, даже apple не решилась на это, поставив обычный ddr максимально рядом с cpu и пытаясь выдать за инновацию.

Это что, мне не давно попадася на ютубе ролик мастера так он объяснял что HBM память очень хорошо отваливается от основы на которую сажают кристаллы.

… Или почему я не беру карты на HBM памяти?

torvn77 ★★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.