LINUX.ORG.RU

Ноутбук, Процессор vs GPU

 , ,


0

2

Посоветуйте, плиз. Есть ноут на AMD с Vega. На ноуте, априори, основным потребителями батареи являются экран и процессор. Ну, экран величина постояннвя. ;) Соответственно, в неигровом режиме, при высокой нагрузке, например при просмотре FHD видео с ютуба или разговоре по ZOOM загрузка процессора составляет до 80%, и выше. (Ноут справляется, но «гудит») Если включить аппаратное ускорение, например VA-API, то получится, где-то: процесcор 30% и GPU 30%. т.е. потребление энергии процессором уменьшится, а GPU начнёт есть, и возможно много. Вопрос вот в чём,- если GPU имеет такое-же потребление энергии, при пропорциональной нагрузке, как и процессор, если смысл настраивать аппаратное ускорение в браузере? Если, предположительно, энергопотребление будет почти одинаковым. Или может даже увеличится, если GPU потребляет больше? Вопрос в свете потребления энергии, жизни аккамулятора.

Всё не читал. Кодеры\декодеры вообще по большей части на отдельных блоках считаются, которые только это умеют, но эффективнее. Конечно в программе может быть неэффективная реализация, пересылка много потребляет, или ещё что. Считай по разряжаемости и температуре, точней никак.

boowai ★★★★ ()

Нельзя просто суммировать загрузку на разные типы чипов. Видио декодируемая с другим power consumption чем вычисления на x86.

Просто сделай тест на разрядку при разных настройках и выбери что для тебя лучше.

system-root ★★★★★ ()

Покажи другу через зум фильм. Два раза покажи на ускорении через гпу и без. Какой фильм друг успеет досмотреть тот вариант и победитель.

anonymous ()
Ответ на: комментарий от WitcherGeralt

Единственное, что показатели очевидно отстают. Я запустил линпак и только через секунд 20 увидел, что rate перевалил через 15 ватт.

Как-то так: watch n=.5 'cat /proc/acpi/battery/*/state | grep rate'

Запускай видео и смотри. Может быть, меня кто-то поправит, но по-моему это самый простой и корректный способ.

WitcherGeralt ★★ ()
Ответ на: комментарий от WitcherGeralt

по-моему это самый простой и корректный способ

Если проц от Intel, то можно на собственные замеры процессора смотреть:

sudo turbostat --quiet -i 1 -s 'PkgWatt,CorWatt,GFXWatt,RAMWatt'

Там будет видно, сколько потребляет вся сборка целиком, сколько CPU ядра, сколько GPU и сколько контроллер памяти.

i-rinat ★★★★★ ()

Или может даже увеличится, если GPU потребляет больше?

Это хороший вопрос. Ответ — да, может увеличиться.

Всё сложно, и без замеров ничего определённого сказать нельзя. Вон, когда Intel выкатили SNA, там часть работы выполнялась на CPU, и это было быстрее, чем на GPU, потому что на мелких задачах на подготовку инструкций для GPU, отсылку и синхронизацию уходило больше времени.

i-rinat ★★★★★ ()

Вопрос вот в чём,- если GPU имеет такое-же потребление энергии, при пропорциональной нагрузке

Это вопрос к реализации. Декодированием видео на в графическом процессоре занимается специальный отдельный ASIC, он ничего другого делать не может и часто он один на всю линейку GPU, т.е. разницы между самым дешевым GPU и самым дорогим не будет, т.к. в кремнии во всех чипах идентичный блок. Он должен потреблять очень мало, но кто его знает как получаемые картинки выводятся на экран, может там 10 раз копирование происходит и все преимущество аппаратного ускорения нивелируется.

anonymous ()

Кстати у меня тоже ноут на амд, когда я отключаю от энегосети то мониториг батареи (например через lm-sensors) показывает вольты и амперы. Если у тебя так же то запусти видео и посмотри сколько V*A потребляет в одном и другом случае.

anonymous ()
Ответ на: комментарий от anonymous

асики в видюхе ?? а можно поподробнее. чет мне каатцо в видюхе они бессмысленны.
какойнить сборщик видеопотоков с камер, где кодек один и он неизменен как основы марксизма-ленинизма, еще поверю. но на видюху скидывают много слишком разного медиа материала чтобы асиками заморачиваться.

pfg ★★★★★ ()
Последнее исправление: pfg (всего исправлений: 1)
Ответ на: комментарий от pfg

ASIC, урл не дам, но на всех полярисах от rx460/550 до rx590 идентичная производительность кодирования/декодирования (прямо 1 в 1). Еще я помню когда-то читал всякие tomashardware, там об этом писали, публиковали красивые слайды от amd/nvidia, с условными каратами процессоров, там писали и про аппаратное ускорение. 5-10 лет назад я это все читал, тогда бы мог кинуть ссылку, сейчас нет, поищи в гугле :)

anonymous ()
Ответ на: комментарий от anonymous

ага тож про ip-блок помыслил.
хех даже в интеловский сборник мусора аппаратный кодек накинули.
https://ru.wikipedia.org/wiki/Intel_Quick_Sync_Video
как бесхозяйственно тратится площадь кристалла…

pfg ★★★★★ ()
Последнее исправление: pfg (всего исправлений: 1)
Ответ на: комментарий от WitcherGeralt

DSP все таки инструментарий общего назначения, на нем много разной математики к разным сигналам применить можно. а если изгибнутся и не только.
асик более узко заточен.

pfg ★★★★★ ()
Ответ на: комментарий от WitcherGeralt

На видюхах, вроде нет, там мощностей и так дофига, это реализуется драйвером

Да как-то не очень. Та же Nvidia GTX 980 Ti (монстр за $649) не умеет декодировать H.265.

А вот более новая бюджетка Nvidia GTХ 950 ($159) запросто

fornlr ★★★★★ ()
Последнее исправление: fornlr (всего исправлений: 1)
Ответ на: комментарий от mittorn

У меня в openSUSE Leap 15.2 (5.3.18-lp152.50-default) это называется power_now. Точно так же отстаёт. Возможно, отстаёт не на любом железе, а только на моём.

WitcherGeralt ★★ ()
Последнее исправление: WitcherGeralt (всего исправлений: 1)