Насколько я тебя понял, ты имеешь в виду уменьшение эффективного разрешения вывода с масштабированием до реальных размеров матрицы. Теоретически энергопотребление может уменьшиться из-за снижения нагрузки на графическое ядро. В каких-то смартфонах такой трюк использовался для энергосбережения. О реальной эффективности ничего не скажу.
Теоретически энергопотребление может уменьшиться из-за снижения нагрузки на графическое ядро
В некоторых случаях — ощутимо. Например, на процессорах Intel поколения Haswell или старее при использовании разрешений выше 1080p без PSR энергопотребление чипсета (всего, вместе с процессором) возрастает в несколько раз.
Да, у меня в телефоне можно выбрать 1520x720 или 2280x1080. По качеству изображения разницы никакой, даже если прям к носу поднести экран. Но, впрочем, по пожиранию батарейки я тоже особо сильной разницы не заметил. Может в играх заметно будет, у меня их нет просто.
Ну, во-первых, это всё же не монитор, а ноут целиком, а во-вторых врёти.
Могу завтра замерить потребление xps с qHD матрицей, покажешь сколько у тебя с fhd?
У, собственно, монитора может, кстати, и вырасти, в некотором случае. Но это шуточки.
У системы в целом... Лет пятнадцать (но это не точно, может и лет десять) назад лично меня попросили посмотреть «что на новом мониторе за квадратики». Оказалось, старому компьютеру со старым Радеоном купили новый большой монитор. Радеон у EDID взял правильное родное для монитора разрешение и перегрелся от этого, причем необратимо перегрелся. А с тем 1024х768, на которое был расчитан, еще жил бы и жил. И это еще при том, что со старым ЭЛТ монитором он давал частоту обновления 80, а с новым - 60.
Чем больше разрешение, тем больше пикселей обсчитывать надо, а это нагрузка, нагрев и жор.
по-моему да, чем меньше элементов, меньше их плотность, тем потребление ниже. при сопоставимых поколениях техники, ес-но. по крайне мере таковы мои наблюдения за рынком техники.
А есть ли смысл проверять именно так? В ряд ли разница в потреблении матриц будет сильно отличаться (без учёта возможно меньшей способности к пропусканию света при большей плотности пикселей, что потребует поднимать ток подсветки для получения той же яркости как на обычном дисплее, но это вроде не важно для треда).
Может лучше подключить ноут к монитору (или хотя бы к EDID заглушке) и изменять потребление в разных графических режимах 640x480/hd/fullhd/4k?
А с какой стати нет? Если условные 1920x1080 скинуть до условных 1366x768, то GPU надо будет считать в два раза меньше пикселей. Мгновенное потребление может и не изменится (за исключением видеовыхода), но среднее уменьшится.