LINUX.ORG.RU

Запуск на второй видеокарте

 ,


0

2

В играх работает процессорная видеокарта, ноутбук имеет дополнительную.

00:01.0 VGA compatible controller: Advanced Micro Devices, Inc. [AMD/ATI] BeaverCreek [Radeon HD 6520G]
01:00.0 VGA compatible controller: Advanced Micro Devices, Inc. [AMD/ATI] Thames [Radeon HD 7500M/7600M Series]

После Xorg -configure и некоторых изменений

Section "ServerLayout"
	Identifier     "X.org Configured"
	Screen      0  "Screen0" 0 0
	InputDevice    "Mouse0" "CorePointer"
	InputDevice    "Keyboard0" "CoreKeyboard"
EndSection

Section "Files"
	ModulePath   "/usr/lib/xorg/modules"
	FontPath     "/usr/share/fonts/misc"
	FontPath     "/usr/share/fonts/TTF"
	FontPath     "/usr/share/fonts/OTF"
	FontPath     "/usr/share/fonts/Type1"
	FontPath     "/usr/share/fonts/100dpi"
	FontPath     "/usr/share/fonts/75dpi"
EndSection

Section "Module"
	Load  "glx"
EndSection

Section "InputDevice"
	Identifier  "Keyboard0"
	Driver      "kbd"
EndSection

Section "InputDevice"
	Identifier  "Mouse0"
	Driver      "mouse"
	Option	    "Protocol" "auto"
	Option	    "Device" "/dev/input/mice"
	Option	    "ZAxisMapping" "4 5 6 7"
EndSection

Section "Monitor"
	Identifier   "Monitor0"
	VendorName   "Monitor Vendor"
	ModelName    "Monitor Model"
EndSection

Section "Device"
	Identifier  "Card0"
	Driver      "radeon"
	BusID       "PCI:0:1:0"
EndSection

Section "Screen"
	Identifier "Screen0"
	Device     "Card0"
	Monitor    "Monitor0"
	SubSection "Display"
		Viewport   0 0
		Depth     1
	EndSubSection
	SubSection "Display"
		Viewport   0 0
		Depth     4
	EndSubSection
	SubSection "Display"
		Viewport   0 0
		Depth     8
	EndSubSection
	SubSection "Display"
		Viewport   0 0
		Depth     15
	EndSubSection
	SubSection "Display"
		Viewport   0 0
		Depth     16
	EndSubSection
	SubSection "Display"
		Viewport   0 0
		Depth     24
	EndSubSection
EndSection

Изменял «PCI:0:1:0» на разные значения, но сервер не запускался.

Ответ на: комментарий от K12

На Windows в CS:GO на минимальных настройках была плавная картинка. Конечно, в дефматч не погонять - много противников, все плохо, вплоть до вылета AMD. Но ММ «без слез». Майнтест, естественно, еще лучше заходил.

DyadVitya98 ()
Ответ на: комментарий от DyadVitya98

Arch Linux

На ноутах всякие убунты-то через одно место две видяхи используют, а ты на арче решил красноглазить в рукопашную.

Во-первых накати все дрова от иксов, какие есть. Во-вторых удали xorg.conf, всякое разное, если захочется настраивай через xorg.conf.d по отдельности. Но только после того как видяха заведётся.

no-such-file ★★★★★ ()
Ответ на: комментарий от DyadVitya98

Нет, это установленная на ноутбук версия Arch Linux.

https://wiki.archlinux.org/index.php/ATI

https://wiki.archlinux.org/index.php/AMDGPU

https://wiki.archlinux.org/index.php/Xorg#AMD

https://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units

Если в выхлопе glxinfo vmware - значит, не установлен драйвер.

А, ещё надо показать /var/log/Xorg.0.log

Dimez ★★★★★ ()
Последнее исправление: Dimez (всего исправлений: 1)
Ответ на: комментарий от DyadVitya98

У тебя там написано: «(II) RADEON(0): GPU accel disabled or not working, using shadowfb for KMS». Судя по твоему xorg.conf, ускорение ты не отключал, а значит оно не включено.

Что в файле /sys/module/radeon/parameters/modeset? Может, у тебя как-то оказался modeset выключен?

i-rinat ★★★★★ ()
Ответ на: комментарий от BceM_IIpuBeT

Тогда получается, ядро это энвидия наоборот.

(На самом деле, DRI_PRIME это фича Mesa, а конкретнее — её реализации GLX. Та опирается на иксы, те на юзерспейс-дрова, те на ядерные дрова, а те на DMA-BUF, который залочен на GPL-модули.)

i-rinat ★★★★★ ()
Ответ на: комментарий от K12

Нвидия вообще не умеет гибридную графику на линуксе - только сторонними полурабочими костылями можно что-то там сделать. DRI_PRIME же для видеокарт с нормальными драйверами, и делает всё гораздо прямее, чем тот же оптимус на венде.

Quasar ★★★★★ ()
Ответ на: комментарий от Quasar

и делает всё гораздо прямее, чем тот же оптимус на венде

Ну-ка, ну-ка, давай подробности. Как в линуксе, как в винде. Давай, рассказывай детали реализации.

i-rinat ★★★★★ ()
Ответ на: комментарий от i-rinat

Ну-ка, ну-ка, давай подробности. Как в линуксе, как в винде.

Если ты про optimus, то что в линуксе что на венде работает он через костыли. Официально заявлено, что optimus копирует фреймбуфер на GPU интеграшки, но на деле приложения и игры там работают через задницу. Например, в истории с майнинговым вариантом 1060 через оптимус не всё запускалось. Есть серьёзные основания считать, что реализовано это подобно VirtualGL.

Quasar ★★★★★ ()
Ответ на: комментарий от Quasar

делает всё гораздо прямее, чем тот же оптимус на венде

Оптимус на венде переключает графику. А у амуде crossfire вообще-то, там оба видика работают. Сравнение некорректное.

K12 ()
Ответ на: комментарий от Quasar

что optimus копирует фреймбуфер на GPU интеграшки

А какие есть варианты, если LVDS/eDP находится в хабе в любом случае с двумя видеочипами? Вывод всегда через интеграшку, любую схему открой.

K12 ()
Ответ на: комментарий от i-rinat

Надёжные сведения есть в схемах. Современные видеочипы в ноутах являются по сути вычислительными модулями, и самим выводом графики не занимаются. Схема ноута тредом ниже, полностью аналогичного обсуждаемому тут, вторая страница http://www.s-manuals.com/ru/motherboard/compal_la-8863p

K12 ()
Ответ на: комментарий от i-rinat

Он там писал что якобы гонять данные между двумя видиками это что-то плохое.

А по факту везде так. И хорошо если софт хотя бы это может реализовать %)

Что там, кстати, с crossfire amd под линуксом, а то я отстал от темы. Ещё 15 лет назад долбился с дровами на Radeon X750.

K12 ()
Ответ на: комментарий от K12

Это какая-то бессмысленная схемотехника. Судя по отзывам в интернете, оно и в винде не ахти как хорошо работает. Дискретная видеокарта может быть даже слабее встройки. Зачем их такие ставят — не ясно.

i-rinat ★★★★★ ()
Ответ на: комментарий от i-rinat

Ну уж какая есть. Просто тут квазар рассказывает что амуде под линуксом работает лучше венды, вот мне и интересно стало про кроссфайр. Я подумал может кто ещё про такое знает.

Хотя почему бы и нет так-то. Идея вполне разумная, чего лишнему видео простаивать.

K12 ()
Ответ на: комментарий от K12

рассказывает что амуде под линуксом работает лучше венды

А я рассказываю, что у меня на каком-то там шейдере в ShaderToy скорость в линуксах была больше, чем в винде. Бывает, чо.

Идея вполне разумная, чего лишнему видео простаивать.

Так оно там 10-20% прирост даёт, а жрёт на 100% больше. Лучше встройку пожирнее поставить. За тот же тепловой бюджет больше производительности будет. И себестоимость, небось, ниже выйдет.

i-rinat ★★★★★ ()
Последнее исправление: i-rinat (всего исправлений: 1)
Ответ на: комментарий от i-rinat

Так оно там 10-20% прирост даёт, а жрёт на 100% больше.

Я проверю как плата подходящая попадётся, нередко бывают. Правда получится проверить именно без дискретки, а не без встройки. Но сейчас так скажу - на мой взгляд это не соответствует реальности. Ноут на такой платформе жрёт 1.5 ампера без нагрузи на видео вообще, с нагрузкой - 2. Это без разделения на встроенную/дискретную.

Лучше встройку пожирнее поставить. За тот же тепловой бюджет больше производительности будет. И себестоимость, небось, ниже выйдет.

Поставили уже. Теперь всё в одном чипе, подох - можешь ноут на помойку выносить, ну либо круглая сумма за замену.

Да и вообще это дебилизм когда горячее видео греет холодный хаб на той же подложке. Вот это реально идиотская схемотехника.

K12 ()
Ответ на: комментарий от K12

Теперь всё в одном чипе, подох - можешь ноут на помойку выносить, ну либо круглая сумма за замену.

У меня один ноут так умер по непонятной причине, так мне его лень нести в ремонт. Кто его знает, что там в этом ремонте будет. Это ж ещё надо найти нормальных ремонтников, которые умеют ремонтировать, а не просто аккумулятор вытаскивать-вставлять обратно. Может, вообще проще у китайцев плату заказать да самому поменять.

Так что разницы не вижу.

Ноут на такой платформе жрёт 1.5 ампера без нагрузи на видео вообще, с нагрузкой - 2. Это без разделения на встроенную/дискретную.

Не пользовался никогда AMD-шными ноутами. Но вот у меня сейчас Intel’овский проц в простое около ватта жрёт. А если его нагрузить, все 20, что легко перевешивает всё остальное в ноуте, кроме видео. Если по параметрам встроенное видео и дискретка примерно одинаковые (шейдерные юниты или как их там), они ведь и есть должны примерно одинаково? А значит если дискретка и встройка одновременно работают, вместе они потреблять будут примерно в два раза больше, чем встройка. Если предположить, что GPU — самые жрущие компоненты, удвоение GPU примерно равно удвоению общей потребляемой мощности. Так?

i-rinat ★★★★★ ()
Последнее исправление: i-rinat (всего исправлений: 1)