LINUX.ORG.RU

Две разные видеокарты в одном пк.

 , ,


0

2

Есть: ASROCK B450 STEELLEGEND, AMD RYZEN 5 3600, GeForce 1050 ti, 16 GB DDR4.

Прекрасно работающая карта в винде и отвратительно работающая на линуксе, юзабельность в GNOME и KDE близится к нулю. Хочу купить недорогую карту от AMD, которая вполне дружит с Linux, вроде RX 560 - RX 580, которые достаточно старые, но достаточно производительные для игр и задач.

Теперь вопрос про железо: смогу я держать на одной материнке две видеокарты в разных PCI-слотах (благо их два для видяхи) и в зависимости от системы, просто подключать мониторы к нужной видяхе, а вторая в это время будет простаивать, или же они будут друг другу мешать?

★★

Последнее исправление: PavelRyzhov (всего исправлений: 2)

Прекрасно работающая карта в винде и отвратительно работающая на линуксе, юзабельность в GNOME и KDE близится к нулю.

В чём это выражается?

RazrFalcon ★★★★★
()
Ответ на: комментарий от RazrFalcon

Подлагивание меню приложений, в целом сейчас не все так ужасно, как было 4 года назад, новые драйвера решили проблему тиринга и на XFCE4 вполне комфортно и на NVIDIA сидеть, но это закрывает доступ к свободным драйверам и другим окружениям.

PavelRyzhov ★★
() автор топика

GeForce 1050 ti,

У меня такая же. Прекрасно работает на блобе как по виндой, так и под линем.

Теперь вопрос про железо: смогу я держать на одной материнке две видеокарты в разных PCI-слотах (благо их два для видяхи) и в зависимости от системы, просто подключать мониторы к нужной видяхе, а вторая в это время будет простаивать, или же они будут друг другу мешать?

В теории не должны. Но неизвестно как amdgpu поведет себя с двумя «полярисами» – RX560 и RX580.

У меня прекрасно работали под линем (но с ATI Catalyst) старые XT7870 и R7 350, использовал обе видяхи в Blender. Монитор был подключен к первой.

RedEyedMan666
()
Ответ на: комментарий от PavelRyzhov

Подлагивание меню приложений, в целом сейчас не все так ужасно, как было 4 года назад,

4 года назад у меня подлагивали плазмокеды, но я так и не понял из-за чего, то ли из-за старого двухъядерного проца, то ли из-за GT 630 с блобом. Сейчас у меня XFCE4+i7 3770+GTX 1050Ti+блоб 440. Тиринга нет, лагов нет.

RedEyedMan666
()

GeForce 1050 ti

Прекрасная производительность на лине и тем более в гноме. С такими взглядами и предрассудками ничего не спасет.

xDShot ★★★★★
()
Последнее исправление: xDShot (всего исправлений: 1)

Прекрасно работающая карта в винде и отвратительно работающая на линуксе, юзабельность в GNOME и KDE близится к нулю.

Может быть, если под «онтопиком» использовать Nouveau. С Wayland он работает, откровенно говоря, плохо. С X.org, вроде бы, получше. Плюс нужно обязательно устанавливать EGLstreams.

Если хотите, чтобы работало — ставьте блоб. Иначе, увы, никак.

Хочу купить недорогую карту от AMD, которая вполне дружит с Linux, вроде RX 560 - RX 580, которые достаточно старые, но достаточно производительные для игр и задач.

Рекомендую 570 как минимум. Младшие модели не особо подходят для игр, а 570 достаточно дешёва и производительна. Сам такой владею.

С другой стороны, у вас же «дуалбут»! Тогда игры можно и под «виндой» запускать и не морочить себе голову покупкой новой видеокарты (хотя 1050Ti я всё же рекомендовал бы заменить хотя бы на 1650 Super или ту же 570-580).

смогу я держать на одной материнке две видеокарты в разных PCI-слотах (благо их два для видяхи) и в зависимости от системы, просто подключать мониторы к нужной видяхе, а вторая в это время будет простаивать, или же они будут друг другу мешать?

Сможете. Конечно, работать они будут, скорее всего, в режиме 8+8 линий, но это не так уж и хуже 16-ти. Кстати, можно попробовать подключить один монитор к обоим «карточкам» и просто переключать источник изображения (если несколько портов на мониторе; правда, не знаю, сработает ли).

Korchevatel ★★★★★
()
Ответ на: комментарий от no-such-file

Все это есть. Гном работает как говно. Примерно в 10 раз хуже, чем XFCE, в 3 раза хуже КДЕ и в 100 раз хуже винды. В целом мы имеем, что блоб хорошо работает только на XFCE4.

PavelRyzhov ★★
() автор топика
Ответ на: комментарий от Korchevatel

За 570 спасибо, посмотрю в её сторону. Я бы хотел скорее что-то сопоставимое с 1050ти по производительности, но хорошо работающее под линуксом на всех ДЕ и окнах (как-то же люди разрабатывают ГНОМ и записывают видео без лагающего меню и дергающихся окон). Впринципе, если покупать 570-580, то 1050ти можно просто убрать, потому что и на винде это будет вполне ОК.

PavelRyzhov ★★
() автор топика
Ответ на: комментарий от xDShot

С такими взглядами и предрассудками ничего не спасет.

Ну скакуну-ковыряльщику явно лучше без проприетарного блоба.

fornlr ★★★★★
()
Ответ на: комментарий от PavelRyzhov

на XFCE4 вполне комфортно

а версия крыски последняя? Я слышал, в конце 2019, они пофиксили комфортное использование, и теперь это почти что гном

SR_team ★★★★★
()
Ответ на: комментарий от SR_team

Вроде да, на 4.14 сидел пару недель. По-моему немного даже лучше стало, симпатичные гномовские приложения стали лучше работать.

PavelRyzhov ★★
() автор топика

проблем не будет. дуал-бут не нужен в такой ситуации, используй вфио и квм, будешь играться в винде без перезагрузок

по линиям псие в слотах, надо брать материнку, чтобы получилось именно 8+8, а не 16+4.

anonymous
()
Ответ на: комментарий от RedEyedMan666

Ничего, через 3 года раскроют потенциал)

devl547 ★★★★★
()
Ответ на: комментарий от amd_amd

С ним то проблемы в гноме и кедах никуда не уходят. Производительность окружения хуже окружения винды раз на пару порядков. Это просто неотзывчивая хрень и мучения получаются.

PavelRyzhov ★★
() автор топика
Ответ на: комментарий от PavelRyzhov

Добавлю, что эта жуть не особо зависит от видеокарты. Я прошел через невидию, амуде и интел на лине… Ничего не помогало… 10-ка после страданий показалась даром б*жьим.

anonymous
()
Ответ на: комментарий от Korchevatel

570 достаточно дешёва и производительна. Сам такой владею.

Подтверждаю. RX570 купил на днях за $100, всё работает нормально.

Hertz ★★★★★
()
Последнее исправление: Hertz (всего исправлений: 1)
Ответ на: комментарий от RedEyedMan666

в devel-ветку мезы добавляют фичу

фича работает нестабильно, в devel-ветке её отключают

Эй-эмд-ди опять обосралось с поддержкой своих видеокарт

тебе уже говорили, что ты отбитый хейтер?

Ford_Focus ★★★★★
()

PCIE1: в режиме x16; PCIE4: в режиме x4

можешь, но ту что воткнёшь в слот пса4 может ужать в производительности.

ну и какбы.. 580я вроде быстрее чем 1050ти( кроме хардварного декода вп9 которого нет на 580й) почему бы не оставить только её а весь этот геморой с переключениями нафиг?

Thero ★★★★★
()
Ответ на: комментарий от Ford_Focus

Я не читаю что обо мне говорят. И мне пофиг на эй-эм-ди. Факт в том, что они постоянно лажают. Я устал ждать, пока они наймут больше людей в разработчики, и просто перешел в лагерь зеленых.

RedEyedMan666
()
Ответ на: комментарий от RedEyedMan666

Факт в том, что они постоянно лажают

твои факты не факты

Ford_Focus ★★★★★
()

и в зависимости от системы, просто подключать мониторы к нужной видяхе,

Одну видеокарту подключи по DP/DVI, а другую по DVI/HDMI соответственно и переключай видеокарты в мониторе кнопкой выбора источника сигнала.

torvn77 ★★★★★
()
Ответ на: комментарий от PavelRyzhov

Гном работает как говно.

А чем этот gnome вам упёрся?

Поставьте Mate, он тоже на GTK3 работает.

torvn77 ★★★★★
()
Ответ на: комментарий от Meyer

Можешь. Но учитывай то, что в PCIe линии будут разделены на две x8.

Это зависит от топологии материнки и используемых обоими картами слотов, правда то, что на материнке ТС только два крупных слота подводит к той мысли, что в этом конкретном случае вы правы.

torvn77 ★★★★★
()
Ответ на: комментарий от torvn77

Ну, как правило в потребительском железе это работает как x16+x0 или x8+x8. Во времена фуфлыксов PCIe контроллер был на материнке и там все зависело от чипсета. ЕМНИП, материнки на 990FX умели в 2X x16 + 1x 8x.

Meyer ★★★★★
()
Последнее исправление: Meyer (всего исправлений: 1)

GeForce 1050 ti
Прекрасно работающая карта в винде и отвратительно работающая на линуксе
это закрывает доступ к свободным драйверам

Вышлешь мне её с доплатой?

LongLiveUbuntu ★★★★★
()
Ответ на: комментарий от Meyer

умели в 2X x16 + 1x 8x.

Такое действительно я не встречал, а вот материнка дающая выбор между конфигурациями 8х+8х+8х и 16х+8х у меня просто есть.

torvn77 ★★★★★
()

интересно было бы посмотреть на логи иксов.

ChekPuk ★★★
()

Знакомый недавно (ну где-то с полгода назад) пихал две разных видюхи в свой комп, одну GeForce, не помню какую. И другую кажется такую https://ct-company.ru/catalog/asus/asus-other/asus-vgp/90YV04T0-M0NA00.html Хотя точно не скажу. Сначала у него это всё работало хорошо, но очень скоро начались какие-то глюки.

Stua_DK
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.