LINUX.ORG.RU

105
Всего сообщений: 2188

Manjaro 18 (5.3.11)+Dell G3 3579

привет всем, коллеги, прошу помочь настроить нормальную работу видюшек (intel+nvidia) поставил дрова (intel-nvidia-bumblebee). при запуске игрули получаю в лог в частности:

primus: fatal: Bumblebee daemon reported: error: [XORG] (EE) NVIDIA(GPU-0): Failed to acquire modesetting permission.

настройки:

$ xrandr –listproviders

Providers: number : 2

Provider 0: id: 0x241 cap: 0x1, Source Output crtcs: 4 outputs: 1 associated providers: 1 name:NVIDIA-0

Provider 1: id: 0x45 cap: 0xf, Source Output, Sink Output, Source Offload, Sink Offload crtcs: 3 outputs: 3 associated providers: 1 name:modesetting

$ inxi -G

Graphics: Device-1: Intel UHD Graphics 630 driver: i915 v: kernel

Device-2: NVIDIA GP107M [GeForce GTX 1050 Ti Mobile] driver: nvidia v: 430.64

Display: x11 server: X.org 1.20.5 driver: modesetting,nvidia resolution:

OpenGL: renderer: GeForce GTX 1050 Ti/PCIe/SSE2 v: 4.6.0 NVIDIA 430.64

$ cat /proc/acpi/bbswitch 0000:01:00.0 ON

$ lsmod | grep nv

nvidia_drm 57344 6

nvidia_modeset 1118208 11 nvidia_drm

drm_kms_helper 217088 2 nvidia_drm,i915

drm 520192 10 drm_kms_helper,nvidia_drm,i915

nvidia 19128320 531 nvidia_modeset

ipmi_msghandler 69632 2 ipmi_devintf,nvidia

что еще нужно показат для ясности? спасибо!

 , , ,

mstyslav ()

Неправильно установленный драйвер Nvidia Ubuntu 18.04

Ubuntu 18.04 Как только поставил зависала намертво через минуты 3-5 Ставил дрова - зависла на этом моменте. Поставились криво, теперь даже до рабочего стола не грузит, а выкидывает в лог «None of NVIDIA graphics adapters were initialized». Зацикливает этот вывод. Не понимаю почему, но при ctrl+alt+f1..f3 на этом этапе все тоже намертво виснет. Желательно подробный мануал, как чинить. Интересно, почему не дает в консоль переключиться p.s. первый пост, как тут пикчи читающим скидывать? На файлообменник заливать?

 , ,

SarahFahkeet ()

wine x32 или х64?

Умеет ли Вайн запускать х64 Вендовые приложения? Вот, что вылазит при запуске х64 игры на Дебиан 11 х64

deepforest@debian:/media/deepforest/NEW1/games/Party Panic v1.5.4$ wine PartyPanic.exe 
002b:fixme:ntdll:EtwEventRegister ({5eec90ab-c022-44b2-a5dd-fd716a222a15}, 0x1800f9cfc, 0x18143b130, 0x18143b150) stub.
002b:fixme:ntdll:EtwEventSetInformation (deadbeef, 2, 0x1812beb48, 43) stub
002b:fixme:ntdll:EtwEventRegister ({5eec90ab-c022-44b2-a5dd-fd716a222a15}, 0x14000107c, 0x140014030, 0x140014050) stub.
002b:fixme:ntdll:EtwEventSetInformation (deadbeef, 2, 0x140012360, 43) stub
Mono path[0] = 'Z:/media/deepforest/NEW1/games/Party Panic v1.5.4/PartyPanic_Data/Managed'
Mono config path = 'Z:/media/deepforest/NEW1/games/Party Panic v1.5.4/PartyPanic_Data/Mono/etc'
002b:fixme:imm:ImmReleaseContext (000000000001004A, 0000000000453BF0): stub
002b:fixme:ver:GetCurrentPackageId (0x22fa00 (nil)): stub
002b:fixme:ntdll:EtwEventUnregister (deadbeef) stub.
002b:fixme:ntdll:EtwEventUnregister (0) stub.

или не хватает версии Opengl видеокарты (9800gtx+)?

deepforest@debian:/media/deepforest/NEW1/games/Party Panic v1.5.4$ env WINEARCH=win64 WINEPREFIX=$HOME/.wine64 wine PartyPanic.exe 
002b:fixme:ntdll:EtwEventRegister ({5eec90ab-c022-44b2-a5dd-fd716a222a15}, 0x1800f9cfc, 0x18143b130, 0x18143b150) stub.
002b:fixme:ntdll:EtwEventSetInformation (deadbeef, 2, 0x1812beb48, 43) stub
002b:fixme:ntdll:EtwEventRegister ({5eec90ab-c022-44b2-a5dd-fd716a222a15}, 0x14000107c, 0x140014030, 0x140014050) stub.
002b:fixme:ntdll:EtwEventSetInformation (deadbeef, 2, 0x140012360, 43) stub
Mono path[0] = 'Z:/media/deepforest/NEW1/games/Party Panic v1.5.4/PartyPanic_Data/Managed'
Mono config path = 'Z:/media/deepforest/NEW1/games/Party Panic v1.5.4/PartyPanic_Data/Mono/etc'
002b:fixme:imm:ImmReleaseContext (000000000001004A, 0000000000453000): stub
002b:fixme:dxgi:DXGID3D10CreateDevice Ignoring flags 0x1.
002b:fixme:winediag:wined3d_select_feature_level None of the requested D3D feature levels is supported on this GPU with the current shader backend.
002b:fixme:d3d11:d3d11_create_device WARP driver not implemented, falling back to hardware.
002b:fixme:dxgi:DXGID3D10CreateDevice Ignoring flags 0x1.
002b:fixme:winediag:wined3d_select_feature_level None of the requested D3D feature levels is supported on this GPU with the current shader backend.
002b:fixme:dxgi:DXGID3D10CreateDevice Ignoring flags 0x1.
002b:fixme:winediag:wined3d_select_feature_level None of the requested D3D feature levels is supported on this GPU with the current shader backend.
002b:fixme:d3d11:d3d11_create_device WARP driver not implemented, falling back to hardware.
002b:fixme:dxgi:DXGID3D10CreateDevice Ignoring flags 0x1.
002b:fixme:winediag:wined3d_select_feature_level None of the requested D3D feature levels is supported on this GPU with the current shader backend.
002b:fixme:ver:GetCurrentPackageId (0x22fa00 (nil)): stub
002b:fixme:ntdll:EtwEventUnregister (deadbeef) stub.
002b:fixme:ntdll:EtwEventUnregister (0) stub.
deepforest@debian:/media/deepforest/NEW1/games/Party Panic v1.5.4$ 

 , , ,

deepforest ()

Сбербанк сделал растафари - самый мощный суперкомпьютер для ИИ в России. Теперь он не только подслушивает, но и подглядывает.

Subj

Сбербанк создал самый мощный в России суперкомпьютер, который, как рассчитывает банк, ускорит разработку сервисов и процессов, основанных на искусственном интеллекте. Об этом РБК рассказал исполнительный вице-президент и руководитель блока «Технологии» Сбербанка Давид Рафаловский.

Суперкомпьютер назван Christofari в честь первого клиента Сберкассы Николая Кристофари. Это платформа, где проходит обучение искусственного интеллекта с использованием большого объема данных. Cуперкомпьютер по вычислительной мощности многократно превосходит обычный и способен обрабатывать бóльшие объемы данных за короткий период времени.

Сейчас технологию тестируют Сбербанк и клиенты SberCloud (облачная платформа группы «Сбербанк»), которые пока не называются. В дальнейшем суперкомпьютер будет использоваться для создания и развития внутренних сервисов экосистемы Сбербанка, а с 12 декабря станет доступен сторонним компаниям, работающим с ИИ. Стоимость услуги будет зависеть от заказанных мощностей. «У крупных компаний есть масштабные задачи, которые они хотят решать максимально оперативно, без потери временных ресурсов, поэтому огромная мощность и скорость вычислений для них — это самое главное, это то, за что они готовы платить. А стартап, для которого ключевыми являются не сроки, а сама возможность провести подобные вычисления, может потратить чуть больше времени на решение задачи и заплатить за это меньше», — объяснил Рафаловский принцип ценообразования услуги. Доступ к компьютеру будет открыт через облако.

Суперкомпьютер разработан компанией SberCloud совместно с американской технологической компанией NVIDIA. «Мы выступили технологическим партнером проекта, предоставив Сбербанку комплексную экспертизу в области искусственного интеллекта: передовое оборудование, необходимый стек программного обеспечения, рекомендации в области создания эффективной инфраструктуры для суперкомпьютера и не только», — рассказал руководитель направления профессиональных продуктов NVIDIA Дмитрий Конягин. Производительность суперкомпьютера в проведенных тестах достигла 6,7 петафлопс. «Christofari — это самый мощный суперкомпьютер, построенный на территории России. Система в 2,7 раза быстрее предыдущего самого быстрого суперкомпьютера страны», — пояснил Конягин. Стоимость создания суперкомпьютера в Сбербанке не раскрывают. По оценке директора центра проектирования вычислительных комплексов «Инфосистемы Джет» Ильи Воронина, разработка такого решения может обойтись в $15–20 млн, исходя из оценки $1 млн за 0,42 петафлопс. Суперкомпьютер предназначен для научно-исследовательских, коммерческих и государственных организаций, работающих в разных отраслях экономики, таких как нефтегазовая, банковская и телекоммуникационная индустрия, ретейл, химия, медицина и др., говорит Рафаловский. «Использование ресурсов суперкомпьютера повысит эффективность решения задач в широком спектре областей, например в обработке естественного языка, компьютерном зрении, автоматизированном принятии решений, оценке и управлении рисками, выявлении мошенничества, предиктивной аналитике, создании голосовых помощников и чат-ботов и другом», — рассчитывает он.

Машина позволит разрабатывать и выводить на рынок продукты на основе искусственного интеллекта в максимально короткие сроки, с нескольких недель или месяцев до часов или минут, указал Рафаловский. По его словам, Сбербанк внедряет искусственный интеллект практически в каждом процессе и продукте, а сами модели ИИ усложняются. Эксперт подчеркнул, что суперкомпьютер будет использоваться во всех элементах экосистемы Сбербанка, так как везде есть системы рекомендаций и принятия решений.

Сбербанк уже использует суперкомпьютер для нескольких процессов банковского бизнеса, например для распознавания и синтеза речи при автоматизированном анализе обращений клиентов в call-центр банка, для автоматизированного робота-оператора. «Раньше мы обучали ИИ для этих целей в течение месяца, с суперкомпьютером — несколько часов», — пояснил Рафаловский.

Еще один процесс, где тестируются мощности суперкомпьютера, — это сервисы разработчика технологии распознавания лиц VisionLabs, который входит в экосистему Сбербанка. «Сейчас, на базе традиционной архитектуры, они (VisionLabs. — РБК) могут одновременно наблюдать на своих мощностях до 64–68 видеопотоков, с суперкомпьютером показатель увеличится до 15 тыс.», — сказал Рафаловский.

Стоимость создания суперкомпьютера в Сбербанке не раскрывают. По оценке директора центра проектирования вычислительных комплексов «Инфосистемы Джет» Ильи Воронина, анонсированное Сбербанком решение действительно получится самым мощным в России, а стоимость разработки может составлять $15–20 млн (исходя из оценки $1 млн за 0,42 петафлопс).

 , , , ,

tiinn ()

blender из flathub хочет nvidia?

flatpak install org.blender.Blender.flatpakref 
Required runtime for org.blender.Blender/x86_64/stable (runtime/org.freedesktop.Platform/x86_64/19.08) found in remote flathub
Do you want to install it? [y/n]: y
Installing in system:
org.freedesktop.Platform/x86_64/19.08          flathub 5a35247ad1c9
org.freedesktop.Platform.Locale/x86_64/19.08   flathub 9f6dd949d651
org.freedesktop.Platform.openh264/x86_64/19.08 flathub 563e6c1a7173
org.blender.Blender/x86_64/stable              flathub 961a8a49881d
  permissions: ipc, network, pulseaudio, x11, dri
  file access: host
Updating in system:
org.freedesktop.Platform.GL.nvidia-430-50/x86_64/1.4 flathub 609be8c7f5df

Он хочет притянуть драйвер, или что это?

 , ,

thunar ()

Отключить видеокарту или понизить напряжение её ядра

Есть плата с GeForce GT 335M. В lm-sensors выглядит так:

Adapter: PCI adapter
GPU core:     +0.90 V  (min =  +0.80 V, max =  +0.90 V)
temp1:        +35.0 C  (high = +95.0 C, hyst =  +3.0 C)
                       (crit = +105.0 C, hyst =  +5.0 C)
                       (emerg = +135.0 C, hyst =  +5.0 C)

Видеокарту эту я никак не использую. Можно ли её полностью отключить или хотя бы понизить напряжение её ядра до минимума (0.8V)?

 , , ,

CYB3R ()

Wow ошибка 132

Всем привет!

Хочу поиграть в WOW на Fedora 30. Поставил себе Wine и драйвера на карту nvidia. Но могу только зайти в Wow и посмотреть на создание персонажа, после это Wow вылетает с ошибкой 132. Что делать?

ACCESS_VIOLATION : error 132: ERROR #132 (0x85100084) Fatal exception!
 The instruction at "0x000000018000396a" referenced memory at "0x0000000000000000".
The memory could not be "read".
002b:fixme:kernelbase:AppPolicyGetThreadInitializationType 0xfffffffffffffffa, 0x3a2fdc0
002a:fixme:mpr:WNetGetUniversalNameW (L"Z:\\home\\egorsemevskiy\\PortWINE\\PortBattleNET\\data\\prefix\\drive_c\\Program Files (x86)\\World of Warcraft\\Data\\data", 0x00000001, 0x22cdc4, 0x22cdc0): stub
002f:fixme:winhttp:get_system_proxy_autoconfig_url no support on this platform
002f:fixme:winhttp:WinHttpDetectAutoProxyConfigUrl discovery via DHCP not supported
002a:fixme:ntdll:EtwEventRegister ({5d8087dd-3a9b-4f56-90df-49196cdc4f11}, 0x180011f80, 0x1801b7940, 0x1801b7940) stub.
002a:fixme:ntdll:EtwEventRegister ({8819ca17-7faa-4184-afb7-a4120ca793cd}, 0x1800eb7e0, 0x1801b9fd0, 0x1801b9fd0) stub.
002a:fixme:win:EnumDisplayDevicesW ((null),0,0x22f4b0,0x00000000), stub!
ACCESS_VIOLATION : error 132: ERROR #132 (0x85100084) Fatal exception!
 The instruction at "0x000000018000396a" referenced memory at "0x0000000000000000".
The memory could not be "read".

002a:fixme:win:EnumDisplayDevicesW ((null),0,0x22af80,0x00000000), stub!
002a:fixme:win:EnumDisplayDevicesW ((null),1,0x22af80,0x00000000), stub!
004b:fixme:heap:GetPhysicallyInstalledSystemMemory stub: 0x33efa4
004b:fixme:heap:GetPhysicallyInstalledSystemMemory stub: 0x33efa4
004b:fixme:ntdll:NtQuerySystemInformationEx Relationship filtering not implemented: 0x3
004b:fixme:ntdll:NtQuerySystemInformationEx Relationship filtering not implemented: 0x3
004b:fixme:winhttp:get_system_proxy_autoconfig_url no support on this platform
004b:fixme:winhttp:WinHttpDetectAutoProxyConfigUrl discovery via DHCP not supported
004c:fixme:ver:GetCurrentPackageId (0x76fe9c (nil)): stub

 , ,

egor_web ()

Nvidia Releases New Linux Graphics Driver with GeForce GTX 1660 SUPER Support

Читал читал так и не понял, почему именно - SUPER Support :(

И почему именно 1660 а не линейка RTX 2xxx ?

https://news.softpedia.com/news/nvidia-releases-new-linux-graphics-driver-with-geforce-gtx-1660-super-support-528104.shtml

 ,

mx__ ()

Проблема NVIDIA X Settings

Бонжур,вообщем ситуация такая: Поставил я значит Linux Mint 19.2 (Cinnamon, 64 bit) на ноутбук, рядом с Окном 10-ым (Windows), ну вроде нормально, до этого предварительно согласившись с установкой проприетарных кодеков, WiFi драйверов, и другого, закрытого аппаратного софта. Решил значит заглянуть в менеджер драйверов, он мне предложил три драйвера на мою дискретную видеокарту (P.S. У меня две видеокарты, Intel и NVIDIA): nvidia-driver-430.26 (Рекомендуемый), nvidia-driver-390, и открытый драйвер nouveau. Я менять ничего не стал, т.к. он мне по умолчанию установил рекомендуемый проприетарный драйвер. Потом значит решил заглянуть в настройки дискретки (NVIDIA X Server Settings), и передо мной возникает следующая картинка: https://sun9-38.userapi.com/c857436/v857436178/d0085/DudLDtLForA.jpg То есть никаких настроек связанных с моей дискреткой я не увидел.

Изначально я подумал что так и должно быть. Но потом понял что - нет. Ну ладно пошел на официальный сайт, проверил последние драйвера (430.50), понял что драйвера установлены не последние, и решил сам через терминал установить новые, удалив при этом старые. Но уже через PPA репозиторий:

sudo add-apt-repository ppa:graphics-drivers/ppa
sudo apt-get update
sudo apt-get purge nvidia-*
sudo apt-get install nvidia-driver-430 nvidia-settings
reboot

После чего у меня вообще перестал работать NVIDIA X Server Settings (Хм, интересно ещё то что я в этом окне скриншот больше не могу сделать), а в менеджере драйверов у меня прибавилось несколько драйверов: https://sun9-32.userapi.com/c857632/v857632246/d2723/LMgaFDWI-x4.jpg

Ну вообщем после такого я конечно быстро откатился (я делал снимок системы), но вопрос остается открытым: Как починить NVIDIA X Server Settings?

 , ,

Ventureo ()

Проблемы с производительностью в ubuntu

Решил попробовать на основном компе перейти на ubuntu desktop. Сначала скачал 19.10, после установки зайти можно, но если обновить приложения, то во время перезапуска зависало на этапе загрузки системы. После поставил себе 18.04 LTS, установил дискорд, во время звонка шипение, как я понимаю из-за микрофона. Во-вторых производительность в играх и рабочий стол постоянно подвисает. Обновил 18.04 до 19.10. После удаление драйверов нвидиа и преустановки лаги пропдают до превого перезапуска компа.

Нвидия драйвер 430 Ubuntu 19.10 Процессор: AMD FX-8300 Видеокарта: GTX 980

 ,

hcoalex ()

QEMU/KVM на ноутбуке Lenovo 320-15ISK

Возможно ли пробросить видеокарту без дополнительного монитора в виртуальную машину? Будет использоваться Windows любой версии начиная с семёрки, конфигурация: Intel Core i3 6006U, 8GB RAM, Intel HD Graphics 520, nVidia 920MX

 , , , ,

mc_hlebushek ()

wine, nvidia 340.107, d3d11?

Есть Деб11(тестинг)+Wine(devel)+gf9800gtx+ На нуво игры запускаются но текстуры либо не видны, либо мерцают. На закрытом драйвере 340.107 игры вообще не запускаются(краш на запуске) если и запускаются то все цвета и игре искажены. Это понимать как драйвер 340.107 не совместим с новым Дебом и Вайном? Или в чем еще может быть причина?

 , ,

deepforest ()

Выбор видеокарты

Планирую сменить свою затычку (GeForce GT 520) на что-то поновее, в связи с чем возникает вопрос, какого производителя выбрать на замену. Моя карта уже совсем Legacy, и новые версии дров её не поддерживают. Играю редко, в основном, во всякое старьё через wine. И тут есть несколько вопросов:

  1. Как у невидии сейчас дела с вяленым? С нынешней картой на бубунте проблем у меня нет, понятное дело.
  2. Как у AMD сейчас дела с аппаратным ускорением видео (VA-API/VDPAU)? Последний раз пользовался их железом во времена серии HD 7700, и тогда были проблемы, в частности, с потоковым видео в VLC (картинка сыпалась периодически), но с тех пор ведь много воды утекло. Работает ли ускорение в свободных драйверах?
  3. Есть ли сейчас смысл в проприетарных дровах на амд?

Желательно бы, конечно, практический опыт услышать.

 , , ,

AckerMAN ()

Amd Cpu + Nvidia Gpu hybrid graphics

Всем привет! Приобрел ноутбук ASUS TUF Gaming FX505DT, в нём установлены Ryzen 3750H с графикой RX Vega 10 Graphics и дискретная видеокарта Nvidia Geforce 1650. Можно ли как-то заставить адекватно работать переключение видеокарт? Работает ли сейчас хоть где-то связка встроенной карты от Amd и дискретки от Nvidia? Сейчас установлена Ubuntu 19.10 Beta, вместе с ней ставится драйвер от Nvidia 435.21 (его так же ставил и вручную), но видеокарта от Nvidia не запускается. Nvidia-settings при запуске выводит белое окно с кнопкой Quit, в терминале:

nvidia-settings:10793): GLib-GObject-CRITICAL **: 13:56:15.077: g_object_unref: assertion 'G_IS_OBJECT (object)' failed **

Message: 13:56:15.081: PRIME: No offloading required. Abort **

Message: 13:56:15.081: PRIME: is it supported? no

Чтож.. На просторах интернет нашел одно из решений, привел /usr/share/X11/xorg.conf.d/10-nvidia.conf к такому виду:

Section «OutputClass»

Identifier «nvidia»

MatchDriver «nvidia-drm»

Driver «nvidia»

Option «AllowEmptyInitialConfiguration»

ModulePath «/usr/lib/x86_64-linux-gnu/nvidia/xorg»

Option «PrimaryGPU» «YES»

Option “AllowEmptyInitialConfiguration”

EndSection

тогда начинает работать карта от Nvidia но переключение обратно на Amd возможно только обратным редактированием конфига. При этом производительность в 3D становится нормальной (по счетчику FPS), но постоянно появляются фризы, подлагивание и тд. Так же получаю темный экран на этапе логина, то есть пароль ввожу вслепую, после этого экран загорается. Получается номинально работает, но по факту работа совсем далека от идеала. Что-нибудь с этим можно сделать?

ЗЫ Вариант вернуться в прошлое и купить другой ноутбук не подходит.

 , , ,

lobster ()

FreeBCD nVIDIA?

Установил такое FreeBSD 12.0-RELEASE. Все вроде работает, но с разрешениями экрана беда - через xrandr 1920х1080 никак не хочет добавляться. Решил накатить nvidia-driver. В репе такой пакет присутствует - зависимости подтягиваются и выкачиваются, но при установке вылезает ошибка. Попробовал FreeBSD 11.2-RELEASE таже самая ошибка...

pkg: PRE-INSTALL script failed
Видеокарта GT-710. Что не так?

 ,

amd_amd ()

Муки выбора видеокарты (архитектура; красное или зеленое)

Приветствую.

Тема поднималась не единожды, стараюсь читать все ветки. В FAQ я тоже побывал - там советуют зеленое, а ежели верить товарищу Khnazile из этой ветки, то гейминг под линуксами вообще отсутствует как класс. Однако с окончательным выбором я так и не определился.

Требования:
- разрешение FHD, если быть точным - 1920x1200;
- двухслотовое исполнение;
- в основном играю во всякое старье типа STALKER, Starcraft II, War Thunder, Cities: Skylines, DCS World, но хотелось бы глянуть на новый Cyberpunk 2077, пусть даже и не на «ультра» настройках;
- бюджет: до 600 $.

Дальше можно не читать, я бы это спрятал под спойлер.
Спасибо за внимание.

После прочтения множества прений в гугле, ютубе и здесь на форуме, выбор ограничился двумя вариантами:
1) Asus GTX 1660 Ti TUF («it just works», превосходит RX 590);
2) Sapphire RX 5700 XT PULSE (открытый драйвер, бесплатная опция перенаправления в виртуальные машины, якобы эквивалент RTX 2070 Super по меньшей цене).

Хотелось бы узнать мнения реальных владельцев.

По «зеленой» карте:
- интересуют температуры в нагрузке, т.к. некоторые товарищи с торговых площадок жалуются на прогрев до 80 градусов, а ведь ее рекламируют жуть как холодную и малопотребляющую ВК;
- какова ситуация с Wine и вообще с 2D (Х, Xrandr) - Линус им вроде средний палец показывал, все ли работает как прежде? Последний раз я всем этим интересовался еще в эпоху GTX 260.

По «красной карте»:
- ОЧЕНЬ интересует реальная ситуация с драйверами и для Windows, и для Linux. Дело в том, что у обзорщиков и блоггеров все замечательно - чуть ли не 4К в 240 Гц гоняют, а вот на форумах (типа реддита), АИБ ситуация диаметрально противоположная - одни жалобы: BSOD'ы, потери сигнала по видеокабелю, неработающее аппаратное ускорение в браузерах и прочем софте, статтеры либо низкий фреймрейт в играх (у некоторых даже запустить игру не получалось). Ну прямо ад и погибель. Даже под Windows! Доверие к реддиту все же повыше чем к блоггерам - это от покупки и останавливает;
- и снова вопрос о температурах в нагрузке.

Дальше метания-терзания приоритетом пониже, но все в том же ключе «шо ж таки делать?»:
- если я прямо сейчас куплю «красную» карту заработает ли все на Debian 10 (ядро 5.2)? Нужно ли будет дополнительно что-то собирать-компилять?
- ждать ядро 5.4 и Mesa3D v19.3.0 (тут на форуме где-то говорили, что добавят суперполезный компилятор шейдеров АСО) и тогда уж покупать.
- включить стратегический «режим ждуна» и дотерпеть на 1660 Ti до появления консолей - там и действительно новая RDNA-2 от «красных», и гипотетическая 3000-я серия от «зеленых» и тогда уж ТОЧНО покупать.

Еще раз спасибо за внимание.

 ,

UncleYar ()

3 4k-монитора и главный экран в KDE в Debian 10

Други подскажите.

У меня установлен на машине Debian 10, KDE Plasma, проприетарные драйвера Nvidia. В системе 2 видеокарты, GTX 1060 и GTX 690.

К 1060 подключено 2 монитора 4k и 1 телек 4к. Телек должен дублировать 1 из 2х моников.

Теперь вопросы.

1) Я не знаю что произошло, но с недавнего времени у меня в случае если подключены все 3 монитора (2 моника + 1 телек) то при логине и старте загрузке KDE моники отключаются и пишет что нет сигнала по Display Port на обоих мониках. На телеке тоже тишина. Приходится выходить в текстовый режим и перегружать машину. И только если я отключаю телек (выдергиваю hdmi кабель которым от подключен), то после логина грузится KDE и на обоих мониках есть картинка. Как вылечить эту проблему?

2) Когда я с двумя мониками работаю, после перезагрузки система каждый раз не хочет ставить главным монитором правый. Точнее она вроде как ставит, но манель меню все равно на левом монике. Приходится заходить в экраны и нажимать Применить, тогда панель перескакивает на правый моник, хотя никаких изменений я не делаю.

Подскажите, что не так. Но самое главное это вопрос трех моников.

 , ,

ITdreamer ()

полоса искажения по середине

ОС: Manjaro [Gnome 3]
Graphic: RTX 2080TI
сделал фото с телефона, так как на скриншоте искажения нет- https://i.imgur.com/lcYaEez.jpg
Драйвер несвободный.
В чем может быть проблема?

 , ,

foozzi ()

Nvidia не виновата, виноват Intel

Долгие годы я винил nvidia в тормозах KDE/Qt и не только. Странные фризы, тормозящий ресайз окон, тормоза при плавной прокрутке в браузере и Sublime (даже на винде), тиринг!!111

Но стоило мне сменить Intel на AMD, как мои волосы стали мягкими и шелковистыми. Анимации и ресайз окон стали плавными. Тиринга нет из коробки! И плавная прокрутка теперь не заставляет Xorg вешать одно ядро целиком.

Как это объяснить? Несовместимость Intel и nvidia? Неудачная комбинация CPU/GPU/RAM/motherboard?

 , , ,

RazrFalcon ()

Бамблби не нужен?! Свершилось! Небольшое видео по Нвидиа Оптимус.

Не так давно компания Нвидиа включила в свой драйвер поддержку прайм. https://download.nvidia.com/XFree86/Linux-x86_64/435.21/README/primerenderoff... https://wiki.archlinux.org/index.php/NVIDIA_Optimus_(Русский) По этому поводу, что у меня получилось и некоторые вопросы, я снял видос: https://www.youtube.com/watch?v=rjh8VeVbo7Y&t=225s Хочу отметить сразу, тестирую и сейчас, прирост производительности в играх и нет ТИРИНГА! Протестировал, настроил всё это дело в Арч Линукс.

 ,

youswer ()