LINUX.ORG.RU

Зависит. При подключении 24" моника (1920х1200) через VGA сразу плывут шрифты (работать невозможно) Через HDMI все ок.

Warlock_
()

эммм, четкость ?) у меня - VGA картинка четкая ))) ты вообще о чем ?)

phasma ★☆
()
Ответ на: комментарий от Warlock_

> Через HDMI все ок.

мошт DVI ?) для HDMI нужен или переходник DVI->HDMI или HDMI-видеокарта, которая стоит дороже чем DVI )

phasma ★☆
()
Ответ на: комментарий от phasma

>мошт DVI ?) для HDMI нужен или переходник DVI->HDMI или HDMI-видеокарта, которая стоит дороже чем DVI )

ну там провод с одной стороны DVI втыкается в карту, а с другой стороны HDMI в монитор, т.к. на нем DVI нет =)

Warlock_
()
Ответ на: комментарий от Warlock_

> ну там провод с одной стороны DVI втыкается в карту, а с другой стороны HDMI в монитор, т.к. на нем DVI нет =)

эмм, а смысл использования DVI->HDMI, если DVI без звука, а HDMI со звуком ?

phasma ★☆
()
Ответ на: комментарий от Shaman007

> А что, еще реально купить видеокарту без DVI?!!

Рассматривается возможность использования intel x3100 в качестве видеокарты на десктопе.

tmp123
() автор топика
Ответ на: комментарий от anonymousI

> Man DVI

~ % man DVI
No manual entry for DVI

Очень часто когда нечего сказать по теме встречаются подобные комментарии...

tmp123
() автор топика
Ответ на: комментарий от tmp123

Она разве продается в виде отдельной платы? У нее же кроме энергопотребления плюсов никаких нету, nVidia самая дешевая из современных будет лучше. Да и у Intel'a - в моем макбуке c GMA954 выход DVI.

Shaman007 ★★★★★
()
Ответ на: комментарий от phasma

>эмм, а смысл использования DVI->HDMI, если DVI без звука, а HDMI со звуком ?

Если учесть, что монитор разговаривать не умеет, то почему нет? А вообще у производителей моника надо спрашивать, чем им DVI разъем не угодил.

Warlock_
()
Ответ на: комментарий от Shaman007

Встроенный интел и остатки nvidia 6100.

anonymous
()
Ответ на: комментарий от Shaman007

> Она разве продается в виде отдельной платы? У нее же кроме энергопотребления плюсов никаких нету, nVidia самая дешевая из современных будет лучше. Да и у Intel'a - в моем макбуке c GMA954 выход DVI.

Ну тогда что можно взять, например, в качестве замены? Игр естественно не планируется, ну может q3 какой-нибудь только.

tmp123
() автор топика
Ответ на: комментарий от Warlock_

> Если учесть, что монитор разговаривать не умеет, то почему нет? А вообще у производителей моника надо спрашивать, чем им DVI разъем не угодил.

а чего за моник ?) просто нам наверно будут менять их, что бы не напороться на HDMI'ные ...

phasma ★☆
()
Ответ на: комментарий от phasma

> 8800GT стоит около $80 ... за $50 можно взять че-нить вроде 6600 )

Ты чо гонишь и смущаешь пацана? Брать нужно строго самую дешёвую карту с шиной в 128 бит (ибо труЪ) из числа поддерживаемых открытыми дровами.

Gharik
()
Ответ на: комментарий от phasma

>а чего за моник ?) просто нам наверно будут менять их, что бы не напороться на HDMI'ные ...

LG L245WP

Warlock_
()
Ответ на: комментарий от Gharik

> Нифига не зависит. Вот от наличия VGA - зависит очень и очень сильно.

Зачем он тогда нужен? И что подразумевается под VGA?

tmp123
() автор топика
Ответ на: комментарий от Gharik

> Ты чо гонишь и смущаешь пацана?

Я, извините, не посан...

> Брать нужно строго самую дешёвую карту с шиной в 128 бит (ибо труЪ) из числа поддерживаемых открытыми дровами.

Приведите примеры, пожалуйста.

tmp123
() автор топика
Ответ на: комментарий от phasma

> AMD/ATI есть с пассивным охлаждением, там сверху один большой радиатор ...

Дрова, вроде, для них пока неюзабельны?

tmp123
() автор топика
Ответ на: комментарий от Gharik

> Ты чо гонишь и смущаешь пацана? Брать нужно строго самую дешёвую карту с шиной в 128 бит (ибо труЪ) из числа поддерживаемых открытыми дровами.

нафиг ?) если можно без гемороя взять видюху и поставить проприетарные дрова и забыть про какие-то проблемы с X'ами )

phasma ★☆
()
Ответ на: комментарий от tmp123

> Дрова, вроде, для них пока неюзабельны?

открытые не поддерживают 3D, как с остальным - хз, проприетарные показали себя нормально.

phasma ★☆
()
Ответ на: комментарий от tmp123

> Зачем он тогда нужен? И что подразумевается под VGA?

HD-15, man google

Gharik
()
Ответ на: комментарий от phasma

> нафиг ?) если можно без гемороя взять видюху и поставить проприетарные дрова и забыть про какие-то проблемы с X'ами )

А нафиг нужны проприетарные дрова, если можно взять r300 (up to X550), на который открыли спеки и гимора не знать искаропки? о_О

Gharik
()
Ответ на: комментарий от tmp123

Вопросами веры ведает Экклезиархия и контролирует Священная Инквизиция, то не ко мне. А r480 несмотря на отсутствие спеков вполне успешно работает.

Gharik
()

7300GT нормально будет? Не сильно греется?

tmp123
() автор топика
Ответ на: комментарий от anonymousI

Вообще прежде чем задавать подобный вопрос нужно хотя-бы попробовать узнать что-же за стандарт такой DVI. Первый линк с гугла расскажет, что это стандарт цифровой передачи видеосигнала. То есть он не искажается между обсчитыванием цвета каждого пиксела в видеокарте и его воспроизведением на мониторе.

Будет-ли замылено изображение монитором в случае выбора этого стандарта - в меньшей степени зависит от видеокарты (которые уже все, даже самые дешевые приличного качества) и в большей от самого монитора.

anonymousI
()
Ответ на: комментарий от anonymous

4.2 Если у человека выставлено не нативное разрешение и монитор LCD то это уже проблемы устройства современных мониторов.

Если монитор CRT, то тут уже только от него будет зависить. Все пикселы были сообщены четко (я не видел плохих современных видюх, это вам не ривы 128 и прочий крэп), а уж как он там геометрию изменил или замылил в каком куске - это его проблемы.

anonymousI
()
Ответ на: комментарий от tmp123

Cигнал по разъему d-sub передается аналоговый. Соответственно сначала карта конвертирует с цифрового в аналог, потом он передается по кабелю в котором теоретически могут быть наводки и потеря мощности.

Так, что теоретически и практически четкость изображения DVI выше из-за отсутствия мест потери информации при приеме-передаче.

anonymousI
()
Ответ на: комментарий от anonymousI

> Так, что теоретически и практически четкость изображения DVI выше из-за отсутствия мест потери информации при приеме-передаче.

Погодь, не так быстро. Вот мы тут с чуваками перетерли и решили, что раз есть аудиофилы, для которых существует всякий там хайфай, то должны быть и иконофилы, ратующие за максимально достоверную передачу картинки. Так что есть мыслишка о том, что берем кабель, делаем ему никому не нужное экранирование, золотим контакты и добавляем прочих соплей девственниц, чтоб цифра не исказилась по дороге. Ну там джиттер какой-никакой выдумать можно (особенный писк моды будет, когда на мониторах можно будет показывать пикселы с 16-битными цветовыми компонентами, и утверждать, что часть данных на хреновых кабелях теряется). Но это все фихня, берем кабели D-Sub, делаем их еще толще за счет всякой эзотерической чухни. И делаем на этом бабло.

Особенно классно будет писать трактаты о том, что у цифровой-де картинки на LCD души нет, а вот ЭЛТ и аналоговый видеосигнал, это оно, это тот самый Грааль любого иконофила.

P. S. Из веществ только Red Bull.

shimon ★★★★★
()

Советую-таки посмотреть в википедию и понять, что DVI бывают трёх видов, а отсюда уже начать думать про мыло. DVI != цифра, собсно.

AngryElf ★★★★★
()
Ответ на: комментарий от AngryElf

> Советую-таки посмотреть в википедию и понять, что DVI бывают трёх видов, а отсюда уже начать думать про мыло. DVI != цифра, собсно.

Дорогой, а буковка D там зачем? Только не надо про DVI-A заливать, так как пень ясен, что в тех же ноутах и многих мониторах проще сделать одно гнездо заместо двух.

shimon ★★★★★
()
Ответ на: комментарий от shimon

> Дорогой, а буковка D там зачем?

Где в исходном посте DVI-D?

AngryElf ★★★★★
()
Ответ на: комментарий от AngryElf

> DVI != цифра, собсно.

Вещества!

anonymous
()

> Что посоветуете в качестве альтернативы встроенной видеокарты.

Встроенную видеокарту от Intel с ADD2 DVI адаптером (включается в разъем PCI Express, стоит 974 рубля в Екатеринбурге, см. http://www.uti.ru/catalog/cat3/56/).

AEP ★★★★★
()
Ответ на: комментарий от tmp123

Если брать встроенную, то самые экономичные и навороченные — в чипсетах AMD 780V и 780G (у 780V нет аппаратного декодирования HDTV, которое всё равно в линуксе не поддерживается, нет поддержки CrossFire с внешней карточкой, которое в лмнуксовых драйверах врятли раньше, чем через год будет всё равно, и нет набортной памяти, что негеймеру вполне можно пережить(а у встроенных карточек от интел и энвидии набортной памяти вообще не бывает)) — на них практически всегда есть DVI, и вообще головы у встроенного видео там две, так что теоретически возможна материнская плата с двумя DVI-выходами.

anonymous
()
Ответ на: комментарий от Shaman007

> А что, еще реально купить видеокарту без DVI?!!

К сожалению по непонятным причинам более половину интегрированных видеокарт VGA Only. С другой стороны ничего окромя встроенной видяхи и не надо, более того - значительная часть игр (из тех на которые смотреть можно, то есть онлайновые) прекрасно идут на современных интегрированных видяхах и большего им не надо. Вообщем зачастую складывается неприятный парадокс - встроенная видяха устраивает всем, кроме отсуствия DVI...

anonymous
()
Ответ на: комментарий от anonymous

x3100 вполне нормально работает и с D-sub'а. Только Х-сервер нужен 1.4.99 и выше и дрова i810 2.2.0 и выше. Искаропки такое пока только в F9 и Mandriva 2008.1...

anonymous
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.