LINUX.ORG.RU

10 бит на цветовой канал

 , , , ,


0

2

Итак, без особой надежды поднимаю тему об использовании тридцатибитного цвета (он же 10 бит на канал). Благо не так давно дождались поддержки 30 бит для GeForce.

Имеется: карточка GeForce GTX560-TI с DisplayPort’ом, монитор ASUS PA246Q с заявленной поддержкой 30 бит, нестабильный Debian и последние дрова от nVidia (290.45) с желанной опцией. Результат включения. Как я понимаю, режим работает, но опера (и компиз) его не понимают и, видимо, из 10+10+10 бит откусывают свои 8+8+8 на RGB, из-за чего цвета становятся лсдшными и глючит альфа-канал, который вместо 8 бит получает только 6.

Это-то ладно, но я не понимаю, как на практике определить, что остальное выводится в 30 битах. Логично, что должны быть мельче ступеньки в градиентах. Градаций серого при этом должно быть, как я понимаю, 1024 против 256. Тем не менее в GIMP’е я вообще вижу какую-то лабуду — пипетка мне показывает самые невероятные цвета (например, 141314, слегка фиолетовый, хотя заливал строго чёрно-белым) — результат дизеринга, что ли? И я не вижу ступенек даже на картинке 2560×400, залитой горизонтально, хотя там ступеньки должны быть по 10 пикселей шириной, как я понимаю.

Так как же всё-таки проверить работу тридцатибитного цвета? Или ещё пока рано о нём думать?

Так, частично я разобрался — инструмент Gradient в GIMP действительно использует дизеринг, поэтому происхождение стрёмных разноцветных пятен ясно.

Где в таком случае взять, скажем, 16-битный TIFF с правильным градиентом, чтобы чётко проверить работу 10 бит?

debian_user ()

Я плохо в этом разбираюсь, честно говоря, но Gimp, вроде, 8-и битный. Может, Krita, например, попробовать? Там до 32 бит с плавающей запятой, хотя, если правильно понимаю, для глаза это уже избыточно.

amus ★★★ ()
Ответ на: комментарий от amus

Спасибо. Да, действительно, GIMP умеет работать только с восемью битами на цвет, это печально. Krita, умеет 16 бит на цвет (где вы там 32 нашли, да ещё и что такое цвет с плавающей запятой, я не знаю), однако мне это не помогло. Я создал 16-битную картинку с серым градиентом, в режиме глубины 24 бита чётко видны градации серого (ведь их всего 256, естественно, без дизеринга они видны замечательно), а в режиме 30 бит видно всё те же чёткие полосы, но они почему-то уже стали голубоватыми вместо серых, видимо, рассогласование теперь уже в другую сторону. Значит, пока никакого (нормального, во всяком случае) ПО для работы с десятибитной глубиной нет. Жаль.

Попробую, однако, потом ещё повозиться с картинкой, на которой люди тестируют разницу между 8 битами и 10. К сожалению, psd в Krita не открывается.

С другой стороны, это искусственная проблема, потому что можно воспользоваться всё тем же дизерингом для градиентов, да и вообще картинки с большими плавными градиентами — редкость.

Интересно, кстати, будет проверить, как поведёт себя картинка, передаваемая через VGA, а также — как всё это хозяйство будет выглядеть на ЭЛТ-мониторе, на котором ступенчатости быть не должно вообще.

debian_user ()

опера (и компиз) его не понимают

Ну и выкинь эти поделия.

последние дрова от nVidia (290.45)

Тебя кто-то обманул. Последние - 295.40

max_udoff ()
Ответ на: комментарий от amus

У меня такого нет, только 16 бит, наверно, более старая версия. Да и ладно, в общем-то.

debian_user ()

Так как же всё-таки проверить работу тридцатибитного цвета?

гефорс ненужен, квадру давай

anonymous ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.