Собсно столкнулся с тем, что в некоторых сырцах OpenGL-игрушек для attribList значения GLX_RED/BLUE/GREEN_SIZE указываются единицей, хотя логично указывать по 8 бит(в сумме 24битный цвет). Для GLX_DEPTH_SIZE тоже указывают 1, но вроде карточки работают с глубиной в 16 или 24 бита. В общем вопрос - какой вариант правильный, и как вы получаете VisualInfo? :) Просто возникла такая трабла, что при использовании 8-бит на "размеры" цвета, и перебор разных значений глубины z-буфера, без проблем все работает на NVIDIA/ATI карточках, но вот некоторые Intel почему-то ничего не возвращают по glXChooseVisual. И пока только догадки, что это происходит из-за "неправильных" значений в attribList.