LINUX.ORG.RU

История изменений

Исправление stevejobs, (текущая версия) :

для стриминга игр не используются платы видеозахвата, потому что:

  1. очень сложно скомпенсировать лаг между голосом ведущего, музыкой и картинкой. Задержка плавает

  2. карта видеозахвата находится в отдельном компьютере. Отдельный компьютер стоит денег! Весь поинт же в экономии денег, так? Сомнительный способ экономии :)

Карта видеозахвата для своей работы требует GPU и CPU компьютера, поэтому в тот же самый комп втыкать её не имеет смысла. Она даже заработает, но ничего не сэкономти. Даже потратит - двадцать-сорок тысяч на покупку карты захвата :)

  1. не все игры умеют фуллскриниться на оба дисплея. Если у тебя дисплеи с разным нативным DPI, то фулскрин ломается, даже если они работают в режиме дублирования. Имеется в виду Windows, конечно. Когда тебе просто нужно сдублировать на второй монитор - ты покупаешь два одинаковых монитора. Карта видеозахвата определяется как совершенно точно другой дисплей.

  2. сделать так, чтобы видеокарта NVidia работала с картой видеозахвата - это большой челленж. На стороне NVidia, она определяется как монитор, но определяется неправильно. На стороне карты видеозахвата, нужен очень точный формат видео, а для этого всё должно определиться правильно с обоих сторон. Я попробовал несколько плат захвата.

Поэтому обычно картинка снимается через какой-нибудь OBS, а для кодирования используется видеокарта или мощный процессор

===

и вроде моего 2700x хватает для 1080р c 6k битрейта (h264 пресет slow).

а теперь запусти это с какой-нибудь игрой. Игра сожрёт значительную часть CPU. Не весь, но тем не менее. Если ты включишь еще и стриминг, процессор закончится. А потом в игре почему-то возникнет нагрузка, и на видео начнутся лаги. А потом ты откроешь Гугл Хром чтобы посмотреть какой-нибудь гид по прохождению на ютубе, хром и ютуб-плеер отожрут свои 30% процессора, и вооще всё встанет колом

а еще, кодирование запусти сразу в несколько потоков - тебе ж нужно не на один ютуб выкладывать, а еще на твич, фейсбук, миксер, вконтакте, длайв, итп (в зависимости от аудитории).

рестриминг решается покупкой аккаунта на restream-io каком-нибудь, но это деньги. Плюс задержка между тем что видит человек на ютубе и тем что у тебя творится на мониторе - растёт. Может дорасти до полминуты. Ты говришь: «ребята, а прокомментируйте вот это». А они это услышат только через полминуты, а у тебя уже всё изменилось.

ну и вообще, если 1080p хорошо, то для ютуба лучше 2к хотя бы, не? Если человек растянет 1080p на свой 4к монитор - это выглядит не очень красиво. Статистика Ютуба показывает, что те, кто смотрит в 2к и 4к - считаные проценты, но эти считаные проценты очень пересекаются со считаными процентами геймеров

короче, мой i7 6700k и GTX 1080 постоянно загружены по максимуму всегда. Того же Ведьмака в 4k, даже 30фпс, стримить уже не получится, или получится с дикими лагами

тредрипер и RTX 2080ti могли бы вытащить Ведьмака, но это деньги. У меня столько нету :)

Исходная версия stevejobs, :

для стриминга игр не используются платы видеозахвата, потому что:

  1. очень сложно скомпенсировать лаг между голосом ведущего, музыкой и картинкой. Задержка плавает

  2. карта видеозахвата находится в отдельном компьютере. Отдельный компьютер стоит денег! Весь поинт же в экономии денег, так? Сомнительный способ экономии :)

Карта видеозахвата для своей работы требует GPU и CPU компьютера, поэтому в тот же самый комп втыкать её не имеет смысла. Она даже заработает, но ничего не сэкономти. Даже потратит - двадцать-сорок тысяч на покупку карты захвата :)

  1. не все игры умеют фуллскриниться на оба дисплея. Если у тебя дисплеи с разным нативным DPI, то фулскрин ломается, даже если они работают в режиме дублирования. Имеется в виду Windows, конечно. Когда тебе просто нужно сдублировать на второй монитор - ты покупаешь два одинаковых монитора. Карта видеозахвата определяется как совершенно точно другой дисплей.

  2. сделать так, чтобы видеокарта NVidia работала с картой видеозахвата - это большой челленж. На стороне NVidia, она определяется как монитор, но определяется неправильно. На стороне карты видеозахвата, нужен очень точный формат видео, а для этого всё должно определиться правильно с обоих сторон. Я попробовал несколько плат захвата.

Поэтому обычно картинка снимается через какой-нибудь OBS, а для кодирования используется видеокарта или мощный процессор

===

и вроде моего 2700x хватает для 1080р c 6k битрейта (h264 пресет slow).

а теперь запусти это с какой-нибудь игрой. Игра сожрёт значительную часть CPU. Не весь, но тем не менее. Если ты включишь еще и стриминг, процессор закончится. А потом в игре почему-то возникнет нагрузка, и на видео начнутся лаги. А потом ты откроешь Гугл Хром чтобы посмотреть какой-нибудь гид по прохождению на ютубе, хром и ютуб-плеер отожрут свои 30% процессора, и вооще всё встанет колом

а еще, кодирование запусти сразу в несколько потоков - тебе ж нужно не на один ютуб выкладывать, а еще на твич, фейсбук, миксер, вконтакте, длайв, итп (в зависимости от аудитории).

рестриминг решается покупкой аккаунта на restream-io каком-нибудь, но это деньги. Плюс задержка между тем что видит человек на ютубе и тем что у тебя творится на мониторе - растёт. Может дорасти до полминуты. Ты говришь: «ребята, а прокомментируйте вот это». А они это услышат только через полминуты, а у тебя уже всё изменилось.

ну и вообще, если 1080p хорошо, то для ютуба лучше 2к хотя бы, не? Если человек растянет 1080p на свой 4к монитор - это выглядит не очень красиво. Статистика Ютуба показывает, что те, кто смотрит в 2к и 4к - считаные проценты, но эти считаные проценты очень пересекаются со считаными процентами геймеров