LINUX.ORG.RU

Работы над стандартом HTTP/2 завершены

 , , ,


7

4

Организация IESG подтвердила финальные версии черновиков протокола HTTP/2 и формата компрессии HPACK. Спецификации отправлены в редактор RFC для присвоения номера и финальной корректировки.

Среди ключевых особенностей бинарного протокола HTTP/2, который пришёл на смену текстовому HTTP/1.1:

  • Повышение эффективности использования сетевых ресурсов за счёт мультиплексирования запросов, расстановки приоритетов для запросов и сжатия заголовков HTTP.
  • Загрузка нескольких элементов параллельно, посредством одного TCP соединения.
  • Поддержка проактивных push уведомлений со стороны сервера.
  • Исправлена конвейерная обработка и проблема блокировки начала очереди.

Глава рабочей группы IETF HTTP Working Group Марк Ноттингем (Mark Nottingham) в своем блоге поблагодарил всех, кто внёс свой вклад в разработку новых спецификаций.

>>> Подробности

★★

Проверено: beastie ()

Ответ на: комментарий от Legioner

Чем мешает-то?

Тем, что всё ещё доступно. Плавные смены протокола не работают. Я не удивлюсь, если доля процента HTTP/0.9 будет больше (а такие наверняка всё ещё есть), чем HTTP/2.0

beastie ★★★★★
()
Ответ на: комментарий от beastie

Ну да, что написано пером, не вырубишь топором. Всегда найдётся процент дятлов на Internet Explorer 8, ради которых приходится небезопасные шифры включать в конфиге HTTPS, иначе у них страница не открывается. Не стоять же теперь на месте до скончания веков.

Legioner ★★★★★
()
Ответ на: комментарий от vovagubin1987

Ну с тем, что веб в целом юзабелен здесь и сейчас, думаю, никто не спорит. Но будет немножко быстрей и удобней. Это и есть прогресс. Не революция.

Legioner ★★★★★
()
Ответ на: комментарий от murmur

Сайт не работает = пойду на другой сайт = я теряю доход от упущенного посетителя :)

Если есть возможность «нагнуть» пользователя, у которого нет альтернативы, другой разговор.

Legioner ★★★★★
()
Последнее исправление: Legioner (всего исправлений: 1)
Ответ на: комментарий от Legioner

Это да, ты еще забыл про поддержку sni, которую не умеет win xp

murmur
()

Не проще ли пользоваться Gambas3 ?

abbat81 ★★
()

Переход на бинарный протокол это самое тупое, что можно было придумать.Да сколько там весят эти заголовки, по сравнению с основным контентом? Текстовый протокол проще реализовывать, дебажить. Надеюсь, что этот протокол не взлетит, также как и СПИДИ и те два с половиной сайта, которые его поддерживали.

zenden
()
Ответ на: комментарий от zenden

Да сколько там весят эти заголовки

Столько бы они не весили - это все равно избыточность.

Текстовый протокол проще реализовывать, дебажить.

А ты часто трассируешь процесс веб-сервера и дебажишь http протокол?

iron ★★★★★
()
Ответ на: комментарий от zenden

как и СПИДИ и те два с половиной сайта, которые его поддерживали.

Popular sites using SPDY

  • google.com
  • facebook.com
  • youtube.com
  • yahoo.com
  • twitter.com
  • pinterest.com
  • linkedin.com
  • paypal.com
  • blogspot.com
  • vk.com
  • wordpress.com

два с половиной сайта, ага.

Legioner ★★★★★
()
Последнее исправление: Legioner (всего исправлений: 1)
Ответ на: комментарий от deep-purple

Домены такое же бабло из воздуха, конкуренции и спроса нет, вот и задирают цены. По сабжу startssl и mozilla обещает свои в 15 году

murmur
()

То, что http/2 очень хочет шифрование - это, конечно, хорошо. Но когда я последний раз, несколько лет назад, пытался добавить «s» в свой http, выяснилось, что нужно отдавать $1000 в год и сильно заморачиваться бюрократически.

Подскажите, сейчас ситуация как-то улучшилась?

makoven ★★★★★
()
Последнее исправление: makoven (всего исправлений: 1)
Ответ на: комментарий от deep-purple

ты сам-о спеку читал?

R: A reserved 1-bit field. The semantics of this bit are undefined
and the bit MUST remain unset (0x0) when sending and MUST be
ignored when receiving.

ну конечно он текстовый

anonymous
()
Ответ на: комментарий от Legioner

Браузер будет быстрее загружать сайты, веб-разработчикам будет меньше мороки.

всю основную мороку сейчас привносят именно веб-разработчики, которые не могут сделать страницу, которая бы работала без подгрузки пары десятков скрипт, стилей и прочей чухни с целой пачки каких-то непонятных сайтов.

prizident ★★★★★
()
Ответ на: комментарий от Legioner

пусть будет SPDY, пока из веб-сервера его не уберут. Есть не просит же.

Помню я удивлялся что пропатчил heartbleed, а тесты всё равно говорили что apache уязвим. Оказалось виной был гугловский mod_spdy который имел собственную версию openssl (это при том что сам spdy был отключён из-за глюков, но модуль всё равно подгружался и подменял openssl!)

Так что лучше не усложнять себе жизнь непонятными временными протоколами...

jekader ★★★★★
()
Ответ на: комментарий от makoven

да, спасибо, я использую штук 5 таких плагинов(abp,dephorm,privacy badger, disconnect, better privacy, referrer control, отключил webrtc и шпионский плагин от циско). Хотя большую часть работы выполняет abp с правилами типа ||yandex.st/share/*$domain=~yadi.sk

в ближайшее время планирую еще как-то избавиться от новомодных cdn (jquery и т.п., которые опять жеж ведут на гугл), хочу их на свой сервер перенаправлять. но пока руки не дошли.

prizident ★★★★★
()
Ответ на: комментарий от prizident

referrer control

Зачем лишнее расширение, если всё уже встроено в браузер?

network.http.referer.XOriginPolicy: 2=отправлять реферер только при переходе между страницами домена второго уровня (например, при переходе с example.org/bla.html на example.org/ururu.html); 1=отправлять также и при переходе между поддоменами (c a.example.org на b.example.org); 0=отправлять реферер в любых случаях

network.http.referer.spoofSource - какой реферер отправлять, если уж решили отправлять: false=реальный реферер, true=поддельный реферер (использовать в качестве реферера корень сайта, куда переходим)

Самое оптимальное - вторую настройку не трогать, а первую сделать равной «2» или даже «1». В случае со значением «1» нужно учесть, что реферер будет отправляться, например, при переходе с a.co.uk на b.co.uk, несмотря на то, что это совершенно разные сайты (у британцев до 2014 года не разрешалось регистрировать домены в .uk, поэтому все ютились в co.uk). Но, в большинстве случаев, «1» вполне хватает: ничего дурного в том, что сам сайт знает, с какой его страницы мы перешли на другую его страницу (многие форумные движки без этого некорректно работают), а между сайтами реферер передаваться не будет.

anonymous
()
Ответ на: комментарий от prizident

я использую штук 5 таких плагинов

Ещё советую присмотреться к CanvasBlocker, Certificate Patrol и Google search link fix (от автора abp)

anonymous
()
Ответ на: комментарий от Legioner

IE скоро поддержит.

Как я понял только для windows 8+. У MS есть такая фишка, что новый IE они делают под новую ОС, а потом портируют под старые с неполным функционалом.

fornlr ★★★★★
()
Ответ на: комментарий от beastie

Не верно. Для поддержки IPv6 нужно три вещи: поддержка на стороне серверов, поддержка на стороне клиента, поддержка на стороне провайдера по пути от сервера до клиента. С первыми двумя всё отлично, а вот с последним нет, потому что провайдеры ленятся обновлять ПО и конфиги на роутерах. В случае с HTTP/2 от оператора ничего поддерживать не требуется, а поддержка в браузеры и сервера прилетит с обновлениями. Некоторые браузеры уже поддерживают, другие скоро допилят поддержку. А сервера начнут поддерживать как только выйдет очередная мажорная версия Apache/nginx/etc и владельцы серверов начнут потихоньку накатывать апдейты (они в любом случае медленно, но верно их накатывают, чтобы закрывать дыры). А уж как выйдет очередной Debian, Ubuntu и прочие с веб-сервером с поддержкой HTTP/2 из коробки, так поддержка станет почти повсеместной (кроме заброшенных серверов, которые никто не обновляет).

KivApple ★★★★★
()
Последнее исправление: KivApple (всего исправлений: 2)
Ответ на: комментарий от loz

В случае с HTTP бинаризация протокола пойдёт только на пользу - один фиг сейчас весь веб через сжатие и шифрование приходится использовать.

Quasar ★★★★★
()
Ответ на: комментарий от prizident

всю основную мороку сейчас привносят именно веб-разработчики, которые не могут сделать страницу, которая бы работала без подгрузки пары десятков скрипт, стилей и прочей чухни с целой пачки каких-то непонятных сайтов.

И правильно делают. Это очень похоже на UNIX-WAY, собирают сайт из небольших кусков функциональности. И это проблема HTTP, что разработчикам приходится изощряться и проводить нетипичные для HTML оптимизации только из-за убогости HTTP и низлежащего сетевого стека.

Legioner ★★★★★
()
Ответ на: комментарий от makoven

То, что http/2 очень хочет шифрование - это, конечно, хорошо. Но когда я последний раз, несколько лет назад, пытался добавить «s» в свой http, выяснилось, что нужно отдавать $1000 в год и сильно заморачиваться бюрократически.

И несколько лет назад и сейчас можно получать бесплатные сертификаты. И несколько лет назад и сейчас есть платные сертификаты куда дешевле, чем $1000 в год.

Подскажите, сейчас ситуация как-то улучшилась?

Гугл с мозиллой в этом году начнут раздавать сертификаты всем желающим. Но смысла в этом нет, т.к. в старых браузерах их сертификаты работать вряд ли будут, так что для коммерческого применения, имхо, лучше купить.

Legioner ★★★★★
()
Ответ на: комментарий от dk-

Половина интеренета. Как минимум.

По трафику или просмотрам страниц, думаю, куда больше половины.

Legioner ★★★★★
()
Ответ на: комментарий от fornlr

Как я понял только для windows 8+. У MS есть такая фишка, что новый IE они делают под новую ОС, а потом портируют под старые с неполным функционалом.

SPDY тоже для windows 8+ насколько я знаю, в этом плане ничего не изменится.

Legioner ★★★★★
()
Ответ на: комментарий от loz

Вкратце, что это значит для обычных людей?

скоро каждый сайт будет толстым клиентом

dinama
()
Ответ на: комментарий от no-dashi

openssl s_client ???

это же не telnet. Легко написать http2_client, который будет HTTP/1.1 запрос преобразовывать в http2 и отправлять, а полученный ответ будет преобразовывать в HTTP/1.1 и выводить на экран, большой разницы с openssl s_client я не вижу. А ещё легче использовать curl.

Legioner ★★★★★
()
Последнее исправление: Legioner (всего исправлений: 1)
Ответ на: комментарий от no-dashi

А Keepalive, конечно же, не задействован, не так ли?

Задействованы все технологии хрома, я мерил в нём. keep-alive задействован. Если бы maxcom включил SPDY на 443 порту, можно было бы сравнить производительность HTTP/1.1 :80 и SPDY :443.

Legioner ★★★★★
()
Ответ на: комментарий от Legioner

Т.е. за секунду должно качать 4 мегабайта, а не половину. Т.е. с HTTP скорость в 8 раз меньше максимально возможной.

Ещё надо чтобы сервер раздавал на 4 метра/с всем клиентам. А для этого желателен CDN. И тут нередко начинаются грабли с TLS. И со всякими SPDY тоже. SPDY на реальных проектах, благодаря TLS, не даёт никакого приращения скорости загрузки по сравнению с голым тормозным HTTP, например.

shahid ★★★★★
()
Последнее исправление: shahid (всего исправлений: 1)
Ответ на: комментарий от Legioner

Если бы maxcom включил SPDY на 443 порту, можно было бы сравнить производительность HTTP/1.1 :80 и SPDY :443

И померяй желательно на средненьком мобильном устройстве, с 512 RAM. Чтобы хорошо ощутить «ускорение» от тормозов шифрования для тяжелого контента (картинок, которых на ЛОРе мало).

shahid ★★★★★
()
Ответ на: комментарий от shrub

Сравнительно недавно была статья о том, что он продался MS, Google и ещё кому-то. И с ресурсами тоже непорядок, тут писали и на опеннете. (Сам я переехал на мублок - доволен).

dv76 ★★★★
()

Вроде что-то говорили про изменения, связанные с HTTPS. Почему про них ничего не написано?

Klymedy ★★★★★
()
Ответ на: комментарий от Legioner

Я вот загрузил главную linux.org.ru. 37 requests/560 KB/1.05s. При этом скорость у меня около 40 мегабитов. Т.е. за секунду должно качать 4 мегабайта, а не половину. Т.е. с HTTP скорость в 8 раз меньше максимально возможной.

Да, конечно, это проблема текстовых заголовков! Это они, твари, съедают всё время! Конечно, это не html, который надо распарсить, вытащить из него ссылки на картинки и стили, и подгрузить их отдельно. И не скрипты, которые надо скомпилировать, а иногда ещё и отрендерить, чтобы они вытащили ещё что-то с сервера. Бинарные заголовки протокола разом избавят нас от всех этих проблем! Надо бы ещё html бинарный сделать. И вообще все текстовые данные принудительно переводить в бинарные.

Главное - скорость! Пачиму у миня ссды, а сайт зогружается целых три сикунды? Я хачу палтары, как системды!

Xellos ★★★★★
()
Ответ на: комментарий от SystemD-hater

что в этой аббревиатуре означает Hyper Text ты, конечно же, не знаешь

anonymous
()
Ответ на: комментарий от vovagubin1987

Но в реальности есть кэш

В реальности не живут по принципу «разработали и забыли», сайты продолжают обновлять: кто-нибудь стиль чуть подправит, кто-нибудь скрипт какой ещё подразуплотнит… И это не говоря уже о сайтах, которые за всяким контентом в JSON отдельно ходят — вот их как кеш спасёт?

thriller ★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.