LINUX.ORG.RU

Зачем гугл рекомендует делать сайты под текстовые браузеры?

 , , ,


0

3

https://developers.google.com/search/docs/advanced/guidelines/ajax?hl=ru

В частности, подумайте о тех, чьи браузеры не поддерживают JavaScript (например, людях, использующих программы чтения с экрана или старые телефоны)

Что за дичь в 21 веке? Для кого? Для чего? Кто реально поддерживает браузеры, где нет js?

★★★★

Ну для продающего/информационного сайта, без особой интерактивности, совет не лишен смысла. Заодно решаются все проблемы с индексацией ПС.

ddidwyll ★★★ ()
Ответ на: комментарий от ddidwyll

Кстати, на счет индексации, гугель индексирует DOM, не тупо парсит сырой html. Есть нюансы, кто знает подродности отпишитесь, пож

gobot ★★★★ ()

Тут же многие бахвалились на ЛОРе, что ставят расширение Noscript, которое блочит все JavaScript на сайтах… и только по клику включает скрипты

Вот для них и советуют, чтобы сайты были работоспособными и без js

menangen ★★★★★ ()
Ответ на: комментарий от gobot

У нас в рунете модно рендерить весь react в HTML и отдавать такую страничку средствами nodejs клиенту. Видимо, надеются увеличивать продажи своих копыт и рогов

menangen ★★★★★ ()

Это явно не для того чтобы задроты смотрели на него в links. Но для людей с ограничеными возможностями, которым нужна упрощенная навигация, чтение экрана, выбор ссылок по меню

vertexua ★★★★★ ()
Ответ на: комментарий от menangen

Это нормальная практика на коммерческих сайтах, чтоб не спрашивали, почему вкладка падает или скрипты тормозят и почему сайт крутит крутилку и грузится полчаса.

slapin ★★★★★ ()

Не всем нужна графика и js.

ugoday ★★★★★ ()
Ответ на: комментарий от gobot

А что сложнее? Если каждый васянский бложик нынче SPA которое чуть что пустую страницу кажет или требует запуска скриптов! в консоли броузера чтобы раздуплиться из-за багов с кешем и обновлениями (привет, gmail). Да, от SPA есть польза если это некий сервис, типа почтового клиента, игрушки и тп. но если быдлосайтик с картиночками пытается весь ко мне загрузиться то ну его нафиг. Вот gmail с его пожиранием памяти и процессора я еще потерплю, но всякое прочее говнище - ну его нафиг.

slapin ★★★★★ ()
Ответ на: комментарий от gobot

opennet.ru freebsd.org fedoraplanet.org planet.debian.org debian.org хватит?

anonymous ()
Ответ на: комментарий от vertexua

Но для людей с ограничеными возможностями, которым нужна упрощенная навигация, чтение экрана, выбор ссылок по меню

В большинстве случаев - да, но и «задроты» не против. Вот, компилишь что-то жрущее RAM без X’ов, а нужно найти инфу - links очень кстати. Или идею какую-нибудь проверяешь и пишешь массу данных в RAM, а у тебя 6-8GB всего, например. Естественно, разумней в голой консоли работать, чем отдать под DE, IDE на каком-нибудь электроне, etc половину ОЗУ.

To @gobot

Что за дичь в 21 веке?

Как ни странно, но в 21 веке 99% сайтов так или иначе отдают готовый html с сервера (SSR, etc), за исключением админок и реализаций где не нужен SEO, индексация, др.

Stack77 ()
Последнее исправление: Stack77 (всего исправлений: 1 )
Ответ на: комментарий от Stack77

Как ни странно, но в 21 веке 99% сайтов так или иначе отдают готовый html с сервера

Если нужен только гугл и есть транспиленный в es5 js, можно с этим не заморачиваться, я проверял раз pwa, индексировался.

ddidwyll ★★★ ()

Во-первых многие пользователи отключают JS для безопасности. Во-вторых многие пользователи пользуются нетрадиционными браузерами. В-третьих многие поисковые системы или не выполняют JS или делают это неохотно.

Кто реально поддерживает браузеры, где нет js?

По возможности стараюсь.

Legioner ★★★★★ ()
Ответ на: комментарий от ddidwyll

Есть мнение, что гугл не любит такие сайты и индексирует их реже. В принципе это можно понять. Одно дело - распарсить текст и другое дело - запустить отдельную виртуалку, запустить в ней безголовый хром, дождаться загрузки сайта (тоже, кстати, нетривиальная задача, не решаемая в общем случае), связаться с этим хромом, вытащить из него DOM. И только тут начать его парсить.

Понятно, что если у тебя уникальный сайт, аналога которому в мире просто нет, то его проиндексируют и люди к тебе пойдут. Но если ты один из сотен альтернатив, тут уже сложней.

Это одна из причин, по которым развивается серверный рендеринг даже традиционных клиентских фреймворков вроде React.

Legioner ★★★★★ ()
Последнее исправление: Legioner (всего исправлений: 2 )
Ответ на: комментарий от Legioner

Скорее всего этот эффект постепенно сойдёт на нет. Но тут ещё дело в том что у робота есть лимит на время выполнения js, и если бездумно напихать на страницу ангуляр, реакт и jquery (видел такое), то ничего не поможет контент может не успеть. Кстати робота можно звать и всячески в индексации помогать.

ddidwyll ★★★ ()
Ответ на: комментарий от Legioner

Во-первых многие пользователи отключают JS для безопасности. Во-вторых многие пользователи пользуются нетрадиционными браузерами.

неа. ну вот что ты несешь. «многие», ага. даже тут, на форуме позеров и бездельников, % таких отключавщиков вряд ли превышает 15.

anonymous ()
Ответ на: комментарий от vertexua

Люди с ограниченными возможностями используют для серфинга специальные программы, которые просто присоедниятся к к специальному апи браузеров, а в стандарте html есть специальное accessibity api, которое имеет поддержку со стороны браузеров, чтобы и управление им с помощью жс работало.

anonymous ()
Ответ на: комментарий от Legioner

многие пользователи отключают JS для безопасности

Предоставьте статистику. Многие это сколько?

anonymous ()
Ответ на: комментарий от beastie

кстати такое себе. есть сайтики, сделанные аж в 95 году, но гораздо притяней и интересней.

anonymous ()
Ответ на: комментарий от anonymous

сделанные аж в 95 году, но гораздо притяней и интересней.

Покажи такие сайтики, которые достойны использования пусть не каждодневно, но хотя бы раз в неделю.

anonymous ()

В перспективе одно оформление. Смотрел фильмы где герй приходящий домой щелкает пальцем и голограмма рассказывает. Так вот зачем голограмме твое оформление, она парсит текст.

anonymous ()
Ответ на: комментарий от anonymous

Насколько я знаю, в среднем около 1%. Из них 0.2% отключили JS, а остальные по тем или иным причинам не смогли его выполнить (например проблемы с передачей данных).

Legioner ★★★★★ ()
Последнее исправление: Legioner (всего исправлений: 1 )
Ответ на: комментарий от ddidwyll

Я сам не проверял, но здесь и не только здесь спрашивал - все говорят, что на данный момент Гугл еще очень плохо и долго индексирует чистые SPA.

Stack77 ()

Рассказывать о том, как полезны поисковики надеюсь не нужно. Чтобы выдавать релевантные данные, а не сео-спам и копирайтерские высеры, ПС нужно определить, какой контент содержит страница, и это проще сделать на простой странице, а не с каким-то хитросделанным скриптом, который непонятно что показывает при разных условиях.

goingUp ★★★★★ ()
Ответ на: комментарий от menangen

У нас в рунете модно рендерить весь react в HTML

А у меня в планах не реакт, а Vue выучить.

Владимир

anonymous ()

сам ты дичь, все правильно они рекомендуют, задрочили эти ваши еле ворочащиеся страницы по 50 мегабайт штука.

deep-purple ★★★★★ ()

У веб-обезьянки пригорело.

anonymous ()
Ответ на: комментарий от anonymous

Предоставьте статистику. Многие это сколько?

А ты возьми и собери статистику. Хотя какую статистику смогут собрать веб-обезьянки без жабоскрипта, лол?

anonymous ()
Ответ на: комментарий от anonymous

Я работаю в крупном европейском дейтинг-сервисе. По нашей статистике клиенты без жс у нас только краулеры.

Хотя какую статистику смогут собрать веб-обезьянки без жабоскрипта, лол?

Ты своей верой в какое-то мнимое превосходство над кем-то в интернетиках самоутвердиться пытаешься или что. На каком этапе ты остановился в развитии? Если ты макака без скилов, это же не значит, что все вокруг тебя тебе подобны. Понимаешь?

anonymous ()
Ответ на: комментарий от Stack77

Гугл – рекламное агентство. Если им денежку занести, будут индексировать и в топ выводить. А если нет, можно что угодно говорить ;)

anonymous ()
Для того чтобы оставить комментарий войдите или зарегистрируйтесь.