LINUX.ORG.RU

Зачем отправляются коды ответов сервера?

 


0

2

Я имею в виду 200, 404, и прочие. Я понимаю, что стандарты протокола, и тд, но не ясно, нафига мне, васе пупкину, на своей домашней странице это надо? Например, страница не найдена, я шлю 200 с текстом «страница не найдена» и все. Что я от этого теряю, собственно? Нахрен мне вникать в тонкости http?



Последнее исправление: terminator-101 (всего исправлений: 1)

Поисковик проиндексирует эту страницу. Если он найдет много одинаковых страниц, то это будет считаться как не уникальный контент. Полный провал с точки зрения SEO.

Black_Roland ★★★★
()

я шлю 200 с текстом «страница не найдена» и все

Будет оверхед.
301, 302, 304 крайне полезны.
403 и 404 необходимо отличать друг от друга, как и 500/502/503/504

xtraeft ★★☆☆
()

Еще всякие AJAX запросы тоже смотрят код ответа. Если у тебя произошла ошибка (500) и вместо JSON прилетает HTML, то благодаря коду ответа можно отловить такую ситуацию.

Black_Roland ★★★★
()

Во всяких AJAX это важно: пришли ли корректные данные или сервер сказал «фи!». Да и вообще, REST на этих кодах построен.

KennyMinigun ★★★★★
()
Ответ на: комментарий от Black_Roland

Понял, спасибо. Хотя, по идее, можно как-то запретить такие страницы к индексации по какой-нибудь маске, типа, динамически формировать robots.txt, но, наверное, коды отдавать проще, действительно, да.

Кстати, а как он эти страницы может проиндексировать? Ведь на них ссылки должны быть, а откуда они возьмуться? Только если кто-то злонамеренно понаставит?

terminator-101
() автор топика

Еще 403 используется в basic auth. Короче не буду больше флудить, а ты не выдумывай и используй коды ответа как положено.

Black_Roland ★★★★
()
Ответ на: комментарий от terminator-101

Кстати, а как он эти страницы может проиндексировать? Ведь на них ссылки должны быть, а откуда они возьмуться? Только если кто-то злонамеренно понаставит?

Ну почему сразу злонамеряно :) Может кто-то просто решил поделиться ссылкой на твой сайт, или статью в блоге. Допустим статью ты удалил и ссылка теперь ведет в никуда.

Понял, спасибо. Хотя, по идее, можно как-то запретить такие страницы к индексации по какой-нибудь маске, типа, динамически формировать robots.txt, но, наверное, коды отдавать проще, действительно, да.

robots.txt сильно распухнет. Нужно запретить все и разрешить только то что действительно существует. Еще и обновлять постоянно надо.

Black_Roland ★★★★
()
Ответ на: комментарий от terminator-101

Могут игнорировать, а могут и нет.
Гугл вобще может индексировать то, что закрыто в robots.txt и ставить в выдачу (правда, немного в кастрированном виде).

xtraeft ★★☆☆
()

Еще прокси-серверы используют эти коды.

dizza ★★★★★
()

Наглядное объяснение зачем нужны коды

200 - <html>Пошел нафиг.</html>
404 - <html>Пошел нафиг.</html>
451 - <html>Пошел нафиг.</html>
Как видишь, текст один, а смысл разный.

handbrake ★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.