LINUX.ORG.RU

Боты Microsoft вызвали отказ в обслуживании Perl CPAN Testers

 , , ,


0

0

На днях у проекта Perl CPAN Testers возникли проблемы с доступом к сайту, зеркалам и базе данных. Как сообщалось в блоге - сервер был подвергнут агрессивному сканированию ботами (примерно 20-30 ботов каждые несколько секунд), которые полностью игнорировали правила в файле robots.txt. IP адреса ботов были идентифицированы, как 65.55.207.x, 65.55.107.x и 65.55.106.x, которые принадлежат компании Microsoft.

В настоящее время администраторами CPAN Testers был заблокирован доступ к сайту с этих адресов.

>>> Подробности

★★★★★

Проверено: Shaman007 ()

мс пошла в наступление

anonymous ()

Bing проснулся???

И правильно, плевать на robots.txt :)

fi ★★★ ()

Ситх держит марку

он молодец

anonymous ()
Ответ на: M$ от Lee_Noox

Re: M$

>спалились на альфа тесте skynet.

Не, это Скайнет Гугла их подставил.

anonymous ()

Серверы надо настраивать нормально, чтобы не допускать 20-30 коннектов каждые несколько секунд с одного IP. Ещё и рассказали всем какие они ламеры.

anonymous ()
Ответ на: M$ от Lee_Noox

однозначно

Berluskoni ★★ ()
Ответ на: комментарий от anonymous

Относится.

Каким местом эта новость относится к Linux?

Perl входит в LSB, так что относится.

Camel ★★★★★ ()
Ответ на: комментарий от anonymous

Читать надо внимательно, чтобы видеть что не с одного IP, а с диапазона адресов.

Praporshik ★★ ()
Ответ на: комментарий от anonymous

Каким местом эта новость относится к Linux?

ЛОР доступен и по адресу opensource.ru. Не говоря уж про то, что ненависть к m$ - необходимый атрибут посетителей данного ресурса.

mv ★★★★★ ()

просте серваки на win2k3 подхватили вирус. Это же очевидно

rave ()

т.е. боты m$ победили ботов написанных на Perl, раз пришлось сайты m$ блокировать?

e000xf000h ()

<толсто> <тонко> лучше бы админить бинговские сервера отдали студентам. </тонко> </толсто>

anonymous ()
Ответ на: комментарий от anonymous

>Каким местом эта новость относится к Linux?

Ну тупо же.

ansi ★★★★ ()

Предсказываю over 20 страниц в треде.

ALeo ()

Если я не ошибаюсь, то нынче многие боты бьют болт на robots.txt. В том числе и от непогрешимого Гугля. Но не все бьют болт так нагло как MS-боты...

hawai ()
Ответ на: комментарий от Fatroll

>лол, 1% в поле не воин

Мы будем вести войну тяжёлым оружием — серверами и суперкомпьютерами. У Империи Зла нет шансов.

den2 ()
Ответ на: комментарий от Fatroll

Толсто. 1% это где? На десктопах может быть. В других областях другие проценты.

ALeo ()

суровые микрософтовые боты, настолько суровые что игнорируют даже файл робот.тхт. Наверное файл надо было назвать ms-robots.txt, тогда бы они успокоились и не сканили бы тупо все подряд.

anonymous ()

Надеюсь просто так это не оставят. Это же явное вмешательство в работу электронных систем. И что opensource-сообщество будет делать? Свои мега-боты писать???

postrediori ()

Забавная аватарка, точно в тему :)

stave ★★★★★ ()

Это не какие-то боты, а конкретно msnbot, что придает новости дополнительный шарм!

Gukl ★★ ()

Всё равно самые наглые боты - у Yahoo :) Приходилось регулярно банить (и их тоже дофига разных подсетей), пока не настроил систему временной автоблокировки при перегрузке сервера с конкретных IP.

KRoN73 ★★★★★ ()
Ответ на: комментарий от anonymous

>чтобы не допускать 20-30 коннектов каждые несколько секунд с одного IP. Ещё и рассказали всем какие они ламеры.

а как же пользователи за nat? или на них пофиг?

programmist ()

Я видел этот тред еще когда он помещался в одну страницу...

mutley ()
Ответ на: комментарий от anonymous

> After you add or update the Robots.txt file, there might be a delay before MSNBot indexes the changes.

Вот в чем закавыка, они ищут файл Robots.txt, а не robots.txt ;)

Gukl ★★ ()
Ответ на: комментарий от postrediori

> Это же явное вмешательство в работу электронных систем. И что opensource-сообщество будет делать? Свои мега-боты писать???

реквестирую добровольный опенсорц ботнет для одержаниния скорейшей победы над империей зла.

azure ★★ ()
Ответ на: комментарий от anonymous

>А давайте ддосить microsoft.com

с помощью ботов, написанных на Perl!!

programmist ()
Ответ на: комментарий от KRoN73

Даю идею.
На сайте есть ссылка на скрипт(скрытая). Но путь к скрипту занести в исключения в robots.txt
Скрипту остаётся лишь получать $ENV{ REMOTE_ADDR } (адрес нарушителя) и заносить в бан-лист :)

ovax ★★ ()

Интересно, кто-нибудь вообще почесался бы сообщать, если бы там засветились IP-адреса Google или Yandex?

anonymous ()
Ответ на: комментарий от den2

Да, если ты ещё не заметил, уже давно. Только раньше они справлялись другими, менее технологичными способами типа взяток и патентных исков. Теперь вот до ботов доросли. Никак Икаса научил!

Vudod ★★★★★ ()
Ответ на: комментарий от anonymous

> А давайте ддосить microsoft.com

Бесполезно, он за akamai на линуксе

anonymous ()
Ответ на: комментарий от ALeo

> Где тут записывают в армию бессмысленных и беспощадных опенсорсников?

Я могу записать, если хочешь. На пушечное мясо сойдёшь. С твоего mac адреса мы будем проводить ответные атаки до полной победы или пока тебя не посадят, а сетевуху не конфискуют.

Vudod ★★★★★ ()
Ответ на: комментарий от Gukl

> Вот в чем закавыка, они ищут файл Robots.txt, а не robots.txt ;)
Вот сволочи. Даже православный robots.txt изуродовали.

Nao ★★★★★ ()
Ответ на: комментарий от postrediori

Надеюсь просто так это не оставят. Это же явное вмешательство в работу электронных систем. И что opensource-сообщество будет делать? Свои мега-боты писать???

ддосить их обратно, через seti@home, прямой наводкой, а чтобы было совсем круто - скрипты писать на haskell и asp.net :)

shty ★★★★★ ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.