LINUX.ORG.RU
ФорумTalks

DDoS-атака средствами Google Docs.

 ,


3

2

Автор метода — Chr13. Суть метода — у Google есть краулер (FeedFetcher). Если мы готовим документ в Google электронную таблицу, в которой вписываем =image(“http://example.com/image.jpg”), то Google должен получить посредством FeedFetcher картинку и отобразить её на экране.

Однако, например, на сайте есть файл file.pdf, размером в 10M. Создав ссылки вида =image("http://targetname/file.pdf?r=n"), где n = [0...999] мы заставим Google docs скачать этот файл 1000 раз. Содержимое файла, конечно, в документе не отобразится (будет выведено N/A в соответствующей ячейке), но нагрузка на атакуемый сервер будет довольно значительная, т.к. файл будет скачан.

Автору метода при помощи одного ноутбука удалось забить полосу пропускания используя множественные ссылки на один файл, в 600-700mbps на 45 минут. За эти 45 минут было скачано с атакуемого сайта порядка 240Gb.

Автор метода нашёл, что первое упоминание о такого рода поведении электронных таблиц Google относится к 10 мая 2012 и описано в блоге.

Подробности

Перемещено Shaman007 из security

Ответ на: комментарий от beastie

Да...

... я знаю ещё вариант «использования» — проверка на наличие уязвимых скриптов. Пишем поисковый запрос типа так: inurl:script_name.cgi site:http://www.target.com

Давненько уже не пользуюсь nikto.pl (хотя, есть своё аналогичное поделие на С).

Самое приятное в таких запросах в том, что IP Google используются. :)

Moisha_Liberman ()

Перенес в Talks, так как это боян 2012 года, оказывается. Но Гугл - молодцы, конечно.

Shaman007 ★★★★★ ()

у гугла же есть твой айпи, не? который в _этом_ случае они не зассут использовать в целях отправки сабжа в казённый дом

stevejobs ★★★★☆ ()

А у меня идея. Давай все поставим на аватарки сине-жёлтые флаги в знак протеста!

darkenshvein ★★★★★ ()
Ответ на: комментарий от stevejobs

Мой есть...

... но там я даже подумать боюсь сколько запросов в секунду отрабатывается. Да и юридических проволочек может быть очень много.

На мой взгляд важнее немного другое — защищаться-то как? Пока в голову приходит только фильтровать по UA. Если у FeedFetcher он какой-то свой. Надо проверить.

И хранить pdf либо в приватном доступе, либо где-нибудь в облаках. На том же гугле как вариант.

Moisha_Liberman ()
Ответ на: Мой есть... от Moisha_Liberman

ограничить количество отдаваемых на один айпи файлов в единицу времени?

stevejobs ★★★★☆ ()
Ответ на: комментарий от stevejobs

Боюсь, что...

... может не получиться:

ограничить количество отдаваемых на один айпи файлов в единицу времени?

У гугля на ферме должно быть дофига IP и, если качать будет с разных, то поплохеть серверу может в любом случае.

Moisha_Liberman ()
Ответ на: Боюсь, что... от Moisha_Liberman

Кстати...

... так и на деньги можно выставить владельца сайта. Трафик-то оплачивается, а тут такая... «мусорная» скачка. Реального толка нет, а трафик расходуется.

Moisha_Liberman ()
Ответ на: Мой есть... от Moisha_Liberman

И хранить pdf либо в приватном доступе, либо где-нибудь в облаках

Всю статику тогда надо хранить в облаках, хотя можно попробовать этот же метод и на динамику заставить работать.

trex6 ★★★★★ ()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.