Nginx-ru mailing list archive (nginx-ru@sysoev.ru)
[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
Re: Re[2]: борьба с ботами средст вами nginx
- To: nginx-ru@xxxxxxxxx
- Subject: Re: Re[2]: борьба с ботами средст вами nginx
- From: Roman Hlynovskiy <roman.hlynovskiy@xxxxxxxxx>
- Date: Mon, 16 Mar 2009 22:12:30 +0600
- Dkim-signature: v=1; a=rsa-sha256; c=relaxed/relaxed; d=gmail.com; s=gamma; h=domainkey-signature:mime-version:received:in-reply-to:references :date:message-id:subject:from:to:content-type :content-transfer-encoding; bh=mKMyRwhMS22KD4P+o3cJdY9Od6dSjs6qcBsKgqUgiwY=; b=gdBTHi/2YK94aeM99P6BAqvB58s51o4uPNsnO/spTHFZ2i4fccoENQEM5SC+BBsy7a 3grUJ4Ovm0vKRzkHA2Wuftccj94OtkMwW3b8bff9/J2effAIdKFKwg9ZcXUybx+6/N8d gyIbIP/69wCAYjlk8jTG+vp3GGLb1aPJt0VQs=
- Domainkey-signature: a=rsa-sha1; c=nofws; d=gmail.com; s=gamma; h=mime-version:in-reply-to:references:date:message-id:subject:from:to :content-type:content-transfer-encoding; b=pTCrWQT/om577M0NxSlAEXl3eEUknmpmVA93nXSZJQCpamkSWMOsMteTEEVNUDWgdn 4ZBlilIxC2lZPrA5Py+px60nKNLSwkj2IeeMAuzeHPDJwxvhYu3cpIlT3RJDFK5mmD33 m9KjXzJsZsJcWjIarz4EVN19UG3D6cgAJRa2U=
- In-reply-to: <20090316180609.BC93.F6F2AC58@xxxxxxxxx>
- References: <afa4ab8a0903160607m1403fc19hc4d61e8ccd411f61@xxxxxxxxxxxxxx> <a7cd64c30903160650t1d85242fj92b81f3c7e1fd73@xxxxxxxxxxxxxx> <20090316180609.BC93.F6F2AC58@xxxxxxxxx>
а сколько клиентов шаред хостинга можно этому научить? 90% наших
клиентов практически ничего не знают о веб-технологиях как таковых.
они ориентированы на задачу, которую должен выполнять их веб-сайт. и я
считаю что это правильно. вот я когда сажусь в машину я не терзаюсь
мыслями, о том как и с какой силой я должен нажимать те или иные
педали и крутить те или иные ручки, чтобы все это поехало. все уже
продумано за меня производителем.
16 марта 2009 г. 21:06 пользователь AleXXX V. NovikoFF
<alexxx@xxxxxxxxx> написал:
> Hi!
>
> Вы бы клиентов обучили Crawl-Delay в robots.txt
>
>> 2009/3/16 Roman Hlynovskiy <roman.hlynovskiy@xxxxxxxxx>
>>
>> > добрый день,
>> >
>> > а у кого какой опыт есть борьбы с поисковыми ботами средствами nginx?
>> >
>> > сегодня столкнулись с интересной проблемой - дурной клиент то-ли купил
>> > сервис по seo-оптимизации, то-ли сам где-то научился, но его ресурс
>> > обступили вкруговую поисковые боты.
>> > одновременно 10-15 разных поисковых ботов начали активно индексировать
>> > ресурс. все-бы ничего, но ресурс поднят на базе одного очень дурного
>> > CMS разработчики которого видимо не в курсе что существуют понятия
>> > индексов в БД.
>> > в итоге получился небольшой DOS. сервер выдержал, но 'осадок' остался,
>> > в виде очень нехороших iowait'ов.
>> >
>> > хотел-бы узнать кто-как решает подобные наплывы ботов у себя?
>> > закрывать полностью ip-адреса ботов тоже не вариант, т.к. речь идет о
>> > шаред хостинге.
>> >
>> > соответственно у меня возникло 2 различные идеи воплощения этой задачи;
>> >
>> > 1) разрешить только одному боту в одну единицу времени получать свой
>> > честный 200, всем остальным - 503
>> > 2) разрешить не более одного коннекта с одного ip-адреса при условии
>> > что user_agent соответствует некому набору бот-шаблонов.
>> >
>> > попытался реализовать второй вариант через limit_conn следующим образом:
>> >
>> > http {
>> > limit_zone bots $binary_remote_addr 16m;
>> >
>> > . . .
>> >
>> > server {
>> >
>> > if ($http_user_agent ~* "StackRambler|Yandex") {
>> > limit_conn bots 1;
>> > }
>> >
>> >
>> > }
>> >
>> > }
>> >
>> > на практике получил облом, т.к. limit_conn не может быть внутри if-а.
>> > какие варианты тут могуть быть?
>> >
>> > реализовывал-ли кто-нибудь что-нибудь подобное первому варианту?
>> > у меня вообще не приходят мысли как может выглядеть подобная конфигурация.
>> >
>> >
>> > --
>> > ...WBR, Roman Hlynovskiy
>> >
>
> --
> Цитируйте предыдущую переписку, пожалуйста.
> AleXXX V. NovikoFF <alexxx@xxxxxxxxx>
> WWW: http://alexxx.ru/
>
>
>
--
...WBR, Roman Hlynovskiy
|