码迷,mamicode.com
首页 > 其他好文 > 详细

Nginx 防爬虫优化

时间:2017-05-31 19:04:13      阅读:168      评论:0      收藏:0      [点我收藏+]

标签:爬虫   客户   nginx   china   yahoo   span   nbsp   根据   uda   

我们可以根据客户端的 user-agents 首部字段来阻止指定的爬虫爬取我们的网站

if ($http_user_agent ~* "qihoobot|Baiduspider|Googlebot|Googlebot-Mobile|Googlebot-Image|Mediapartners-Google|Adsbot-Google|Yahoo! Slurp China|YoudaoBot|Sosospider|Sogou spider|Sogou web spider|MSNBot") {
    return 403;
}

 

 

 

 

    

Nginx 防爬虫优化

标签:爬虫   客户   nginx   china   yahoo   span   nbsp   根据   uda   

原文地址:http://www.cnblogs.com/pzk7788/p/6925282.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!