码迷,mamicode.com
首页 > 其他好文 > 详细

nginx通过robots.txt禁止所有蜘蛛访问(禁止搜索引擎收录)

时间:2019-05-12 19:59:36      阅读:862      评论:0      收藏:0      [点我收藏+]

标签:agent   def   html   ext   robot   nbsp   bsp   www   ret   

在server {} 块中添加下面的配置

 

    location =/robots.txt {
        default_type text/html;
        add_header Content-Type "text/plain; charset=UTF-8";
        return 200 "User-Agent: *\nDisallow: /";
    }

 

在线测试robots.txt是否生效

https://ziyuan.baidu.com/robots/index

 

robots.txt文件生产工具:http://tool.chinaz.com/robots/

 

其他网站参考:

https://www.tmall.com/robots.txt

https://www.jd.com/robots.txt

https://www.qq.com/robots.txt

 

nginx通过robots.txt禁止所有蜘蛛访问(禁止搜索引擎收录)

标签:agent   def   html   ext   robot   nbsp   bsp   www   ret   

原文地址:https://www.cnblogs.com/linkenpark/p/10853147.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!