欢迎您加入19站目录库!网站推广流程:注册会员 -> 提交网站 -> 快速审核 -> 带来无限流量和外链。( 点入和点出一次可获排名第一位!
数据统计:136个主题分类,5423个优秀站点,20个站点正在排队审核,881篇站长资讯
网站快速审核:免费请联系: 点击这里给我发消息
当前位置:19站目录库 » 站长资讯 » 网站帮助 » 使用帮助 » 文章详细 订阅RssFeed

如何设置网站的robots文件

来源:本站原创 浏览:662次 时间:2021-07-07


        Robots协议(爬虫协议)是国际互联网界通行的道德规范,一般是在一个web站点的根目录下写的robots.txt文件,用来告知搜索引擎哪些页面能被抓取,哪些页面不能被抓取,可以屏蔽一些网站中比较大的文件,如:图片,音乐,视频等,节省服务器带宽;可以屏蔽站点的一些死链接。方便搜索引擎抓取网站内容;设置网站地图连接,方便引导蜘蛛爬取页面,Robots是站点与spider沟通的重要渠道,站点通过robots文件声明本网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。

robots.txt文件的格式

        robots文件往往放置于根目录下,包含一条或更多的记录,在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow和Allow行,详细情况如下:

        User-agent:该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User-agent:SomeBot"和若干Disallow、Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。

        Disallow:该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被 robot访问。例如"Disallow:/help"禁止robot访问/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。"Disallow:"说明允许robot访问该网站的所有url,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。

        Allow:该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL 是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。

        使用"*"and"$":Baiduspider支持使用通配符"*"和"$"来模糊匹配url。

        "*" 匹配0或多个任意字符

         "$" 匹配行结束符。

robots.txt文件书写举例:

 1. 允许所有的robot访问

    User-agent: * Allow: / 或者 User-agent: * Disallow:

 2. 禁止所有搜索引擎访问网站的任何部分

    User-agent: *

    Disallow: /

 3. 仅禁止Baiduspider访问您的网站

    User-agent: Baiduspider

    Disallow: /

 4. 仅允许Baiduspider访问您的网站

    User-agent: Baiduspider

    Disallow:

 5. 禁止spider访问特定目录

    User-agent: *

    Disallow: /cgi-bin/

    Disallow: /tmp/

    Disallow: /~joe/

6. 允许访问特定目录中的部分url

    User-agent: *

    Allow: /cgi-bin/see

    Allow: /tmp/hi

    Allow: /~joe/look

    Disallow: /cgi-bin/

    Disallow: /tmp/

    Disallow: /~joe/

 7. 使用”*”限制访问url,禁止访问/cgi-bin/目录下的所有以”.htm”为后缀的URL(包含子目录)。

    User-agent: *

    Disallow: /cgi-bin/*.htm

 8. 使用”$”限制访问url,仅允许访问以”.htm”为后缀的URL。

    User-agent: *

    Allow: .htm$

    Disallow: /

 9. 禁止访问网站中所有的动态页面

    User-agent: *

    Disallow: /*?*

 10. 禁止Baiduspider抓取网站上所有图片,仅允许抓取网页,禁止抓取任何图片。

    User-agent: Baiduspider

    Disallow: .jpg$

    Disallow: .jpeg$

    Disallow: .gif$

    Disallow: .png$

    Disallow: .bmp$

 11. 仅允许Baiduspider抓取网页和.gif格式图片,允许抓取网页和gif格式图片,不允许抓取其他格式图片

    User-agent: Baiduspider

    Allow: .gif$

    Disallow: .jpg$

    Disallow: .jpeg$

    Disallow: .png$

    Disallow: .bmp$

 12. 仅禁止Baiduspider抓取.jpg格式图片

    User-agent: Baiduspider

       总结:最后需要说明的是:百度会严格遵守robots的相关协议,请注意区分您不想被抓取或收录的目录的大小写,百度会对robots中所写的文件和您不想被抓取和收录的目录做精确匹配,否则robots协议无法生效。



版权声明:
1、本文内容由网友自发贡献,版权归原作者所有。
2、本站仅提供文章发布平台,文章的内容与本站无关,请真伪自辩,本站不承担相应法律责任。
3、如果发现本站有涉嫌抄袭侵权的内容,欢迎举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
4、转载请注明本文地址:http://www.19zh.com/artinfo/470.html

推荐站点

  • 自学ps教程网自学ps教程网

    分享原创ps图文教程:从新手零基础入门ps教程,到ps设计实战经验,以及很多网友要学的ps抠图教程,都会通过图文的方式,展示给大家,用简洁的语言,到位的图示,让您轻松查阅,快速get到要点,新知识、新图例,尽在taoxuemei.com!

    www.taoxuemei.com
  • 189d下载网189d下载网

    189d下载网是一个资源下载中心,为用户提供最新的手机游戏下载、最好用的安卓app下载,以及各种最新的电脑软件和单机游戏的免费下载,还有各种热门游戏的攻略和软件使用教程。

    www.189d.com
  • 全球工厂网全球工厂网

    全球工厂网是专注企业信息化的综合电子商务服务平台,汇集各行业供求信息,为客户提供高标准的一站式服务

    https://www.gc1288.com/
  • 38健康网-专业女性健康知识网站38健康网-专业女性健康知识网站

    38健康网(www.ni38.com)专业的女性健康网站,提供女性健康小常识、心理健康、生理健康、亚健康、女性保健、女性孕育、健康食谱、妇科疾病等的综合女性健康网站.

    www.ni38.com
  • 1080影视大全1080影视大全

    【1080影视大全】为您提供好看的电影、全新电视剧、全新动漫、全新综艺节目排行榜,免费在线观看lunli电影、动作片、 喜剧片、爱情片、搞笑片等全新电影,更多电影高清在线观看尽在1080影视大全(www.ki65.com)。

    www.ki65.com
  • 简书简书

    简书是一个优质的创作社区,在这里,你可以任性地创作,一篇短文、一张照片、一首诗、一幅画……我们相信,每个人都是生活中的艺术家,有着无穷的创造力。

    www.jianshu.com
Powered by 19站目录F2.02021版 官方网站:19站目录库
Processed in 0.189779 second(s), 22 Queries, Gzip Enabled