蜘蛛池知识

热门推荐
网站优化为企业网络的推广和发展提供了创新机会
网站SEO整合了企业营销以帮助盈利网络转型
致力于网络优化技术的开发,以加强公司的在线营销生态系统
互联网推广处于黄金时代,网站优化必不可少
流行减少,在线营销增加,强调一站式网站推广外包的价值
营销市场发生了变化,在线SEO推广的效果增强了
网站优化技术是企业网络营销转型的核心动力
在在线促销时代,网站优化和企业在线营销如何同时赋予这两种方式?
顺应网络营销改革的大趋势,网站的优化和推广为企业网络的转型而生。
企业网络转型步伐加快,网站优化营销潜力巨大

让网站快速优化有效果的robots.txt写法?

  什么是robots

  robots是Robots Exclusion Protocol的缩写,意思是“网络爬虫排除标准”,通俗的说就是爬虫协议或者是机器人协议,通常用名为robots.txt这样的文件来写这个协议,意在告诉搜索引擎,网站上哪些页面可以抓取,哪些页面不可以抓取。搜索引擎在访问网站时,会先查看robots.txt文件,遵守我们设置的robots协议进行页面的抓取,不过有些搜索引擎可能会不遵守robots协议而随意抓取我们网站的内容,我们将之称为流氓。注意:robots.txt文件必须放在网站根目录中。

  robots常见属性含义

  User-agent:用户代理,用于书写搜索引擎蜘蛛的名称,*代表所有的搜索引擎,写法是:User-agent: /*,注意冒号后面要有一个空格,如果是某个搜索引擎,那么,在冒号后面写上该搜索引擎蜘蛛的名称即可,如百度蜘蛛,则是:User-agent: Baiduspider。

  Disallow:用于告诉搜索引擎不可以抓取的页面。

  Allow:用于告诉搜索引擎可以抓取的页面。

  robots.txt常见写法示例

  1.所有搜索引擎可以访问网站所有页面:

  robots写法:User-agent: *

  Allow: /

  不让访问任何页面则把Allow换成Disallow

  2.某个搜索引擎可以访问网站所有页面:(以百度举例)

  robots写法:User-agent: Baiduspider

  Allow: /

  不让访问任何页面则把Allow换成Disallow

  3.限制某个目录不被任何搜索引擎抓取,以目录a举例:

  robots写法:User-agent: *

  Disallow: /a/

  4.限制某个路径不被任何搜索引擎抓取,以路径123.html举例:

  robots写法:User-agent: *

  Disallow: /123.html

  5.允许目录a中的1.html被抓取,目录a其他页面不被抓取:(部分目录中的页面允许抓取)

  robots写法:User-agent: *

  Disallow: /a/

  Allow: /a/1.html

  6.禁止访问以.html为后缀的路径:

  robots写法:User-agent: *

  Disallow: /*.html(*表示任意字符)

  7.禁止动态页面被抓取:

  robots写法:User-agent: *

  Disallow: /*?*

  8.禁止所有图片被抓取:

  robots写法:User-agent: *

  Disallow: /*.jpg$($表示结束字符)

  Disallow: /*.png$

  Disallow: /*.gif$

  Disallow: /*.bmp$

  Disallow: /*.swf$

  Disallow: /*.psd$

  注意:要将所有的图片格式屏蔽掉

  robots协议写法要点

  1.一个User-agent:代表一个协议,协议可以有多个,但是User-agent: *只能有一个;

  2.所有冒号后面必须有一个空格

  3.隐私文件一定要屏蔽抓取,比如网站后台,还有一些博客插件、模板等文件也要屏蔽抓取。

文章来源:未知 文章标题:让网站快速优化有效果的robots.txt写法? 本文地址: