蜘蛛池知识

热门推荐
网站优化为企业网络的推广和发展提供了创新机会
网站SEO整合了企业营销以帮助盈利网络转型
致力于网络优化技术的开发,以加强公司的在线营销生态系统
互联网推广处于黄金时代,网站优化必不可少
流行减少,在线营销增加,强调一站式网站推广外包的价值
营销市场发生了变化,在线SEO推广的效果增强了
网站优化技术是企业网络营销转型的核心动力
在在线促销时代,网站优化和企业在线营销如何同时赋予这两种方式?
顺应网络营销改革的大趋势,网站的优化和推广为企业网络的转型而生。
企业网络转型步伐加快,网站优化营销潜力巨大

如何正确编写机器人协议?

如何写机器人协议?这实际上非常简单,但是在学习如何编写机器人协议之前,重庆SEO首先会告诉您有关机器人协议的符号理解!只有这样,才能有效地使用机器人协议!

  一、robots协议是什么

  robots协议就是指定搜索引擎蜘蛛根据所写的robots协议爬寻,并且关系到所写的命令去执行。

  二、robots协议里的符号介绍与写法

  1.User-agent: 给不同的蜘蛛定义相应的规则

  2.Disallow: 不需要访问的某一条路径

  3.Allow: 允许某一条路径抓取

  举例说明;

  User-agent: * (以下内容适用所有搜索引擎)

  Disallow: / (禁止搜索引擎抓取网站内任何内容)

  Disallow: /*?* (禁止搜索引擎抓取动态页)

  Disallow: /admin/(禁止搜索引擎抓取管理员的内容)

  Allow: /page/ (允许搜索引擎抓取的某条连接)

  Sitemap: (希望百度抓取的网站地图)

  Sitemap: http://www.chengduseo.cn/sitemap.xml(希望谷歌抓取的网站地图)

  链接:在网站中出现死链的时候,我们就可以用robots.txt来屏蔽一下,告知搜索引擎,这些链接不要被抓取。

  地图:希望搜索引擎抓取网站地图时,我们就可以把网站地图放到robots.txt文件内。

  总结:robots协议写法有很多,如果不是很懂千万不要去整,不然你的网站会有不一样的效果出现的(哈哈),写的时候也要注意一定认真看清楚,不然被屏蔽了也找不到什么原因!所以在此提醒大家写robots协议一定要注意!

文章来源:未知 文章标题:如何正确书写robots协议? 本文地址: