设为首页 - 加入收藏 ASP站长网(Aspzz.Cn)- 科技、建站、经验、云计算、5G、大数据,站长网!
热搜: 数据 创业者 手机
当前位置: 首页 > 运营中心 > 搜索优化 > 正文

怎么运用robots文件做好网站优化让蜘蛛更好的抓取网站?

发布时间:2021-12-24 14:47 所属栏目:122 来源:互联网
导读:robots文件存在于网站根目录,是用来告诉百度蜘蛛那些应该抓取,那些不应该抓
robots文件存在于网站根目录,是用来告诉百度蜘蛛那些应该抓取,那些不应该抓取。正确使用robots文件有助于做好seo优化,robots文件的核心词汇就是allow和disallow用法。百度官网是认可这个文件的,在百度站长平台上也有robots这个栏目,点击进入,就可以看到你网站robots文件是否编写正确了。
 
  百度robots文件使用说明
 
  1、robots.txt可以告诉百度您网站的哪些页面可以被抓取,哪些页面不可以被抓取。
 
  2、您可以通过Robots工具来创建、校验、更新您的robots.txt文件,或查看您网站robots.txt文件在百度生效的情况。
 
  3、Robots工具暂不支持https站点。
 
  4、Robots工具目前支持48k的文件内容检测,请保证您的robots.txt文件不要过大,目录最长不超过250个字符。
  
  上图我给的一个例子中,disallow语句有问题,原因是把英文的冒号写成了中文的冒号。
 
  当然直接输入网站根目录加上robtots.txt文件也可以
  
  User-agent:*   是用来置顶那些搜索引擎蜘蛛可以抓取的,一般默认设置
 
  Disallow:/category/*/page/ 分类目录下面翻页后的链接,比如,进入校赚网分类目录 "推广运营经验"目录后,在翻页一次,就成了 stcash.com/category/tuiguangyunying/page/2形式了
 
  Disallow:/?s=* Disallow:/*/?s=*  搜索结果页面和分类目录搜索结果页面,这里没必要再次抓取。
 
  Disallow:/wp-admin/ Disallow:/wp-content/ Disallow:/wp-includes/   这三个目录是系统目录,一般都是屏蔽蜘蛛抓取
 
  Disallow:/*/trackback  trackback的链接
 
  Disallow:/feed Disallow:/*/feed Disallow:/comments/feed  订阅链接
 
  Disallow:/?p=*   文章短链接,会自动301跳转到长连接
 
  例如,朱海涛博客之前就被收录过短连接
  
  这里给大家共享下我的robots.txt文件
 
复制内容到剪贴板
  User-agent: *   
  
  Disallow:/wp-admin/   
  
  Disallow: /*/comment-page-*  
 
  Disallow: /*?replytocom*  
 
  Disallow: /wp-content/  
 
  Disallow: /wp-includes/  
 
  Disallow: /category/*/page/   
  
  Disallow: /*/trackback  
 
  Disallow: /feed  
 
  Disallow: /*/feed   
  
  Disallow: /comments/feed   
  
  Disallow: /?s=*   
  
  Disallow: /*/?s=*/  
 
  Disallow: /attachment/  
 
  Disallow: /tag/*/page/   
   

(编辑:ASP站长网)

    网友评论
    推荐文章
      热点阅读