百度爬虫对常用的http返回码的处理方式 - SEO必备知识

作者: zenglihunter 分类: 百度优化 发布时间: 2011-08-23 17:21 ė11,209 Views 6没有评论

百度爬虫在进行抓取和处理时,是根据http协议规范来设置相应的逻辑的,因此,如果网站或页面发生一些特别状况或者网站某类页面集存在特殊性的时候,我们应该知道怎么处理才能更符合百度爬虫,以避免错误的举措给网站SEO带来不必要的风险。百度站长俱乐部管理员Lee的在http状态码使用方面做了说明,主要涉及到常见的301、404、403、503状态码的处理建议,非常实用,下面是总结。

百度spider对常用的http返回码的处理逻辑:

404返回码

404返回码的含义是“NOT FOUND”,即找不到。百度会认为网页已经失效,那么通常会从搜索结果中删除,并且短期内spider再次发现这条url也不会抓取。

PS: 感觉 Google蜘蛛对404页面有一个缓冲期,即避免误操作引起的404。而且谷歌蜘蛛非常的聪明,曾经一个产品页也在某个关键词排名很靠前,后来由于产品停产,网站直接把产品下架了,于是产生了404,google立马就拿掉了其排名。发现后将下架产品重新上架数量调为0,即返回200,原来的排名立马就恢复了^_^

503 返回码

503返回码的含义是“Service Unavailable”,百度会认为该网页临时不可访问,通常网站临时关闭,带宽有限等会产生这种情况。对于 网页返回503,百度spider不会把这 条url直接删除,短期内会再访问。届时如果网页已恢复,则正常抓取;如果继续返回503,短期内还会反复访问几次。但是如果网页长期返回503,那么这 个url仍会被百度认为是失效链接,从搜索结果中删除。

PS:google站长指南里也明确说了,若服务器是短时间故障最友好的处理方式是返回503错误码,而不是502什么的。

403 返回码

403返回码的含义是“Forbidden”,百度会认为网页当前禁止访问。对于这种情况,如果是新发现的url,百度spider暂不会抓取,短期内会 再次检查;如果是百度已收录url,当前也不会直接删除,短期内同样会再访问。届时如果网页允许访问,则正常抓取;如果仍不允许访问,短期内还会反复访问 几次。但是如果网页长期返回403,百度也会认为是失效链接,从搜索结果中删除。

301 返回码

301返回码的含义是“Moved Permanently”,即永久重定向。百度会认为网页当前跳转至新url。当遇到站点迁移,域名更换、站点改版的情况时,推荐 使用301返回码,尽量减少改版带来的流量损失。但百度spider现在对301跳转的响应周期还是较长。

百度对于某些常见情况的使用建议:

1、如果站点临时关闭,当网页不能打开时,不要立即返回404,建议使用503状态。503可以告知百度spider该页面临时不可访问,请过段时间再重试。

2、如果百度spider对您的站点抓取压力过大,请尽量不要使用404,同样建议返回503。这样百度spider会过段时间再来尝试抓取这个链接,如果那个时间站点空闲,那它就会被成功抓取了。

3、有一些网站希望百度只收录部分内容,例如审核后的内容,累积一段时间的新用户页等等。在这种情况,建议新发内容暂时返回403,等审核或做好处理之后,再返回正常状态的返回码。

4、站点迁移,或域名更换时,请使用301返回码。

❤再看看呗❤

TOM网内部搜索引擎优化SEO基础知识培训PPT下载 此为TOM网内部搜索引擎优化SEO基础知识培训PPT,若你是SEO新手,值得一看,若是SEO老手也是值得温习的。有需求的下。 TOM内部SEO讲解PPT截图:     PPT下载地址:http://u.115.com/file/dn0c250z...
搜索引擎蜘蛛爬取统计程序CrawlTrack安装教程及功能使用说明... CrawlTrack是一款php开源的网站统计程序,跟其他网站统计工具比起来,CrawlTrack的特色是可以统计搜索引擎蜘蛛对网站页面的爬去情况,并给出直观的图表展示。CrawlTrack用来做网站的实时的蜘蛛统计工具是再适合不过了。 CrawlTrack支持多国语言但,很可惜不支持中文。但...
Robots文件怎么写?Google教你 robots.txt文件是一个很简单的文本文件,主要作用就是用来“建议”蜘蛛们哪些文件或者目录不要被抓取。之所以是用“建议”而不是“控制”是因为robots.txt里禁止的目录或文件还是会被抓取并索引的。 公司的网站robots文件里有一行明确指出“Disallow: /editors/”,不...
利用搜索引擎对重复内容的识别及漏洞做好伪原创的方法 光年VIP论坛淘的一篇研究搜索引擎对重复内容的识别方法以及利用此搜索引擎漏洞做好伪原创的方法。当然啦,最好是自己原创啦,毕竟自己写东西的时候也是对已有知识的温习及总结,有时候还能获得意想不到的灵感^^       互联网文章的相互复制,造成了互联网上存在大量的重复内容,这些重复内容,给搜索引...

本文出自 幽游网,转载时请注明出处及相应链接。

本文永久链接: http://www.yuyuhunter.com/post/baidu-spider-http.html

发表评论

电子邮件地址不会被公开。 必填项已用*标注

必须启用javascript才能看到验证图案!
Ɣ回顶部