网站抓取异常是什么原因?该怎么解决?

文章分类:微信运营 发布时间:2017-03-14 原文作者:admin 阅读( )

网站是服务用户的,一般情况下网站没有什么特别大的问题的话,用户都是可以访问的,但是有些情况下,网站我们是可以访问的,但是蜘蛛就是访问不了,这就是抓取异常。

那么抓取异常都有什么原因呢?该怎么解决?

1.服务器的问题
服务器不稳定的情况下会造成网站终端访问不了,无法链接。或者出现一直连接不上的情况,针对这种情况就只能换好的服务器了,千万不贪图小便宜,最终害了网站。

2.运营商的问题
国内正常情况下都使用的是电信和联通这两种,一般用的是双线服务,如果使用了单线服务造成的网站无法访问,那么最好升级国双线服务或者使用CND服务等方法解决。

3.DNS异常
当蜘蛛无法解析你网站的IP的时候,就会出现DNS异常或者DNS错误问题,可能是服务商把蜘蛛设置封禁了,或者网站IP的地址不正确造成的。可使用工具检查域名是否解析正确,如果不正确或者无法解析,那么联系域名商更新IP解决即可。

4.禁止蜘蛛抓取这个就要看查看相关的代码设置,是否有禁止Baiduspider抓取设置,或者robots协议的设置问题等。

5.UA封禁
UA是用户代理(User-Agent),服务器通过UA识别访问者的身份,返回异常页面(如403,500)或跳转到其他页面的情况,即为UA封禁。

当网站不希望Baiduspider访问的时候,需要设置对应的访问权限。

6.死链
死链是网站中的无效页面,没有任何价值并且出现访问无效的情况。有协议死链和内容死链。

对于死链问题,通过采用404页面制作或统计好404页面向百度站长平台提交数据即可。

7.异常跳转
异常跳转也就是当前的无效页面比如死链、已经删除的页面通过301直接跳转到首页或相关目录页面的情况。

或者是跳转到出错、无效的页面上。

这些情况都需要重视。主要还是301协议的问题,没有必要的建议不要设置即可。

8.其它情况
JS代码问题,JS代码与搜索引擎并不友好,也不是重点识别的对象,如果JS代码蜘蛛识别不了,那么也会现问题异常。

百度会根据网站的内容、规模、访问情况等自动设定一个合理的抓取压力。但是异常情况下,压力控制失常的话,会导致服务器负荷作出自我保护的突发性封禁情况。

蜘蛛在恢复正常情况后,继续来尝试抓取,一般情况下都会成功抓取的。