细心的站长会发现这样的一种情况:自己的网站内容每天更新,而且基本原创性还是比较多的,但是网站里的文章被收录的很少,或者根本不收录,或者刚收录几天就被删除了......出现这样的种种情况,到是什么原因?
什么原因导致搜索蜘蛛不进行爬取,收录,对于这种情况,今天武林网小编就来告诉你们什么情况会导致出现这种问题。
一、网站适用免费空间
有的一些搜索引擎非常不喜欢使用免费空间的网站,他们觉得这种网站的质量非常差,而且垃圾也很多。
二、网站服务器转移造成
搜索蜘蛛基本上都是只认域名、IP地址,或者是转换主机的,因此一旦IP/DNS地址出现了变化,这时站长们一定要记得重新提交网站才可以。
三、抓取时网站不在线
假设网站主机不稳定的话,就会发生这样的情况。更严重的就是,就算网站已经被收录了,但是一旦搜索引擎重新抓取的时候,发现他们不在线的话,还是会把网站全部都删除掉的。
四、错误地妨碍了robots索引网站
阻挡robots可能会有两种原因,一种就是网页里面含有某些META标签,另外一个原因就是因为网站主机服务器的根目录里面还有一些简单的文本文件。
五、过多障碍以及特效
大规模的使用JAVA、Flash、html、JavaScript、以及DHTML、还有cookies密码或者是制作进入的网页,就没办法让搜索引擎从里面提取各种内容。
六、网站没有太高的链接广泛度
如果网站的链接广泛度非常低的话,搜索引擎也是没办法收录文章的,这时就需要想一下是不是要在网站里面多弄几个友情链接,或者是把网站登录到知名分类目录之中。
七、搜索引擎没办法DNS
一般新域名注册月以后还需要等一、两天才会正式生效,所以千万不可以一注册了域名就赶紧提交网站了,还需要过几天才比较安全。
如果有以上的七种情况,你就要注意排查和更换处理了,要不然,你的网站离被“收拾”也就不远了哦。
新闻热点
疑难解答