搜索引擎,就像每年的央视春晚,确实让很多人又爱又恨,有人欢喜有人愁!
现在,越来越多的企业采购,往往越来越依靠网页搜索来寻找产品。因为比起黄页,企业网站能够提供更多更丰富的产品规格型号及各种资料,非凡是可以同时寻找到同样生产一种产品的多家厂商。
当所有的竞争对手都出现在搜索结果当中,而自己的网站在他们的前面,这是站长们最为自得的时候。反之,当竞争对手全部出现在搜索结果,而自己的网站好象从来就不存在一样,相信前面放着一堆金子,站长也笑不起来。
这就是被搜索引擎封杀的结果,江湖间所有人闻之色变。被搜索引擎封杀的原因有很多。
有相当规模的站点,莫名其妙被封杀,站长有苦无处申诉,这种网站,像一个被世人所遗弃的孤儿,在一个不为人知的角落,也许永远默默无闻。
其实网站被封杀后站长可以想办法解封。网上也流传不少关于解封的资料和方法。但是结果往往是,有人可以解封,有人总是解封不了。
我想,以下这个个案可以为站长解封提供一种方法。在下抛砖引玉,希望大家多多指正。
前段时间,一家颇有规模的华南基地企业,因为企业网站被搜索引擎封杀问题找到我们。
根据客户的介绍:网站前几年就做好了,一开始索引擎收录正常。过了段时间,不明不白就找不到站了,包括百度、谷歌、yahoo等。
搜索引擎是非常公平的,它不会针对某一个个体。企业网站被封杀,应该没有过多复杂的原因。根据我们以往的经验及综合了解,网站存在以下几种问题:
一、是head文件有问题,<Robots Meta>和robots.txt文件存在且不规范。
二、keyword有过度吹捧嫌疑,而且要害字重复较多。类似<meta name="keywords" content="要害字a,要害字b,要害字a,要害字b">
三、首页弹窗过多。
四、主机不太稳定。速度慢,信号有时掉包。
五、最有可能是主机上曾经被挂马。。据悉,后来发现并清除。但几年来还是一直被谷歌、百度长期封杀。。。
搜索引擎主要是从用户角度和利益出发的,而不是从站长的角度出发。我们也循这个途径找出解决问题的办法。
第一件应该做的就是客观地检查,并重新修正要害字。
搜索机器人访问一个站点时,它会首先检查该站点根目录下是否存在robots。txt,假如找到,搜索机器人就会按照该文件中的内容来确定访问的范围,假如该文件不存在,那么搜索机器人就沿着链接抓取。没有robots。txt和Robots Meta,搜索引擎默认是全部搜索的。因为该网站上没有私隐页面,原来使用的robots。txt文件和Robots Meta标签,我们全部删除。
二、同时配合网站的内容更新,适当优化SEO,添加网站目录和友情链接,增加内链和外链。
三、清除过多的弹窗。最多控制在两个弹窗以内。搜索引擎抵制木马,对<iframe> 和js有一定的敏感,如无必要,少用慎用。
四、更换稳定的主机空间,保证网站有一个持续稳定的运行条件。
五、重新登录各大搜索引擎。到各个入口重新提交网站信息。
六是将网站登陆到一些有重大影响力的门户目录,如国内门户信息港和亚马逊目录,等,尽量争取更多的登陆和曝光机会。
亚马逊目录是互联网上最大的,最广泛的人工目录。Dmoz现在被多数主要搜索引擎所使用。只要你的网站被Dmoz加入索引目录,同时也会显示在其他搜索引擎中。Google的目录搜索结果直接使用Dmoz。很幸运,半个月过去,和几个同时提交的网站一起,我们全部成功登陆Dmoz。而在这个时候,google也传来的已经成功登陆的好消息。
新闻热点
疑难解答