首页 > 网站 > 优化推广 > 正文

2016影响谷歌搜索引擎排名的几个有利因素及不利因素

2024-04-26 14:20:21
字体:
来源:转载
供稿:网友

  新的一年又开始了,有不少读者和我说他的网站上不去。当我问起他做了哪些优化,他便按照某些书本所说的标题标签包含关键词啊,H1标签包含关键词 啊,站内的锚文本用或者标签啊,等等,基本书本所说的他都照做了,而没有效果其实也是情理之中的事情。因 为这些都是别人很多年前总结出来的因素,对于当年确实很有用,但现在很多SEO因素都被削减了排名比重。既然我们要做排名,那我们肯定要先了解到谷歌目前 更看重哪几个点。这里daniel总结了几个2016年,谷歌比较看重的几个有利因素以及不利因素。

  影响谷歌搜索引擎排名的有利因素

  TR,也就是TrustRank,指的是网站的权威度。意思就是您的网站是否收到来自被信任的网站的链接;

  DA, 也就是Dmoain Age, 域名年龄,也称为域名权重,时间越长的域名对排名越有利;

  PR, Page Rank, 虽然他影响排名的比重从以前的70%下降到40%,但它仍然是影响排名的主要因素;

  更新频率(update frequecy),指的是你的网站更新原创内容的频率;

  LSI (Latent Semantic Indexing), 网页是否加入潜在语义索引词来替换部分目标关键词;

  Soscial Media,也就是Facebook,Twitter,Pinteret在您的网页表现的数据。(你的页面有多少个赞,多少个转载,以及转载您的文章的改用户的权威度等)

  手机自适应,或者使用目前谷歌刚推出的AMP项目,让你的网站在手机端能够更好的展现并且提升加载的速度。

  并非H标签,加B标签在主要关键词上这些优化手段完全没用,而是这部分的优化手段已经从“要求”变成了“标配”,所以这里就不一一再多说。

  不是把有利因素都做好了排名就上去了,因为在优化的过程中避免不了和不利因素打交道,我们在进行优化的过程中也要注意以下几个谷歌更为看重的不利因素要点:

  影响谷歌搜索引擎排名的几个不利因素

  页面导出大量不相关的链接,或者导出到不被信任的网站;

  网页生成了大量的无价值页面;

  反向链接只优化特定的词,目的性过强(参考引入LSI的作用);

  站内关键词出现频率过高,优化过度;

  在已经被列入链接工场的站长处购买链接;

  外链的形式单一,长期从单一的站点内获取链接;

  很多人会问,影响网站的不利因素多了去了,为什么重点说这几个? 因为Daniel在接优化的单子的时候,发现出现此类问题的人特别多,并且谷歌响应的速度特别快。举个例子:一个做仿牌的朋友做黑链(利用DIV+CSS 隐藏锚文本),但是我观察了许久,该网站并没有被降权。相反,当仿牌的手段从黑链转变成黑页(在被黑的SHELL里,大量导入HTML页面,生成大量的反 向链接页面)时,就如第二条所说的,谷歌站长就会立刻检测的到(时间不会超过7天),并且加入人工干预(Manual Action), 如图所示:

manual action
   被加入人工干预的网站,排名会直线下滑,而且短时间内网站排名都很难恢复,所以,这是为什么把第二条列入到主要因素来讲。

  为防止网页被大量生成无价值页面而且被谷歌发现,Daniel这里有一个基于Wordpress被黑而不被谷歌监测到的办法。当然,这不是一劳永逸的办法,关键还是要自己做好网站的各项安全防护。

  目前很多新手存在误区,就是认为把目标关键词密度做到部分SEO论坛所说的7%-11%就是最好的, 其实不然,目前谷歌更看重的是LSI词的比重。

  一个页面如果出现5次同样的目标关键词和一个页面只出现2个目标关键词,3个LSI词,后者的排名会更高一些;

  而目标关键词密度,我个人认为只要在该放目标关键词的地方(H1标签,标题)等,放置好就好,没必要刻意去堆积。

  如果你还是特别看重关键词密度,Daniel推荐你使用SEOBOOK关键词密度衡量工具,会比国内的工具更加准确一些

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表