标签:http ar os 使用 sp 数据 on 2014 问题
继“熊猫算法”以后,Google又推出了命名为“企鹅”的新算法,其目标直指那些过度优化、垃圾以及没有实质内容的网站。
什么是企鹅算法(Penguin Update)
近日,Google又对企鹅算法进行了升级,目前谷歌企鹅算法3.0的推出并未普及全球,仍需一段时间(几周)方可全面发布,此外,据不完全统计显示,目前企鹅算法3.0仅对1%的搜索查询有所影响,未来将呈上升趋势。
一、什么是企鹅算法?
企鹅算法是美国时间2012年4月24号Google推出的新算法更新方案,代号“Penguin Update”,Penguin,直译为企鹅,是谷歌继2011年2月24号发布的“熊猫算法”之后再次推出的新算法调整。
其目标直指那个通过过分SEO手段提高排名的网站,意在降权那些充斥着广告的网站,随后,谷歌预计在4月底开始惩罚“过度优化”的网站排名,并鼓励那些使用白帽SEO技术的优化工程师。
白帽SEO可以提高网站的可用性,帮助创建丰富的内容,或者使网站访问更快,这些对用户和搜索引擎都是比较友好的,良好的搜索引擎优化也意味着良好的营销思维的创造性的方式,使网站更具吸引力,这可以帮助搜索引擎以及社会媒体。
说白了,企鹅算法是为了打击“黑帽SEO”和“灰帽SEO”的一个算法,对过度优化来提升网站排名的做法进行惩罚,熊猫更新目的是打击垃圾内容、站内作弊行为,而企鹅算法更新目的是打击作弊手法,主要是垃圾链接、站外作弊的行为,其实二者打击的对象都很类似,都是那些低质量作弊站点。
据米格了解,这次的企鹅算法3.0最主要的应该还是打击那些关键词堆砌,完全匹配且一致的锚链接以及非自然链接,与百度绿萝算法有一些类似。
美国时间2013年04月24日,谷歌推出新算法更新方案“Penguin Update”。
美国时间2013年05月22日,谷歌推出升级版算法更新方案“Penguin 2.0”。
美国时间2013年10月04日,谷歌推出升级版算法更新方案“Penguin 2.1”。
美国时间2014年10月17日,谷歌推出升级版算法更新方案“Penguin 3.0“。
二、企鹅算法产生的背景
网站在网络上,它可以转化为更多的链接或访问一个网站,相反使用黑帽的垃圾网站,它们是在追求更高的排名或者流量,他们所使用的技术,是不利于用户的,目的是寻找捷径或漏洞,以提高他们网站的排名。
我们每天都会看到各种黑帽技术,从关键词堆积到试图操控搜索排名的链接计划,我们的许多排名变化的目标是帮助搜索者找到网站,提供出色的用户体验和满足他们的信息需求,所以,我们推出了“熊猫算法”,在搜索结果中成功的反馈更高品质的网站。
在今年早些时候,我们推出了“页面布局算法”,降低没有多少优质内容的网站的排名,在接下来的一些日子,我们将推出一个重要的算法变化针对垃圾网站,这种变化将降低网站的排名,我们的排名算法中一直有针对垃圾内容网站的算法,但是这次有另一个重要的改进,我们努力减少垃圾网站,推荐高质量的内容,创建良好的用户体验和白帽的SEO方法,而不是积极从事Spam技术。
三、企鹅算法清理的对象
首先,我们需要先明确两点内容,即企鹅算法是瞄准优化过度和垃圾信息网站而进行清理和降权的。
1、优化过度
优化过度在这次的算法更新中,主要针对的是利用SEO技术,将某一关键词进行排名提升。
具体的做法有关键词堆砌,完全匹配且一致的锚链接文本以及非自然产生的外链,企鹅算法在优化过度方面并不针对整站和页面进行降权,而是仅仅针对优化过的关键词。
也就是说,在优化过度这个方面,你的网站权重和排名不会下降,你的网页权重和排名不会下降(长尾所带来的流量),你经过集中优化的关键词排名会很大程度上的下降。
2、垃圾信息网站
垃圾信息网站分为垃圾信息源网站和存在垃圾信息的网站,前者特指利用群发工具进行网站信息的发布和外链的建设;后者则对网站中存在大量采集的内容以及各种非法违规的内容。
如果网站被列为垃圾信息源,可能会导致网站整体受到降权的影响;同样,如果网站内存在大量垃圾信息,也有可能受到这次企鹅算法的影响。
四、企鹅算法所带来的影响
据米格博客收集的官方数据显示,企鹅算法1.0对搜索查询的影响率约为3.1%、企鹅算法1.1对搜索查询的影响率仅为0.1%左右、企鹅算法1.2对搜索查询的影响率约为0.3%。
然后是企鹅算法2.0,其对搜索查询的影响率大概是2.3%,企鹅算法2.1对搜索查询的影响率约为1%。
而企鹅算法3.0(此前有人称其为企鹅算法2.2)目前的影响率仅在1%左右(该数据仅为对英文搜索查询的影响率)。
在此,米格还要跟各位站长或SEO优化人员说明一点的是:谷歌Pierre Far在Google+强调了本次企鹅算法3.0是“Refresh”,对于其他的细节都未提及。
所谓“Refresh”就是说谷歌只是重新运行该算法、修复部分问题,并未在算法中加入新的参考因素等,意味着新版本算法的变化不会太大,这也是为什么部分站长认为应该称之为企鹅算法2.2,而非企鹅算法3.0的原因。
在谷歌确认发布企鹅算法3.0后,部分站长表示自己的网站没有受到任何影响,或是仅部分受到影响,随后谷歌Pierre Far便在Google+上解答了这个问题:企鹅算法3.0已在部分地区发布,但全球普及工作仍在进行中!
五、如何应对企鹅算法?
自从谷歌(Google)推出企鹅算法以来,米格就对大量的网站进行了跟踪和观察,同时也在国外一些知名SEO博客上做了一些调研,现在我们可以得出:谷歌推出的企鹅算法在于打击那些存在优化过度和垃圾信息的网站。
那么,我们该怎么根据企鹅算法的改变,来调整我们网站的SEO优化策略呢?
1、避免SEO优化过度
我们看到,搜索引擎已经开始减少和打击“完全匹配的锚链接”给某一页面带来的效果了,根据对企鹅算法的观察,我们可以看到,适当的选择“完全匹配的锚链接”、“部分匹配的锚链接”以及“整段文章标题链接”对搜索引擎的效果似乎更好。
换句话说,用20%-30%完全匹配的锚链接来告诉搜索引擎我这篇文章跟哪个关键词有关,用70%-80%部分匹配的锚链接和整段文章标题链接提升网页权重(Page Level Authority),这样的方式应该是可行而且比较合理和自然的。
2、避免关键词堆砌
在更新内容的时候,米格建议大家尽量保持2%-3%的关键词密度就OK了,保持自然,不用刻意添加。
一些SEO专家认为将关键字放置在页面的较高位置会使该页面的搜索排名飙升,然而,据米格了解并不是所有的搜索引擎观察家都是这样认为的,一般说来,最好按照正常的编辑风格将关键字分布在整个网页内容中,看起来自然的内容更易于阅读,而且和关键字在页面上进行特殊的分布一样,在搜索排名中也会获得较好的得分。
3、避免Cloaking(伪装)
Cloaking是一个黑帽技术,也就是搜索引擎看到的和用户看到的内容不是一样的,这些页面将会被Google删除或者整站惩罚。
4、避免重复内容
在2011年panda更新的时候对这个还不是很严格,但是对于现在的企鹅算法,重复内容显然不被接受,所以尽量保持文章原创和独立性非常重要。
原创文章成本比较高,很多人都会用伪原创的,这里米格建议大家可以手动更改句子、词语及语法,因为手动的质量会更好高,另外我建议找两篇差不多内容的文章自行合并调整一下,这样原创度更高,还可以为文章添加图片或者视频,这样会让Google认为更加有质量。
5、避免过多的垃圾链接
外链数量不需要太多,只要合理的每天做一点就好了,必须要记住的一点是,质量比数量重要。
所以,米格建议大家不要每天发布大量的无用信息,这是在制造互联网垃圾信息,对你的网站进行降权也是无可厚非的,过度的垃圾链接和不相干的链接给网站造成的影响是灾难性的。
6、避免垃圾信息
根据国外SEO同行的研究发现,企鹅算法在识别垃圾信息上,是借助了反垃圾处理算法,其重点表现在:
①、发布在互联网上的信息,如果与其他垃圾信息或网上诱骗信息有相似之处,则信息被判定为垃圾信息。
②、发布在互联网上的信息,如果文字与被发布的网站不同,则被判定为垃圾信息(多出现于外链群发工具产生的外链)。
③、发布在互联网上的信息,如果与成人内容和“快速致富”诀窍等通常与垃圾邮件相关的内容相似,则被判定为垃圾信息。
④、来自垃圾信息源IP地址发布的信息,被判定为垃圾信息。
⑤、此外还有一条:大量与网站内容不相关的信息,被判定为垃圾信息。
看到这里,我们应该了解了对应的办法,即建设高质量且有相关性的链接来应对企鹅算法带来的变化,此外,米格提醒的大家还要注意最好使用独立IP的服务器或虚拟空间进行网站的建设,以免被其他网站连累。
米格博客点评:
做为SEO,我们要做的就是挑战搜索引擎的算法,找到“允许”和“不允许”之间的平衡点,然后将这个平衡点扩大至面,从而影响到我们的网站,提高我们网站的关键词排名。
对于谷歌过度优化惩罚算法,虽然对于外贸行业来说是一个打击,但是我们也要看到好的一面,那就是谷歌算法正在不断完善,互联网正在净化,这也体现了谷歌的一个公平性,只要我们按照谷歌那样做,不使用黑帽手法,关键词堆砌以及不相关的链接随机插入等等,相信你网站的排名提高指日可待。来源于:如皋网站建设http://www.bao0513.com/
标签:http ar os 使用 sp 数据 on 2014 问题
原文地址:http://www.cnblogs.com/thinkjing/p/4122461.html