2011年马上就要结束了,这里总结一下Google关于SEO方面的资讯。谷歌每年对其搜索算法作出超过500次的修改,由于大多数修改只会影响极少部分的搜索结果,所以很少有人察觉。这里也是从一些较为靠谱的新闻资讯来揣摩Google算法的修改方向,来指导SEO工作。
【1月20日]】有站长在Google webmaster help论坛中说自己的网站被降级。Google JohnMu回复称,网站含有大量空白HTML页面被Google bot判定为大量重复内容而导致网站降权。结论:网站含有大量重复内容会被降权,空白HTML页面也不行。
【2月26日】google上线代号“Panda”的新算法,向内容工厂开炮,新算法影响12%的搜索结果。该算法主要是降低那些有着低质量内容、靠抄袭活命、提供垃圾信息的内容工场网站的排名。Google还强调受影响的网站和来自于前一段发布的Personal Blacklist Chrome扩展所汇报的垃圾站的重合率达到84%,就是说广大用户们确实帮助Google做出了改进。
【7月1日】 Google下狠招清理垃圾站。Google Matt Cutts号称由于co.cc这个域名下的垃圾站太多,Google决定直接不予索引任何改域名下的网站。Google的JohnMu也说过:“如果我们发现一个免费主机上有太多的低质量的垃圾站或钓鱼站,我们有权不索引改主机下所有的网站。”结论:再一次强调了邻居的重要性。
【10月20日 】Matt Cutts透露1%的搜索结果因网站速度受到影响。Google如何判定网页速度在视频中也有提到,大概在1000个网站里会有1个网站会因为速度太慢而影响到自己最终的排名。
【10月26日】 Matt Cutts在视频中再次重申SEO不算Spam。Google认为SEO(搜索引擎优化)是一种合法的方式来帮助人们通过搜索引擎找到他们需要的内容,黑帽SEO除外。
【11月3日】 Matt Cutts发布了视频解释啥叫针对搜索引擎的“伪装”。他在视频里定义了什么叫针对搜索引擎的伪装:
伪装就是给Google爬虫和用户呈现不同的内容
伪装违反标准
伪装是一件高风险的事情
伪装通常都是为了欺骗
别相信有所谓的“白帽伪装”技术
如果你的网站有针对不同区域的访客设置了不同的内容,那样不算欺骗,因为Google爬虫都是从美国出发的,他们只要按照美国用户被对待就成了。
源地址。
【11月10日】 Matt Cutts透露 Google 可能会惩罚太多广告的页面。他在Pubcon大会上发言,谈到谈到Google正在测试一个可以探测出“哪些内容是网页里真正重要的东西,而其中又有多少内容被混在其它不重要的内容之中”的算法。同时,Cutts还警告站长说:如果你利用广告来混淆网页里有用的内容,你也许该好好考虑一下了。用户到底看到的是他们需要的内容,还是那些让他们分心或讨厌的内容?之前曾有人预测说Google的Panda算法已经在惩罚那些有着大量广告内容的网页了,但看来Google还没有对这些利用广告混淆内容的网页下狠手,但这些垃圾页面的死期已经不远了。
【12月28日】Google 官方表示小网站不需要 XML Sitemaps 。XML格式网站地图能帮助Google更好的索引网站。Google的John Mueller在 Google Webmaster Help 里表示:需不需要XML Sitemaps要看网站规模的大小,小网站Google完全有能力索引整个网站,不过对于多大的网站要设置XML格式的网站地图,John Mueller没有透露。结论:几百页的博客和企业站就没必要放了,页面数量超过1千,或目录层次较深的网站还是需要放置网站地图以便更好的索引到所有页面。
总结:SEO工作没有捷径可以走,整天和搜索引擎的工程师玩猫捉耗子的游戏没什么意思。Google SEO 的方向逐渐的向内容转变,专心做内容才是网站运营的核心。