尽管SEO在中国已经不陌生,甚至都有形成一个行业的趋势,但是至今业内都还没有一套非常科学系统的分析方法。原因恐怕要归结于搜索引擎优化这个行业的特殊性。搜索引擎严格保守他们的算法,只公布一些大家很难去知道原因的指南。所以很多SEOer都在玩一个永远也不知道具体规则的游戏,这是这个行业混乱的根源。
我多次强调《google网站质量指南》的重要性,还因为这是搜索引擎告诉网站主的仅有的一些正确的规则,如果连这点规则都不好好掌握,那我还不确定大家能从什么地方得到更权威的指导。但是在实战中,尽管你熟读这个《指南》已经比很多人更了解搜索引擎的规则,不过仅仅知道这点东西是不够的,一套科学系统的分析方法能让你走得更远。
我想SEO经过了这么多年的发展,已经不应该再出现那种靠感性分析去做SEO的分析方法了。这种分析方法常用的语句就是:我觉得搜索引擎会如何如何。如:我觉得搜索引擎不会那么笨,这点一定能处理好;我觉得搜索引擎会把这个因素当作排名的因素之一……。如果你是依靠感性分析去做SEO的,那你的SEO流量的变化曲线也是很感性的。当然更不能去无根据的臆测和道听途说。如:没有理论基础的去猜想搜索引擎会怎么样或者每逢搜索引擎的相关人员以及什么权威人士发表什么演说,就去盲目听从。
既然搜索引擎不告诉我们具体算法,那我们怎么才能建立这套科学系统的分析方法?答案是:从你知道的确信一定正确的理论开始,慢慢在实践中进化。
在上一篇《网页加载速度是如何影响SEO效果的》中的那个分析过程,就是从一个确切知道的理论去分析,然后得到了另一个确切的影响SEO流量的因素。在这个过程中,确信没有错的理论是:搜索引擎爬虫一定要抓取过那个页面以后,才会有机会收录这个网页的。根据文章中那个接下来的数据分析,可以得到:网页加载速度会在很大程度上影响SEO流量。
那接着分析,什么措施能影响网页加载速度呢? 网络环境、服务器硬件、CMS本身都能影响网页加载速度。优化其中的任何一项,都能提升网页加载速度。那马上又可以得出:网络环境影响SEO流量、服务器硬件影响SEO流量、CMS本身的速度影响SEO流量。
接着分析,CMS本身的优化可以做的事情有哪些呢? 启用Gzip压缩、合并CSS和JS文件、减少DNS查询、启用缓存等等都能优化CMS本身的速度。……这些东西,看起来是这么的眼熟,那是因为在《google网站管理员工具》里的“网站性能”里,已经把这些建议都告诉你了。但是根据我们上面的这个分析过程,可以知道, “网站性能”里提到的这些优化,都是CMS本身的优化,并没有提到网络环境和服务器硬件的优化。只不过你确定这两个因素是确实影响SEO流量的。如果哪一天《google 黑板报》或者 google的官方博客(需要翻墙)上出现一篇文章,告诉你如何挑选一个好的服务器托管商,千万不要惊讶,因为你早就知道为什么了。google一直以来都在用这种方式告诉你要如何去优化一些什么因素,只是站在他们的立场,不会详细向你解释为什么要这么做。
通过数据分析,还能知道谁影响的程度大一点,谁小一点。
很多的常识因素都可以这样一步步进化下去,这个分析过程,是非常科学的。不管是对你自己还是其他人,其中的原理你都可以解释得非常清楚。并且在这个进化的过程中,你会发现你越来越能控制好SEO流量了。每一步的进化,意味着你对搜索引擎的了解又多了一点、SEO的知识结构又完善了一点,同时,对SEO流量的控制能力又变强了一点。同时,你发现你和网页设计师以及工程师的矛盾也越来越少,因为好的SEO,是不会让SEO和网页设计师以及工程师的利益是矛盾的。
知识结构、SEO可控性、部门关系
只要经历过非常多这样的分析过程,一定会颠覆很多人原有的SEO知识结构。因为以前很多流传的SEO方法,很多都是感性分析的居多,没有解释为什么要这么做,没有数据上的支撑,甚至没有理论上的支撑,所以没有抓住重点。我在《分词与索引库 》说过,可能你以为是细节的东西,其实是重点,你以为是重点的东西,其实都可以忽略。
那么,在日常的SEO工作中,是一些什么能力支撑着你去进行这样一个分析过程呢?
不知道大家还是不是记得我在《怎么样去学SEO 》提到的那四种能力,在这个分析过程中:
1,弄懂搜索引擎相关技术和原理:可以从根本上了解搜索引擎,确定很多一定正确的理论,并可以找到很多值得去分析的线索。
2,了解网站制作相关的技术:能让你清楚网站上有哪些因素能影响搜索引擎的哪些方面,并用什么方法来解决问题。
3,数据分析能力:可以了解各种现有的因素如何影响SEO流量,并依靠这种能力挖掘更多的因素。科学系统的SEO分析过程,从头到尾都离不开数据的支撑。
4,了解你要排名的那个搜索引擎:不管你怎么努力,还是会有一些数据上和理论上都无法理解的问题。每个搜索引擎就像和人一样,是有一定的秉性的。可以通过你对这个搜索引擎的了解来得到答案。同时了解这个搜索引擎,也能让你获得更多的可以分析的因素。
最后说一下,这种从常识出发来科学系统的进行SEO分析的方法比了解部分搜索引擎的算法还更能控制SEO流量。
可能很多人会反驳这个观点,比如前段时间我朋友就和我说某外贸B2C网站的创始人是从谷歌出来的,那他们一定能做好SEO,我说那是不可能的。只有那些自己做过搜索引擎的人才会理解为什么。比如:alibaba的B2B网站也算是一个搜索引擎,我是知道其中的排序规则的,但是如果给我一个商家的网站,要我在alibaba上获得流量,在没有一套科学系统的方法之前,我是肯定做不好的。因为搜索引擎的算法不是加减乘除,不是这个因素加那个因素做好了就可以获得好流量的。搜索引擎的设计者,知道这个或者那个因素的权重大小,以及可能产生的大致结果,但是具体的结果是自己也不能控制的。要不然百度的人,不会每天搜索上千个词语来查看搜索结果的准确度了。而google的成功,也有一部分原因是当初yahoo采用了它的搜索技术,google借此积累了大量数据,实践并改进了算法。
而且,在搜索引擎内部,只有极少数的人知道各个因素的权重大小,绝大部分设计搜索引擎的工程师,都是负责某个具体的任务,优化和解决某个具体的问题,如负责爬虫的工程师解决提高爬虫效率这一块的工作,负责内容消重的工程师就去减少索引重复内容。 连设计这个搜索引擎的工程师都如此,更别提一个远在其他国家的分公司的人员了。要不然,百度和google这么多离职的工程师不早就把算法泄漏了。
如果能自己用开源的程序做一个小规模的搜索引擎,就更能理解这个问题。即使这个搜索引擎的算法都是你自己调配的,你都不能预料到后来的搜索结果。而且做搜索引擎是一回事,在搜索引擎上拉流量又是另一回事了。不然google不会后知后觉的知道原来网页加载速度影响SEO流量。
文章来源:http://www.suptb.cn转载请注明出处,谢谢!