SEO不是数学,大部分地方没什么精确性。SEO更靠近是门艺术,很多时候是靠着说不清道不明的直觉和经验,同时逻辑及细节也很重要。
举两个最近帮人看的网站诊断案例。
一个朋友的网站,莫名其妙的在搜索引擎中消失了。以前收录正常,不知从什么时候开始,网页越来越少直到完全消失。
我看了一下网站,就是一个简单的个人网站。逻辑告诉我,商业性网站作弊被K的可能性往往不小,个人网站作弊可能性微乎其微,没有利益驱动,根本不值得这么做。网站不被收录,除了被K,要么就是robots.txt文件禁止抓取,或服务器设置禁止蜘蛛抓取。
从现象来看,我的直觉是robots文件有问题。可是打开robots文件看了看,实在看不出什么问题,是很简单的允许所有搜索引擎抓取。Robots文件里多一个斜杠少一个斜杠,天差地别,所以我瞪大了眼睛仔细看,确实看不出什么问题。
这时细节要发挥作用了。我用线上robots文件验证工具查了一下,三个工具有两个工具显示文件最前面多出一个莫名其妙的问号,就像英文电脑没装中文字体打开中文网站时看到的那种问号。直接在浏览器打开robots文件,或者对方把文件传给我,用编辑软件打开,都看不到这个问号。
经过简单对话,发现这位朋友使用的是Windows Vista操作系统。以前就听说过Windows Vista系统有时候在处理文字时编码会有问题。不知道什么原因。不过结果是robots文件编码可能出现问题,搜索引擎抓取后产生错误理解,结果不抓取网页。
我在我的电脑里把文件重新存一遍,传给对方。对方不打开不编辑,直接上传网页空间,几天后,抓取开始正常。
另一个出现问题的是英文网站。在google.com搜关键词,排名三天两头在第一页到四五页之间跳来跳去。但是在google.cn排名稳定。因为是英文站,所以在google.cn的排名毫无意义。