网站建设是一个比较艰辛的过程,从网站策划、建设、上线、运营管理、后期的维护等这些工作都是必不可少的。缺少经验的新手站长往往都会急着在网站建设完成后第一时间到各搜索引擎登录入口提交网站,然后做了大量的网站优化(SEO)工作却迟迟没有被搜索引擎收录。
这时新手们或者会认为是网站标题、内容、关键字或外链接没有做好。然后又急着去修改,急着发大量的外链,但这是最不凑效的做法……俗话说“一屋不扫,何以扫天下”,因此新网站上线前也需要做好大量的细节工作,而不是急着去提交网站;否则可能会在后期的网站优化中遇到很多问题。
下面是笔者给新手站长们提出的一些建议。希望通过这些建议让新手站长们知道到,新站上线前期需要做哪些准备,以便在后期的网站优化工作中少走些弯路。
1、检查网站是否有堆砌关键词
这个是老生常谈的话题了,很多SEOER经常强调不要在网站标题、描述、关键词里堆砌关键词,因为砌关键词是搜索引擎最忌讳的,切勿抵触它的底线。在这里就不多说了,相信你懂的。
2、网站是否有足够的原创内容
这是一个很普遍的现象,就是很多新站刚建设好,但又没有内容或只有几篇采集回来的文章,然后站长就向搜索引擎提交网站,不可取的做法!
要知道,搜索引擎第一次访问你的网站是非常的重要。就像客户来访你公司要谈生意一样,第一印象非常重要,这一点也决定了你们之间的合作能否成功。因此,我们要给搜索引擎一个好的印象就必须在网站建设好之后,添加足够的原创文章;提交了网站之后就要有规律的去更新网站(比如:一天两到三篇原创文章,而且建议在前期每天都要更新,确保搜索引擎每天都有访问网站的习惯)。
3、robots.txt你有木有设置好
这一点很重要,别忘了去设置。笔者曾经在一些论坛里看到类似这样的问题:为什么搜索引擎会抓会取我网站里一些很重要的隐私(比如:后台、插件的目录或文件甚至数据库也被抓取了)?
是的,搜索引擎都会有这样的一个特点:当它访问你网站的时候,首先会“看”一下有没有robots.txt这个文件。如果没有的话它就会把你整个网站的内容都会抓取,当然我们并不希望它把网站的安全隐私也给抓取的,所以我们要放一个robots.txt在网站的根目下并要设置哪些文件或文件夹是不能被抓取的,这样我们才能保证网站的隐私不易被搜索引擎曝光。
4、使用工具模拟抓取网站,检查站内链接是否有问题
完成了网站的建设以及添加了足够的内容,在提交网站之前应该使用工具(推荐使用站长工具)来模拟搜索引擎抓取你的网站,检查哪些内容不能被搜索引擎抓取,并要修改过来。尤其是站内的死链接(比如打开这个链接是提示404错误的),绝对要更正过来,不要让搜索引擎进入“死胡同”里。笔者认为这也是搜索引擎的体验,当然要重视啦。
5、及时制作网站地图,为搜索引擎导盲
笔者觉得搜索引擎就像一个瞎眼的蜘蛛,它有事没事就会在网站里到处乱爬,什么东西它都要抓一遍,然而效率却是很低。但是如果我们做好一个网站地图,然后放在网站的根目录下,并在robots.txt里添加网站地图的路径地址。这样的话,搜索引擎会更快、更有效率的抓取网站的内容。
如何制作网站地图?现在很多网站都提供了在线制作网站地图的服务,只要我们设置几个参数稍等一会就可以下载再放到网站上然后就做好首页链接可以了。笔者推荐使用XML SiteMaps Generator工具,除了可以制作XML网站地图也可以制作HTML地图 。
6、向搜索引擎提交网站
当我们把上面的细节工作都做好了,那就可以尝试到各搜索引擎登录入口提交网站。笔者在这里就不一一列出来,读者可以到webmasterhome里查找,或直接在搜索引擎里搜索一下。好了,就讲到这里,希望以上对新手有所帮助。如有写得不好的地地方,请各大读者指正。
(本文由多元智能www.im3e.com原创,转载请保留版权,谢谢!)