痴情国王:如何对SEO进行诊断

王朝网站推广·作者佚名  2011-12-05
窄屏简体版  字體: |||超大  

1、确定网站的最后一个主要的设计

这包括在任何网址,导航,地图、或内容的重大变化造成的。所有这些可以对搜索引擎产生重大影响。

作为这项工作的一部分,检查搜索流量的历史网站分析数据。是否有过任何异常变化?这些都是今后寻找潜在问题的线索。此案例www.seo360.org曾经对网站地图做过一次重大改变,排名波动比较大,时间持续比较长。

2、URL标准化(301重定向)

一般情况下,以下几个URL都是指向同一个页面

qs01.com

qs01.com/index.php

qs01.com/index.html

为了将PR以及权重集中到一起,将以上3个URL用301重定向的方式转到www.qs01.com,这就叫做URL标准化。

3、使用站长工具来诊断站点

使用A5或chinaz站长工具,可以查询很多SEO数据,是否所有的导航链接抓取?是有形要素的重要内容?经常用站长工具批量检查友情链接,以免被不好的链接牵连,导致降权。

4、检查XML网站地图文件

要确保该文件是使用URL的规范版本,如果您链接到一个网址上使用该网页和网站的网页显示不同的URL在Sitemap文件,那么您刚刚创建的重复的内容。这个案例www.jchbz001.com改善此问题以后,排名上升了5位。

5、寻找有网页“模板内容”

这个典型的例子是一个城市网站,数千页的文字是对每一个城市的名称,除了已被取代的页面相同。你猜怎么着?你不如离开这个结构与空白页。该搜索引擎很快认识到,没有独特的内容在HTML文本在这些网页上。

6、智能使用标题标签和H1标签

谷歌网站管理员工具可以就重复标题标记的快速报告,失踪标题标签,简称标签,对你的元描述类似的数据。前往诊断,然后选择网页的建议。

重复的标题标记可能会导致“关键字拆散”,其中超过1个在您的网站页面上的竞争同样的搜索词排名。这是密切相关的内容重复的问题。

7、 Robots.txt文件审查

确保重要章节的内容不包括在内。去谷歌网站管理员工具,并使用内置的robots.txt检查(你可以在履带下访问这个站点配置部分)。这将显示,谷歌认为你是阻挡了网页的robots.txt文件。

这种快速检查,并不是要取代一个完整而彻底的现场诊断。然而,这是很好的做一个诊断开端,因为它会发现一个网站的主要问题很大一部分。这可以让你提供什么,他们应该在当您到一个更详细的诊断投入开发。

原创,A5首发。转载请注明出处,本人QQ 1263874786。

 
 
 
免责声明:本文为网络用户发布,其观点仅代表作者个人观点,与本站无关,本站仅提供信息存储服务。文中陈述内容未经本站证实,其真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
 
 
© 2005- 王朝網路 版權所有 導航