对搜寻引擎排名有兴趣的人,多半都听过重复内容对于网站来说是很不利的。可是到底是怎么个不利法呢?以下是5个重复内容会造成的问题:
1. 从搜寻引擎的角度来看,它不希望列出来的10个或20个搜寻结果都是同样的内容。因此,同内容的网页搜寻引擎只会列出一份。也就是说,即使好几个网页有同样的内容,搜寻引擎也只会列出其中一页而已。
2. 要搜寻引擎的蜘蛛爬行程式是要花费系统资源的。因此,搜寻引擎不会希望看到它读取的网页内容是一样的,因为那等于是浪费系统资源 (花了力气去读取网页,却没有获取任何新的资料)。所以,若一个网站有许多内容重复的网页,搜寻引擎可能会决定只去爬少数的网页,甚至有可能决定完全不去爬该网站。
3. 在好几个网页有同样内容的情况下,那一个网页会被搜寻引擎放在结果中就完全是靠搜寻引擎决定。虽然理论上搜寻引擎应该会选择排名会最高的网页,可是实际上搜寻引擎会怎么选是很难讲的。
4. 搜寻引擎的排名一个很大的因素是有多少连接指向该网页。假设我们有两个网页有完全一样的内容。一个网页有10个连接,而另一个网页有20个连接。如果实际上只有一个网页有这些内容,那这个网页就会有30个连接。因此,该网页的排名一定会比那两个网页来得好。
5. 重复内容可能会被搜寻引擎当作是作弊。有一个错误的想法是,如果我将一个网页或网站拷贝成数份放在不同的网址上,哪就可以增加该网页的排名。这个做法在十多年前或许会有用,可是现在却已经被搜寻引擎认为是一种作弊。当搜寻引擎抓到这类的情况时,那整个网站就有被踢出搜寻引擎目录的危险。
本文由科为深圳网站建设公司(www.koway.cn)最新发布,欢迎转载交流!