很多站长朋友们在做SEO时,天天给网站发外链和找寻友情链接,但是成效甚微,网站优化了几个月了,还在原地。为此,小编特整理出关于做外链的五个误区,供新手站长们参考参考。
一、含有JS代码的超链接。
大部分站长都知道搜索引擎对JS代码不友好,但是还有部分新手站长不明白超链接里面是如何包含JS代码的。
由上图我们可以看到外链的代码中是含有JS代码的,而且当我们把鼠标移到超链接上面时,浏览器的左下角不是显示所指向的网址,而是一个JS代码。所以,这种外链不能算是一个锚文本,顶多就是增加了网站网址的曝光率而已,而且小编认为这种链接带来的权重还没有纯文本链接来带的效果大。
二、跳转链接。
很多站长经常到搜搜问问去做外链,在百度用Domain指令一搜被收录了,甚至被秒收,很乐呵道:嘿,哥又做了个高质量外链! 其实不止搜搜,很多论坛也用跳转链接来防止他人来发外链,这里我们就以搜搜问问为例吧。
我们可以从代码中看到,href后面的地址是搜搜问问的地址,点击后才会跳转到目标网站。同样将鼠标放置超链上时,浏览器左下角显示为问问的链接。再看下面那句话,祝你快乐!说得多好!
三、链接中含有nofollow标签。
Nofollow 标签的意义是告诉搜索引擎"不要追踪此网页上的链接"或"不要追踪此特定链接。有些站长在做友情链接的时候,将标签中夹带着rel=“nofollow”来避免权重导出,这样就相当于对方网站单向给这个网站做了单向的外链了。而对百度而言,网站的首页权重一般是最高的,带来的好处不言而喻。特此附图如下,方便新手站长识别。
四、友情链接模块使用frame框架结构。
和JS代码类似,frame和iframe框架结构同样不利于搜索引擎抓取。搜索引擎爬虫发现这种框架结构时一般都会直接pass,如果在这中间做外链是没有效果的。
五、robots.txt规则限制。
当robots.txt规则限制了搜索引擎爬虫,不允许爬取某些指定的页面时,在这些页面中做外链一般是没有效果的。这里需要说明的是不按robots规则行事的搜索引擎是有意外的,例如淘宝规则限制,但还是有......。查看一个网站的robots规则我们可以打开该网站根目录的robots.txt文件进行查看,弄清楚哪些也页面做了有用,哪些页面做了外链没效果。
从上图可以看出来,DZ的robots.txt里面禁止了搜索引擎爬取日志页面,也就是说在DZ的日志里面留外链是没有效果的。以上为小编整理的五种外链误区,希望对新手站长们会有所帮助,不要盲目的去做外链,也许你做的外链是这里面的一种甚至多种!
本文出处:文网www.cn-wen.com