我想各位经常在网上查找资料可能遇到一个问题,常常要找一个文章,但从搜索引擎找不到文章原始出处,而拷贝的页面要么不完整,要么就乱成一团(没换行),要么在文章中硬加关键词让人看得莫名其妙。这些站长为了利益最大化,大批量的采集,批量的建立垃圾站来获取流量。他们不顾一切,不管采集来的信息是否完整,是否便于阅读。
这些站长并不算是真正的站长,拥有无限热情的站长。之所以出现这样的原因是因为现在采集器泛滥,很多CMS都有相应的采集功能。但防止采集有效的方法确少之又少。其实采集功能并非一无是处,它的出现为很多站长节省了宝贵的时间,让他们拥有更多的时间去做更多的事情。同样采集来的信息也可以方便网站访客。防采集保护的并不仅仅是网站内容,也保护了站长的热情,站长的劳动成功。
这里我给大家介绍几个防采集的利弊:
1、使用随机模板
采集器的原来就是根据关键字符串找出要采集的内容,使用随机模板可有效的防止采集器,并对搜索引擎无任何影响。
优点:模板越多,采集者需要定制越多的对应采集模板。对搜索引擎无任何影响。
缺点:需要懂得采集器原理制作防采集模板,不然就白费功夫。
2、使用专用的浏览器
访客未使用专业的浏览器则无法浏览网页内容。
优点:可完全杜绝采集器。
缺点:因内容需要特定的浏览器才能浏览,如果访客不安装浏览器则会流失一定的流量。如果网站注重搜索引擎,则无法正常被收录。
3、社会工程学
进行知识产权保护,让采集的风险远大于成本,前提是你的数据值得你付出这么多来折腾。
4、使用专业的防采集插件
目前防采集这块做得不错的要算鱼羊防采集了,能在很大程度上防止采集器。
优点:对网页浏览速度无影响;不需要专业知识与技巧;对搜索引擎无影响。
确定:最新的v3.0测试版只能运行在windows的IIS下,需要独立的服务器。
常言道三十年河东,三十年河西,没有任何事情会长久的占据强势,采集也一样。