复制管理办法 网站存在复制内容处理办法总结

复制管理办法 网站存在复制内容处理办法总结

  复制内容可以通过很多方式产生。内部材料复制需要特殊方法才能达到最好的SEO结果。在很多情况下,复制页面对用户和搜索引擎没有任何价值。如果是这样,尝试修改实现方式使每一个页面只有一个URL,从而彻底解决问题。另外,从旧URL 301转向到留下的URL,帮助搜索引擎尽快发现你做的改进,保留被删除页面可能有的链接权重。

  下面桐乡SEO介绍几种处理复制内容的简单方法:

  1、使用canonical标签。这是消除复制页面的第二好的方法。

  2、使用robots.txt文件阻挡搜索引擎蜘蛛爬行网站页面的复制版本。

  3、使用Robots NoIndex标签告诉搜索引擎不要索引复制页面。

  4、所有指向复制页面的链接使用NoFollow,防止任何链接权重流向这些页面。采取这种方法时,建议也在页面上使用NoIndex。

  桐乡SEO提醒:Noindex可以删除已经被搜索引擎收录的链接,另一个广泛的用途是用在类似言情小说网站(http://www.qzread.com/)的HTML地图上,地图本身不需要权重,但是需要搜索引擎爬行和索引HTML地图上的所有小说链接,这是可以用Noindex。

  有时候可以联合使用这些方法。例如,可以将指向页面的链接加NoFollow,页面本身也使用NoIndexo这是合情合理的,因为你要阻止链接权重流到这些页面,而且如果有人从其他网站链接到你的页面(这个你控制不了),还是能确保页面不会进入索引。

  然而,如果你用robots,txt文件防止页面被爬行,在页面本身使用NoIndex和NoFollow没有意义了,因为蜘蛛读不到页面,也永远看不到NoIndex和NoFollow标签。下面,是一些具体复制内容情况。

  为了有所区别,桐乡SEO对Nofollow、robots.txt和Noindex作一个简单的介绍:

  1、Nofollow标签的意思是在页面A上,如果存在一个链接指向页面B,如果页面A上的链接存在nofollow标签,意思是告诉搜索引擎不要追踪该条链接,该链接对页面B没有权重传递作用。Nofollow针对的是页面链接,最初的作用是给博客上的垃圾评论,告诉搜索引擎评论中的链接为非网站推荐。

  2、robots.txt是一个协议,目的是告诉搜索引擎哪些链接可以抓取,哪些页面不要出现在搜索结果中。

  3、Noindex和robots.txt的功能类似,也是告诉搜索引擎页面禁止索引,如果一定要区别robots的话,一个是在蜘蛛进入网站以后,会首先爬行robots.txt,确定网站允许爬行的范围,而Noindex是当蜘蛛爬行该页面时,才会发现页面是禁止索引的。

  从节省蜘蛛资源的角度,如果有页面禁止索引,桐乡SEO还是推荐使用robots.txt。本文由网站制作博客(http://www.seozoro.com/)原创发布,尊重作者版权,转载请注明出处。

  

爱华网本文地址 » http://www.aihuau.com/a/769871/754426343.html

更多阅读

产品生命周期管理办法 产品生命周期管理

产品生命周期管理办法本办法是根据产品生命周期理论进行制定的。旨在更好地进行产品规划阶段的前端计划、市场推广阶段的全程拉动和全面销售阶段的政策引导。与此同时,做好费用控制和产出预算,力争实现每一个产品项目的经营性收益最

兼职宣传员管理办法 网站宣传的有效办法

个人网站越来越多,据说现在中国个人站长已经超过了3200万。而且由于CN域名一元促销活动的推动,越来越多的网民走向了个人站长的道理。但是,网站建好了,怎么宣传呢?网站流量怎么来?制作网站,越来越易;推广网站,越来越难。下面给大家看一个网

声明:《复制管理办法 网站存在复制内容处理办法总结》为网友懂紾惜分享!如侵犯到您的合法权益请联系我们删除