桐乡SEO介绍几种处理复制内容的简单方法和处理

优采云 发布时间: 2021-07-04 20:16

  桐乡SEO介绍几种处理复制内容的简单方法和处理

  复制内容可以通过多种方式生成。内部材料复制需要特殊方法才能达到最佳 SEO 效果。在许多情况下,复制页面对用户和搜索引擎没有价值。如果是这样,尝试修改实现,让每个页面只有一个URL,从而彻底解决问题。另外,从旧的URL 301重定向到左边的URL,帮助搜索引擎尽快发现你的改进,并保留被删除页面可能有的链接权重。

  下面的桐乡SEO介绍了几种简单的处理复制内容的方法:

  1、使用规范标签。这是消除重复页面的第二好方法。

  2、 使用 robots.txt 文件阻止搜索引擎蜘蛛抓取网站 页面的复制版本。

  3、使用 Robots NoIndex 标签告诉搜索引擎不要索引重复的页面。

  4、 复制页面的所有链接都使用 NoFollow 来防止任何链接权重流入这些页面。采用这种方式时,建议页面也使用NoIndex。

  同祥SEO提醒:Noindex可以删除收录搜索过的链接。另一个广泛的用途是在 HTML 地图上使用,如浪漫小说网站()。地图本身不需要权重,但需要搜索。引擎会抓取 HTML 地图上的所有新链接并为其编制索引。这可以通过 Noindex 实现。

  有时这些方法可以组合使用。比如可以在页面链接中添加NoFollow,页面本身也使用NoIndexo。这是合理的,因为你要防止链接权重流向这些页面,如果有人从其他网站链接到你的页面(你无法控制),仍然可以保证页面不会进入索引。

  但是,如果使用robots和txt文件来防止页面被抓取,那么在页面本身使用NoIndex和NoFollow是没有意义的,因为蜘蛛无法读取页面,也永远不会看到NoIndex和NoFollow标签下面是一些具体的复制内容。

  为了有所作为,桐乡SEO简单介绍了Nofollow、robots.txt和Noindex:

  1、Nofollow 标签的意思是,在A页,如果有B页的链接,如果A页的链接上有nofollow标签,表示告诉搜索引擎不要点击链接,链接是到B页没有重量转移效果。 nofollow 是针对页面链接的。最初的作用是在博客上发表垃圾评论,告诉搜索引擎评论中的链接不是网站推荐的。

  2、robots.txt 是一个协议,目的是告诉搜索引擎哪些链接可以被抓取,哪些页面不会出现在搜索结果中。

  3、Noindex 和 robots.txt 有类似的功能。它还告诉搜索引擎页面禁止索引。如果一定要区分robots,一是蜘蛛进入网站后,会先抓取robots.txt。确保网站Allow crawling range,Noindex是蜘蛛抓取页面时,会发现页面被禁止索引。

  从节省蜘蛛资源的角度来说,如果有页面被禁止收录,桐乡SEO还是推荐使用robots.txt。本文由网站制作博客()原创发布,尊重作者版权,转载请注明出处。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线