网站为什么已经拒绝蜘蛛收录,而这是为什么类?

优采云 发布时间: 2021-08-20 05:02

  

网站为什么已经拒绝蜘蛛收录,而这是为什么类?

  搜索引擎也可以抓取网站content

  为什么网站拒绝了spider收录,搜索引擎依然可以抓取网站内容。 “这是为什么?这是今天一位受人尊敬的主机无忧用户提出的问题。关于这个问题,确实很难回答。售后工程师互相讨论,并根据我们的情况简单谈谈搜索引擎收录自己的维修经验。

  先说明这个问题,我们先来了解一下搜索引擎爬虫(蜘蛛)的工作原理:

  搜索引擎使用蜘蛛程序抓取用户网页的内容。搜索引擎蜘蛛访问网站时,会先检查网站处是否有robots.txt文件。如果有蜘蛛程序,它会先访问机器人。 .txt 文件读取文件的内容。这个文件表明网站那些内容是希望被抓取或拒绝被抓取的。在检查robots.txt协议后,蜘蛛程序就会知道它应该做什么工作,是执行拒绝还是抓取动作。

  现在回到文章title的话题,我发现搜索引擎有时会在搜索结果中显示收录的php虚拟主机页面被拒绝或者显示网页快照。这是什么?原因是: 对于许多人来说,我将列举一些最常见的原因:

  1、用户可能在设置robots.txt文件时出错或者没有放在网站的根目录下,所以搜索引擎不会收到你拒绝收录的正确信息;

  2、search engine收录的网页不是直接访问网站获取的,可能是通过外部链接网站被拒绝的页面收录;

  3、可能是在robots.txt文件创建之前,网站已经被搜索引擎收录搜索到了,搜索引擎没有及时更新,蜘蛛程序不符合机器人协议。这个原因要等搜索引擎下次更新收录才有解决办法

  出现上述情况时,我们希望阻止所有搜索引擎显示您的网站快照。您可以将此代码添加到网页的标题代码部分:

  如果用户希望搜索引擎显示快照,但不希望搜索引擎收录网页,可以使用以下代码进行标记:

  本文由郑州博乐称重软件整理发布

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线