搜索引擎禁止的方式优化网站(网站优化seo经验分享是什么意思?tag标签标签优化)

优采云 发布时间: 2022-03-18 18:25

  搜索引擎禁止的方式优化网站(网站优化seo经验分享是什么意思?tag标签标签优化)

  网站优化seo经验分享标签是什么意思?什么样的标签标签对优化博客外部链接有用,什么不是?

  要知道,在seo优化的过程中,有时需要屏蔽搜索引擎蜘蛛,也就是禁止抓取网站的某个地方,那么我们应该如何屏蔽搜索引擎蜘蛛呢?下面我们来看看具体的操作方法。

  百度蜘蛛爬取我们的网站,希望我们的网页能被它的搜索引擎收录。以后用户搜索的时候,会给我们带来一定的SEO流量。当然,我们不希望搜索引擎抓取所有内容。

  因此,此时我们只希望能够爬取搜索引擎搜索到的内容。例如,用户的隐私和背景信息预计不会被搜索引擎捕获和收录。解决这些问题有两种最佳方法,如下所示:

  robots协议文件阻止百度蜘蛛爬行

  robots协议是放在网站根目录下的一个协议文件,可以通过URL(URL:)访问,百度蜘蛛爬取我们的网站时,会首先访问这个文件。因为它告诉蜘蛛抓取什么,不抓取什么。

  robots协议文件的设置比较简单,可以通过User-Agent、Disallow、Allow这三个参数来设置。

  User-Agent:针对不同搜索引擎的语句;

  Disallow:不允许爬取的目录或页面;

  允许:允许爬取的目录或页面通常可以省略或不写,因为如果你不写任何不能爬取的东西,它就可以被爬取。

  我们来看一个例子,场景是不想让百度抢我所有的网站css文件、数据目录、seo-tag.html页面

  User-Agent:BaidusppiderDisallow:/*.cssDisallow:/data/Disallow:/seo/seo-tag.html

  如上所述,用户代理声明了蜘蛛的名称,这意味着它以百度蜘蛛为目标。以下无法获取“/*.css”,首先/指的是根目录,也就是你的域名。* 是任何东西的通配符。这意味着无法抓取所有以 .css 结尾的文件。这里有两个你自己的经历。逻辑是一样的。

  通过403状态码限制内容输出,阻止蜘蛛爬行。

  403状态码是网页在http协议中返回的状态码。当搜索引擎遇到 403 状态码时,它就知道这些页面是受权限限制的。我无法访问它。例如,如果你需要登录查看内容,搜索引擎本身将无法登录。如果你返回一个403,他也知道这是一个权限设置页面,无法阅读内容。当然,它不会被包括在内。

  返回 403 状态码时,应该有一个类似于 404 页面的页面。提示用户或蜘蛛执行他们想要访问的操作。两者缺一不可。你只有提示页面,状态码返回200,对于百度蜘蛛来说是很多重复页面。有 403 个状态码,但返回不同的东西。它也不是很友好。

  最后,对于机器人协议,我想补充一下:“现在,搜索引擎将通过其布局和布局来识别网页的用户友好性。如果您阻止css文件和js文件与布局相关,那么搜索引擎我不知道你的网页布局是好是坏,所以不建议屏蔽这些内容。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线