规范搜索引擎蜘蛛访问网站优化的书写.txt的作用
优采云 发布时间: 2021-05-23 01:31规范搜索引擎蜘蛛访问网站优化的书写.txt的作用
Robots.txt是每个搜索引擎蜘蛛访问的第一个文件网站。它的标准编写直接影响网站优化的结果。今天,让我们分享标准搜索引擎爬网的写作。
首先,让我们看一下Robots.txt的角色。
1.无效链接
当百度收录收到我们的网站页面时,偶然有无效链接,那么我们可以通过Robots.txt写入所有无效链接,然后等待快照被删除,以免至网站优化排名会产生不良影响。
2.阻止隐私页面
我们的网站总是不可避免地需要网站后端,css文件,js文件以及一些不想被搜索引擎抓取的文件。目前,您可以通过漫游器文件阻止它们。有关特定的书写规则,请参阅以下内容。
3.阻止重复的页面
我们的网站基本使用动态的网站程序。一般的网站路径是动态路径,但是为了使搜索引擎对网站路径更友好,我们通常使用技术手段将动态路径转换为静态路径或伪静态路径,这实际上是网站同一页产生了两条不同的路径,这不利于网站优化排名,因此我们需要使用漫游器来更改动态路径。
因此可以看出,我们需要创建自己的robots.txt文件,不仅可以解决网站的404页面,还可以阻止重复的内容,这更有利于网站优化排名。
只有三种编写方法:1.用户代理,它是搜索引擎蜘蛛的名称; 2.不允许,这是要阻止的部分; 3.允许,在不允许的目录中单独允许使用的部分。
示例如下:
1.用户代理:*
允许所有搜索引擎进行爬网
2.不允许:/ css /
禁止抓取css文件下的所有文件
3.允许:/css/seo.jpg
css目录中的
Seo.jpg允许搜索引擎分别进行爬网
有三件事要注意:
1.文件位置必须放置在站点的根目录中;
2. 2.除大写字母外,所有其他字母均为小写英文字母。
3.规则和文件名之间有一个空格。输入法的英文状态必须为空格,否则将无法正常工作。
好的,上面为您介绍了Booster 网站优化的Robots.txt编写方法,希望对制作Robots.txt有所帮助。