搜索指定网站内容(网站robots.txt文件的配置和使用方法,路径匹配)

优采云 发布时间: 2021-12-11 04:26

  搜索指定网站内容(网站robots.txt文件的配置和使用方法,路径匹配)

  前言

  搜索引擎使用网络蜘蛛抓取网页内容并将其显示在相关搜索结果中。但是有些网页内容可能不想被搜索引擎收录收录,比如管理员后台。

  我们可以使用robots.txt文件来声明允许或禁止搜索引擎蜘蛛抓取某些目录或网页,从而限制搜索引擎的收录范围。

  本文介绍如何配置和使用网站的robots.txt文件,以及如何编写robots.txt文件。

  什么是robots.txt

  robots.txt 是存放在网站 根目录下的纯文本文件。用于告诉网络蜘蛛本站哪些内容允许爬取,哪些内容不允许爬取。

  搜索引擎蜘蛛在访问网站时,会先检查网站的robots.txt文件,获取网站允许的爬取范围。

  需要注意的是,robots.txt 只是一个习惯规则,并不是强制性的。部分搜索引擎不支持,无法保证网页内容会/不会被抓取。

  robots.txt 文件设置规则#格式和位置

  

  # 命令语法说明

  每条记录由 field: 值组成,例如 Sitemap:。

  一组记录的示例:

  # 禁止谷歌抓取网站 news 标签下的所有内容

user-agent: googlebot

disallow: /tag/news

  

  编写实用 robots.txt 的示例和说明

  如果网站中没有robots.txt文件,可以手动创建并上传到网站的根目录;即使没有网页需要禁止搜索引擎收录,也建议添加一个空的robots.txt文件。

  请注意文中“仅”、“允许”、“禁止”的区别!

  

  路径匹配示例:(↓Google Developers 截图)

  

  Tips#常用搜索引擎蜘蛛(机器人)名称

  如果不知道蜘蛛的名字,可以查看一些大网站的写法参考,比如/robots.txt。

  # robots.txt *敏*感*词*

  

  #相关信息结论

  网站的robots.txt文件相当于一个网站语句,用于通知访问蜘蛛“网站希望/不想被搜索引擎搜索收录 指定的网页和内容路径”。

  它对大多数搜索引擎有效,但也有一些搜索引擎不支持它。您可以使用元标记强制禁止它们(请参阅 Robots Meta Tag 和 X-Robots-Tag HTTP Header Specification)。

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线