搜索引擎禁止的方式优化网站(总结出来的几个要点,针对不允许搜索引擎收录)
优采云 发布时间: 2021-09-28 00:16搜索引擎禁止的方式优化网站(总结出来的几个要点,针对不允许搜索引擎收录)
很多时候,我们网站中的一些页面不想被搜索引擎收录搜索到,哪些页面呢?比如网站内部的网站,网站功能模块,仅供内容员工使用。这些模块是在我们构建 网站 时规划的。这部分,我们可以使用 ROBOTS 来让搜索引擎不收录。
正确书写robots.txt
前面说了,有些页面我们不想百度和google收录,怎么办?我们可以告诉搜索引擎与搜索引擎达成协议。如果我们按照约定去做,他们就不需要收录 并编写robots.txt 文件。
为此约定命名的文件是 robots.txt。robots.txt 是最简单的 .txt 文件,用于告诉搜索引擎哪些页面可以收录,哪些页面不允许。
网站 构建robots.txt时需要注意以下几点:
如果您的网站对所有搜索引擎开放,则无需制作此文件或 robots.txt 为空。文件名必须命名为robots.txt,全部小写,注意拼写正确,在robot后加“s”。很多做网站的朋友比较粗心,拼写错误让工作白费。
然后robots.txt必须放在站点的根目录下。比如可以通过访问成功,说明我们文件的位置放置正确。一般情况下,robots.txt中只写了两个函数:User-agent和Disallow。如果有几个需要禁止的,就必须有几个Disallow功能,分别说明。必须至少有一个 Disallow 功能。如果允许所有收录,写:Disallow:,如果不允许,则写:Disallow:/(注意:只有一个对角线)。
以上是对搜索引擎不允许收录的处理方式的总结,供大家参考。
本文由()原创编辑转载,请注明。