搜索引擎禁止的方式优化网站(让蜘蛛肆无忌惮的去爬行真的就有益于网站优化吗?)

优采云 发布时间: 2021-09-20 00:00

  搜索引擎禁止的方式优化网站(让蜘蛛肆无忌惮的去爬行真的就有益于网站优化吗?)

  寻找A5项目招商,快速获得准确的代理名单

  网站optimization就是让搜索引擎快速索引页面,从而增加权重和流量。因此,站长喜欢蜘蛛网站爬得到处都是,吃得很彻底。但让蜘蛛肆无忌惮地爬行对网站优化真的有好处吗?许多网站管理员可能会限制爬行器在robots.txt文本中爬行,管理员和数据目录除外,其他目录可以由爬行器索引。作者想说的是,除了一些安全目录,一些目录应该被适当屏蔽以进行网站优化。禁止搜索引擎索引是有益无害的

  1:屏蔽图片目录

  图片是网站构图的主要元素。然而,在搜索引擎中,主题模板中的类似图片是压倒性的。搜索引擎会一次又一次地索引收录吗?即使收录,影响也很小。一个好的网站,各种蜘蛛每天访问数千次以上,这无疑浪费了大量带宽。通常,我们经常筛选的目录是“图像,图像”

  2:缓存目录的屏蔽

  许多程序都有缓存目录。以Z-blog为例。它的缓存目录是“cache”,其中有许多生成HTML的缓存文件。如果爬行器继续索引,无疑会导致重复内容的索引,这对用户是有害的网站. 我看到很多使用Z-blog的朋友都没有设置,这可能没有引起足够的关注。当然,其他程序有不同的缓存目录,目标屏蔽是最合适的

  3:模板目录的掩码

  对于程序的模板,大多数网站管理员选择直接应用它,而不是独立的模板。模板的高重复性也成为搜索引擎中信息的冗余,因此使用robots.txt屏蔽模板是有益无害的。模板文件通常与生成的文件高度相似,这也很容易导致相同内容的出现

  4:筛选CSS目录

  CSS目录对于搜索引擎爬网是无用的,所以我们在robots.txt文件中屏蔽它以提高搜索引擎的索引质量。为搜索引擎提供简洁的索引环境更容易提高网站的友好性

  5:某些程序的RSS页面

  本文仅适用于带有RSS页面的程序,这在一般博客中很常见。这个页面可以说是一个高度重复的页面。为了增强搜索引擎中网站的友好性,屏蔽它是绝对必要的

  6:阻止双页内容

  可以生成静态页面的网站,通常可供动态页面访问。例如,“和”,如果它们被搜索引擎完全索引,它们无疑会访问完全一致的内容,这对搜索引擎的友好性是有害的。后者经常被阻止,因为前者是静态的,更容易被搜索引擎收录索引@

  7:涉及程序安全页面

  在开始时,我们解释了如何屏蔽管理和数据目录,以防止安全目录和数据库的泄露。另外,数据库目录、网站log目录和备份目录需要屏蔽,可以有效减少“泄密”的发生

  8:屏蔽文件的形式

  有些站长总是喜欢将网站备份到网站上,下载后忘记删除,或者根本不下载,直接保存到服务器上。然而,众所周知,网站的发展和成长必须受到一些人的关注。当反复尝试网站时,排名稍低的网站在数据库和备份文件中也会受到类似的攻击。使用robots.txt屏蔽“rar,zip”等文件。从本质上讲,这种屏蔽方法对“第七点”更为有利,但它仍然只是局部的

  结论:适当优化屏蔽蜘蛛不仅可以节省我们的服务器资源,还可以增加搜索引擎对网站. 为什么不呢?二进制网络和专业的网站建筑公司领航技术()认为robots.txt文件不仅是屏蔽安全目录的工具,而且有利于网站搜索引擎的优化

  申请创业报告,分享好的创业理念。单击此处讨论创业的新机会

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线