搜索引擎禁止的方式优化网站(网站优化之初我们要做好哪些基础设置?(图))

优采云 发布时间: 2022-01-15 04:13

  搜索引擎禁止的方式优化网站(网站优化之初我们要做好哪些基础设置?(图))

  很多新手站长不明白为什么网站上线后需要在相关页面设置。许多网站管理员知道如何做到这一点,但他们自己不知道如何做到这一点。对已经完成的基础工作做了详细介绍,供大家参考。好了,闲话少说,进入今天的话题。网站优化之初我们应该做哪些基础设置。

  首先,网站url 设置必须简短且有意义。此类设置通常用于 cms 构建的 网站。我们经常看到 织梦 的 cms。我们在创建列时,默认使用列的生成时间和名称作为列的url地址和文章。这个地址很长,对搜索引擎不友好。对于其他网站也是如此,所以我们必须在更新内容之前先这样做。列和文章路径URL优化,需要修改的地方在dedecms后台,system-system基本参数。

  在栏目管理中,将命名规则{typedir}/{Y}/{M}{D}/{aid}.html改为{typedir}/{aid}.html删除中间日期或更改中间部分对于列的简单拼写或全拼,列表列表命名规则 {typedir}/list_{tid}_{page}.html 改为 {typedir}/list_{page}.html 删除中间生成的tid缩小 文章页面的路径。

  

  二、网站的404页面设置。404页面主要是为一些无效和打不开的网站链接准备的。由于修订或数据库更新,许多 网站 URL 无法打开。上图是A5站长网站的404。页面,404页面的作用是什么?一旦网页无法打开,我们会通过404页面提示用户返回我们网站的首页,从而引导用户继续访问其他页面,添加We 网站体验和用户浏览时间,上图是的404页面设置。可以根据自己的喜好选择页面布局,但是注意底部的返回首页一定要保留。

  

  三、网站的301永久重定向。我们知道新上线的网站一般都是同一个域名,有www和没有www,但是这两个域名对于用户打开时看到的首页没有区别,但是百度会认为这两个域名的权重会被分散,所以作为seoer我们要做的就是执行对应url的永久重定向。方法是将不带www的地址跳转到带WWW的域名,防止权重分散。

  四、网站Robots协议设置。Robots协议的全称是“Robots Exclusion Protocol”,网站通过Robots协议告诉搜索引擎哪些页面可以爬取,哪些页面不能爬取。当搜索蜘蛛访问一个站点时,它会首先检查站点根目录中是否存在 robots.txt。如果存在,搜索机器人会根据文件内容确定访问范围。具体的设置方法,笔者在 这里举个例子:其他更多的知识可以通过百度搜索了解。

  1),禁止所有搜索引擎访问网站的任何部分

  用户代理: *

  不允许: /

  2),允许所有机器人访问(或创建一个空的“/robots.txt”文件)

  用户代理: *

  允许:/

  3),阻止对搜索引擎的访问

  用户代理:百度蜘蛛

  允许:/

  

  四、网站map的设置方法。以上为企业站现场图。常见的网站映射一般包括两种,一种是html静态映射,另一种是xml格式映射,而xml格式映射主要是从搜索引擎的角度来作为一个索引的一种方式搜索引擎可以理解通知搜索引擎改进网站 的收录。另一种是html格式,一般是网站的结构化栏目的呈现方式,以链接的形式展示网站的首页和各级重要栏目页和列表页。方便用户查看网站的内容。这些细节都是为了提高网站友好性的基础优化

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线