武汉网站搜索引擎优化(最新最全、全部原创discuz系列文章,25招让你快速有效推广网站)
优采云 发布时间: 2022-01-26 10:00武汉网站搜索引擎优化(最新最全、全部原创discuz系列文章,25招让你快速有效推广网站)
最新最全的原创 discuz系列文章,25招让你快速有效推广网站。论坛是dz 7.2。为了检测各种优化,启用了伪静态版块和帖子,允许归档器、版块和帖子具有动态 URL 形式 收录*
*有些设置是实验性的,不适合所有人,尤其是老站,要根据实际情况处理,不要轻易改变*
一、禁止 SE 检索无用页面
1.1 我的 robots.txt 设置。主要是测试各个SE的支持情况,使用默认的DZ即可 *注:一般情况下,可以使用disucz默认的robots.txt文件。五个关键点,折磨虚拟主机服务商。
以下设置主要是测试各个搜索引擎对robots.txt文件扩展协议的支持和兼容性。用户代理:*
#首先禁止所有内容
不允许:/
# 打开主页。如果您不支持允许,您将无法收录主页;如果你不支持$,可能都将打开
允许:/$
#打开所有.html页面,对于DZ有列表、帖子、存档器
#以后TAG内容丰富后,后台设置会使TAG页面静态化,自然会允许收录TAG
允许:/*.html
Allow: /viewthread.php #打开各种动态形式的帖子
Allow: /redirect.php #打开后跳转表单
Allow: /forumdisplay.php #各种动态形式的开放列表表面
Allow: /archiver/ #只有放开这个目录,机器人才能进入并抓取*.html的东西
复制代码#采用先封禁后开放的方法,武汉网站设计,1996——谷歌的自由梦想,主要是清晰、通俗易懂,不会掉要封禁的网址。对于像 Discuz 这样的 URL 情况复杂的程序来说非常方便。 2010年,中国搜索市场规模将突破100亿元。如果只使用 Disallow,规则会很长。具体使用参考:robots.txt文件语法。
#允许一些动态内容收录,因为google、live、yahoo并支持一个新的标签属性,可以将链接和权重转移到静态形式的URL。请参阅:使 discuz 支持规范 URL 标签。
#这样设置robots.txt的主要目的是为了测试一下各个搜索引擎对扩展协议的支持情况:
1.测试每个SE对allow的支持
2.测试与 $ * 符号的兼容性
3.测试每个SE的匹配规则是否相同
1.2 *在无效页面添加metarobots标签封禁收录1.3如何封禁SE收录某个版本的帖子
#discuz 会产生哪些无效页面以及出现什么问题
1.已删除的帖子和论坛,访问时返回帖子不存在的提示信息页面。
Discuz SEO(dz 论坛)注意事项
2.设置了只有一定权限才能浏览的帖子和版块,很多时候会泄露链接,提示你没有权限
3.各种其他情况的信息页面。这些都是给用户看的,没有实质性内容,禁止收录。
其实最大的问题是复制内容的问题。由于这些不同的 URL,会返回相同的内容。对 SE 不友好。其实对于被删除的内容,应该返回404,由武汉网站制作,不过为了简单起见,使用了添加metarobots标签和禁止ES收录的方法来解决。
#修改提示信息页面,解决重复内容问题
找到全局函数定义文件:global.func.php可以修改other中的showmessage函数。
在第四行定义('CACHE_FORBIDDEN',TRUE);其次是:
$extrahead .='';
本次修改后,对于无权访问的URL、已删除的帖子等提示信息页面,将返回禁止metarobots的页眉。因为收录被禁止了,过一段时间也会从索引中删除。这样一来,所有的内容页面都交给了SE,有利于增加权重。
原来添加meta robots到存档器是添加:2010-3-28
如果存档页面的帖子被删除,同样的提示信息也应该被禁止收录.
修改archiverincludethread.inc.php:有两个showheader();在此文件中,只需在第一个文件上方添加一行:$extrahead .='';
三.将链接规范标签添加到存档页面
1.修改archiver/index.php:在全局$boardurl、$_DCACHE、$charset、$navtitle、$headerbanner、$headernav下添加一行;行:全局 $extrahead;
在
下一行:$extrahead
Discuz SEO(dz论坛搜索引擎优化)注意事项