wordpress 搜索引擎优化(使用页面分级索引不标签来替代,处理你网站低质量的部分内容)
优采云 发布时间: 2021-10-24 15:03wordpress 搜索引擎优化(使用页面分级索引不标签来替代,处理你网站低质量的部分内容)
简介:这是一个WordPress站点的搜索引擎优化(SEO)系列文章,这是第五篇,本文主要介绍Robots.txt的优化。我们来看看它的英文名称:Search Engine Optimization for WordPress。它的上一篇文章是 WordPress 高级应用程序:我的 WordPress 博客会出现在搜索引擎中吗?(五).
搜索引擎优化方法
...
WordPress的自定义字段选项也可以用来添加文章和网页关键词和描述。您可以在官方 WordPress 插件目录中找到多个 WordPress 插件。他们可以帮助您将元标记和关键字描述添加到您的 网站。
Robots.txt 优化 / Robots.txt 优化
搜索引擎读取/robots.txt 下的robots.txt 文件,可以从中获取哪些应该检查哪些不应该检查的信息。
将条目添加到 robots.txt 可以帮助 SEO 是一个常见的误解。Google 表示欢迎您使用 robots.txt 屏蔽您的部分 网站 内容,但目前希望您不要使用它。改用页面评级和非索引标签来处理您的 网站 内容的低质量部分。
自 2009 年以来,Google 一直声称他们建议避免阻止 JS 和 CSS 文件。在站长提高透明度的政策方面,谷歌的搜索质量团队一直很活跃,帮助谷歌验证我们不是“隐形”并链接到阻止机器人访问的难看的垃圾页面。
因此,理想的 Robots 文件没有任何不允许的部分,并且可以链接到 XML 格式的站点地图,前提是创建了准确的站点地图文件(尽管这本身很少见!)。
未完待续
请继续关注下一篇文章:Feed 建议。我没有足够的时间来翻译更多。