搜索引擎优化入门指南(DIYSEO忍者:本指南适用于所有大小和类型的网站)
优采云 发布时间: 2022-02-28 23:12搜索引擎优化入门指南(DIYSEO忍者:本指南适用于所有大小和类型的网站)
如果您通过 Google 搜索拥有、管理、获利或通过您的在线内容获利,那么本指南适合您。您可能是一家蓬勃发展的企业的所有者、十几个网站的 网站 管理员、网络机构的 SEO 专家或对搜索机制充满热情的 DIY SEO 忍者:本指南适合您。如果您有兴趣根据我们的最佳实践全面了解 SEO 的基础知识,那么您来对地方了。
搜索引擎优化 (SEO) 通常是对 网站 某些部分的小修改。单独查看时,这些更改似乎是增量改进,但与其他优化结合使用时,它们会对您的 网站 用户体验和自然搜索结果的性能产生显着影响。您可能已经熟悉本指南中的许多主题,因为它们是任何网页的重要组成部分,但您可能没有充分利用它们。
您应该构建一个有益于您的用户的 网站,并且任何优化都应该旨在改善用户体验。其中一个用户是搜索引擎,它可以帮助其他用户发现您的内容。SEO是关于帮助搜索引擎理解和显示内容。您的 网站 可能比我们的示例 网站 更小或更大,并提供非常不同的内容,但我们下面讨论的优化主题应该适用于所有大小和类型的 网站。
词汇表
以下是本指南中使用的重要术语的简短词汇表:
SEO(“搜索引擎优化”)专家是经过培训以提高您在搜索引擎上的知名度的人。通过遵循本指南,您应该已经学到了足够的知识来进入优化的 网站。除此之外,您可能还需要考虑聘请 SEO 专业人员来帮助您审核您的页面。
决定聘请 SEO 是一个重大决定,可能会改善您的 网站 并节省时间。确保研究使用 SEO 的潜在优势,以及不负责任的 SEO 可能对您的 网站 造成的损害。许多 SEO 和其他机构和顾问为 网站 所有者提供有用的服务,包括:
告诉 Google 哪些页面不应该被抓取
对于非敏感信息,使用 robots.txt 阻止不必要的抓取
“robots.txt”文件告诉搜索引擎他们是否可以访问并因此抓取您的 网站 的某些部分。该文件必须命名为“robots.txt”并且位于您的 网站 根目录中。被 robots.txt 阻止的页面仍然可以被抓取,因此对于敏感页面,您应该使用更安全的方法。
您可能不想抓取 网站 的某些页面,因为如果在搜索引擎的搜索结果中找到这些页面,它们可能对用户没有用处。如果您真的想阻止搜索引擎抓取您的网页,Google Search Console 提供了一个友好的 robots.txt *敏*感*词*来帮助您创建此文件。请注意,如果您的 网站 使用子域并且您不希望在特定子域上抓取某些页面,则必须为该子域创建单独的 robots.txt 文件。
对于敏感信息,使用更安全的方法
Robots.txt 不是阻止敏感或机密材料的适当或有效方式。它仅向表现良好的爬虫表明该页面不适合他们,但它不会阻止您的服务器将这些页面传递给请求它们的浏览器。一个原因是,如果一个指向 Internet 上的 URL 的链接(例如引荐来源日志)碰巧是,搜索引擎仍然可以引用您阻止的 URL(只显示 URL,没有标题或摘录)。此外,无法识别机器人排除标准的不合规或流氓搜索引擎可能会违反您的 robots.txt 说明。最后,好奇的用户可以检查 robots.txt 文件中的目录或子目录,并猜测不需要的内容的 URL。
在这些情况下,如果您只是希望页面不出现在 Google 中,请使用 noindex 标签,无论有无链接的用户都可以访问该页面。但是,为了真正的安全,您应该使用适当的授权方法,例如要求用户密码或从您的站点中完全删除页面。
帮助 Google(和用户)了解您的内容让 Google 以与用户相同的方式查看您的网页
当 Googlebot 抓取网页时,它应该以与普通用户相同的方式查看该网页。为获得最佳呈现和索引,请始终允许 Googlebot 访问您的 网站 使用的 JavaScript、CSS 和图像文件。如果您的 网站 robots.txt 文件不允许抓取这些资产,它将直接影响我们的算法呈现和索引您的内容的能力。这可能导致次优排名。
建议操作: