2017搜索引擎优化规则(本文Hostease美国服务器商将介绍如何在搜索引擎优化方面取得成功的实用技巧)

优采云 发布时间: 2022-01-24 22:16

  2017搜索引擎优化规则(本文Hostease美国服务器商将介绍如何在搜索引擎优化方面取得成功的实用技巧)

  技术优化是搜索引擎优化的核心要素。网站技术优化不仅让搜索引擎更容易抓取和索引,还为用户提供了良好的用户体验。涵盖 网站 所有技术方面非常具有挑战性,因为可能有数百个问题需要解决。但是,如果纠正某些区域可能会非常有益。在本文中,Hostease 美国服务器提供商将介绍如何在搜索引擎优化中取得成功的实用技巧。

  1、索引和网络爬虫

  首先确保搜索引擎可以正确索引和抓取 网站。由搜索引擎 网站 在 Google Search Console 中、通过 Google Search 网站: 或在 WebSite Auditor 等 SEO 爬虫的帮助下索引的页面数。谷歌索引的页数落后于总页数。为了避免索引空白,提高网站的可爬取性,需要解决以下问题:

  限制索引资源

  Google 现在可以显示各种资源(HTML、CSS 和 JavaScript)。因此,如果其中一些被禁止编入索引,Google 将不会以应有的方式显示它们,也不会正确呈现它们。

  孤立页面

  这些页面存在于 网站 上,但不链接到其他页面。这意味着搜索引擎无法显示它们,从而确保重要页面不会被孤立。

  分页内容

  谷歌最近承认他们有一段时间不支持 rel=next、rel-prev 并推荐单页内容。如果已经分页的内容对 网站 有意义,则无需更改任何内容,但建议确保分页页面可以独立存在。

  我该怎么办

  检查 robots.txt 文件。它不应阻止 网站 上的重要页面。通过使用抓取和呈现各种资源并查找所有页面的工具抓取您的 网站 来仔细检查。推荐阅读谷歌搜索引擎优化中的一些常用技术术语。

  2、爬行估计

  爬行估计可以定义为搜索引擎机器人在给定时间段内访问 网站 的次数。例如,如果 Googlebot 每月访问 网站2.5K 次,则 Google 的每月抓取预算为 2.5K。虽然尚不清楚 Google 如何为每个 网站 分配抓取估计值,但有两个主要理论表明关键因素是:

  页面的内部链接数

  反向链接数

  早在 2016 年,我的团队进行了一项实验,以检查内部和外部链接之间的相关性以及抓取统计数据。我们在 WebSite Auditor 中为 11 个网站s 创建了项目来检查内部链接的数量。接下来,我们在 SEO SpyGlass 中为相同的 11 个 网站 创建项目,以检查每个页面的外部链接数量。然后,我们检查了服务器日志中的抓取统计信息,以了解 Googlebot 访问每个页面的频率。使用这些数据,我们发现内部链接和抓取预算之间的相关性非常弱(0.154),而外部链接和抓取预算之间的相关性非常强(0.97 8).相关阅读 做网站链接优化需要注意什么。

  然而,这些结果似乎不再相关。我们上周重新进行了相同的实验,以证明反向链接和内部链接与抓取预算之间没有相关性。换句话说,反向链接曾经在增加爬网估计中发挥作用,但现在似乎不再如此了。这意味着扩大您的抓取预算需要使用良好的旧技术来让搜索引擎网络抓取工具抓取尽可能多的页面并更快地发现新内容。

  需要做什么

  确保重要页面是可抓取的。检查 robots.txt,它不应阻止任何重要资源(包括 CSS 和 JavaScript)。

  避免长重定向链。此处的最佳做法是连续重定向不超过两个。

  修复损坏的页面。如果搜索机器人偶然发现具有 4XX/5XX 状态代码(404“未找到”错误、500“内部服务器”错误或任何其他类似错误)的页面,则浪费了一个单位的抓取预算。

  清理 网站 地图。为了让机器人和用户更容易找到内容,请删除 4xx 页面、不必要的重定向、非规范和被阻止的页面。

  没有搜索引擎值的页面是不允许的。在 robots.txt 文件中为隐私政策、旧促销、条款和条件创建禁止规则。

  保持内部连接效率。使 网站 结构树突状且简单,以便爬虫可以轻松访问 网站 上的所有重要页面。

  满足 URL 参数。如果有指向同一页面的动态 URL,请在 Google Search Console > Crawl > Search Parameters 中指定它们的参数。

  有关的

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线