搜索引擎优化有哪些(本文Hostease美国服务器商将介绍如何在搜索引擎优化方面取得成功的实用技巧)

优采云 发布时间: 2021-11-16 13:15

  搜索引擎优化有哪些(本文Hostease美国服务器商将介绍如何在搜索引擎优化方面取得成功的实用技巧)

  技术优化是搜索引擎优化的核心要素。经过技术优化的网站不仅让搜索引擎更容易抓取和索引,还为用户提供了良好的用户体验。涵盖 网站 的所有技术方面非常具有挑战性,因为可能需要修复数百个问题。不过,如果改正了,有些地方还是很有好处的。在本文中,Hostease 美国服务器供应商将介绍如何在搜索引擎优化中取得成功的实用技巧。

  1、索引和网络爬虫能力

  首先,确保搜索引擎可以正确索引和抓取网站。您可以在 Google 搜索控制台中使用搜索引擎 网站 索引的页面数,通过 Google 网站: 或通过 WebSite Auditor 之类的搜索引擎优化爬虫进行搜索。在 Google 中编入索引的页数落后于总页数。为了避免索引落差,提高网站的可抓取性,需要注意以下问题:

  限制索引资源

  Google 现在可以显示各种资源(HTML、CSS 和 JavaScript)。因此,如果其中一些被禁止编入索引,Google 将不会以应有的方式显示它们,也不会正确呈现它们。

  隔离页面

  这些页面存在于 网站 上,但不链接到其他页面。这意味着搜索引擎无法显示它们,从而确保重要页面不会被孤立。

  分页内容

  谷歌最近承认,他们已经有一段时间不支持 rel=next 和 rel-prev,他们建议使用单页内容。虽然如果已经分页的内容对网站有意义的话不需要改变任何内容,但建议确保分页的页面可以独立存在。

  我该怎么办

  检查 robots.txt 文件。它不应该阻止 网站 上的重要页面。使用可以抓取和呈现各种资源并找到所有页面进行审核的工具来抓取您的 网站。建议阅读谷歌搜索引擎优化中一些常见的专业术语。

  2、爬行估计

  爬行估计可以定义为搜索引擎机器人在一定时间内访问网站的次数。例如,如果 Googlebot 每月访问 网站2.5K 次,那么 Google 的每月抓取预算为 2.5K。虽然不清楚谷歌如何为每个 网站 分配爬行估计,但有两个主要理论指出关键因素是:

  页面内部链接数

  反向链接数

  早在2016年,我的团队就做过一个实验,测试内外链和爬虫统计的相关性。我们在 WebSite Auditor 中为 11 个 网站 创建了项目以检查内部链接的数量。接下来,我们在 SpyGlass 中为相同的 11 个 网站 创建项目,以检查每个页面的外部链接数量。然后,我们检查了服务器日志中的抓取统计信息,以了解 Googlebot 访问每个页面的频率。使用这些数据,我们发现内链和爬虫预算的相关性很弱(0.154),而外链和爬虫预算的相关性很强(0.97 8). 相关阅读,优化网站链接时需要注意什么。

  然而,这些结果似乎不再相关。我们上周重新进行了相同的实验,以证明反向链接和内部链接以及抓取预算之间没有相关性。换句话说,反向链接曾经在增加爬网估计中发挥作用,但现在似乎不再如此。这意味着要扩大抓取预算,您需要使用良好的旧技术,使搜索引擎网络爬虫抓取尽可能多的页面并更快地发现新内容。

  需要做什么

  确保重要页面可抓取。检查robots.txt,任何重要的资源(包括CSS和JavaScript)都不应被屏蔽。

  避免长重定向链。此处的最佳做法是连续重定向不超过两次。

  修复损坏的页面。如果搜索机器人偶然发现具有 4XX/5XX 状态代码(404“未找到”错误、500“内部服务器”错误或任何其他类似错误)的页面,则会浪费一个单位的抓取预算。

  清理网站的地图。为了让爬虫和用户更容易找到内容,请删除4xx页面、不必要的重定向、非标准和被阻止的页面。

  没有搜索引擎值的页面是不允许的。在 robots.txt 文件中为隐私政策、旧促销、条款和条件创建禁止规则。

  保持内部连接的效率。使网站的结构树状简单,让爬虫可以轻松访问网站上的所有重要页面。

  满足 URL 参数。如果存在指向同一页面的动态网址,请在 Google Search Console“抓取”搜索参数中指定其参数。

  有关的

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线