搜索引擎优化原理(SEO优化:搜索引擎算法的本质及应用法)
优采云 发布时间: 2021-10-18 07:16搜索引擎优化原理(SEO优化:搜索引擎算法的本质及应用法)
SEO(搜索引擎优化)
当网站发布上线后,我们希望通过适当的优化和调整,让搜索引擎更好地“理解”。当用户使用搜索引擎进行搜索时,网站的内容可以更合适的暴露给用户。
互联网搜索引擎组件抓取(Crawling)索引(Indexing)返回结果(Serving Results)PageRank
在 PageRank 之前,排序主要依赖于搜索关键字和目标页面的匹配。这种排序方式有明显的弊端,尤其是那些擅长堆砌关键词“欺诈”的页面,很容易跳转到搜索结果的首页。但是这样的页面对用户来说价值很小。
PageRank算法的本质是利用网页之间的相关性来确定一个网页的影响力的权重。而这种关联关系就是网页之间的超链接。换句话说,如果一个页面被其他各种页面引用,尤其是被“重要”网站 和页面引用,则意味着该页面的权重更高。.
在实际搜索中,需要平衡两个因素:一是信誉,也就是上面提到的影响,不会因为用户单次搜索的关键词不同而改变;另一种是Proximity,即接近程度,根据用户搜索的关键字的匹配程度来确定返回页面。
SEO相关技术白帽黑帽
当我们明确了上述目的,遵循搜索引擎的规则,通过适当有效的技术手段达到SEO效果时,这种方法就被称为白帽法。相应地,如果是通过作弊或欺骗,则称为黑帽方法。
搜索引擎在评估上述网站的影响力时,有很多不同的“排名信号”,指的是会影响返回页面排名的“信号”。它们一起确定了一个页面。影响,例如:
网站 正常运行时间。例如,如果一个站点在爬行时总是遇到4xx和5xx错误,这显然是影响力的负权重。网站的时代,网页内容的新鲜度,好的原创内容永远是最好的优化方式。网站无论使用HTTPS还是HTTP,显然HTTPS更好。HTML 代码的质量,是否有错误。网站上访问的网页深度。
黑帽法:
现场优化和非现场优化
站内优化其实是指对网站自己内部管理的优化,实现SEO。比如我们之前反复提到的关键词,
站外优化与站内优化相反。优化是在目标站点之外进行的。比如众所周知的“友情链接”就是一种提供外链的站外优化方式。
罗伯茨.txt
“Roberts.txt”是网站根目录下可以直接访问的文本文件。它是网络爬虫的协议。告诉它这个网站下哪些内容可以爬取,哪些内容不能爬取。值得注意的是,roberts.txt 不是标准,也不是规范,而是一种“约定俗成的做法”,几乎所有的搜索引擎都会遵守。
网站地图
网站地图可以清晰直接的告诉搜索引擎网站中有哪些“重要”页面(无论是否链接),以及更新习惯,包括更新时间上次。整个网站的不同页面的更新频率和重要性是多少。
对于网站地图,除了被动等待爬虫爬取之外,搜索引擎服务往往会提供另一种方式来报告网站地图的变化,就是让网站管理员主动提交Change信息。与爬虫爬取相比,这种方式类似于我们第一章讲的pull和push的区别。这种方法对于网站管理员来说比较麻烦,但显然可以让搜索引擎更及时的了解和收录最新数据。
统计分析
在进行 SEO 更改和调整后,我们需要一些方法来跟踪和评估效果。谷歌分析和百度统计等功能提供。