如何实现搜索引擎优化(Google的每一个算法更新都是有针对性的,比如说有侥幸心理)
优采云 发布时间: 2022-03-09 07:23如何实现搜索引擎优化(Google的每一个算法更新都是有针对性的,比如说有侥幸心理)
谢谢!最近一直在研究搜索引擎的内部架构和具体实现。这个问题我有一点发言权,仅供个人参考。
谷歌的每一次算法更新都是有针对性的。比如熊猫主要针对低质量的内容,企鹅主要针对垃圾外链。谷歌为什么要更新算法,因为有太多人利用技术漏洞牟取暴利,使得搜索结果的质量变差,从长远来看,用户肯定会转向其他搜索引擎。好吧,这似乎有点牵强,所以让我们开始吧。
所谓机器智能,其实就是谷歌利用自己掌握的大量原创统计数据(GA/GWT),通过数据挖掘和机器学习算法,找到黑帽(垃圾邮件)的一些普遍特征网站(大量垃圾评论)。、论坛灌水、隐藏链接、跳转等)形成一个模型,如果你的网站符合某个模型(过滤器),那么谷歌可以判断你的网站违反了它的这些规则之一然后会给你网站相应的惩罚(-6,-30,-50,-1000,去索引)。
某算法刚发布的时候,误伤率其实很高,因为数据量不够。随着时间的发展,这些模型的准确率通过不断的训练逐渐提高。基本上,只要你违反了它的算法,你就离被惩罚不远了。因此,新算法出来后,必须及时调整。有侥幸心理。
以上只是一点点皮毛。如果你有兴趣,可以从以下几个方面了解更多:
搜索引擎的架构、原理与实现
概率论与数理统计
机器学习原理