最佳实践:SEO外链专员应如何评估一个外链的价值
优采云 发布时间: 2022-09-25 14:20最佳实践:SEO外链专员应如何评估一个外链的价值
随着搜索引擎算法的不断调整,一个页面排名的决定性因素已经不是那么单一了。外部链接的时代早已一去不复返了。搜索引擎考虑的指标越来越多样化。其实,传统意义上的SEO,已经不复存在了。那么现在,作为SEO反向链接专家,您应该从哪些方面评估反向链接是否足够好?给大家说一下外链要考虑的20个因素,希望对你有帮助!
1.锚文本
重要性:★★★☆☆
锚文本之所以只有三颗星,是因为无论你有没有锚文本,链接都是有价值的。区别在于精确的锚文本优于不太精确的锚文本,完全匹配的锚文本优于部分匹配的锚文本,锚文本优于没有锚文本。就是这样。
如果您根本没有任何反向链接,那么即使链接没有锚文本,请尝试获取它。
2.相关性
重要性:★★★☆☆
相关性是一个重要的指标,但目前还没有有效的工具来给出准确的数字。
尽管如此,相关性仍然是获得大量信息来源的最重要手段之一。可能很难找到完全相关或非常相关的网站,但看似不相关的网站也可以成为您的信息来源并与之交换链接。不要轻易排除这些不相关的链接或网站。
3.页面权重
重要性:★☆☆☆☆
这个低分的原因主要是因为搜索引擎。谷歌已停止更新PR,百度从未给出官方BR。搜索巨头有自己独立的一套算法规则和排名逻辑,太不可预测了。
因此,与其关注单个链接的权重,不如关注域权限、网站重要性、您网站上其他页面的重要性、相关性等。
4.域权限
重要性:★★★★★
这是20个最重要的因素。这是判断一个链接是否优于其他链接的关键。一般来说,域名权限越高越好。因为越高,越能提升排名,能点击的人越多,产生的影响力就越大。
5.关注和不关注
重要性:★★★★★
在每次后台测试中,我们发现nofollow 链接和follow 链接的处理方式不同。尽管它们都具有很好的相关性,但请记住,nofollow 链接和关注的链接本身是高度相关的,您应该尝试使用一些分析工具来找到这些 nofollow 链接。
6.内部链接/外部链接
重要性:★★★★★
当你离开的反向链接页面有足够的内部链接和外部链接时,很明显这个页面很重要,你离开的反向链接也很重要。
7.页面上其他链接的质量
重要性:★★★★☆
这其实很重要。不幸的是,没有一站式的方法来衡量页面上所有其他链接的质量。你必须一一检查。需要注意的是,您是否必须查看此页面是否为打开目录?如果是这样,请仔细考虑是否需要提交自己的 URL。当然,如果本页其他链接都不错的话,不妨试试看。
8.页面内容完整性
重要性:★★★☆☆
这是一个非常主观的判断,因为我们可以选择 文章 关于来源、整体网站内容等。之所以选择这个,是因为搜索引擎试图通过机器跟踪或深度学习来分析网站的内容,并跟踪用户对该内容的反应和反馈,最后做出评估,这是一个大趋势。
9.用户体验
重要性:★★★★☆
如果一个页面很受用户欢迎并且用户不断点击它,那么搜索引擎会从浏览器、android、wifi服务器等看到这个,所以在社交媒体上分享有价值的内容推广反向链接非常重要
大量转发最终会带来流量!
10.页面位置
重要性:★★☆☆☆
我给它两星的原因是因为它很重要,仅此而已。你为什么这么说?如果链接在页脚、页边或广告区域,搜索引擎很容易认为它是广告链接。如果设置了nofollow,看起来也像是在宣传什么,对你影响不大。所以,可以考虑,一点点就够了。
11.页面深度
重要性:★☆☆☆☆
过去一级目录的链接比二级目录的链接更容易吸引蜘蛛,首页比其他页面更容易吸引蜘蛛。但是今天,搜索引擎可以爬取所有页面,它们判断所有页面并了解所有页面
页面。
12.图片与文字
重要性:☆☆☆☆☆
不要太担心这一点,因为它是如此明显。图像链接比锚文本弱。当然,如果图片链接带来的流量高于锚文本,那就另当别论了!
13.链接和页面年龄
重要性:☆☆☆☆☆
有一些追溯工具可以查看链接和页面的年龄。您可能认为一些旧链接对排名影响不大,但事实恰恰相反。我们经常可以看到新页面总是喜欢链接到旧页面,这就是原因。
14.专题页面
重要性:★★★☆☆
这并不是指从域名角度看本站的权限,而是指本站在某个热点话题下的权限。最快的检查方法是尝试在任何搜索引擎中搜索某个主题,查看目标站点是否排在前10位,然后使用关键词搜索工具逐一检查关键词。
15.授权人
重要性:★★☆☆☆
这对于链接建设者的重要性更多地在于影响而不是简单的 SEO。如果你能找到权威专家为你的网站写内容并链接到你,那真是太棒了!推销自己时可以引用专家的话网站。
16.垃圾链接
重要性:★★★★☆
这点很重要,只要搜索引擎发现该网站的垃圾链接过多,就会立即对网站进行降级或更严重的处罚。如果可能的话,您可以打开相关的分析工具,给您的网站打分,看看有多少垃圾链接。
17.链接增长速度
重要性:☆☆☆☆☆
如果您在进行白帽、非手动、非垃圾链接构建,则无需担心这一点。如果没有,你必须担心。永远不要认为你可以比搜索引擎更聪明,它不会捕捉到你在做什么。如果必须,请尝试使链接至少在表面上看起来很漂亮。
18.JavaScriptvsHTML
重要性:★★☆☆☆
之所以给这个功能打两星,是因为代码仍然是获取搜索引擎注意的一种方式,网站运营商仍然可以更改代码来影响页面排名。您可以通过查看搜索引擎快照来查看网站或链接是否已编入索引或 收录。
解决方案:容器日志管理的最佳实践
摘要:本文以Docker为例,结合阿里云日志服务团队在日志领域多年积累的丰富经验,介绍容器日志处理的通用方法和最佳实践。
背景
自2013年dotCloud开源Docker以来,以Docker为代表的容器产品以隔离性好、可移植性高、资源占用少、启动快等特点迅速风靡全球。下图显示了 2013 年以来 Docker 和 OpenStack 的搜索趋势。
容器技术在部署、交付等环节给人们带来了很多便利,但在日志处理领域也带来了很多新的挑战,包括:
如果日志保存在容器内,在容器销毁时会被删除。由于容器的生命周期与虚拟机相比大大缩短,创建和销毁都是正常的,所以需要一种持久化日志的方式;
进入容器时代后,需要管理的目标对象远多于虚拟机或物理机。登录目标容器排查问题会变得更加复杂和不经济;
容器的出现让微服务更容易实现,引入更多组件的同时也给我们的系统带来了松耦合。因此,我们需要一种既能帮助我们全局了解系统运行情况,又能快速定位问题现场、还原上下文的技术。
日志处理流程
本文以Docker为例,介绍容器日志处理的一般方法和最佳实践,包括:
容器日志实时采集;
查询分析和可视化;
日志上下文分析;
LiveTail - 云上的 tail -f。
容器实时日志采集
容器日志分类
采集Logs 首先,我们需要找出日志存在的位置。这里以两个常见的容器 Nginx 和 Tomcat 为例进行分析。
Nginx 生成的日志包括 access.log 和 error.log。根据 nginx Dockerfile,access.log 和 error.log 分别被重定向到 STDOUT 和 STDERR。
Tomcat 会生成很多日志,包括 catalina.log、access.log、manager.log、host-manager.log 等。tomcat Dockerfile 不会将这些日志重定向到标准输出,它们存在于容器内部。
容器产生的大部分日志都可以归结为上述情况。在这里,我们不妨将容器日志分为以下两类。
标准输出
使用日志记录驱动程序
容器的标准输出会被日志驱动统一处理。如下图所示,不同的日志驱动程序会将标准输出写入不同的目的地。
通过日志记录驱动程序 采集 的容器标准输出的优点是使用简单,例如:
缺点
使用 json-file 和 journald 以外的其他日志记录驱动程序将使 docker logs API 不可用。比如当你在宿主机上使用portainer管理容器,并且使用上述两种以外的日志驱动时,你会发现无法通过UI界面观察到容器的标准输出。
使用 docker 日志 API
对于那些使用默认日志驱动的容器,我们可以通过向 docker daemon 发送 docker logs 命令来获取容器的标准输出。使用这种方法采集log的工具有logspout、sematext-agent-docker等。下面例子中的命令意思是获取容器自2018-01-01T15:00:00以来的最新5条日志。
缺点
当日志量较大时,这种方式会给 docker daemon 带来很大的压力,导致 docker daemon 无法及时响应创建容器、销毁容器等命令。
采集 json 文件文件
默认的日志驱动程序会将日志以json格式写入主机文件,文件路径为/var/lib/docker/containers//-json.log。这样,采集容器标准输出的目的就可以通过直接采集host文件来实现。
推荐这种方案,因为它既不会使 docker logs API 不可用,也不会影响 docker daemon,而且现在很多工具都原生支持 采集host 文件,例如 filebeat、logtail 等。
文本日志
挂载主机目录
采集容器中文本日志最简单的方法是在启动容器时通过bind mounts或者volumes将宿主目录挂载到容器日志所在目录,如下图。
对于tomcat容器的访问日志,使用命令docker run -it -v /tmp/app/vol1:/usr/local/tomcat/logs tomcat挂载主机目录/tmp/app/vol1到访问日志中容器在目录/usr/local/tomcat/logs上,通过采集主机目录/tmp/app/vol1下的日志实现采集tomcat访问日志的目的。
计算容器rootfs挂载点
使用挂载宿主目录采集log的方法会侵入应用程序,因为它需要容器在启动时收录mount命令。如果 采集 进程对用户是透明的,那就太好了。实际上,这可以通过计算容器 rootfs 挂载点来实现。
与容器 rootfs 挂载点密不可分的一个概念是存储驱动程序。在实际使用中,用户往往会根据Linux版本、文件系统类型、容器读写条件等因素来选择合适的存储驱动。在不同的存储驱动下,容器的rootfs挂载点遵循一定的规则,所以我们可以根据存储驱动的类型来推断容器的rootfs挂载点,然后采集容器的内部日志。下表显示了某些存储驱动程序的 rootfs 挂载点以及如何计算它们。
Logtail解决方案
在充分对比采集容器日志的各种方法,综合梳理用户的反馈和诉求后,日志服务团队推出了容器日志的一站式解决方案。
特征
logtail解决方案包括以下功能:
支持主机上容器的采集主机文件和日志(包括标准输出和日志文件);
支持容器的自动发现,即当你配置了一个采集目标时,每当有满足条件的容器被创建时,容器上的目标日志就会自动采集;
支持通过docker标签和环境变量过滤指定容器,支持白名单和黑名单机制;
采集数据自动标记,即在采集的日志中自动添加容器名称、容器IP、文件路径等信息标识数据源;
支持 采集 K8s 容器日志。
核心优势
通过检查点机制和部署额外的监控流程来保证至少一次语义;
经过多次双十一、双十二测试和阿里巴巴集团内百万级部署规模,稳定性和性能非常有保障。
K8s 容器日志采集
与K8s生态深度融合,非常方便采集 K8s容器日志是日志服务logtail解决方案的另一大特色。
采集配置管理:
支持采集通过WEB控制台进行配置管理;
支持采集通过CRD(CustomResourceDefinition)方式进行配置管理(这种方式更容易与K8s部署发布流程集成)。
采集模式:
通过DaemonSet方式支持采集K8s容器日志,即在每个节点上运行一个采集客户端logtail,适用于单功能集群;
通过Sidecar方式支持采集K8s容器日志,即在每个Pod中以容器的形式运行一个采集客户端logtail,适用于大型、混合、PAAS集群。
关于Logtail方案的详细说明,请参考文章综合改进、阿里云Docker/Kubernetes(K8S)日志方案及选型对比。
查询分析和可视化
完成日志采集工作后,下一步就是对这些日志进行查询、分析和可视化。以Tomcat访问日志为例,介绍日志服务提供的强大的查询、分析、可视化功能。
快速搜索
当容器日志为采集时,会携带容器名称、容器IP、目标文件路径等信息,所以在查询的时候可以通过这些信息快速定位目标容器和文件。查询功能的详细介绍请参考文档查询语法。
实时分析
日志服务的实时分析功能兼容SQL语法,提供200多种聚合功能。如果您有使用 SQL 的经验,您可以轻松编写满足您业务需求的分析语句。例如:
计算访问的前 10 个 uri。
统计当前 15 分钟内网络流量相对于前一小时的变化。
该语句使用同比链函数计算不同时间段的网络流量。
可视化
为了让数据更加生动,您可以使用日志服务内置的各种图表将 SQL 计算结果可视化,并将图表组合成一个仪表板。
下图是一个基于Tomcat访问日志的dashboard,展示了不良请求率、网络流量、状态码随时间变化趋势等信息。此仪表板显示多个 Tomcat 容器的聚合数据。您可以使用仪表盘过滤功能,通过指定容器名称来查看单个容器的数据。
日志上下文分析
查询分析、仪表盘等功能可以帮助我们掌握全局信息,了解系统的整体运行情况,但定位具体问题往往需要上下文信息的帮助。
上下文定义
上下文是指围绕问题的线索,例如日志中错误的上下文。上下文由两个元素组成:
下表显示了不同数据源的最小区分粒度。
上下文查询的挑战
在集中式日志存储的情况下,采集 端和服务器端都很难保证日志的原创顺序:
在客户端层面,一个主机上运行着多个容器,每个容器都会有多个需要采集的目标文件。log采集软件需要利用机器的多个CPU核对日志进行解析和预处理,通过多线程并发或单线程异步回调处理网络发送的IO慢问题。这可以防止日志数据按照机器上事件的生成顺序到达服务器。
在服务器层面,由于采用水平可扩展的多机负载均衡架构,同一客户端机器的日志会分散在多个存储节点上。根据分散的日志很难恢复原来的顺序。
原则
日志服务通过在每条日志中附加一些额外的信息以及服务器的关键词查询能力巧妙地解决了上述问题。原理如下图所示。
当日志为采集时,用于标识日志源的信息(即上面提到的最小区分粒度)会自动添加为source_id。对于容器场景,信息包括容器名称、文件路径等;
日志服务的各种采集客户端一般都会选择批量上传日志,多条日志形成一个数据包。客户端会向这些包写入一个单调递增的package_id,包中的每条日志在包内都有一个偏移量;
服务器会将 source_id、package_id 和 offset 组合为一个字段并为其构建索引。这样,即使各种日志在服务器上以混合状态存储,我们也可以根据source_id、package_id和offset,精确定位到一条日志。
如果想详细了解上下文分析的功能,请参考文章上下文查询,分布式系统日志上下文查询功能。
LiveTail - 云尾 -f
除了查看日志的上下文信息,有时我们还希望能够持续观察容器的输出。
传统方式
下表展示了如何在传统模式下实时监控容器日志。
痛点
通过传统方式监控容器日志存在以下痛点:
当容器较多时,定位目标容器耗时耗力;
不同类型的容器日志需要不同的观察方式,增加了使用成本;
关键信息查询展示不够简单直观。
功能与原理
针对这些问题,日志服务推出了LiveTail功能。与传统模式相比,具有以下优点:
可根据单个日志或日志服务的查询分析功能快速定位目标容器;
在不进入目标容器的情况下,统一观察不同类型的容器日志;
支持关键词过滤;
支持设置键列。
在实现方面,LiveTail 主要是利用上一章提到的上下文查询原理来快速定位目标容器和目标文件。然后,客户端定期向服务器发送请求以提取最新数据。
也可以观看视频进一步了解采集的功能,容器日志的查询、分析和可视化。
“视频”可在公众号回复“阿里巴巴云日志”获取。