汇总:第03期:Prometheus 数据采集(二)
优采云 发布时间: 2022-11-26 13:14汇总:第03期:Prometheus 数据采集(二)
艾信上海研发中心成员,研发工程师,主要负责DMP平台的监控和报警功能。
本文描述了普罗米修斯数据采集
的格式和分类,并详细介绍了采集过程。普罗米修斯
数据采集
流程简介 普罗米修斯对采集目标和数据样本进行从数据采集到数据存储的一系列处理。了解此过程有助于我们更充分、更合理地使用可配置参数。
首先,介绍本文中使用的概念目标
:采集
目标,普罗米修斯服务器从这些目标设备采集
监控数据样本:
普罗米修斯服务器从目标采集
数据样本 元标签:执行重新标记之前目标的原创
标签。这可以在 Prometheus 的 /targets 页面上查看,也可以通过发送 GET /api/v1/targets 请求来查看。
二、数据采集
过程
2.1 重新标记(目标标签修改/过滤)。
重新标记是 Prometheus 提供的目标功能,在 Prometheus Server 从目标采集
数据之前重新标记,您可以修改目标的标签或使用标签进行目标过滤。请注意以下几点:
在 Prometheus 的目标页面,可以看到重新标记前目标的标签,如下图所示,在重新标记之前,目标的标签为:“__address__”、“__metrics_path__”、“__schema__”、“作业”。重新标记后,我们终于看到了目标的标签:实例、作业。
2.2 重新标记配置
重新标记的基本配置项:
以下是使用重新标记的配置的几个示例:
2.2.1 替换标签示例 1.继续之前部署了两个 Prometheus 的环境,如果我们想给目标添加一个 “host” 标签,内容占用 “__address__” 的 host 部分,我们可以添加以下重新标记配置:
scrape_configs: - job_name: prometheus relabel_configs: - source_labels: ["__address__"] #我们要替换的 meta label 为"__address__" target_label: "host" #给 targets 新增一个名为 "host" 的标签 regex: "(.*):(.*)" #将匹配的内容分为两部分 groups--> (host):(port) replacement: $1 #将匹配的 host 第一个内容设置为新标签的值 action: replace
运行结果:
例 2.“__metrics_path__”标签保存了目标提供的指标访问路径,默认重新标注后会去掉“__metrics_path__”标签,但我们希望在查询指标的时候方便看到集合端的指标访问路径,那么我们就可以使用 replace 为 “__metrics_path__” 将标签替换为我们想要的标签,并保留“__metrics_path__”的值, 配置可以简化如下:
relabel_configs: - source_labels: ["__metrics_path__"] #我们要替换的 meta label 为 "__metrics_path__" target_label: "metrics_path" #给 targets 新增一个名为 "metrics_path" 的标签
2.2.2
保留/删除过滤器目标示例 3.当您需要筛选目标时,可以将操作项定义为保留或删除。按照上面的示例,我们继续添加以下配置:
- source_labels: ["host"] regex: "localhost" #只保留 host 标签值为 "localhost" 的 targets action: keep
" />
运行结果:目标页面上只剩下一个目标
三、刮拉样品
Prometheus 通过 http 从目标采集
所有指标的样本,默认情况下可以通过“/metrics”下的“metrics_path”配置 http 路径。请求超时配置在以下“scrape_timeout”中,默认为10秒,可根据网络情况进行调整。在此过程中,还会检查标签的合法性。
3.1 荣誉标签冲突检查
Prometheus 默认会在指标中添加一些标签,比如“job”、“instance”,或者某些配置项配置了一些特定的标签,如果采集到的时间序列也有同名的标签,那么就会发生冲突。“honor_labels”用于解决这样的场景,如果“honor_labels”设置为“true”,则冲突标签的值将使用采集
的标签值;如果设置为“false”,则采集
的冲突标签将被重命名:以“exported_”为前缀,例如“exported_job”、“exported_instance”。
3.2 指标重新标记
metric_relabel功能、配置和重新标记相似,只是示例的metric_relabel标记和配置文件中的配置项相似。 metric_relabel不支持普罗米修斯自动生成的时间序列,例如“up”、“scrape_duration_seconds”、“scrape_samples_scraped”、“scrape_samples_post_metric_relabeling”、“scrape_series_added”等。它通常用于过滤掉意义不大或采集
成本太高的时间序列。
3.3 保存
经过一系列处理后,采集
到的数据将
持久化,数据存储将在后续文章中介绍。
解决方案:凡科CMS插件免规则采集发布自动内链等
你如何对关键词网站进行排名?如何使用Vanco CMS插件快速收录
和排名网站关键词。在进行网站优化之前,我们需要先解决它。网站创建中的代码优化是指对程序代码进行转换以停止等效性(即不更改程序操作的后果)。程序代码可以是中间代码,例如四元代码或目的代码。等效意味着运行转换后的代码的结果与在转换之前运行代码的结果相反。优化意味着生成的目的代码较短(操作工作量更短,占用空间更小)和空时效率优化。
1.尝试使用Div+CSS来规划你的页面,DIV+CSS规划的好处是可以让搜索引擎爬虫爬你的页面更流畅、更快、更有敌意;Div+CSS 规划还可以稍微减小网页的大小,提高阅读速度,使代码更简单、流畅,更容易放置更多内容。
2.尽量少用无用的图片和闪光灯。内容索引发送的搜索引擎爬虫不查看图片,只能根据图片内容“alt、title”等属性来判断图片的内容。关于Flash搜索引擎爬虫更是盲目。
3.尽量减小你的页面大小,因为搜索引擎爬虫每次抓取你的网站,数据的存储容量是无限的,一般建议在100KB以下,越小越好,但不小于5KB。增加页面大小还具有使您的网站能够形成大型外部链接网络的好处。
4、尽量满足W3C规范,编写符合W3C规范的网页代码,
可以提高网站和搜索引擎的友好性,因为搜索引擎收录规范、排名算法都是在W3C规范的基础上开发的。
5.尝试应用标签h1,h2,h3,h4,h5.....,以便搜索引擎可以区分网页的哪一部分非常重要,哪一部分是第二部分。
6.增加JS代码的使用,JS代码全部封装有内部调用文件。搜索引擎不喜欢JS,这会影响网站的友好指数。
7.尽量不要使用表计划,因为搜索引擎懒得抓取3层表计划嵌套内的内容。搜索引擎爬虫有时候很懒,希望大家一定要坚持代码和内容都在3层之内。
8.尽量不要让CSS分散在HTML标记中,尽量将其封装到内部调用文件中。如果 CSS 以 HTML 标记呈现,搜索引擎爬虫会从对优化没有意义的事情上分心,因此建议将其包装在通用的 CSS 文件中。
9.清算渣滓代码,在代码编辑环境中点击键盘上的空格键时出现的符号;放置一些默许不会影响显示代码的属性的代码;如果 body 语句对代码的可读性没有太大影响,清算这些渣滓会增加大量空间。
我们可以借助Fanco CMS插件(具有全套SEO功能,可供任何网站使用)来改进我们的SEO功能。
1、通过方科CMS插件填写内容,根据关键词采集
文章。(方科CMS插件还配置了关键词采集功能和无关词屏蔽功能)。
2.自动过滤其他网站推广信息/支持其他网站信息替换
3.支持多源采集(覆盖所有行业新闻来源,海量内容库和每天新内容,采集
新内容)。
4.支持在其他平台上进行图像本地化或存储
" />
5.自动批量挂机采集伪原件并自动发布推送到搜索引擎
这个Vanco CMS插件还配备了很多SEO功能,
不仅通过Vanco CMS插件实现集合伪原创发布,还有很多SEO功能。它可以提高关键词密度,提高页面的原创性,增加用户体验,实现高质量的内容。
1.标题后缀设置(更好地收录
标题的差异化)。
2.插入内容关键词(合理增加关键词密度)
)。
3.随机图片插入(如果文章中没有图片,可以随机插入相关图片)。
4、搜索引擎推送(文章发布成功后,主动将文章推送到搜索引擎,保证新链接能及时被搜索引擎收录)。
5.随机点赞-随机阅读-随机作者(提高页面原创性)。6.内容与标题
一致(使内容与标题相关)。
7.自动内部链接(执行发布任务时自动生成文章内容中的内部链接,有助于引导页面蜘蛛抓取,提高页面权限)。
8.定期发布(定期发布网站内容可以让搜索引擎养成定期抓取网页的习惯,从而提高网站的收录率)。
可以在一个地方管理数百个不同的CMS网站。一个人维护数百个网站文章更新也不是问题。
1、批量
监控不同的CMS网站数据(无论您的网站是帝国、易游、ZBLOG、编织、WP、云友CMS、人人站CMS、小旋风、站群、PB、苹果、搜外等各大CMS,都可以同时批量管理和发布工具)。
2. 设置批量发布次数(可以设置发布间隔/单日发布总数)。
3.可以设置不同关键词的文章发布不同的栏目
" />
4.伪原创保留字(将文章原创时的核心词设置为不伪原创)。
5.软件直接监控发布,待发布,是否是伪原创,发布状态,URL,程序,发布时间等
6.通过软件,可以直接查看每日蜘蛛、索引、网站权限
通过以上万科CMS插件可以完善很多平时需要注意的SEO细节,同时也加快了SEO的效率,SEO是一项谨慎的工作,千万不能大意,一个小细节可能会影响网站,这里来梳理一下SEO优化常见的六大误区,可以让大家尝试踩坑。
错误一:使用错误的关键词
无论是网站的标题还是描述,都极为重要。准确的关键词和描述使用户能够准确地找到网站。而错误的关键词、冗长的叙事、广告般的文案,会让网友给负面的眼神。
错误二:每个页面都应用一个新的关键词
虽然每个页面都会以新的关键词接触到更多的目标群体,但我们也应该思考这些网友是否是准确的目标群体?因此,使用关键词规划工具和使用低竞争关键词会产生SEO长尾效应。
错误3:网站内容描述过多
这并不是说网站内容的描述写得越多越好,这个问题是网站运营商常犯的错误。网站描述长度少于 150 个字符,并使用简洁的内容向搜索引擎提交关键信息,以帮助提高网站排名。
错误 4:更新域名
拥有专用域名可以保持网站的流量并与搜索引擎建立良好的关系。专家建议域名在2-3年内对现有域名进行审核,并注册与其服务相关的域名,以加强互联互通。注册新域名时,将URL设置回主站,以达到营销目的。
错误 5:图片 ALT 标签没有用
虽然搜索引擎不能直接识别图像中的信息,但可以通过ALT标签来判断图像的内容。在图像中添加ALT标签有助于搜索引擎读取图像信息并帮助网页被索引。
错误六:网站分析并不重要
网站分析可以了解流量来自哪里,以便您可以吸引许多精确的目标客户。因此,网络分析可以有效地帮助提高网站排名。
通过以上对网站程序优化和SEO常见错误的介绍,相信大家已经明白了。掌握这些之后,大家可以在优化中巧妙地避开雷区!