干货:软文有什么作用

优采云 发布时间: 2022-11-23 06:46

  干货:软文有什么作用

  一般的网络广告成本往往很高,死板的广告一般能获得较好的流量,但目标用户群体不够精准,成本高。一篇或一系列软文的价格远低于招标或硬广告的成本,好的软文会被他人免费转载,扩大了软文的范围;一篇好的软文会制造很多话题,引导别人讨论,引起别人的共鸣,让用户主动接受公司的信息。

  

" />

  如果您将软文发布在新闻源或者权重比较高的网站上,您将有机会在上面留下链接指向目标网站,这样可以增加网站的曝光率,增加高质量外部链接的数量,引导权重的转移。如果在文章中合理嵌入相关的关键词,可以增加被他人搜索到的几率。企业品牌需要借助软文来提高知名度,精心打造一则好的软文是很有必要的。一篇好的软文可以让读者在不知不觉中产生好感,让读者相信产品的热度。有了知名度,产品的品牌效应自然会体现出来。

  一篇优质的软文为网站带来惊人的流量,而软文带来的流量转化率往往比较高,可以间接增加网站产品的销量。软文可以增加网站采集

量,为用户提供他们需要的内容,相应地提升用户体验,增加用户停留时间。这样,权重就会逐渐增加,网站的排名也会随之上升。可以巩固现有排名。垃圾链接是通过工具和一些群发软件,人为地向与网站无关的平台站点发布大量链接站点。此类链接没有指向本站的推荐意义,对链接的载体没有贡献价值,

  

" />

  常见的有: 1、搜索结果页面发送的链接(虚拟外链) 2、站长服务网站自动生成的链接(虚拟外链) 3、恶意垃圾邮件作弊网站自动采集

时生成的链接。垃圾外链不会立即被搜索引擎识别,在识别之前会计算为关键词排名权重。但是,一旦被识别,该网站的权重将被去除。届时,网站的权重不仅不会因为这些链接而增加,反而会降低网站的权重。而且,垃圾外链造成的降权恢复周期很长,一般需要两到三个月。

  1、锚文本作弊(如使用虚假锚文本)大量使用虚假锚文本。例如:使用另一个知名网站的名称或业务作为您的锚文本。2、高权重外链的购买以往典型代表为金链、白金链、财富链。*敏*感*词*链”二字。3、黑链接入侵易受攻击的网站,故意在首页、高权重内页等添加链接,为了不引起网站访问者和站长的注意,这些链接是肉眼看不见的,只能通过查看html源代码。漏洞网站新增目录,目录下发布文章,并在文章中放置作弊链接。4.大量增加劣质外链软件海量分发外链、刻意交换友情链接、站群轮链等 5.Sprocket 一组关系密切的站点通常会使用大量锚文本同类型的可以互相放置友情链接,这样目标网站就可以获得关键词的排名。

  解读:文末惊喜|8000字纯干货带你快速看懂计算机系统监控与可观测性发展史

  最近,“可观察性”的概念开始流行起来。Gartner 在 2021 年基础设施和运维自动化技术成熟度周期图中,将“可观察性”置于扩张期高峰期的顶端。

  今年国内各大监控运维软件厂商纷纷效仿,下个版本的产品都将实现可观察性,或者更进一步,直接向AIOps靠拢。但是对于国内的从业者来说,从熟悉监控到理解可观察性需要一个适应过程。

  Observability,英文是Observability,这个名词其实来源于Cyber​​netics,控制论起源于诺伯特·维纳1948年出版的《控制论——关于动物和机器中的控制与通信》一书。

  控制理论中的可观察性是指系统可以从其外部输出推断其内部状态的程度。系统的可观察性和可控性是数学上的双重概念。可观测性最早是由出生于匈牙利的工程师鲁道夫·卡尔曼 (Rudolf Kalman) 针对线性动态系统提出的。如果我们看信号流图,如果所有内部状态都可以输出到输出信号,那么系统就是可观察的。

  这不是一个新概念。在这个概念进入计算机软件领域之前,我们实际上是通过监控来保证系统的整体稳定性。计算机领域很少有人提到可观察性。

  其实这里有一个误区,因为如果我们要完成对一个计算机系统的监控,那么监控的就是计算机产生的数据,而监控的前提是被监控的对象必须能够产生observable指标等数据。如果指标或数据少,即可观察的数据少,监测的价值和意义就会变小。按照控制论中的二元性概念,就是说我们对这个系统的控制能力也很差。

  例如,如果我们只能监控一台服务器是否正常,那么我们只能判断这台服务器的状态,而无法观察到上面操作系统的状态;如果我们只监测操作系统的指标,那么我们只能判断操作系统的状态,完全不可能判断安装在这个操作系统上的应用程序的状态;如果我们要对应用进行监控,就需要每个应用本身都是可观察的,否则只能从操作系统的角度来判断应用是否在运行。跑。

  因此,监控是一种行动。前提是被监控的对象必须是可观察的,拥有更多的可观察数据意味着我们可以更好地控制整个系统。

  为什么今天对可观察性的需求变得更加苛刻和紧迫?

  01

  监控软件开发的历史

  让我们来看看计算和监控软件的历史:

  02

  监控软件开发历史

  单机时代

  大多数最早的计算机都是在一台机器上运行的,没有网络的概念。当时有很多操作系统层面的工具和软件来保证我们能够了解和观察操作系统的运行状态。

  对于Windows用户来说,最著名的就是任务管理器了,而Linux也有Top、PS等一堆命令帮助我们了解操作系统的运行状态。为了方便故障排除,一些应用程序设计了一种“日志”的形式,在输出文本中记录应用程序运行状态,例如Windows中的事件关联和Linux中的syslog。在此期间,我们通过操作系统本身和应用程序本身的一些功能来了解和控制系统。

  局域网时代

  随着时代的进步,计算机进入了局域网时代,出现了C/S架构(Client/Server)。在这种情况下,就好像局域网中的一台计算机变成了一台服务器(服务器,顾名思义就是为他人服务的机器),相应地,客户端与服务器进行交互,实现各种服务。要求,以便客户端可以通过服务器进行协作。

  然后,早期的分布式系统开始出现。

  最早的分布式系统的诉求就是高可用,因为一旦服务端出现故障,客户端就无法正常工作。后来发现可以通过使用不同的服务器来处理不同的客户端请求来改变这种情况。随着连接的客户端数量的增加,业务的复杂度增加,“集群”的概念就出现了。当时人们把服务器放在一起,通过交换机、路由器等网络设备串联起来。这时候,监控需求就变了。由于需要管理的服务器越来越多,人们不可能随时登录每台服务器查看系统的状态,于是出现了面向集群的监控软件,比如Zabbix。

  Zabbix使用C/S架构采集

操作系统中的可观察数据进行统一查看,包括根据采集

到的数据对阈值(即大于或小于某个值)进行告警(Alert)。但是由于在Zabbix诞生的年代计算机整体性能不强,能够采集的系统数据很少,无法采集到更完整的数据,所以Zabbix的采集粒度比较粗。并且由于性能原因,日志数据通常由客户端(Zabbix agent)进行判断(例如log关键字收录

一定的内容),然后作为信号传输到Zabbix的服务器端。

  因此,Zabbix作为一款简单的监控软件,开源免费,获得了极大的普及,直到今天仍有大量的用户。但其仅面向系统固有的简单可观察性指标的采集,通过脚本处理信号的方式成为其最大的局限性。

  Zabbix流行的时候,也出现了一些同类型的软件。由于处理能力不同,有的侧重于网络,有的侧重于专用软件,如数据库专用的监控软件。与此同时,一个产品悄然问世——Splunk,其目的是从集群中采集

日志数据,最后统一处理分析。这个数据量很恐怖。Splunk也是因为其特殊的存储结构和算法,而且相对于Zabbix,它可以完整的采集

数据,分析和处理这些海量数据,很多时候人们也把Splunk当作一个数据库。

  互联网时代

  时间没有停止,技术不断发展,互联网出现了,有了统一客户端产品的浏览器问世(最初来自Netscape),以及统一的内容展示形式——Web,它使用的是HTML语言(一种文本) ,而浏览器恰恰是 HTML 语言解析器,它将文本变成可视化的网页,而 Netscape 提供了一种小型编程语言(JavaScript),从一开始就让静态的文本协议动态化。

  伴随着这种技术,出现了一个叫做B/S(Brower/Server浏览器/服务器)的概念,即浏览器作为一个统一的客户端与服务器进行交互。由于互联网的兴起和越来越多的用户的访问,大量基于Web技术的WebSite网站应运而生。那时候,人们如果要建立自己的网站,网站的一端放在服务器上,浏览器作为统一的客户端,获取服务器提供的服务。

  最初的形式是将个人电脑连接到互联网上。通常,只有拥有 Internet 地址的大学才能使用它。随着互联网的发展,电信运营商提供了统一的服务器接入互联网的方式——IDC(互联网数据中心,相对于传统的服务器*敏*感*词*存储,使用专线连接各个办公室称为数据中心)。

  数据中心的最初用户是国家、银行、电信公司等,他们开始使用它们来满足内部业务需求。后来也出现了互联网公司,他们通过互联网向全世界提供应用服务。互联网上的服务器越来越多,系统也越来越复杂。网易等一些公司也开始提供类似的网站托管服务,让用户无需去IDC托管服务器就可以快速拥有一个网站(这也是云计算的前身)。

  移动互联网时代

  

" />

  这时,出现了一家伟大的公司——谷歌,它把发展迅速的WebSite作为搜索引擎,以爬虫(也是客户端)的形式扫描整个互联网网站,将其内容编入索引,然后提供给人们通过搜索。快速找到您要访问的内容的方法。

  与此同时,大量的互联网应用诞生,包括即时通讯、小说网站、网络游戏等。相应的,背后系统的复杂度也越来越高,服务器集群的规模也越来越大。期间,一位程序员为了帮助妻子更快地搜索菜谱,创建了ElasticSearch(一种搜索引擎技术),并为此成立了一家公司。

  只是最终Elastic并没有成为下一个谷歌,而是与Splunk成为对手,推出了ELK解决方案(ElasticSearch、Logstash、Kibana)与Splunk竞争海量日志数据的采集

和管理。此时此刻,随着计算机能力的提高和技术的发展,处理海量日志已经成为可能。ELK作为开源软件已经成为非常流行的选择。Splunk作为商业软件也在迅速发展。ELK 和 ELK 都被视为基于日志监控的高效解决方案。

  *敏*感*词*的互联网应用催生了CDN技术,CDN技术将用户访问的内容以缓存的方式分发到不同物理位置的服务器上,以加速终端用户的访问。与此同时,一种新的监控方式开始出现——拨号测试,即网站或互联网服务提供商,为了确保他们的网站或服务被监控,他们需要模拟自己作为客户端访问自己的网站或服务,确保网站健康无异常,同时还可以分析网站在不同区域的访问加速情况,确认CDN是否正常工作。

  2007年,苹果发布了伟大的产品iPhone,彻底改变并加速了互联网的发展。谷歌的Android也针锋相对地推出。随着无线通信技术的飞速发展,人类迅速进入了移动互联网时代。移动互联网带来了两个变化。首先是源于乔布斯对极致体验的追求,以及当时移动设备的计算能力。移动操作系统上的统一客户端Apps悄然出现(PC端简称为Program)。applications,并使用App来指代移动应用程序);另一个变化更加剧烈,全世界有大量的设备连接到互联网,大量的用户,大量的访问量。

  同时发明了一种*敏*感*词*管理海量服务器的方法。Vmware 是第一个引入虚拟化解决方案的公司。从最初的解决方案到使个人电脑适配不同的操作系统,到后来发展成以软件划分的物理服务器集群。创建更多的虚拟机(virtual machine)来提高服务器利用率。2006年,亚马逊开始利用这项技术悄悄推出了一项互联网服务AWS(Amazon Web Service),最初利用亚马逊作为电子商务网站在数据中心大量闲置的服务器中提供*敏*感*词*的托管服务,今天这项服务被称为云计算。

  随着游戏变成了互联网游戏,有了互联网视频网站,以及全国甚至全球的电子商务、*敏*感*词*、外卖等互联网服务,企业级软件也开始使用PaaS和SaaS,通过互联网加浏览器。或者以手机客户端(App)的形式提供服务。为了满足互联网的各种服务和移动设备带来的不同应用形态,大量新形态的数据库、消息队列、中间件被创造出来,包括NoSQL,实际上是一系列满足具体场景。所需的数据库,单一的关系型数据已经不能满足客户的需求(数据库历史也很悠久,就不展开了)。

  随着大量用户的出现,每个用户在使用不同的互联网应用过程中都会产生大量的数据。为了对这些数据进行分析和处理,大数据的概念应运而生。包括近几年,随着用户对服务的提升和变化的需求,以及互联网推送更新的普及,互联网公司的开发测试环节变得越来越敏捷。传统的应用开发需要大量的测试才能发布。一个版本的方式越来越难以被接受,DevOps的概念应运而生。尤其是近年来,为了进一步让应用程序更加敏捷和易于管理,

  回到文章的主题,为了进一步提升应用性能,人们提出了APM(Application Performance Monitor)的概念,旨在通过数据采集,统一采集

服务端和客户端的代码执行状态,不仅是为了解决失败的问题,也是为了提高应用程序的性能。例如New Relic、Dynatrace、AppDynamic都推出了相应的APM服务。但是这也带来了一个问题。正如控制论最初描述的那样,需要对复杂的互联网 IT 服务进行全面观察才能完全控制系统。因此需要大量的监控产品,从基础设施、云、云原生、数据库、中间件、大数据、拨号测试到安全。

  需要观察的对象从原来的服务器到虚拟机再到当前容器发生了变化。我们需要观察更多的数据库中间件,包括像AWS这样的云服务,甚至部署在不同云厂商上的不同应用。.

  在开源世界,为了解决如此多的海量数据观测问题,开始出现了基于时序数据库的监控软件,如Prometheus、Telegraf+InfluxDB,也出现了ZipKin、Jaeger、Pinpoint、Skywalking等APM软件. 如果我们想要完整的监控一个互联网系统,需要大量的各种形式的开源监控产品进行组合使用。在商业世界中,统一平台成为了方向。

  DataDog作为基于SaaS的全方位可观察监控服务而诞生,目前是全球市值最高的IT监控管理厂商;ELK不仅仅是一个日志平台,还推出了包括ELK APM在内的功能;Splunk不想停留在只处理日志的产品上,它收购了DataDog的主要竞争对手SignalFX;而 New Relic、Dynatrace 和 AppDynamic 也开始不再将自己定位为单一的 APM 供应商,而是进一步提供完整的可观察性能力。

  同时,OpenTelemetry组织的出现也标志着业界意识到需要将系统可观测性变成统一的标准和规范,并提出了可观测性三大支柱的概念,即Metric(指标)和Log(日志) . , Trace(链接追踪),其目标是推动更多的应用或服务遵循这个规范,并提供相应的可观察性能力。

  关于OpenTelemetry(简称Otel)诞生的故事和过程,这里就不多说了。你可以自己搜索。只记得他的亲生父母是谷歌和微软,他还是CNCF最喜欢的学生。典型的根正苗红天赋异禀,依旧在努力,称霸天下是事实。任何与他不兼容的协议或工具都将成为历史,短时间内挑战者将很难重新开始。

  写到这里基本上是简单介绍一下整个计算机监控和可观察性的发展历史,但是可能大家对什么是可观察性以及与其他监控的区别不是很清楚。事实上,可观察性强调服务器、云服务和应用程序本身需要以某种形式主动提供可观察性的三大支柱。比如开源的Prometheus提出了一个概念Exporter,调用所有的中间件,应用可以主动暴露指标(Metric)给监控软件调用,同时也需要软件支持读取提供的可观察性数据,并对其进行进一步的性能分析和监控。从2019年开始,CNCF专门开发了Landscape中的“可观察性”子舵,

  计算机发展了这么久,可观测性标准也是最近才提出来的。因此,不可能所有的系统都支持可观察性。最新的开源数据库 Tidb 已经默认开启了自己的可观察性。接口,而旧的 MySQL 没有。这也是现代可观测平台厂商必须关注的方向。一方面,他们需要提供标准化的采集

器,可以方便、专业地实现大量系统的可观察性接口,让不具备可观察性的系统快速变成可观察的;另一方面,还需要提供相应的服务来处理海量的可观测数据,将这些可观测数据可视化,并提供分析和报警功能。

  但开源世界并不是那么容易。例如Prometheus和Telegraf有大量不成熟甚至潜在的安全爱好者开发的开源exporter,大部分软件工程师无法完成对自身系统可观察性的完全适配。匹配。

  与传统的监控软件或产品相比,我们可以说具有可观测能力的产品有两个要素。一是能够让被监控对象可观察(采集

其指标、日志、代码链接),二是能够对这些海量的实时数据进行存储、处理和分析。在新一代的可观察性产品供应商中,DataDog无疑是其中的佼佼者。它于 2019 年底上市。截至今天(2022 年 4 月),其市值超过 400 亿美元,远远领先于其前身 New Relic 和 Dynatrace。他也是这一波可观察性浪潮中当之无愧的产品和解决方案领导者。

  监控和可观察性的发展史几乎就此书写。可以看到,这个具体产品的发展离不开计算机本身的发展,也离不开互联网的发展。未来会是什么样子?我只能说人类的系统会越来越复杂,我们很快会面临更多的互联网设备接入(IOT技术下的物联网,工业互联网),同时会有更多新的云技术,数据技术出现了,这些设备和新技术也需要是可观察的,以及可以监控和管理它们的监控产品。为了保证复杂多样系统的稳定性,监控和可观测性将不断发展。

  刚刚提到的DataDog只提供SaaS服务,没有本地部署版本,目前也没有将服务节点扩展到中国。这意味着国内用户无法通过正常渠道进行订阅。是否可以在国内体验基于SaaS的可观测平台?答案肯定是肯定的,而且我们要专注于观察云。这个域名一看就知道是专业的。Observation Cloud不仅有SaaS版本,还支持本地部署。其中SaaS版有免费使用额度,支持每天上传100万条日志,一般设备环境足够用;在本地安装版中,有一个社区版,可以免费学习和测试,支持所有功能。

  随着开源的浪潮,Observation Cloud开源了自己的采集终端,项目名称为Datakit()。

  下面是Datakit的功能介绍,符合现在可观察性采集

器的设计思路。

  (功能下的评论是给用户使用后的)

  1个

  各种技术栈的完整数据采集

  DataKit 可以从各种基础设施和技术栈中采集

全量数据。这里的全量数据不仅仅指Metrics(指标),还支持相关的日志,包括链接等数据。同时所有的指标和日志数据都进行了结构化。最重要的是统一相关标签的命名,以便在后续的数据使用中能够有效的进行数据关联。这里需要注意的是,这个数据采集能力还包括APM(jaeger、zipkin、skywalking、ddtrace)和RUM的数据采集和集成能力。

  目前集成的oneagent应该是observability的一个发展方向。否则需要在每台机器上安装一个采集

指标、日志、APM的agent。管理和升级很麻烦。

  2个

  

" />

  强大的云原生支持

  DataKit 对容器和云原生有特别的支持。不仅默认配置可以自动有效同步容器相关指标、日志、对象等数据,而且所有采集到的数据默认都打上了需要的相关标签。,如container_name、pod_name等,方便数据定位。同时DataKit全面支持OpenTelemetry,包括OpenMetric和OpenTracing,这意味着CNCF的所有组件都可以通过DataKit完美集成。

  目前,根据对很多业务的调研,大部分还停留在虚拟机时代的监控。即使是k8s和cloud native,也是使用未经改进的CMDB进行管理和发现。技术思维还停留在宠物阶段的管理思维,对牲畜云原生的管理模式没有很好的适配,而Datakit对云原生的支持相当彻底。使用后没有违和感。

  3个

  用于数据采集

的自动选举功能

  在集群中,通常有通过中心采集数据的能力,即数据采集源在中心,比如Kubernetes集群的API,方便维护,高可用,降低消耗。DataKit 具有选举能力。对于那些集中式的数据采集,可以开启选举,避免重复采集具有相同DataKit配置的不同节点,也避免了需要指定一个DataKit采集某项服务带来的配置管理的复杂性和可靠性。

  这就完美的解决了agent在云原生环境下缺少的一个特别重要的属性。从这里也可以看出,agent对云原生的支持并不是简单的适配,而是可以深入到场景中去换位思考。

  4个

  维修能力强

  DataKit作为需要安装在每个主机(Node)上的组件,首先支持Kubernetes下的单机部署、容器化部署和Daemoset部署。同时可以通过传统配置文件(conf.d)、环境变量、Docker Label和Kubernetes Annotation修改配置,非常灵活。

  虽然Kubernetes对于Annotation的使用有些谨慎的态度,但是作为一个初创的可观察代理,使用k8s的Annotation方式来进行配置变更是非常先进的。这个地方希望让自己的CRD更加“优雅”。

  5个

  可编程数据处理引擎DataKit Pipeline

  DataKit 有一个内置的数据处理引擎 Pipeline。流水线是一种基于行的数据处理指令集。通过内置的各种处理功能,可以在数据上报之前对数据进行进一步处理,包括日志文本文件的结构。加工。Pipeline的功能还包括日期、正则化、JSON、IP地址、URLDecode、脱敏等。

  这是另一个非常好的观点。在使用firebeat的时候,总有一些不舒服的地方,就是无法对日志进行有效的处理。复杂的地方只能借助logstash来完成,增加了维护量。更何况,统一管理还做不到。DataKit考虑Pipeline是不合适的。不过,这一次,我们并没有进行过多的性能测试。如果可能的话,我们会进行相关的性能测试。

  6个

  基于Python编写自定义采集

  DataKit本身内置了大量技术栈的数据采集能力,但是肯定有大量不支持的技术栈和用户自定义的数据需要采集,所以DataKit内置了一个基于Python的可定制的数据采集模块(pythonD),pythonD除了实现自定义采集外,还可以读取观测云的数据,一些面向宿主的动作可以通过pythonD实现。

  怎么说呢,代理支持的一些脚本功能也没有落下,但希望以后能加入更多的语言支持。毕竟python版本共存问题和依赖包问题都是不小的负担。

  7

  一切皆可 GitOps

  无论是配置文件(conf.d)、pipeline,还是DataKit支持的PythonD,都可以通过绑定不同的Git Branch,实现对所有相关配置文本的基于Git的管理,方便管理者有效维护大量的集群.

  通过配置文件管理一切。这个概念其实在nginx这个常用的软件中都有体现,但是我希望提供一些关于监控agent gitops的最佳实践。

  8个

  接口服务器

  DataKit本身也是Observation Cloud客户端的一个API Server。您可以通过访问DataKit API访问和处理观测云中心的数据。安装DataFlux Func连接DataKit数据源并与Observation Cloud通信,或者实现自定义程序直接与通过HTTP连接DataKit的Observation Cloud交互。

  这是大多数其他监控代理所没有的功能,除了 Prometheus 的 exporter。很少有agent可以暴露自己的api,这个功能也可以作为检测agent是否存活的特性之一。

  9

  友好而强大的命令行

  作为命令行,DataKit 本身也具有强大的功能。可以通过datakit --dql直接查询连接DataKit的观测云中心的数据。通过datakit --moniter可以有效的监控和排查Datakit自身内部输入的运行情况。同时,包括Grok、Pipeline在内的调试也集成在了DataKit的命令行中。你也可以通过 Cron 命令启动 DataKit 自身的 OTA 升级。

  用过docker cli后,真的很少在监控代理中看到这么好用的cli命令行了。并且还集成了一些调试命令,让我一扫logstash复杂调试的阴影。

  10

  开源兼容

  DataKit本身的所有代码都是开源的,DataKit本身采集的输出支持标准的线路协议输出,所以DataKit也可以直接对接开源数据平台,比如InfluxDB。

  虽然目前对这个的支持还不是太多,但是我相信按照这个开发速度,我可以在服务器上安装一个agent来连接各个部门的开源和非开源服务器,减少维护成本和资源开销。

  2022年4月28日,观察云大会线上直播,一起围观吧!

0 个评论

要回复文章请先登录注册


官方客服QQ群

微信人工客服

QQ人工客服


线