可能是全网最通俗易懂的微服务架构改造解读
优采云 发布时间: 2022-06-10 13:51可能是全网最通俗易懂的微服务架构改造解读
本文将介绍微服务架构和相关的组件,介绍他们是什么以及为什么要使用微服务架构和这些组件。
本文侧重于简明地表达微服务架构的全局图景,因此不会涉及具体如何使用组件等细节。
要理解微服务,首先要先理解不是微服务的那些。通常跟微服务相对的是单体应用,即将所有功能都打包成在一个独立单元的应用程序。
从单体应用到微服务并不是一蹴而就的,这是一个逐渐演变的过程。本文将以一个网上超市应用为例来说明这一过程。
最初的需求
几年前,小明和小皮一起创业做网上超市。小明负责程序开发,小皮负责其他事宜。
当时互联网还不发达,网上超市还是蓝海。只要功能实现了就能随便赚钱。
所以他们的需求很简单,只需要一个网站挂在公网,用户能够在这个网站上浏览商品、购买商品;另外还需一个管理后台,可以管理商品、用户、以及订单数据。我们整理一下功能清单:
网站:
管理后台:
由于需求简单,小明左手右手一个慢动作,网站就做好了。管理后台出于安全考虑,不和网站做在一起,小明右手左手慢动作重播,管理网站也做好了。
总体架构图如下:
小明挥一挥手,找了家云服务部署上去,网站就上线了。上线后好评如潮,深受各类肥宅喜爱。小明小皮美滋滋地开始躺着收钱。
随着业务发展……
好景不长,没过几天,各类网上超市紧跟着拔地而起,对小明小皮造成了强烈的冲击。
在竞争的压力下,小明小皮决定开展一些营销手段:
这些活动都需要程序开发的支持。小明拉了同学小红加入团队。小红负责数据分析以及移动端相关开发。小明负责促销活动相关功能的开发。
因为开发任务比较紧迫,小明小红没有好好规划整个系统的架构,随便拍了拍脑袋,决定把促销管理和数据分析放在管理后台里,微信和移动端 App 另外搭建。
通宵了几天后,新功能和新应用基本完工。这时架构图如下:
这一阶段存在很多不合理的地方:
① 网站和移动端应用有很多相同业务逻辑的重复代码。
② 数据有时候通过数据库共享,有时候通过接口调用传输。接口调用关系杂乱。
③ 单个应用为了给其他应用提供接口,渐渐地越改越大,包含了很多本来就不属于它的逻辑。应用边界模糊,功能归属混乱。
④ 管理后台在一开始的设计中保障级别较低。加入数据分析和促销管理相关功能后出现性能瓶颈,影响了其他应用。
⑤ 数据库表结构被多个应用依赖,无法重构和优化。
⑥ 所有应用都在一个数据库上操作,数据库出现性能瓶颈。特别是数据分析跑起来的时候,数据库性能急剧下降。
⑦ 开发、测试、部署、维护愈发困难。即使只改动一个小功能,也需要整个应用一起发布。
有时候发布会不小心带上了一些未经测试的代码,或者修改了一个功能后,另一个意想不到的地方出错了。
为了减轻发布可能产生的问题的影响和线上业务停顿的影响,所有应用都要在凌晨三四点执行发布。发布后为了验证应用正常运行,还得盯到第二天白天的用户高峰期……
⑧ 团队出现推诿扯皮现象。关于一些公用的功能应该建设在哪个应用上的问题常常要争论很久,最后要么干脆各做各的,或者随便放个地方但是都不维护。
尽管有着诸多问题,但也不能否认这一阶段的成果:快速地根据业务变化建设了系统。
不过紧迫且繁重的任务容易使人陷入局部、短浅的思维方式,从而做出妥协式的决策。
在这种架构中,每个人都只关注在自己的一亩三分地,缺乏全局的、长远的设计。长此以往,系统建设将会越来越困难,甚至陷入不断推翻、重建的循环。
是时候做出改变了
幸好小明和小红是有追求有理想的好青年。意识到问题后,小明和小红从琐碎的业务需求中腾出了一部分精力,开始梳理整体架构,针对问题准备着手改造。
要做改造,首先你需要有足够的精力和资源。如果你的需求方(业务人员、项目经理、上司等)很强势地一心追求需求进度,以致于你无法挪出额外的精力和资源的话,那么你可能无法做任何事……
在编程的世界中,最重要的便是抽象能力。微服务改造的过程实际上也是个抽象的过程。
小明和小红整理了网上超市的业务逻辑,抽象出公用的业务能力,做成几个公共服务:
各个应用后台只需从这些服务获取所需的数据,从而删去了大量冗余的代码,就剩个轻薄的控制层和前端。
这一阶段的架构如下:
这个阶段只是将服务分开了,数据库依然是共用的,所以一些烟囱式系统的缺点仍然存在:
如果一直保持共用数据库的模式,则整个架构会越来越僵化,失去了微服务架构的意义。
因此小明和小红一鼓作气,把数据库也拆分了。所有持久化层相互隔离,由各个服务自己负责。
另外,为了提高系统的实时性,加入了消息队列机制。架构如下:
完全拆分后各个服务可以采用异构的技术。比如数据分析服务可以使用数据仓库作为持久化层,以便于高效地做一些统计计算;商品服务和促销服务访问频率比较大,因此加入了缓存机制等。
还有一种抽象出公共逻辑的方法是把这些公共逻辑做成公共的框架库。这种方法可以减少服务调用的性能损耗。但是这种方法的管理成本非常高昂,很难保证所有应用版本的一致性。
数据库拆分也有一些问题和挑战:比如说跨库级联的需求,通过服务查询数据颗粒度的粗细问题等。
但是这些问题可以通过合理的设计来解决。总体来说,数据库拆分是一个利大于弊的。
微服务架构还有一个技术外的好处,它使整个系统的分工更加明确,责任更加清晰,每个人专心负责为其他人提供更好的服务。在单体应用的时代,公共的业务功能经常没有明确的归属。
最后要么各做各的,每个人都重新实现了一遍;要么是随机一个人(一般是能力比较强或者比较热心的人)做到他负责的应用里面。
在后者的情况下,这个人在负责自己应用之外,还要额外负责给别人提供这些公共的功能——而这个功能本来是无人负责的,仅仅因为他能力较强/比较热心,就莫名地背锅(这种情况还被美其名曰能者多劳)。
结果最后大家都不愿意提供公共的功能。长此以往,团队里的人渐渐变得各自为政,不再关心全局的架构设计。
从这个角度上看,使用微服务架构同时也需要组织结构做相应的调整。所以说做微服务改造需要管理者的支持。
改造完成后,小明和小红分清楚各自的锅。两人十分满意,一切就像是麦克斯韦方程组一样漂亮完美。然而……
没有银弹
春天来了,万物复苏,又到了一年一度的购物狂欢节。眼看着日订单数量蹭蹭地上涨,小皮小明小红喜笑颜开。可惜好景不长,乐极生悲,突然嘣的一下,系统挂了。
以往单体应用,排查问题通常是看一下日志,研究错误信息和调用堆栈。而微服务架构整个应用分散成多个服务,定位故障点非常困难。
小明一个台机器一台机器地查看日志,一个服务一个服务地手工调用。经过十几分钟的查找,小明终于定位到故障点:促销服务由于接收的请求量太大而停止响应了。
其他服务都直接或间接地会调用促销服务,于是也跟着宕机了。在微服务架构中,一个服务故障可能会产生雪崩效用,导致整个系统故障。其实在节前,小明和小红是有做过请求量评估的。
按照预计,服务器资源是足以支持节日的请求量的,所以肯定是哪里出了问题。
不过形势紧急,随着每一分每一秒流逝的都是白花花的银子,因此小明也没时间排查问题,当机立断在云上新建了几台虚拟机,然后一台一台地部署新的促销服务节点。
几分钟的操作后,系统总算是勉强恢复正常了。整个故障时间内估计损失了几十万的销售额,三人的心在滴血……
事后,小明简单写了个日志分析工具(量太大了,文本编辑器几乎打不开,打开了肉眼也看不过来),统计了促销服务的访问日志,发现在故障期间,商品服务由于代码问题,在某些场景下会对促销服务发起大量请求。
这个问题并不复杂,小明手指抖一抖,修复了这个价值几十万的 Bug。问题是解决了,但谁也无法保证不会再发生类似的其他问题。
微服务架构虽然逻辑设计上看是完美的,但就像积木搭建的华丽宫殿一样,经不起风吹草动。
微服务架构虽然解决了旧问题,也引入了新的问题:
① 微服务架构整个应用分散成多个服务,定位故障点非常困难。
② 稳定性下降。服务数量变多导致其中一个服务出现故障的概率增大,并且一个服务故障可能导致整个系统挂掉。事实上,在大访问量的生产场景下,故障总是会出现的。
③ 服务数量非常多,部署、管理的工作量很大。
④ 开发方面:如何保证各个服务在持续开发的情况下仍然保持协同合作。
⑤ 测试方面:服务拆分后,几乎所有功能都会涉及多个服务。原本单个程序的测试变为服务间调用的测试。测试变得更加复杂。
小明小红痛定思痛,决心好好解决这些问题,对故障的处理一般从两方面入手:
监控:发现故障的征兆
在高并发分布式的场景下,故障经常是突然间就雪崩式爆发。所以必须建立完善的监控体系,尽可能发现故障的征兆。
微服务架构中组件繁多,各个组件所需要监控的指标不同。比如 Redis 缓存一般监控占用内存值、网络流量,数据库监控连接数、磁盘空间,业务服务监控并发数、响应延迟、错误率等。
因此如果做一个大而全的监控系统来监控各个组件是不大现实的,而且扩展性会很差。
一般的做法是让各个组件提供报告自己当前状态的接口(Metrics 接口),这个接口输出的数据格式应该是一致的。
然后部署一个指标采集器组件,定时从这些接口获取并保持组件状态,同时提供查询服务。
最后还需要一个 UI,从指标采集器查询各项指标,绘制监控界面或者根据阈值发出告警。
大部分组件都不需要自己动手开发,网络上有开源组件。小明下载了 Redis Exporter 和 MySQL Exporter,这两个组件分别提供了 Redis 缓存和 MySQL 数据库的指标接口。
微服务则根据各个服务的业务逻辑实现自定义的指标接口。然后小明采用 Prometheus 作为指标采集器,Grafana 配置监控界面和邮件告警。
这样一套微服务监控系统就搭建起来了:
定位问题:链路跟踪
在微服务架构下,一个用户的请求往往涉及多个内部服务调用。为了方便定位问题,需要能够记录每个用户请求时,微服务内部产生了多少服务调用,及其调用关系。这个叫做链路跟踪。
我们用一个 Istio 文档里的链路跟踪例子来看看效果:
从图中可以看到,这是一个用户访问 productpage 页面的请求。在请求过程中,productpage 服务顺序调用了 details 和 reviews 服务的接口。
而 reviews 服务在响应过程中又调用了 ratings 的接口。整个链路跟踪的记录是一棵树:
要实现链路跟踪,每次服务调用会在 HTTP 的 HEADERS 中记录至少四项数据:
另外,还需要调用日志收集与存储的组件,以及展示链路调用的 UI 组件。
以上只是一个极简的说明,关于链路跟踪的理论依据可详见 Google 的 Dapper。
了解了理论基础后,小明选用了 Dapper 的一个开源实现 Zipkin。然后手指一抖,写了个 HTTP 请求的*敏*感*词*,在每次 HTTP 请求时生成这些数据注入到 HEADERS,同时异步发送调用日志到 Zipkin 的日志收集器中。