技术架构演进之路:从单体应用到Docker容器编排
文章目录概念与指标阶段一单机架构与应用数据分离阶段二流量爆发引入应用集群与负载均衡阶段三打破数据瓶颈的读写分离与缓存机制阶段四垂直分库与微服务拆分阶段五Docker 容器化与 K8S 编排对于很多开发者而言如果没有经历过中大型系统的实际开发往往很难从全局视角理解技术架构的演变过程。本文将以一个“电子商务”应用包含商品浏览、购物车、订单支付等核心业务为例带大家推演系统从百级并发到千万级并发情况下的服务端架构演进之路。在此过程中我们会探讨每个阶段面临的瓶颈以及引入的相关技术并最终揭示 Docker 和 KubernetesK8s等云原生技术如何成为现代复杂架构的高效解药。概念与指标在深入架构演进之前我们需要对一些核心术语建立共识系统System与组件Component系统通常由多个相互配合的程序组成为了分离职责我们会将其拆分为不同的模块或组件如支付组件、库存组件。分布式与集群Cluster当这些模块被部署在不同的物理服务器上并通过网络通信时就形成了分布式系统而为了实现特定目标将多台相同职责的服务器集中起来协同工作则称为集群。主Master与从Slave在集群中承担核心写入或控制职责的节点称为“主”负责附属职责如读取同步、备份的称为“从”。中间件Middleware连接不同应用程序、工具或数据库的桥梁如消息队列、缓存中间件。衡量一个系统架构好坏有几个关键的评价指标可用性Availability系统正常提供服务的期望概率常说的“4个9”即 99.99% 的可用性意味着每年宕机时间不超过 52.6 分钟。响应时长RT - Response Time从用户完成输入到系统给出反馈的时长。吞吐量Throughput与 并发Concurrent吞吐量是单位时间内的成功处理量如 TPS/QPS并发是同一时刻系统支持的最高请求量。阶段一单机架构与应用数据分离项目初期为了利用精干团队快速将业务推向市场并验证想法单机架构是最合适的选择。此时所有的鸡蛋都放在一个篮子里Web 服务如 Nginx/Tomcat、应用程序代码、甚至是数据库如 MySQL全都挤在同一台物理机或云服务器上。然而随着第一批用户的到来系统迎来了第一次大考。电商应用中的图片加载、动态页面渲染消耗 CPU 和内存与数据库的查询写入消耗磁盘 I/O开始互相抢占单台服务器的物理资源。一旦数据库执行一个复杂的查询整个 Web 服务可能就会卡顿。为了以最小代价提升承载力系统演进为应用数据分离架构。此时我们将数据库服务独立部署到数据中心的另一台高配置服务器上应用服务通过局域网访问数据。这为系统争取了成倍的性能空间。读取过程用户在浏览器输入域名DNS 解析为应用服务器的 IP。请求到达应用服务器Tomcat应用代码发起 SQL 查询。请求通过网络打到独立的数据库服务器数据库从磁盘或内存中检索商品信息并返回给应用。应用服务器拼接 HTML 或 JSON返回给用户。写入过程用户提交注册表单请求到达应用服务器。应用服务器进行参数校验后生成INSERTSQL 语句通过网络发送至数据库服务器。数据库将新用户数据落盘返回成功信号应用服务器提示用户注册成功。阶段二流量爆发引入应用集群与负载均衡当应用出现爆款例如平台推出了秒杀活动单台应用服务器的 CPU 和内存再次告急。此时面临两种扩展策略纵向扩展Scale Up购买更昂贵的超级服务器和横向扩展Scale Out增加普通服务器数量分担流量。由于单台硬件的性能增长存在物理上限且成本呈指数级激增横向扩展成为了必然选择这就诞生了应用服务集群架构。为了解决“海量用户流量究竟该分配给哪台应用服务器”的问题系统引入了负载均衡组件如 Nginx、HAProxy、LVS 等。负载均衡器就像一个尽职的交通警察根据特定的算法调度流量。读取与写入的共性链路用户的请求首先会打到负载均衡服务器如 Nginx。Nginx 根据配置的算法如轮询 Round-Robin、加权轮询、或者基于客户端 IP 的哈希算法 Hash计算出目标应用服务器假设有 Server A, Server B, Server C。Nginx 将请求转发给 Server B假设被选中。Server B 执行业务逻辑并通过网络去读取或写入唯一的那个后台数据库。Server B 将结果返回给 NginxNginx 再转交给用户。应用层虽然可以无限横向增加机器但所有成千上万的并发请求最终都汇聚到了同一个单点数据库上。数据库的 I/O 瓶颈即将爆发。阶段三打破数据瓶颈的读写分离与缓存机制在电商场景中经典的法则是“读多写少”浏览商品的人数远远大于最终下单付款的人数比例可能高达 10:1 甚至更高。既然所有的应用服务器都在挤压单一数据库我们架构演进的下一步就是读写分离主从分离。设定一个主库Master负责所有写入操作并配置多个从库Slave。主库的数据变更会通过 Binlog二进制日志实时或半实时地同步到从库从库专门用来分担庞大的读取压力。同时为了避免每次代码里都要写死“读哪个库、写哪个库”我们会引入MyCat、ShardingSphere 等数据库中间件让应用层像操作单机数据库一样无感操作主从集群。进一步分析发现系统中存在大量被频繁读取且极少变动的“热点数据”如商品类目、首页推荐商品。每次都去数据库查太慢了于是我们引入了分布式缓存如 Redis Cluster把高频数据放在内存里。读取过程用户请求到达应用服务器。应用首先查询Redis 缓存中是否有该商品数据。缓存命中Cache Hit直接从 Redis 内存中拿到数据返回耗时极短毫秒级不经过数据库。缓存未命中Cache Miss应用层通过数据库中间件将查询请求路由到某个数据库从库Slave。从库返回数据给应用应用将数据写入 Redis 缓存以便下次使用并返回给用户。写入过程用户请求到达应用层。应用通过中间件将UPDATE语句路由到数据库主库Master执行。主库完成写入并将变更日志Binlog异步同步给所有从库存在几十毫秒的延迟。为了保证数据一致性应用在写入主库成功后会删除或更新 Redis 中对应的旧缓存。阶段四垂直分库与微服务拆分随着公司业务版图的扩张加入金融、物流、直播等数据量爆炸式增长。单个数据库即使做了主从分离其磁盘容量和单表查询效率也达到了极限例如单表数据上亿。我们开始实施垂直分库根据业务领域将原来的大一统数据库拆分为“用户库”、“订单库”、“商品库”。与此同时技术团队规模可能已经达到了几百人。所有人都在同一个代码工程单体架构里提交代码极其容易引发冲突每次发布都需要停机几十分钟。微服务架构Microservices应运而生。我们将庞大的系统拆分为一个个独立的、职责单一的微服务用户服务、订单服务、支付服务交由不同团队独立开发、独立部署。为了让微服务之间能够顺畅沟通并对外提供统一入口我们引入了API Gateway网关并通过Spring Cloud 或 Dubbo等服务治理框架进行服务注册、发现和 RPC 调用。对于耗时较长、无需即时返回的业务如支付成功后发短信我们引入了Kafka / RabbitMQ 等消息队列进行异步解耦。读写数据过程以跨服务业务为例用户下单入口分发用户的下单请求首先到达API 网关网关进行鉴权后将请求路由给“订单微服务”。跨服务调用读订单服务自身没有商品和库存信息它通过 RPC如 Dubbo/Feign同步调用“商品微服务”查询商品是否存在调用“库存微服务”检查库存是否充足这些微服务会各自去查自己的 Redis 或专属从库。核心落盘写检查通过后订单微服务将订单数据写入自己专属的“订单主库”。异步解耦写订单服务向消息队列MQ发送一条“订单已创建”的消息然后立刻向用户返回“下单成功请支付”。后续消费“库存微服务”和“积分微服务”在后台默默监听 MQ 里的消息收到消息后分别去扣减库存库的记录和增加用户库的积分。最终一致性阶段五Docker 容器化与 K8S 编排微服务架构完美解决了组织协同和复杂业务解耦的问题但却将巨大的压力转移给了运维团队。过去只需要部署一个 Tomcat 工程现在需要部署几十上百个微服务。每个微服务对操作系统版本、JDK 版本、环境变量的要求都不一样经典的“在我的电脑上明明能跑”问题。同时面对“双十一”这种脉冲式流量靠人工去临时购买服务器、配环境、部署代码根本来不及。这就是Docker 容器化技术大显身手的时刻。Docker 将应用及其所有依赖环境操作系统内核之上的所有东西打包成一个轻量级的、标准化的镜像Image。无论在开发环境、测试环境还是生产环境只要启动这个镜像服务就能瞬间完美运行彻底抹平了环境差异的痛点。面对成千上万个 Docker 容器我们需要一个极其高效的“大管家”这就是KubernetesK8S容器编排引擎。K8S 将底层物理服务器池化它可以自动调度决定哪个容器运行在哪个物理节点上最合适。自愈能力一旦某个支付服务的容器崩溃K8S 会在几秒钟内在另一台机器上重新拉起一个新容器。弹性伸缩HPA当监控到 CPU 使用率飙升时K8S 可以全自动地将订单服务的容器数量从 10 个扩容到 100 个流量低谷时再自动缩容。读写数据在系统层面业务的读写逻辑与阶段四类似但底层网络与部署形态发生了根本改变Ingress 接入外部流量首先打入 K8S 集群的 Ingress 控制器充当集群总入口。Service 发现与负载请求被转发到具体的 K8S Service如order-service。Service 就像一个内部的负载均衡器它知道当前有多少个健康的PodDocker 容器的载体在运行。Pod 处理请求流量打入某个具体的 Docker 容器中。如果此时大促流量涌入导致该 Pod 的 CPU 飙升K8S 的 HPA水平 Pod 自动扩缩容会迅速克隆出多个相同的 Pod 来分担流量。持久化数据容器虽然是随时生灭的无状态但它们会通过网络连接到外部稳定的高可用数据库集群或云原生数据库中进行读写保证业务数据永不丢失。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2426079.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!