title |
---|
如何设计一个高并发系统? |
作者:Tom哥
公众号:微观技术
博客:https://offercome.cn
人生理念:知道的越多,不知道的越多,努力去学
大家好,我是 Tom哥
作为互联网从业者,高并发一直是我们绕不开的一个话题。
那么高并发系统都有哪些经验,掌握核心技巧,你可以快速成为一个架构师,主导一些高访问量系统的架构设计。
然后,升职加薪自然也就是水到渠成的事
靠优化单台机器的内存
、CPU
、磁盘
、网络带宽
,使其发挥极致性能,已经不太现实。
正所谓 "双拳难敌四手,恶虎还怕群狼",现在早已经是分布式时代,靠的是shu量
取胜,也称之为水平伸缩方案
这么多的系统,如何流量调度,这里的第一道入口就是负载均衡
负载均衡,它的职责是将网络请求 “均摊”到不同的机器上。避免集群中部分服务器压力过大,而另一些服务器比较空闲的情况
通过负载均衡,可以让每台服务器获取到适合自己处理能力的负载。在为高负载服务器分流的同时,还可以避免资源浪费,一举两得。
- 随机算法
- 轮询算法
- 轮询权重算法
- 一致性哈希算法
- 最小连接
- 自适应算法
- LVS
- Nginx
- HAProxy
对于一些大型系统,一般会采用 DNS+四层负载+七层负载的方式进行多层次负载均衡。
过去是一个大而全的系统,面对复杂的业务规则,我们采用分而治之
的思想,通过SOA架构,将一个大的系统拆分成若干个微服务,粒度越来越小,称之为微服务架构
每个微服务独立部署,服务和服务间采用轻量级的通信机制,如:标准的HTTP协议、或者私有的RPC协议。
微服务特点:
- 按照业务划分服务,单个服务代码量小,业务单一,容易维护
- 每个微服务都有自己独立的基础组件,例如数据库
- 微服务之间的通信是通过HTTP协议或者私有协议,且具有容错能力
- 微服务有一套服务治理的解决方案,服务之间不耦合,可以随时加入和剔除
- 单个微服务能够集群化部署,有负载均衡的能力
- 整个微服务系统应该有完整的安全机制,包括用户验证,权限验证,资源保护
- 整个微服务系统有链路追踪的能力
- 有一套完整的实时日志系统
市面常用微服务框架有:Spring Cloud 、Dubbo 、kubernetes、gRPC、Thrift 等
这么多的微系统之间如何感知?这里面会引入注册中心。
常用的注册中心有:Zookeeper、etcd、Eureka、Nacos、Consul
万事有利就有弊,分布式微服务由于拆分的过细,引入一些复杂化问题需要关注:
- 分布式事务
- 限流机制
- 熔断机制
- 网关
- 服务链路追踪
性能不够,缓存来凑。要想快速提升性能,缓存肯定少不了
缓存能够带来性能的大幅提升,以 Memcache 为例,单台 Memcache 服务器简单的 key-value 查询能够达到 TPS 50000 以上;Redis性能数据是10W+ QPS
为什么缓存的速度那么快?
从上图中发现,同机房两台服务器跑个来回,再从内存中顺序读取1M数据,共耗时0.75ms。如果从硬盘读取,做一次磁盘寻址需要10ms,再从磁盘里顺序读取1M数据需要30ms。可见,使用内存缓存性能上提高多个数量级,同时也能支持更高的并发量。
常见的缓存分为本地缓存和分布式缓存,区别在与是否要走网络通讯。
本地缓存是部署在应用服务器中,而我们应用服务器通常会部署多台,当数据更新时,我们不能确定哪台服务器本地中了缓存,更新或者删除所有服务器的缓存不是一个好的选择,所以我们通常会等待缓存过期。因此,这种缓存的有效期很短,通常为分钟或者秒级别,以避免返回前端脏数据。
相反,分布式缓存采用集群化管理,支持水平扩容,并提供客户端路由数据,数据一致性维护更好。虽然有不到 1ms
的网络开销,但比起其优势,这点损耗微不足道。
缓存更新常用策略?
- Cache aside,通常会先更新数据库,然后再删除缓存,为了兜底还会设置缓存时间。
- Read/Write through, 一般是由一个 Cache Provider 对外提供读写操作,应用程序不用感知操作的是缓存还是数据库。
- Write behind,延迟写入,Cache Provider 每隔一段时间会批量写入数据库,大大提升写的效率。像操作系统的page cache也是类似机制。
MySQL数据库采用B+数索引,三层结构,为了保证IO性能,一般建议单表存储 千万
条数据。
如果遇到单机数据库性能瓶颈,我们可以考虑分表。
分表又可以细分为 垂直分表 和 水平分表 两种形式。
数据表垂直拆分就是纵向地把一张表中的列拆分到多个表,表由“宽”变“窄”,简单来讲,就是将大表拆成多张小表,一般会遵循以下几个原则:
- 冷热分离,把常用的列放在一个表,不常用的放在一个表。
- 字段更新、查询频次拆分
- 大字段列独立存放
- 关系紧密的列放在一起
表结构维持不变,对数据行进行切分,将表中的某些行切分到一张表中,而另外的某些行又切分到其他的表中,也就是说拆分后数据集的并集等于拆分前的数据集。
分库分表技术点:
- SQl组合。因为是逻辑表名,需要按分表键计算对应的物理表编号,根据逻辑重新组装动态的SQL
- 数据库路由。如果采用分库,需要根据逻辑的分表编号计算数据库的编号
- 结果合并。如果查询没有传入指定的分表键,会全库执行,此时需要将结果合并再输出。
目前市面有很多的开源框架,大致分为两种模式:
-
Proxy模式。SQL 组合、数据库路由、执行结果合并等功能全部存放在一个代理服务中,业务方可以当做。
- 优点:支持多种语言。升级方便。对业务代码无侵入。
- 缺点:额外引入一个中间件,容易形成流量瓶颈,安全风险较高,有运维成本
-
Client 模式。常见是
sharding-jdbc
,业务端系统只需要引入一个jar包即可,按照规范配置路由规则。jar 中处理 SQL 组合、数据库路由、执行结果合并等相关功能。- 优点:简单、轻便。不存在流量瓶颈,减少运维成本
- 缺点:单语言,升级不方便。
实现思路:
1、如何选择分表键。
数据尽量均匀分布在不同表或库、跨库查询操作尽可能少、这个字段的值不会变。比如电商订单采用user_id。
2、分片策略。
根据范围分片、根据 hash 值分片、根据 hash 值及范围混合分片
3、如何编写业务代码。结合具体的业务实现。
4、历史数据迁移
- 增量数据监听 binlog,然后通过 canal 通知迁移程序开始增量数据迁移
- 开启任务,全量数据迁移
- 开启双写,并关闭增量迁移任务
- 读业务切换到新库
- 线上运行一段时间,确认没有问题后,下线老库的写操作
有一种说法:数据量大,就分表;并发高,就分库
在实际的业务开发中,要做好数据量的增长预测,做好技术方案选型。另外,在引入分表方案后,要考虑数据倾斜问题,这个跟分表键有很大关系,避免数据分布不均衡影响系统性能。
并不是所有的调用都要走同步形式,对于时间要求不高、或者非核心逻辑,我们可以采用异步
处理机制。
也就衍生出消息队列。
消息队列主要有三种角色:生产者、消息队列、消费者。
生产端核心的逻辑处理完后,会封装一个MQ消息,发送到消息队列。下游系统,如果关心这个事件,只需要订阅这个 topic ,便可以收到消息,进行后续的业务逻辑处理。
两者之间通过消息中间件
完成了解耦,系统的扩展性非常高。
常用的消息框架有哪些?
ActiveMQ,RabbitMQ,ZeroMQ,Kafka,MetaQ,RocketMQ、Pulsar 等
消息队列的应用场景?
- 1、异步处理。将一个请求链路中的非核心流程,拆分出来,异步处理,减少主流程链路的处理逻辑,缩短RT,提升吞吐量。如:注册新用户发短信通知。
- 2、削峰填谷。避免流量暴涨,打垮下游系统,前面会加个消息队列,平滑流量冲击。比如:秒杀活动。生活中像电源适配器也是这个原理。
- 3、应用解耦。两个应用,通过消息系统间接建立关系,避免一个系统宕机后对另一个系统的影响,提升系统的可用性。如:下单异步扣减库存
- 4、消息通讯。内置了高效的通信机制,可用于消息通讯。如:点对点消息队列、聊天室。
CDN 全称 (Content Delivery Network),内容分发网络。
目的是在现有的网络中增加一层网络架构,将网站的内容发布到最接近用户的网络“边缘”,使用户可以就近取得所需的内容,提高用户访问网站的响应速度。
CDN = 镜像(Mirror)+缓存(Cache)+整体负载均衡(GSLB)
CDN都以缓存网站中的静态数据为主,如:CSS、JS、图片和静态页面等数据。用户从主站服务器中请求到动态内容后,再从CDN下载静态数据,从而加速网页数据内容的下载速度。
主要特点:
- 本地Cache加速
- 镜像服务
- 远程加速
- 带宽优化
- 集群抗攻击
应用场景
- 网站站点/应用加速
- 视音频点播/大文件下载分发加速
- 视频直播加速
- 移动应用加速
作为补充,像分布式文件系统
、大数据
、NoSQL
、NewSQL
,慢慢也开始成为高并发系统的周围框架生态补充。