互联网架构“高并发”到底怎么玩?
最近留言问“高并发”的朋友颇多,公众号又不支持历史文章检索,故重新优化发布,希望大家有收获。 什么是高并发? 高并发(High Concurrency)是互联网分布式系统架构设计中必须考虑的因素之一,它通常是指,通过设计保证系统能够同时并行处理很多请求。 高并发相关的常见指标有哪些?
什么是响应时间? 系统对请求做出响应的时间。 例如:系统处理一个HTTP请求需要200ms,这个200ms就是系统的响应时间。 什么是吞吐量? 单位时间内处理的请求数量。 什么是QPS? 每秒响应请求数。在互联网领域,这个指标和吞吐量区分的没有这么明显。 什么是并发用户数? 同时承载正常使用系统功能的用户数量。 例如:一个即时通讯系统,同时在线量一定程度上代表了系统的并发用户数。 如何提升系统的并发能力? 互联网分布式架构设计,提高系统并发能力的方式,方法论上主要有两种:
什么是垂直扩展? 垂直扩展是指,提升单机处理能力,垂直扩展的方式又有两种:
画外音:在互联网业务发展非常迅猛的早期,如果预算不是问题,强烈建议使用“增强单机硬件性能”的方式提升系统并发能力,因为这个阶段,公司的战略往往是发展业务抢时间,而“增强单机硬件性能”往往是最快的方法。 垂直扩展有什么瓶颈? 不管是提升单机硬件性能,还是提升单机架构性能,都有一个致命的不足:单机性能总是有极限的。 如何突破单机的极限? 互联网分布式架构设计,高并发终极解决方案还是水平扩展。 什么是水平扩展? 只要增加服务器数量,就能线性扩充系统性能。 常见的互联网分层架构如何? 各层该如何落地水平扩展? 常见互联网分布式架构如上,分为:
要想真个系统支持水平扩展,就必须每一层都支持水平扩展。 反向代理层如何进行水平扩展? 反向代理层的水平扩展,是通过“DNS轮询”实现的:dns-server对于一个域名配置了多个解析ip,每次DNS解析请求来访问dns-server,会轮询返回这些ip。 当nginx成为瓶颈的时候,只要增加服务器数量,新增nginx服务的部署,增加一个外网ip,就能扩展反向代理层的性能,做到理论上的无限高并发。 站点层如何进行水平扩展? 站点层的水平扩展,是通过“nginx”实现的,通过修改nginx.conf,可以设置多个web后端。 画外音:nginx是个例子,有可能是LVS或者F5等反向代理。 当web后端成为瓶颈的时候,只要增加服务器数量,新增web服务的部署,在nginx配置中配置上新的web后端,就能扩展站点层的性能,做到理论上的无限高并发。 服务层如何进行水平扩展? 服务层的水平扩展,是通过“服务连接池”实现的。 站点层通过RPC-client调用下游的服务层RPC-server时,RPC-client中的连接池会建立与下游服务多个连接,当服务成为瓶颈的时候,只要增加服务器数量,新增服务部署,在RPC-client处建立新的下游服务连接,就能扩展服务层性能,做到理论上的无限高并发。 画外音:如果需要优雅的进行服务层自动扩容,这里可能需要配置中心里服务自动发现功能的支持。 数据层如何进行水平扩展? 在数据量很大的情况下,数据层(缓存,数据库)涉及数据的水平扩展,将原本存储在一台服务器上的数据(缓存,数据库)水平拆分到不同服务器上去,以达到扩充系统性能的目的。 互联网数据层常见的水平拆分方式有这么几种,以数据库为例: 1. 按照范围水平拆分 每一个数据服务,存储一定范围的数据,上图为例:
(编辑:ASP站长网) |