高并发服务器逻辑处理瓶颈 , 如何解决?首先我们先了解什么是并发!
并发 , 在操作系统中 , 是指一个时间段中有几个程序都处于已启动运行到运行完毕之间 , 且这几个程序都是在同一个处理机上运行 , 但任一个时刻点上只有一个程序在处理机上运行 。———来源《百科》顾名思义 , 高并发就是在指定时间内 , 系统同时能够处理大量的请求(连接数) 。
那么如何衡量高并发呢?
高并发衡量指标
- 响应时间:系统对请求做出响应的时间 , 即一个http请求返回所用的时间;
- 吞吐量:单位时间内处理的请求数量;
- QPS(TPS):每秒可以处理的请求数或事务数;
- 并发用户数:同时承载正常使用系统功能的用户数量 , 即多少人同时使用 , 系统还能正常运行的用户数量;
- 如何提高并发连接数?
- 那么多的连接数怎么进行业务处理?
- 应用服务器的处理水平又该怎么提高?
- 如何使用微服务架构提升高并发逻辑?
1)、如何提高并发连接数?如下图所示 , 常规的单一网络连接模型只能1个连接对应1个线程 , 压力都集中在内存 , 导致内存开销非常大 , 肯定支撑的连接数有限!(直接挂掉)
文章插图
单一网络连接模型
有道是业务写的再好不如一台高性能服务器 , 这个锅不一定要开发人员背的哦!!!服务器的连接入口就那么大(比如Tomcat只有几千的连接数) , 那么处理的能力也只局限于几千 。
怎么解决呢?选用合适的网络IO模型或者selector , 通过使用一个线程轮询或者事件触发的方式 , 能支持几万甚至更多的连接数 , 再配合上Nginx做负载就更完美了 。
2)那么多的连接数怎么进行业务处理?大家都知道nginx只是具有反向代理和负载均衡的功能 , 并不能处理具体的业务逻辑 , 不能担当应用服务器来使用 。例如webSphere 、tomcat和jetty等 , 但是我们可以利用nginx将接受到的大量连接通过均衡的方式(轮询 , 权重 , hash)分配到不同的应用服务器中进行业务处理!
文章插图
nginx负载
3)应用服务器的处理水平又该怎么提高?要提高应用服务器的处理水平就要了解自己的应用服务器的瓶颈在哪里 , 一般有两个:
- 数据库压力:数据库是支撑产品业务的核心模块 , 系统的高并发的主要压力也是来源于数据库 。处理方式有如下这些:
结合内存数据库:例如redid、memcached等 , 根据业务需要缓存一些数据字典、枚举变量和频繁使用数据等减少数据库访问次数 , 提升数据库处理能力 。
文章插图
web集群架构图
【高并发服务器逻辑处理瓶颈,如何解决?】如上图web集群架构图所示:
- 用nginx负载多台应用服务器;
- 使用redid/memcached做业务缓存;
- 再加上数据库集群;
- 代码中的业务逻辑:
- 大家可以 参考阿里巴巴JAVA开发手册 中的开发规范来做就好了 , 总代来说少创建线程、少创建对象、少加锁、防止死锁、少创建线程、注意内存回收等策略 , 来提升代码性能 。
- 开发中可以采用前后端分离的架构模式 , 动静分离、松耦合等提升前后端处理能力 。
文章插图
微服务架构图
主要包含11大核心组件 , 分别是:
核心支撑组件