百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

linux 服务器并发调优的一次案例实践

nanshan 2024-11-17 00:16 20 浏览 0 评论

  • 本人是某云计算小厂的一名运维工程师,在一次协助用户上云实践中,性能压力测试场景是: 用客户机去测服务端(云上),测20W业务并发,检查服务器有没有请求中断,请求超时,请求错误等情况,错误率0.5%以下即为正常 。 最终测试结果只能到6W ,离20W 的业务要求差距很大 。

针对Linux性能问题,做以下内核参数性能调整 ,最终达到用户需求。总结出来,具有通用配置的意义,对于大并大业务场景可以默认配置


实现一台服务器的大并发,服务器支撑百万连接会出现哪些问题 ,需要说明的是:

  • 服务器能够同时建立连接的数量 不是 并发量,它只是并发量一个基础。
  • 服务器的并发量:一个服务器能够同时承载客户端的数量;
  • 承载:服务器能够稳定的维持这些连接,能够响应请求,在200ms内返回响应就认为是ok的,其中这200ms包括数据库的操作,网络带宽,内存操作,日志等时间。


1 . 对Linux fd 的配置优化 :

大量连接建立后 ,检查用于客户端内核日志 ,报错: Too many open files , 检查ulimt 参数,ulimit -a |grep 'open file' 发现 open files 仅为1024

检查file-max(系统一共可以打开的最大文件数 [root@master temp]# cat /proc/sys/fs/file-max 值为378548

## ulimit和file-max, 但这两者之间的关系差别

  • file-max是设置 系统所有进程一共可以打开的文件数量 。同时一些程序可以通过setrlimit调用,设置每个进程的限制。如果得到大量使用完文件句柄的错误信息,是应该增加这个值。也就是说,这项参数是系统级别的
  • 即设置当前shell以及由它启动的进程的资源限制

open files 参数修改:

  • 临时修改,只在当前这个会话有效:ulimit -n 1048576
  • 永久修改,对所有会话有效:添加下面两行代码

[root@master temp]# vim /etc/security/limits.conf #

* soft nofile 1048576
* hard nofile 1048576

file-max参数修改:

  • 临时生效: sysctl -w fs.file-max = 1048576
  • 永久生效: vim /etc/sysctl.conf

2. 对Linux 端口资源的配置优化

检查内核及应用的日志 ,发现报错: Cannot assign requested address , 从报错来看是是客户端端口资源耗尽 , 从业务分析来看,这台虚拟机只对外开放了一个端口 , 客户端一直访问这个端口,但是创建了有2.8W 个fd

# 执行命令可以看到socket fd 使用情况 : cat /proc/net/sockstat

#注:
sockets: used:已使用的所有协议套接字总量
TCP: inuse:正在使用(正在侦听)的TCP套接字数量。其值≤ netstat –lnt | grep ^tcp | wc –l
TCP: orphan:无主(不属于任何进程)的TCP连接数(无用、待销毁的TCP socket数)
TCP: tw:等待关闭的TCP连接数。其值等于netstat –ant | grep TIME_WAIT | wc –l
TCP:alloc(allocated):已分配(已建立、已申请到sk_buff)的TCP套接字数量。其值等于netstat –ant | grep ^tcp | wc –l
TCP:mem:套接字缓冲区使用量
UDP:inuse:正在使用的UDP套接字数量
FRAG:使用的IP段数量

/proc/sys/net/ipv4/ip_local_port_range范围定义TCP和UDP通信用于选择本地端口的本地端口范围。在该文件的参数中看到两个数字:第一个数字是服务器上允许TCP和UDP通信的第一个本地端口,第二个是最后一个本地端口号。对于高使用率的系统,可以将其默认参数更改为32768-61000(first-last)或者更高

说明: net.ipv4.ip_local_port_range的默认值为32768 61000,指的是对同一个服务器的ip+port创建28233个连接

net.ipv4.ip_local_port_range参数修改:

  • 临时生效: sysctl -w net.ipv4.ip_local_port_range = 32768 63999
  • 永久生效: vim /etc/sysctl.conf

3. netfilter 参数: CT 表 的配置优化

在排查日志的时候发现报错: Connection timed out 。 修改完步骤2之后,端口范围增加了3000 个,应该可以增加几百万客户端连接最少280万 ,与预期不符合

网卡接收的数据,会发送到协议栈里面,通过sk_buff将数据传到协议栈,协议栈处理完再交给应用程序。由于操作系统在使用的时候,为防止被攻击,在数据发送给协议栈之前进行一个过滤,在协议栈前面加了一个小组件:过滤器,叫做netfilter 。



从分析来看,是 netfilter 这层超时 : netfilter不管对发送的数据,还是对接收的数据,都是可以过滤的。当连接数量达到一定数量的时候,netfilter就会不允许再对外发连接了。所以现在推测是情况1造成的,发送的SYN被netfilter拦截了 。

检查CT表情况,cat /proc/sys/net/netfilter/nf_conntrack_max 只有13w

通过设置 通过设置netfilter允许对外最大连接数量,来解决这个问题:

nf_conntrack_max参数修改:

  • 临时生效: sysctl -w net.nf_conntrack_max = 1048576
  • 永久生效: vim /etc/sysctl.con

4 tcp接收缓冲区和tcp发送缓冲区参数调整

继续压力测试,跑到20W 的时候会报错: Out of memory: Kill process (C1000Kclient) score 1 or sacrifice child

这是内存不够用了,简单粗暴直接扩容内存可以让并发量跑得更高 ,实际当中我也是通过内存扩容,最终达到了压力测试要求。但是在实际分析问题中我们应该着眼问题本身 :

tcp 连接由内核来维护,系统会为每个TCP socket创建一个发送缓冲区和一个接收缓冲区。应用程序调用write向套接字写数据时,内核从应用进程缓冲区中拷贝数据到套接字的发送缓冲区中

关于: tcp接收缓冲区和tcp发送缓冲区的逻辑,首先搞明白BDP 的概念:

BDP(带宽时延积)= RTT x 带宽

比如最大带宽是 100 MB/s,网络时延(RTT)是 10ms 时,意味着客户端到服务端的网络一共可以存放 100MB/s * 0.01s = 1MB 的字节。这个 1MB 是带宽和时延的乘积,所以它就叫「带宽时延积」(缩写为 BDP,Bandwidth Delay Product)。同时,这 1MB 也表示「飞行中」的 TCP 报文大小,它们就在网络线路、路由器等网络设备上。如果飞行报文超过了 1 MB,就会导致网络过载,容易丢包。

发送缓冲区与带宽时延积的关系:

  • 如果发送缓冲区「超过」带宽时延积,超出的部分就没办法有效的网络传输,同时导致网络过载,容易丢包;
  • 如果发送缓冲区「小于」带宽时延积,就不能很好的发挥出网络的传输效率。

所以,发送缓冲区的大小最好是往带宽时延积靠近

查看TCP 发送缓冲区发送缓冲区是自行调节的,当发送方发送的数据被确认后,并且没有新的数据要发送,就会把发送缓冲区的内存释放掉

查看发送缓存区:cat /proc/sys/net/ipv4/tcp_wmem

  • 第一个数值是动态范围的最小值,4096 byte = 4K;
  • 第二个数值是初始默认值,87380 byte ≈ 86K;
  • 第三个数值是动态范围的最大值,4194304 byte = 4096K(4M);

查看接受缓冲区:cat /proc/sys/net/ipv4/tcp_rmem

上面三个数字单位都是字节,它们分别表示:

第一个数值是动态范围的最小值,表示即使在内存压力下也可以保证的最小接收缓冲区大小,4096 byte = 4K;
第二个数值是初始默认值,87380 byte ≈ 86K;
第三个数值是动态范围的最大值,6291456 byte = 6144K(6M);

在高并发场景中,为了兼顾网速与大量的并发连接,我们应当保证缓冲区的动态调整的最大值达到带宽时延积,而最小值保持默认的 4K 不变即可。而对于内存紧张的服务而言,调低默认值是提高并发的有效手段。同样,如果这是网络 IO 型服务器,那么,调大 tcp_mem 的上限可以让 TCP 连接使用更多的系统内存,这有利于提升并发能力

那么怎么判断tcp 内存是否紧张或充分呢?这是通过 tcp_mem 配置完成:

一般情况下这些值是在系统启动时根据系统内存数量计算得到的。根据当前 tcp_mem 最大内存页面数是 177120,当内存为 (177120 * 4) / 1024K ≈ 692M 时,系统将无法为新的 TCP 连接分配内存,即 TCP 连接将被拒绝

相关推荐

实战派 | Java项目中玩转Redis6.0客户端缓存

铺垫首先介绍一下今天要使用到的工具Lettuce,它是一个可伸缩线程安全的redis客户端。多个线程可以共享同一个RedisConnection,利用nio框架Netty来高效地管理多个连接。放眼望向...

轻松掌握redis缓存穿透、击穿、雪崩问题解决方案(20230529版)

1、缓存穿透所谓缓存穿透就是非法传输了一个在数据库中不存在的条件,导致查询redis和数据库中都没有,并且有大量的请求进来,就会导致对数据库产生压力,解决这一问题的方法如下:1、使用空缓存解决对查询到...

Redis与本地缓存联手:多级缓存架构的奥秘

多级缓存(如Redis+本地缓存)是一种在系统架构中广泛应用的提高系统性能和响应速度的技术手段,它综合利用了不同类型缓存的优势,以下为你详细介绍:基本概念本地缓存:指的是在应用程序所在的服务器内...

腾讯云国际站:腾讯云服务器如何配置Redis缓存?

本文由【云老大】TG@yunlaoda360撰写一、安装Redis使用包管理器安装(推荐)在CentOS系统中,可以通过yum包管理器安装Redis:sudoyumupdate-...

Spring Boot3 整合 Redis 实现数据缓存,你做对了吗?

你是否在开发互联网大厂后端项目时,遇到过系统响应速度慢的问题?当高并发请求涌入,数据库压力剧增,响应时间拉长,用户体验直线下降。相信不少后端开发同行都被这个问题困扰过。其实,通过在SpringBo...

【Redis】Redis应用问题-缓存穿透缓存击穿、缓存雪崩及解决方案

在我们使用redis时,也会存在一些问题,导致请求直接打到数据库上,导致数据库挂掉。下面我们来说说这些问题及解决方案。1、缓存穿透1.1场景一个请求进来后,先去redis进行查找,redis存在,则...

Spring boot 整合Redis缓存你了解多少

在前一篇里面讲到了Redis缓存击穿、缓存穿透、缓存雪崩这三者区别,接下来我们讲解Springboot整合Redis中的一些知识点:之前遇到过,有的了四五年,甚至更长时间的后端Java开发,并且...

揭秘!Redis 缓存与数据库一致性问题的终极解决方案

在现代软件开发中,Redis作为一款高性能的缓存数据库,被广泛应用于提升系统的响应速度和吞吐量。然而,缓存与数据库之间的数据一致性问题,一直是开发者们面临的一大挑战。本文将深入探讨Redis缓存...

高并发下Spring Cache缓存穿透?我用Caffeine+Redis破局

一、什么是缓存穿透?缓存穿透是指查询一个根本不存在的数据,导致请求直接穿透缓存层到达数据库,可能压垮数据库的现象。在高并发场景下,这尤其危险。典型场景:恶意攻击:故意查询不存在的ID(如负数或超大数值...

Redis缓存三剑客:穿透、雪崩、击穿—手把手教你解决

缓存穿透菜小弟:我先问问什么是缓存穿透?我听说是缓存查不到,直接去查数据库了。表哥:没错。缓存穿透是指查询一个缓存中不存在且数据库中也不存在的数据,导致每次请求都直接访问数据库的行为。这种行为会让缓存...

Redis中缓存穿透问题与解决方法

缓存穿透问题概述在Redis作为缓存使用时,缓存穿透是常见问题。正常查询流程是先从Redis缓存获取数据,若有则直接使用;若没有则去数据库查询,查到后存入缓存。但当请求的数据在缓存和数据库中都...

Redis客户端缓存的几种实现方式

前言:Redis作为当今最流行的内存数据库和缓存系统,被广泛应用于各类应用场景。然而,即使Redis本身性能卓越,在高并发场景下,应用于Redis服务器之间的网络通信仍可能成为性能瓶颈。所以客户端缓存...

Nginx合集-常用功能指导

1)启动、重启以及停止nginx进入sbin目录之后,输入以下命令#启动nginx./nginx#指定配置文件启动nginx./nginx-c/usr/local/nginx/conf/n...

腾讯云国际站:腾讯云怎么提升服务器速度?

本文由【云老大】TG@yunlaoda360撰写升级服务器规格选择更高性能的CPU、内存和带宽,以提供更好的处理能力和网络性能。优化网络配置调整网络接口卡(NIC)驱动,优化TCP/IP参数...

雷霆一击服务器管理员教程

本文转载莱卡云游戏服务器雷霆一击管理员教程(搜索莱卡云面版可搜到)首先你需要给服务器设置管理员密码,默认是空的管理员密码在启动页面进行设置设置完成后你需要重启服务器才可生效加入游戏后,点击键盘左上角E...

取消回复欢迎 发表评论: