百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Linux打开的文件过多Too many open file

nanshan 2024-11-17 00:16 21 浏览 0 评论

1 问题场景与现象

最近线上微服务出现问题,后台日志报错:打开的文件过多(Too many open files)

 2021-02-26 22:25:27.811 [http-nio-8841-Acceptor] ERROR org.apache.tomcat.util.net.Acceptor - Socket accept failedbrjava.io.IOException: 打开的文件过多
 at sun.nio.ch.ServerSocketChannelImpl.accept0(Native Method)  
 at sun.nio.ch.ServerSocketChannelImpl.accept(ServerSocketChannelImpl.java:422)   
 at sun.nio.ch.ServerSocketChannelImpl.accept(ServerSocketChannelImpl.java:250)   
 at org.apache.tomcat.util.net.NioEndpoint.serverSocketAccept(NioEndpoint.java:463)   
 at org.apache.tomcat.util.net.NioEndpoint.serverSocketAccept(NioEndpoint.java:73)   
 at org.apache.tomcat.util.net.Acceptor.run(Acceptor.java:95)   
 at java.lang.Thread.run(Thread.java:748)

表象就是服务建立不了新的socket连接,服务无法正常使用。

2 产生原因(参考网络)

这个问题经常在Linux上出现,而且常见于高并发访问文件系统、多线程网络连接等场景。之所以出现这个问题,大多数情况是你的程序没有正常关闭一些资源引起的。

在Linux系统中,目录、字符设备、块设备、套接字、打印机等都被抽象成了文件,即通常所说的“一切皆文件”。程序操作这些文件时,系统就需要记录每个当前访问file的name、location、access authority等相关信息,这样一个实体被称为file entry。这些实体被记录在open files table中,Linux系统配置了open files table中能容纳多少file entry。如果超过这个配置值,则Linux就会拒绝其他文件操作的请求,并抛出Too many open files。

那么由上可知,产生Too many open files一般有四种可能:

  • 单个进程打开文件句柄数过多

1 通过 ulimit -a 查看单进程可以打开的最大文件句柄数。




可以看到open files默认值是1024。

2 通过 lsof -p ${pid} | wc -l 查看单个进程实际打开的文件句柄数。(需要安装yum -y install lsof



3 如果单个进程实际打开文件句柄数超过最大句柄数,则会出现Too many open files。

4 一般产生原因为:socket创建过多,IO流操作、数据库连接未关闭等等。

5 子进程默认继承父进程的限制(即进程和父进程打开的文件句柄数单独计算)

6 临时修改用户可打开的文件句柄数(这里主要是因为控制设置是通过用户来设置,实际上控制的是进程的文件句柄数)
使用命令 ulimit -n 2048 修改允许打开的文件数,这种设置方法在重启后会还原为默认值
ulimit -n命令非root用户只能设置到4096。

7 通过修改系统配置文件,永久生效。

#打开文件
vi /etc/security/limits.conf
#在最后加入
* soft nofile 65535
* hard nofile 65535

也可以加入* - nofile 65535生效
最前的 * 表示所有用户,可根据需要设置某一用户
注意"nofile"项有两个可能的限制措施。就是项下的hard和soft。必须对这两种限制进行设定,方可失效。 如果使用"-"字符设定, 则hard和soft设定会同时被设定。

8 动态修改进程的限制
通过prlimit --pid ${pid} --nofile=2048:2048

  • 操作系统打开的文件句柄数过多
    整个操作系统可以打开的文件句柄数是有限的,受内核参数"fs.file-max"确定。如果所有进程加起来超过了
    1 通过命令cat /proc/sys/fs/file-max或者sysctl -a来查看fs.file-max的配置数量
    2 临时改动:sysctl -w [变量名]=[值]
    3 永久改动:修改配置文件/etc/sysctl.conf,如果文件中没有"fs.file-max"属性,则添加。设置完成后,使用sysctl -p来加载系统参数,在不指定文件位置的情况下,默认会从/etc/sysctl.conf文件中加载。
  • systemd对该进程进行了限制
    该场景仅针对被systemd管理的进程(也就是可以通过systemctl来控制的进程)生效,可以通过修改该进程的service文件(通常在 /etc/systemd/system/ 目录下),在[Service]下面添加"LimitNOFILE=20480000"来实现,修改完成之后需要执行"systemctl daemon-reload"来使该配置生效。
  • inotify达到上限
    inotify是linux提供的一种监控机制,可以监控文件系统的变化。该机制受到2个内核参数的影响:"fs.inotify.max_user_instances"和"fs.inotify.max_user_watches",其中"fs.inotify.max_user_instances"表示每个用户最多可以创建的inotify instances数量上限,"fs.inotify.max_user_watches"表示么个用户同时可以添加的watch数目,当出现too many open files问题而上面三种方法都无法解决时,可以尝试通过修改这2个内核参数来生效。修改方法是修改/etc/sysctl.conf文件,修改这2个内核参数,并执行sysctl -p

3 解决方案

由以上产生原因可分析得知,一是可以修改系统的配置信息;另外一个是从程序层面解决。

3.1 修改配置文件

3.1.1 单个进程打开文件句柄数过多

通常情况下,我们遇到的问题都是"单个进程打开文件句柄数过多"
1 通过ulimit -a查看当前设置的单进程最大打开句柄数

2 通过lsof -p ${pid} | wc -l查看单个进程实际打开的文件句柄数。(需要安装yum -y install lsof),判断是不是已经接近允许的最大句柄数。

3 如果已经接近等于允许的最大句柄数,则通过临时修改与永久改动扩大单进程最大打开句柄数

 #临时修改
 ulimit -n 65535

通过修改系统配置文件,永久生效。

#打开文件
vi /etc/security/limits.conf
#在最后加入
* soft nofile 65535
* hard nofile 65535

3.1.1 操作系统打开的文件句柄数过多

基本上这个很少遇到。
1 通过命令cat /proc/sys/fs/file-max或者sysctl -a来查看fs.file-max的配置数量
2 临时改动:sysctl -w [变量名]=[值]
3 永久改动:修改配置文件/etc/sysctl.conf,如果文件中没有"fs.file-max"属性,则添加。设置完成后,使用sysctl -p来加载系统参数,在不指定文件位置的情况下,默认会从/etc/sysctl.conf文件中加载。

3.1.3 systemd对该进程进行了限制与inotify达到上限

在以上2种方法都无效后,考虑这2种情况的解决方案
1 可以通过修改该进程的service文件(通常在/etc/systemd/system/目录下),在[Service]下面添加"LimitNOFILE=20480000"来实现,修改完成之后需要执行"systemctl daemon-reload"来使该配置生效
2 可以尝试通过修改这"fs.inotify.max_user_instances"和"fs.inotify.max_user_watches"这2个内核参数来生效。修改方法是修改/etc/sysctl.conf文件,修改这2个内核参数,并执行sysctl -p

3.2 排查程序

一般情况下,1024个句柄数应该够程序使用(如果不是socket服务),如果出现Too many open files错误,首先考虑是不是程序出了问题,比如IO流,数据库连接池及各种其它的连接池等。若是socket服务,建议修改配置文件扩大打开文件句柄数。

总结

  • Too many open files是liunx常见问题之一
  • 有四种原因会产生这个问题(单个进程打开文件句柄数过多、操作系统打开的文件句柄数过多、systemd对该进程进行了限制、inotify达到上限)
  • 一般扩大单个进程打开文件句柄数即可解决问题
  • 如果你的程序不是socket服务,请排查程序,否则只是治标不治本

相关推荐

实战派 | Java项目中玩转Redis6.0客户端缓存

铺垫首先介绍一下今天要使用到的工具Lettuce,它是一个可伸缩线程安全的redis客户端。多个线程可以共享同一个RedisConnection,利用nio框架Netty来高效地管理多个连接。放眼望向...

轻松掌握redis缓存穿透、击穿、雪崩问题解决方案(20230529版)

1、缓存穿透所谓缓存穿透就是非法传输了一个在数据库中不存在的条件,导致查询redis和数据库中都没有,并且有大量的请求进来,就会导致对数据库产生压力,解决这一问题的方法如下:1、使用空缓存解决对查询到...

Redis与本地缓存联手:多级缓存架构的奥秘

多级缓存(如Redis+本地缓存)是一种在系统架构中广泛应用的提高系统性能和响应速度的技术手段,它综合利用了不同类型缓存的优势,以下为你详细介绍:基本概念本地缓存:指的是在应用程序所在的服务器内...

腾讯云国际站:腾讯云服务器如何配置Redis缓存?

本文由【云老大】TG@yunlaoda360撰写一、安装Redis使用包管理器安装(推荐)在CentOS系统中,可以通过yum包管理器安装Redis:sudoyumupdate-...

Spring Boot3 整合 Redis 实现数据缓存,你做对了吗?

你是否在开发互联网大厂后端项目时,遇到过系统响应速度慢的问题?当高并发请求涌入,数据库压力剧增,响应时间拉长,用户体验直线下降。相信不少后端开发同行都被这个问题困扰过。其实,通过在SpringBo...

【Redis】Redis应用问题-缓存穿透缓存击穿、缓存雪崩及解决方案

在我们使用redis时,也会存在一些问题,导致请求直接打到数据库上,导致数据库挂掉。下面我们来说说这些问题及解决方案。1、缓存穿透1.1场景一个请求进来后,先去redis进行查找,redis存在,则...

Spring boot 整合Redis缓存你了解多少

在前一篇里面讲到了Redis缓存击穿、缓存穿透、缓存雪崩这三者区别,接下来我们讲解Springboot整合Redis中的一些知识点:之前遇到过,有的了四五年,甚至更长时间的后端Java开发,并且...

揭秘!Redis 缓存与数据库一致性问题的终极解决方案

在现代软件开发中,Redis作为一款高性能的缓存数据库,被广泛应用于提升系统的响应速度和吞吐量。然而,缓存与数据库之间的数据一致性问题,一直是开发者们面临的一大挑战。本文将深入探讨Redis缓存...

高并发下Spring Cache缓存穿透?我用Caffeine+Redis破局

一、什么是缓存穿透?缓存穿透是指查询一个根本不存在的数据,导致请求直接穿透缓存层到达数据库,可能压垮数据库的现象。在高并发场景下,这尤其危险。典型场景:恶意攻击:故意查询不存在的ID(如负数或超大数值...

Redis缓存三剑客:穿透、雪崩、击穿—手把手教你解决

缓存穿透菜小弟:我先问问什么是缓存穿透?我听说是缓存查不到,直接去查数据库了。表哥:没错。缓存穿透是指查询一个缓存中不存在且数据库中也不存在的数据,导致每次请求都直接访问数据库的行为。这种行为会让缓存...

Redis中缓存穿透问题与解决方法

缓存穿透问题概述在Redis作为缓存使用时,缓存穿透是常见问题。正常查询流程是先从Redis缓存获取数据,若有则直接使用;若没有则去数据库查询,查到后存入缓存。但当请求的数据在缓存和数据库中都...

Redis客户端缓存的几种实现方式

前言:Redis作为当今最流行的内存数据库和缓存系统,被广泛应用于各类应用场景。然而,即使Redis本身性能卓越,在高并发场景下,应用于Redis服务器之间的网络通信仍可能成为性能瓶颈。所以客户端缓存...

Nginx合集-常用功能指导

1)启动、重启以及停止nginx进入sbin目录之后,输入以下命令#启动nginx./nginx#指定配置文件启动nginx./nginx-c/usr/local/nginx/conf/n...

腾讯云国际站:腾讯云怎么提升服务器速度?

本文由【云老大】TG@yunlaoda360撰写升级服务器规格选择更高性能的CPU、内存和带宽,以提供更好的处理能力和网络性能。优化网络配置调整网络接口卡(NIC)驱动,优化TCP/IP参数...

雷霆一击服务器管理员教程

本文转载莱卡云游戏服务器雷霆一击管理员教程(搜索莱卡云面版可搜到)首先你需要给服务器设置管理员密码,默认是空的管理员密码在启动页面进行设置设置完成后你需要重启服务器才可生效加入游戏后,点击键盘左上角E...

取消回复欢迎 发表评论: