博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
CentOS6上mongodb连接数无法突破1000的解决办法
阅读量:6833 次
发布时间:2019-06-26

本文共 2593 字,大约阅读时间需要 8 分钟。

问题描述:

生产环境发现CPU满负荷运行,MongoDB的连接数始终突破不了1000。

解决方案:

1、查看mongodb的日志,报下面的错误:

1
2
Wed Nov 21 15:26:09 [initandlisten] pthread_create failed: errno:11 Resource temporarily unavailable   
Wed Nov 21 15:26:09 [initandlisten] can't create new thread, closing connection

2、在一台一样的centos5的机器上测试,发现连接2000个连接一点问题都没有。   

3、上google查找问题,关键字“mongod.conf can’t create new thread, closing connection”    
4、找到问题所在,原来centos6与之前centos5不同,多了一个默认的限制用户nproc的配置文件 :/etc/security/limits.d/90-nproc.conf ,默认把普通用户的nproc设置成1024,而mongodb正好又是使用mongod这个非root用户跑的,所以连接数一直上不去了。    
5、更改/etc/security/limits.d/90-nproc.conf ,把1024改成20480 ,问题解决。

1
2
3
4
5
[root@
test 
~]
# cat /etc/security/limits.d/90-nproc.conf    
# Default limit for number of user's processes to prevent    
# accidental fork bombs.    
# See rhbz #432903 for reasoning.
*          soft    nproc     20480

打开文件句柄数和最大用户进程数限制:

在Linux下面部署应用的时候,有时候会遇上Socket/File: Can’t open so many files的问题;这个值也会影响服务器的最大并发数,其实Linux是有文件句柄限制的,而且Linux默认不是很高,一般都是1024,生产服务器用其实很容易就达到这个数量。下面说的是,如何通过正解配置来改正这个系统默认值。

  

查看方法

我们可以用ulimit -a来查看所有限制值   

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
[root@
test 
~]
# ulimit -a    
core 
file 
size          (blocks, -c) 0    
data seg size           (kbytes, -d) unlimited    
scheduling priority             (-e) 0    
file 
size               (blocks, -f) unlimited    
pending signals                 (-i) 256469    
max locked memory       (kbytes, -l) 64    
max memory size         (kbytes, -m) unlimited    
open 
files                      (-n) 64000    
pipe size            (512 bytes, -p) 8    
POSIX message queues     (bytes, -q) 819200    
real-
time 
priority              (-r) 0    
stack size              (kbytes, -s) 10240    
cpu 
time               
(seconds, -t) unlimited    
max user processes              (-u) 65536    
virtual memory          (kbytes, -
v
) unlimited    
file 
locks                      (-x) unlimited

其中 "open files (-n)"是Linux操作系统对一个进程打开的文件句柄数量的限制,默认是1024。   

(也包含打开的SOCKET数量,可影响数据库的并发连接数目)。

正确的做法,应该是修改/etc/security/limits.conf   

里面有很详细的注释,比如    
hadoop  soft   nofile   32768    
hadoop hard nofile 65536

hadoop soft   nproc   32768   

hadoop hard nproc 65536

   

就可以将文件句柄限制统一改成软32768,硬65536。配置文件最前面的是指domain,设置为星号代表全局,另外你也可以针对不同的用户做出不同的限制。

注意:这个当中的硬限制是实际的限制,而软限制,是warnning限制,只会做出warning;其实ulimit命令本身就有分软硬设置,加-H就是硬,加-S就是软

  

默认显示的是软限制,如果运行ulimit命令修改的时候没有加上的话,就是两个参数一起改变。

RHE6及以后 nproc的修改在/etc/security/limits.d/90-nproc.conf中

如何修改连接数限制:

临时修改(当前shell下更改用户可打开进程数):   

1
# ulimit -u xxx

永久修改, 保险的做法是同时修改/etc/security/limits.d/90-nproc.conf 和 /etc/security/limits.conf如下:

limits_conf = /etc/security/limits.conf:  

*   soft   nproc    s1    
*   hard   nproc    h1

nproc_conf = /etc/security/limits.d/90-nproc.conf:   

*   soft    nproc    s2    
*   hard    nproc    h2

s1,h1,s2,h2必须是具体有意义的数. 此时ulimit -u显示的值为=min(h1,h2)

因此通常就设置s1=s2=h1=h2, 例如在limits_conf和nproc_conf中同时加入:   

*   soft   nproc   65536    
*   hard   nproc   65536

本文转自UltraSQL51CTO博客,原文链接:http://blog.51cto.com/ultrasql/1723251 ,如需转载请自行联系原作者

你可能感兴趣的文章
搭建交叉编译环境
查看>>
linux下tar压缩/解压的使用(tar) 压缩/解压
查看>>
菜单each+hover
查看>>
乐观锁和悲观锁【转】
查看>>
抵制长假,呼唤年假!
查看>>
Linux的安装
查看>>
修復 “Failed to bring up eth0″ in Ubuntu virtualbox
查看>>
发现linux主机再用代理上网的情况下不能用wget从外网下载资源
查看>>
查找链表中倒数第k个结点
查看>>
不只是技术!成为IT经理必备的十大软技能
查看>>
基于AgileEAS.NET SOA 平台SAAS架构技术的开源分销ERP系统-SmartERP.NET下载配置说明
查看>>
16个时髦的扁平化设计的 HTML5 & CSS3 网站模板
查看>>
c++工厂模式(Factory method)
查看>>
[RGEOS]空间拓扑关系
查看>>
java_queue
查看>>
JavaScript escape encodeURI
查看>>
Exchange模式功能
查看>>
Tomcat性能优化(二) 启动参数设置
查看>>
Today See>
查看>>
kiddouk/redisco
查看>>