netstat下time_wait数过多引起的问题

在做ministored 性能测试的时候,需要尽可能快的发送http请求给server端。因此做了一个循环,让client不停的发送,中间用usleep来控制发送的频率,最开始的时候usleep的值设置的很小,结果发现很快Server就不能给client正确的响应,client收不到数据,然后出现了coredump,用netstat -anp |grep 1314以后发现,处于time_wait的链接数太多了,有2-3只多。于是分析问题可能是被占用的套接字太多了,导致server创建不了新的套接字。

 

解决的办法,在 /etc/sysctl.conf加入下面几句话

net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_fin_timeout = 30
net.ipv4.tcp_keepalive_time = 1200   
net.ipv4.ip_local_port_range = 1024    65000   ## 端口分配范围
net.ipv4.tcp_max_tw_buckets = 5000   ## 设置"time_wait"的桶最多容纳5000个

添加完毕以后

sysctl -p 让以上配置生效

 

一个个解释下

net.ipv4.tcp_tw_reuse = 1
表示开启重用。允许将TIME-WAIT sockets重新用于新的TCP连接,默认为0,表示关闭;
net.ipv4.tcp_tw_recycle = 1
表示开启TCP连接中TIME-WAIT sockets的快速回收,默认为0,表示关闭。
net.ipv4.tcp_fin_timeout = 30
表示如果套接字由本端要求关闭,这个参数决定了它保持在FIN-WAIT-2状态的时间。
net.ipv4.tcp_keepalive_time = 1200
表示当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时,改为20分钟。
net.ipv4.ip_local_port_range = 1024 ? ?65000
表示用于向外连接的端口范围。缺省情况下很小:32768到61000,改为1024到65000。
net.ipv4.tcp_max_syn_backlog = 8192
表示SYN队列的长度,默认为1024,加大队列长度为8192,可以容纳更多等待连接的网络连接数。
net.ipv4.tcp_max_tw_buckets = 5000
表示系统同时保持TIME_WAIT套接字的最大数量,如果超过这个数字,TIME_WAIT套接字将立刻被清除并打印警告信息。默认为180000,改为5000。

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章