ES max file descriptors [4096] for elasticsearch process is too low, increase to at least [65535]

原文連接 : https://www.talkwithtrend.com/Article/31575


網上有好多修改ulimit的文章,但大多僅限於對當前交互shell的修改,如果只是爲了提高某一次執行腳本的文件句柄打開數,以下方法非常有效:

操作系統: CentOS 5.1 x86_64

1)修改當前交互終端的limit值

查詢當前終端的文件句柄數: ulimit -n 回車,一般的系統默認的1024.

修改文件句柄數爲65535,ulimit -n 65535.此時系統的文件句柄數爲65535.

2)將ulimit 值添加到/etc/profile文件中(適用於有root權限登錄的系統)

爲了每次系統重新啓動時,都可以獲取更大的ulimit值,將ulimit 加入到/etc/profile 文件底部。

echo ulimit -n 65535 >>/etc/profile

source /etc/profile    #加載修改後的profile

ulimit -n     #顯示65535,修改完畢!


OK,好多朋友都以爲大功告成了,可以突然發現自己再次登錄進來的時候,ulimit的值還是1024,這是爲什麼呢?
關鍵的原因是你登錄的用戶是什麼身份,是不是root用戶,由於服務器的root用戶權限很大,一般是不能用來登錄的,都是通過自己本人的登錄權限進行登錄,並通過sudo方式切換到root用戶下進行工作。 用戶登錄的時候執行sh腳本的順序:
/etc/profile.d/file
/etc/profile
/etc/bashrc
/mingjie/.bashrc
/mingjie/.bash_profile

由於ulimit -n的腳本命令加載在第二部分,用戶登錄時由於權限原因在第二步還不能完成ulimit的修改,所以ulimit的值還是系統默認的1024。

解決辦法:
修改linux的軟硬件限制文件/etc/security/limits.conf.

在文件尾部添加如下代碼:
* soft nofile 65535
* hard nofile 65535

保存並推出,命令說明:
domino type item value
domino是以符號@開頭的用戶名或組名,*表示所有用戶,type設置爲hard or soft。item指定想限制的資源。如cpu,core nofile nproc or maxlogins。value是相應的限制值。

保存後如何讓其文件生效呢,我在網上也搜索的很久,都沒什麼答案,最後很好笑的是,只需要重新登錄一次,ulimit的值就生效了,如果還不行就 reboot(重新啓動服務器)。  

 

回答一、

[root@lxadmin nginx]# cat /proc/sys/fs/file-max
8192
文件系統最大可打開文件數
[root@lxadmin nginx]# ulimit -n
1024
程序限制只能打開1024個文件
使用[root@lxadmin nginx]# ulimit -n 8192調整一下
或者永久調整打開文件數 可在啓動文件/etc/rc.d/rc.local末尾添加(在/etc/sysctl.conf末尾添加fs.file-max=xxx無效)

ulimit -n 8192

回答二、

Linux內核有時會報告“Too many open files”,起因是file-max默認值(8096)太小。要解決這個問題,可以root身份執行下列命令(或將它們加入/etc/rcS.d/*下的init腳本。)

# echo "65536" > /proc/sys/fs/file-max # 適用於2.2和2.4版內核
# echo "131072" > /proc/sys/fs/inode-max # 僅適用於2.2版內核

回答三、

辦法是修改操作系統的打開文件數量限制,方法如下:

1. 按照最大打開文件數量的需求設置系統, 並且通過檢查/proc/sys/fs/file-max文件來確認最大打開文件數已經被正確設置。
# cat /proc/sys/fs/file-max
如果設置值太小, 修改文件/etc/sysctl.conf的變量到合適的值。 這樣會在每次重啓之後生效。 如果設置值夠大,跳過下步。
# echo 2048 > /proc/sys/fs/file-max
編輯文件/etc/sysctl.conf,插入下行。
fs.file-max = 8192

2. 在/etc/security/limits.conf文件中設置最大打開文件數, 下面是一行提示:
#
添加如下這行。
* - nofile 8192

這行設置了每個用戶的默認打開文件數爲2048。 注意"nofile"項有兩個可能的限制措施。就是項下的hard和soft。 要使修改過得最大打開文件數生效,必須對這兩種限制進行設定。 如果使用"-"字符設定, 則hard和soft設定會同時被設定。
硬限制表明soft限制中所能設定的最大值。 soft限制指的是當前系統生效的設置值。 hard限制值可以被普通用戶降低。但是不能增加。 soft限制不能設置的比hard限制更高。 只有root用戶才能夠增加hard限制值。
當增加文件限制描述,可以簡單的把當前值雙倍。 例子如下, 如果你要提高默認值1024, 最好提高到2048, 如果還要繼續增加, 就需要設置成4096。

另外一種情況是在創建索引的時候,也有兩種可能,一種是合併因子太小,導致創建文件數量超過操作系統限制,這時可以修改合併因子,也可以修改操作系統的打開文件數限制;另外一種是合併因子受虛擬機內存的限制,無法調整到更大,而 需要索引的doc 數量又非常的大,這個時候就只能通過修改操作系統的打開文件數限制來解決了。

在此基礎上,我還修改了以下一個配置文件
vi /etc/sysctl.conf
添加:
# Decrease the time default value for tcp_fin_timeout connection
net.ipv4.tcp_fin_timeout = 30
# Decrease the time default value for tcp_keepalive_time connection
net.ipv4.tcp_keepalive_time = 1800
# Turn off tcp_window_scaling
net.ipv4.tcp_window_scaling = 0
# Turn off the tcp_sack
net.ipv4.tcp_sack = 0
#Turn off tcp_timestamps
net.ipv4.tcp_timestamps = 0
然後 service network restart,這些都和TCP sockets有關的優化。

另外需要在 /etc/rc.d/rc.local裏添加已使得重啓的時候生效。
echo "30">/proc/sys/net/ipv4/tcp_fin_timeout
echo "1800">/proc/sys/net/ipv4/tcp_keepalive_time
echo "0">/proc/sys/net/ipv4/tcp_window_scaling
echo "0">/proc/sys/net/ipv4/tcp_sack
echo "0">/proc/sys/net/ipv4/tcp_timestamps
因爲不是所有的程序都在root下跑的,所有linux有對hard 與soft open files 的區分,普通用戶受hard的限制,無論ulimit -n $數值調到多高,都跑不到 /etc/security/limits.conf裏nofile的值.

這樣的優化後 lsof -p $java_pid|wc -l可以跑到4千以上都不會拋出too many open files。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章