服務器:淺談 Nginx 性能調優,太實用了!


Linux系統參數優化


下文中提到的一些配置,需要較新的Linux(2.6以上)內核才能夠支持,筆者使用的CentOS 7.4,內核版本3.10,如果不滿足需要的話,最好進行相應的升級,畢竟打補丁是件費力不討好的事情。


對於系統層面的調優,通常我們修改文件描述符限制、緩衝區隊列長度以及臨時端口數量就可以了。


文件描述符限制


由於每個TCP連接都要佔用一個文件描述符,一旦文件描述符耗盡,新的連接到來就會返回“Too many open files”這樣的錯誤,爲了提高性能,我們需要對其進行修改:


1.系統層級的限制 編輯文件 /etc/sysctl.conf,添加如下內容:


`fs.file-max =10000000`
`fs.nr_open =10000000`


2.用戶層級的限制 編輯文件 /etc/security/limits.conf,添加以下內容:


`*      hard   nofile      1000000`
`*      soft   nofile      1000000`


這裏我們只要保證用戶層級限制不大於系統層級限制就可以了,否則可能會出現無法通過SSH登錄系統的問題。


修改完畢執行如下命令:


`$ sysctl -p`


可以通過執行命令 ulimit -a查看是否修改成功。


TCP連接隊列長度


編輯文件 /etc/sysctl.conf,添加如下內容:


`# The length of the syn quene`
`net.ipv4.tcp_max_syn_backlog =65535`
`# The length of the tcp accept queue`
`net.core.somaxconn =65535`


其中 tcp_max_syn_backlog用於指定半連接SYN隊列長度,當新連接到來時,系統會檢測半連接SYN隊列,如果隊列已滿,則無法處理該SYN請求,並在 /proc/net/netstat中的 ListenOverflows和 ListenDrops中增加統計計數somaxconn用於指定全連接ACCEPT隊列長度,當該隊列滿了以後,客戶端發送的ACK包將無法被正確處理,並返回錯誤"connection reset by peer"Nginx則會記錄一條error日誌"no live upstreams while connecting to upstreams"如果出現以上錯誤,我們需要考慮增大這兩項的配置。


臨時端口


由於Nginx用作代理,每個到上游Web服務的TCP連接都要佔用一個臨時端口,因此我們需要修改 ip_local_port_range參數 修改 /etc/sysctl.conf文件,添加如下內容:


`net.ipv4.ip_local_port_range =102465535`
`net.ipv4.ip_local_reserved_ports =8080,8081,9000-9010`


其中,參數 ip_local_reserved_ports用於指定保留端口,這是爲了防止服務端口被佔用而無法啓動。


Nginx參數優化


Nginx參數優化主要圍繞 nginx.conf這個配置文件展開,下文不再贅述。


工作進程


Nginx性能強大的一個重要原因在於它採用多進程非阻塞I/O模型,因此我們要妥善利用這一點:


  • worker_processes  默認的Nginx只有一個master進程一個worker進程,我們需要對其進行修改,可以設置爲指定的個數,也可以設置爲 auto,即系統的CPU核數。更多的worker數量將導致進程間競爭cpu資源,從而帶來不必要的上下文切換。因此這裏我們將它設置爲cpu的核數即可:worker_processes   auto

  • worker_connections 每個worker可以處理的併發連接數,默認值512不是很夠用,我們適當將它增大:   worker_connections 4096

  • Nginx支持以下I/O複用方法處理連接:select、 poll、 kqueue、 epoll、 rtsig、 /dev/poll、 eventport。它們分別適用於不同的操作系統,其中 epoll是Linux系統上面效率最高的:use epoll


KeepAlive


爲了避免從Nginx到Web服務頻繁的建立、斷開連接,我們可以啓用從HTTP 1.1開始支持的KeepAlive長連接特性,它可以大幅減少CPU和網絡開銷,在我們的實戰中也是對性能提高最大的一環。


keepalive必須和 proxy_http_version與 proxy_set_header結合使用, 參考配置如下:


`upstream BACKEND {`
`    keepalive 300;`
`    server 127.0.0.1:8081;`
`}`
`server {`
`    listen 8080;`
`    location /{`
`        proxy_pass http://BACKEND;`
`        proxy_http_version 1.1;`
`        proxy_set_header Connection"";`
`}`
`}`


其中 keepalive既非timeout,也不是連接池數量,官方解釋如下:


The connections parameter sets the maximum number of idle keepalive connections to upstream servers that are preserved in the cache of each worker process. When this number is exceeded, the least recently used connections are closed.


可以看出它的意思是“最大空閒長連接數量”,超出這個數量的空閒長連接將被回收,當請求數量穩定而平滑時,空閒長連接數量將會非常小(接近於0),而現實中請求數量是不可能一直平滑而穩定的,當請求數量有波動時,空閒長連接數量也隨之波動:


  • 當空閒長連接數量大於配置值時,將會導致大於配置值的那部分長連接被回收;

  • 當長連接不夠用時,將會重新建立新的長連接。


因此,如果這個值過小的話,就會導致連接池頻繁的回收、分配、再回收。


爲了避免這種情況出現,可以根據實際情況適當調整這個值,在我們實際情況中,目標QPS爲6000,Web服務響應時間約爲200ms,因此需要約1200個長連接,而 keepalive值取長連接數量的10%~30%就可以了,這裏我們取300,如果不想計算,直接設爲1000也是可行的。


Access-Log緩存


記錄日誌的I/O開銷比較高,好在Nginx支持日誌緩存,我們可以利用這個功能,降低寫日誌文件的頻率,從而提高性能。


可以將 buffer和 flush兩個參數結合使用來控制緩存行爲:


`access_log /var/logs/nginx-access.log buffer=64k gzip flush=1m`


其中 buffer制定了緩存大小,當緩衝區達到 buffer所指定的大小時,Nginx就會將緩存起來的日誌寫到文件中;flush指定了緩存超時時間,當 flush指定的時間到達時,也會觸發緩存日誌寫入文件操作。


文件描述符限制


上一節中已經對Linux系統的文件描述符限制進行了修改,Nginx配置中同樣有相應的配置項:worker_rlimit_nofile, 理論上這個值應該設置爲 /etc/security/limits.conf 中的值除以 worker_processes, 但實際中不可能每個進程均勻分配,所以這裏只要設置成和 /etc/security/limits.conf 一樣就可以了


`worker_rlimit_nofile 1000000;`


總結


以上就是筆者進行Nginx調優的一些經驗,可以看出基本是圍繞Nginx的Error日誌展開的,之後又對一些比較大的性能瓶頸進行了一些改進。


Nginx能夠優化的地方非常多,本文只涉及到了其中很小的一些方面,但也足夠滿足我們的使用場景了。



IT技術分享社區


個人博客網站:https://programmerblog.xyz


文章推薦 程序員效率:畫流程圖常用的工具 程序員效率:整理常用的在線筆記軟件 遠程辦公:常用的遠程協助軟件,你都知道嗎? 51單片機程序下載、ISP及串口基礎知識 硬件:斷路器、接觸器、繼電器基礎知識





本文分享自微信公衆號 - IT技術分享社區(gh_a27c0758eb03)。
如有侵權,請聯繫 [email protected] 刪除。
本文參與“OSC源創計劃”,歡迎正在閱讀的你也加入,一起分享。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章