深度總結|阿里P8Java架構師帶你深入淺出Nginx

前言

Nginx是一款輕量級的Web服務器、反向代理服務器,由於它的內存佔用少,啓動極快,高併發能力強,在互聯網項目中廣泛應用。


v2-9f1aa002009f5fbf3da6ae67e0c4bfe5_hd.jpg

架構圖




上圖基本上說明了當下流行的技術架構,其中Nginx有點入口網關的味道。

反向代理服務器?

經常聽人說到一些術語,如反向代理,那麼什麼是反向代理,什麼又是正向代理呢?

正向代理:


v2-b5a3146a17cf864e1c079433b561a3d1_hd.jpg

正向代理示意圖




反向代理:


v2-7aa51ac1457546f628fda06cf4fd9964_hd.jpg

反向代理示意圖




由於防火牆的原因,我們並不能直接訪問谷歌,那麼我們可以藉助×××來實現,這就是一個簡單的正向代理的例子。這裏你能夠發現,正向代理“代理”的是客戶端,而且客戶端是知道目標的,而目標是不知道客戶端是通過×××訪問的。當我們在外網訪問百度的時候,其實會進行一個轉發,代理到內網去,這就是所謂的反向代理,即反向代理“代理”的是服務器端,而且這一個過程對於客戶端而言是透明的。

Nginx的Master-Worker模式



v2-e6dacd6621556e836abc07fca1cf28b6_hd.jpg




nginx進程

啓動Nginx後,其實就是在80端口啓動了Socket服務進行監聽,如圖所示,Nginx涉及Master進程和Worker進程。



v2-175ed55098e0aa62ca93a27b10178127_hd.jpg




Master-Worker模式


v2-9141ab35b4fa504c26ab134f78ab9b9e_hd.jpg




nginx.conf

Master進程的作用是?讀取並驗證配置文件nginx.conf;管理worker進程;Worker進程的作用是?每一個Worker進程都維護一個線程(避免線程切換),處理連接和請求;注意Worker進程的個數由配置文件決定,一般和CPU個數相關(有利於進程切換),配置幾個就有幾個Worker進程。

思考:Nginx如何做到熱部署?

所謂熱部署,就是配置文件nginx.conf修改後,不需要stop Nginx,不需要中斷請求,就能讓配置文件生效!(nginx -s reload 重新加載/nginx -t檢查配置/nginx -s stop)通過上文我們已經知道worker進程負責處理具體的請求,那麼如果想達到熱部署的效果,可以想象:方案一:修改配置文件nginx.conf後,主進程master負責推送給woker進程更新配置信息,woker進程收到信息後,更新進程內部的線程信息。(有點valatile的味道)方案二:修改配置文件nginx.conf後,重新生成新的worker進程,當然會以新的配置進行處理請求,而且新的請求必須都交給新的worker進程,至於老的worker進程,等把那些以前的請求處理完畢後,kill掉即可。Nginx採用的就是方案二來達到熱部署的!

思考:Nginx如何做到高併發下的高效處理?

上文已經提及Nginx的worker進程個數與CPU綁定、worker進程內部包含一個線程高效迴環處理請求,這的確有助於效率,但這是不夠的。作爲專業的程序員,我們可以開一下腦洞:BIO/NIO/AIO、異步/同步、阻塞/非阻塞...要同時處理那麼多的請求,要知道,有的請求需要發生IO,可能需要很長時間,如果等着它,就會拖慢worker的處理速度。Nginx採用了Linux的epoll模型,epoll模型基於事件驅動機制,它可以監控多個事件是否準備完畢,如果OK,那麼放入epoll隊列中,這個過程是異步的。worker只需要從epoll隊列循環處理即可。

思考:Nginx掛了怎麼辦?

Nginx既然作爲入口網關,很重要,如果出現單點問題,顯然是不可接受的。答案是:Keepalived+Nginx實現高可用。Keepalived是一個高可用解決方案,主要是用來防止服務器單點發生故障,可以通過和Nginx配合來實現Web服務的高可用。(其實,Keepalived不僅僅可以和Nginx配合,還可以和很多其他服務配合)Keepalived+Nginx實現高可用的思路:第一:請求不要直接打到Nginx上,應該先通過Keepalived(這就是所謂虛擬IP,VIP)第二:Keepalived應該能監控Nginx的生命狀態(提供一個用戶自定義的腳本,定期檢查Nginx進程狀態,進行權重變化,,從而實現Nginx故障切換)



v2-90b957fdc39c005fe6c7712eb2d133db_hd.jpg




Keepalived+Nginx

我們的主戰場:nginx.conf

很多時候,在開發、測試環境下,我們都得自己去配置Nginx,就是去配置nginx.conf。nginx.conf是典型的分段配置文件,下面我們來分析下。

虛擬主機


v2-1757d5c1616afde0f929b1409f6e712f_hd.jpg




http的server段


v2-ae74da11dac93c94f92d683105b7fc8d_hd.jpg




訪問結果

其實這是把Nginx作爲web server來處理靜態資源。第一:location可以進行正則匹配,應該注意正則的幾種形式以及優先級。(這裏不展開)第二:Nginx能夠提高速度的其中一個特性就是:動靜分離,就是把靜態資源放到Nginx上,由Nginx管理,動態請求轉發給後端。第三:我們可以在Nginx下把靜態資源、日誌文件歸屬到不同域名下(也即是目錄),這樣方便管理維護。第四:Nginx可以進行IP訪問控制,有些電商平臺,就可以在Nginx這一層,做一下處理,內置一個黑名單模塊,那麼就不必等請求通過Nginx達到後端在進行攔截,而是直接在Nginx這一層就處理掉。

反向代理【proxy_pass】

所謂反向代理,很簡單,其實就是在location這一段配置中的root替換成proxy_pass即可。root說明是靜態資源,可以由Nginx進行返回;而proxy_pass說明是動態請求,需要進行轉發,比如代理到Tomcat上。反向代理,上面已經說了,過程是透明的,比如說request -> Nginx -> Tomcat,那麼對於Tomcat而言,請求的IP地址就是Nginx的地址,而非真實的request地址,這一點需要注意。不過好在Nginx不僅僅可以反向代理請求,還可以由用戶自定義設置HTTP HEADER

負載均衡【upstream】

上面的反向代理中,我們通過proxy_pass來指定Tomcat的地址,很顯然我們只能指定一臺Tomcat地址,那麼我們如果想指定多臺來達到負載均衡呢?第一,通過upstream來定義一組Tomcat,並指定負載策略(IPHASH、加權論調、最少連接),健康檢查策略(Nginx可以監控這一組Tomcat的狀態)等。第二,將proxy_pass替換成upstream指定的值即可。負載均衡可能帶來的問題?負載均衡所帶來的明顯的問題是,一個請求,可以到A server,也可以到B server,這完全不受我們的控制,當然這也不是什麼問題,只是我們得注意的是:用戶狀態的保存問題,如Session會話信息,不能在保存到服務器上。

緩存

緩存,是Nginx提供的,可以加快訪問速度的機制,說白了,在配置上就是一個開啓,同時指定目錄,讓緩存可以存儲到磁盤上。具體配置,大家可以參考Nginx官方文檔,這裏就不在展開了。

好了,到這裏,Nginx的介紹就到這裏了。


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章