nginx在應用程序中的作用
- 解決跨域
- 請求過濾
- 配置gzip
- 負載均衡
- 靜態資源服務器
nginx是一個高性能的HTTP和反向代理服務器,也是一個通用的TCP/UDP代理服務器,最初由俄羅斯人Igor Sysoev編寫。
nginx現在幾乎是衆多大型網站的必用技術,大多數情況下,我們不需要親自去配置它,但是瞭解它在應用程序中所擔任的角色,以及如何解決這些問題是非常必要的。
下面我將從nginx在企業中的真實應用來解釋nginx在應用程序中起到的作用。
爲了便於理解,首先先來了解一下一些基礎知識,nginx是一個高性能的反向代理服務器
那麼什麼是反向代理呢?
正向代理與反向代理
代理是在服務器和客戶端之間假設的一層服務器,代理將接收客戶端的請求並將它轉發給服務器,然後將服務端的響應轉發給客戶端。
不管是正向代理還是反向代理,實現的都是上面的功能。
正向代理
正向代理,意思是一個位於客戶端和原始服務器(origin server)之間的服務器,爲了從原始服務器取得內容,客戶端向代理髮送一個請求並指定目標(原始服務器),然後代理向原始服務器轉交請求並將獲得的內容返回給客戶端。
正向代理是爲我們服務的,即爲客戶端服務的,客戶端可以根據正向代理訪問到它本身無法訪問到的服務器資源。
正向代理對我們是透明的,對服務端是非透明的,即服務端並不知道自己收到的是來自代理的訪問還是來自真實客戶端的訪問。
反向代理
** 反向代理**(Reverse Proxy)方式是指以代理服務器來接受internet上的連接請求,然後將請求轉發給內部網絡上的服務器,並將從服務器上得到的結果返回給internet上請求連接的客戶端,此時代理服務器對外就表現爲一個反向代理服務器。
反向代理是爲服務端服務的,反向代理可以幫助服務器接收來自客戶端的請求,幫助服務器做請求轉發,負載均衡等。
反向代理對服務端是透明的,對我們是非透明的,即我們並不知道自己訪問的是代理服務器,而服務器知道反向代理在爲他服務。
基本配置
配置結構
下面是一個nginx配置文件的基本結構:
events {
}
http
{
server
{
location path
{
...
}
location path
{
...
}
}
server
{
...
}
}
main
:nginx的全局配置,對全局生效。events
:配置影響nginx服務器或與用戶的網絡連接。http
:可以嵌套多個server,配置代理,緩存,日誌定義等絕大多數功能和第三方模塊的配置。server
:配置虛擬主機的相關參數,一個http中可以有多個server。location
:配置請求的路由,以及各種頁面的處理情況。upstream
:配置後端服務器具體地址,負載均衡配置不可或缺的部分。
內置變量
下面是nginx
一些配置中常用的內置全局變量,你可以在配置的任何位置使用它們。
變量名 | 功能 |
---|---|
$host |
請求信息中的Host ,如果請求中沒有Host 行,則等於設置的服務器名 |
$request_method |
客戶端請求類型,如GET 、POST |
$remote_addr |
客戶端的IP 地址 |
$args |
請求中的參數 |
$content_length |
請求頭中的Content-length 字段 |
$http_user_agent |
客戶端agent信息 |
$http_cookie |
客戶端cookie信息 |
$remote_addr |
客戶端的IP地址 |
$remote_port |
客戶端的端口 |
$server_protocol |
請求使用的協議,如HTTP/1.0 、·HTTP/1.1` |
$server_addr |
服務器地址 |
$server_name |
服務器名稱 |
$server_port |
服務器的端口號 |
解決跨域
先追本溯源以下,跨域究竟是怎麼回事。
跨域的定義
同源策略限制了從同一個源加載的文檔或腳本如何與來自另一個源的資源進行交互。這是一個用於隔離潛在惡意文件的重要安全機制。通常不允許不同源間的讀操作。
同源的定義
如果兩個頁面的協議,端口(如果有指定)和域名都相同,則兩個頁面具有相同的源。
nginx解決跨域的原理
例如:
- 前端server的域名爲:
fe.server.com
- 後端服務的域名爲:
dev.server.com
現在我在fe.server.com
對dev.server.com
發起請求一定會出現跨域。
現在我們只需要啓動一個nginx服務器,將server_name
設置爲fe.server.com
,然後設置相應的location以攔截前端需要跨域的請求,最後將請求代理回dev.server.com
。如下面的配置:
server {
listen 80;
server_name fe.server.com;
location / {
proxy_pass dev.server.com;
}
}
這樣可以完美繞過瀏覽器的同源策略:fe.server.com
訪問nginx
的fe.server.com
屬於同源訪問,而nginx
對服務端轉發的請求不會觸發瀏覽器的同源策略。
請求過濾
根據狀態碼過濾
error_page 500 501 502 503 504 506 /50x.html;
location = /50x.html {
#將跟路徑改編爲存放html的路徑。
root /root/static/html;
}
根據URL名稱過濾,精準匹配URL,不匹配的URL全部重定向到主頁。
location / {
rewrite ^.*$ /index.html redirect;
}
根據請求類型過濾。
if ( $request_method !~ ^(GET|POST|HEAD)$ ) {
return 403;
}
配置gzip
GZIP
是規定的三種標準HTTP壓縮格式之一。目前絕大多數的網站都在使用GZIP
傳輸 HTML
、CSS
、JavaScript
等資源文件。
對於文本文件,GZip
的效果非常明顯,開啓後傳輸所需流量大約會降至 1/4 ~ 1/3
。
並不是每個瀏覽器都支持gzip
的,如何知道客戶端是否支持gzip
呢,請求頭中的Accept-Encoding
來標識對壓縮的支持。
啓用gzip
同時需要客戶端和服務端的支持,如果客戶端支持gzip
的解析,那麼只要服務端能夠返回gzip
的文件就可以啓用gzip
了,我們可以通過nginx
的配置來讓服務端支持gzip
。下面的respone
中content-encoding:gzip
,指服務端開啓了gzip
的壓縮方式。
gzip on;
gzip_http_version 1.1;
gzip_comp_level 5;
gzip_min_length 1000;
gzip_types text/csv text/xml text/css text/plain text/javascript application/javascript application/x-javascript application/json application/xml;
gzip
- 開啓或者關閉
gzip
模塊 - 默認值爲
off
- 可配置爲
on / off
gzip_http_version
- 啓用
GZip
所需的HTTP
最低版本 - 默認值爲
HTTP/1.1
這裏爲什麼默認版本不是1.0
呢?
HTTP
運行在TCP
連接之上,自然也有着跟TCP
一樣的三次握手、慢啓動等特性。
啓用持久連接情況下,服務器發出響應後讓TCP
連接繼續打開着。同一對客戶/服務器之間的後續請求和響應可以通過這個連接發送。
爲了儘可能的提高 HTTP
性能,使用持久連接就顯得尤爲重要了。
HTTP/1.1
默認支持TCP
持久連接,HTTP/1.0
也可以通過顯式指定 Connection: keep-alive
來啓用持久連接。對於TCP
持久連接上的HTTP
報文,客戶端需要一種機制來準確判斷結束位置,而在 HTTP/1.0
中,這種機制只有Content-Length
。而在HTTP/1.1
中新增的 Transfer-Encoding: chunked
所對應的分塊傳輸機制可以完美解決這類問題。
nginx
同樣有着配置chunked的
屬性chunked_transfer_encoding
,這個屬性是默認開啓的。
Nginx
在啓用了GZip
的情況下,不會等文件 GZip
完成再返回響應,而是邊壓縮邊響應,這樣可以顯著提高 TTFB
(Time To First Byte
,首字節時間,WEB 性能優化重要指標)。這樣唯一的問題是,Nginx
開始返回響應時,它無法知道將要傳輸的文件最終有多大,也就是無法給出Content-Length
這個響應頭部。
所以,在HTTP1.0
中如果利用Nginx
啓用了GZip
,是無法獲得Content-Length
的,這導致HTTP1.0中開啓持久鏈接和使用GZip
只能二選一,所以在這裏gzip_http_version
默認設置爲1.1
。
gzip_comp_level
- 壓縮級別,級別越高壓縮率越大,當然壓縮時間也就越長(傳輸快但比較消耗cpu)。
- 默認值爲
1
- 壓縮級別取值爲
1-9
gzip_min_length
- 設置允許壓縮的頁面最小字節數,
Content-Length
小於該值的請求將不會被壓縮 - 默認值:
0
- 當設置的值較小時,壓縮後的長度可能比原文件大,建議設置
1000
以上
gzip_types
- 要採用gzip壓縮的文件類型(
MIME
類型) - 默認值:
text/html
(默認不壓縮js
/css
)
負載均衡
什麼是負載均衡
如上面的圖,前面是衆多的服務窗口,下面有很多用戶需要服務,我們需要一個工具或策略來幫助我們將如此多的用戶分配到每個窗口,來達到資源的充分利用以及更少的排隊時間。
把前面的服務窗口想像成我們的後端服務器,而後面終端的人則是無數個客戶端正在發起請求。負載均衡就是用來幫助我們將衆多的客戶端請求合理的分配到各個服務器,以達到服務端資源的充分利用和更少的請求時間。
nginx如何實現負載均衡
Upstream指定後端服務器地址列表
upstream balanceServer {
server 10.1.22.33:12345;
server 10.1.22.34:12345;
server 10.1.22.35:12345;
}
在server中攔截響應請求,並將請求轉發到Upstream中配置的服務器列表。
server {
server_name fe.server.com;
listen 80;
location /api {
proxy_pass http://balanceServer;
}
}
上面的配置只是指定了nginx需要轉發的服務端列表,並沒有指定分配策略。
nginx實現負載均衡的策略
輪詢策略
默認情況下采用的策略,將所有客戶端請求輪詢分配給服務端。這種策略是可以正常工作的,但是如果其中某一臺服務器壓力太大,出現延遲,會影響所有分配在這臺服務器下的用戶。
upstream balanceServer {
server 10.1.22.33:12345;
server 10.1.22.34:12345;
server 10.1.22.35:12345;
}
最小連接數策略
將請求優先分配給壓力較小的服務器,它可以平衡每個隊列的長度,並避免向壓力大的服務器添加更多的請求。
upstream balanceServer {
least_conn;
server 10.1.22.33:12345;
server 10.1.22.34:12345;
server 10.1.22.35:12345;
}
最快響應時間策略
依賴於NGINX Plus,優先分配給響應時間最短的服務器。
upstream balanceServer {
fair;
server 10.1.22.33:12345;
server 10.1.22.34:12345;
server 10.1.22.35:12345;
}
客戶端ip綁定
來自同一個ip的請求永遠只分配一臺服務器,有效解決了動態網頁存在的session共享問題。
upstream balanceServer {
ip_hash;
server 10.1.22.33:12345;
server 10.1.22.34:12345;
server 10.1.22.35:12345;
}
靜態資源服務器
location ~* \.(png|gif|jpg|jpeg)$ {
root /root/static/;
autoindex on;
access_log off;
expires 10h;# 設置過期時間爲10小時
}
匹配以png|gif|jpg|jpeg
爲結尾的請求,並將請求轉發到本地路徑,root
中指定的路徑即nginx本地路徑。同時也可以進行一些緩存的設置。
小結
nginx的功能非常強大,還有很多需要探索,上面的一些配置都是公司配置的真實應用(精簡過了),如果您有什麼意見或者建議,歡迎在下方留言…
想閱讀更多優質文章,或者需要文章中思維導圖源文件可關注我的github博客,歡迎star✨。
推薦關注我的微信公衆號【code祕密花園】,我們一起交流成長。