緩存
緩存比較好理解,在大型高併發系統中,如果沒有緩存數據庫將分分鐘被爆,系統也會瞬間癱瘓。
使用緩存不單單能夠提升系統訪問速度、提高併發訪問量,也是保護數據庫、保護系統的有效方式。大型網站一般主要是“讀”,緩存的使用很容易被想到。
在大型“寫”系統中,緩存也常常扮演者非常重要的角色。比如累積一些數據批量寫入,內存裏面的緩存隊列(生產消費),以及HBase寫數據的機制等等也都是通過緩存提升系統的吞吐量或者實現系統的保護措施。甚至消息中間件,你也可以認爲是一種分佈式的數據緩存。
降級
服務降級是當服務器壓力劇增的情況下,根據當前業務情況及流量對一些服務和頁面有策略的降級,以此釋放服務器資源以保證核心任務的正常運行。
降級往往會指定不同的級別,面臨不同的異常等級執行不同的處理。根據服務方式:可以拒接服務,可以延遲服務,也有時候可以隨機服務。
根據服務範圍:可以砍掉某個功能,也可以砍掉某些模塊。總之服務降級需要根據不同的業務需求採用不同的降級策略。主要的目的就是服務雖然有損但是總比沒有好。
限流
限流可以認爲服務降級的一種,限流就是限制系統的輸入和輸出流量已達到保護系統的目的。
一般來說系統的吞吐量是可以被測算的,爲了保證系統的穩定運行,一旦達到的需要限制的閾值,就需要限制流量並採取一些措施以完成限制流量的目的。
比如:延遲處理,拒絕處理,或者部分拒絕處理等等。
限流的算法
常見的限流算法有:計數器、漏桶和令牌桶算法。
計數器
計數器是最簡單粗暴的算法。比如某個服務最多隻能每秒鐘處理100個請求。我們可以設置一個1秒鐘的滑動窗口,窗口中有10個格子,每個格子100毫秒,每100毫秒移動一次,每次移動都需要記錄當前服務請求的次數。
內存中需要保存10次的次數。可以用數據結構LinkedList來實現。格子每次移動的時候判斷一次,當前訪問次數和LinkedList中最後一個相差是否超過100,如果超過就需要限流了。
很明顯,當滑動窗口的格子劃分的越多,那麼滑動窗口的滾動就越平滑,限流的統計就會越精確。
示例代碼如下:
//服務訪問次數,可以放在Redis中,實現分佈式系統的訪問計數
Long counter = 0L;
//使用LinkedList來記錄滑動窗口的10個格子。
LinkedList<Long> ll = new LinkedList<Long>();
public static void main(String[] args)
{
Counter counter = new Counter();
counter.doCheck();
}
private void doCheck()
{
while (true)
{
ll.addLast(counter);
if (ll.size() > 10)
{
ll.removeFirst();
}
//比較最後一個和第一個,兩者相差一秒
if ((ll.peekLast() - ll.peekFirst()) > 100)
{
//To limit rate
}
Thread.sleep(100);
}
}
漏桶算法
漏桶算法即leaky bucket是一種非常常用的限流算法,可以用來實現流量整形(Traffic Shaping)和流量控制(Traffic Policing)。
貼了一張維基百科上示意圖幫助大家理解:
漏桶算法的主要概念如下:
一個固定容量的漏桶,按照常量固定速率流出水滴;
如果桶是空的,則不需流出水滴;
可以以任意速率流入水滴到漏桶;
如果流入水滴超出了桶的容量,則流入的水滴溢出了(被丟棄),而漏桶容量是不變的。
漏桶算法比較好實現,在單機系統中可以使用隊列來實現(.Net中TPL DataFlow可以較好的處理類似的問題,你可以在這裏找到相關的介紹),在分佈式環境中消息中間件或者Redis都是可選的方案。
令牌桶算法
令牌桶算法是一個存放固定容量令牌(token)的桶,按照固定速率往桶裏添加令牌。令牌桶算法基本可以用下面的幾個概念來描述:
令牌將按照固定的速率被放入令牌桶中。比如每秒放10個。
桶中最多存放b個令牌,當桶滿時,新添加的令牌被丟棄或拒絕。
當一個n個字節大小的數據包到達,將從桶中刪除n個令牌,接着數據包被髮送到網絡上。
如果桶中的令牌不足n個,則不會刪除令牌,且該數據包將被限流(要麼丟棄,要麼緩衝區等待)。
如下圖:
令牌算法是根據放令牌的速率去控制輸出的速率,也就是上圖的to network的速率。to network我們可以理解爲消息的處理程序,執行某段業務或者調用某個RPC。
漏桶和令牌桶的比較
令牌桶可以在運行時控制和調整數據處理的速率,處理某時的突發流量。放令牌的頻率增加可以提升整體數據處理的速度,而通過每次獲取令牌的個數增加或者放慢令牌的發放速度和降低整體數據處理速度。而漏桶不行,因爲它的流出速率是固定的,程序處理速度也是固定的。更多算法相關:算法聚合
整體而言,令牌桶算法更優,但是實現更爲複雜一些。
限流算法實現
Guava
Guava是一個Google開源項目,包含了若干被Google的Java項目廣泛依賴的核心庫,其中的RateLimiter提供了令牌桶算法實現:平滑突發限流(SmoothBursty)和平滑預熱限流(SmoothWarmingUp)實現。
1. 常規速率:
創建一個限流器,設置每秒放置的令牌數:2個。返回的RateLimiter對象可以保證1秒內不會給超過2個令牌,並且是固定速率的放置。達到平滑輸出的效果
public void test()
{
/**
* 創建一個限流器,設置每秒放置的令牌數:2個。速率是每秒可以2個的消息。
* 返回的RateLimiter對象可以保證1秒內不會給超過2個令牌,並且是固定速率的放置。達到平滑輸出的效果
*/
RateLimiter r = RateLimiter.create(2);
while (true)
{
/**
* acquire()獲取一個令牌,並且返回這個獲取這個令牌所需要的時間。如果桶裏沒有令牌則等待,直到有令牌。
* acquire(N)可以獲取多個令牌。
*/
System.out.println(r.acquire());
}
}
上面代碼執行的結果如下圖,基本是0.5秒一個數據。拿到令牌後才能處理數據,達到輸出數據或者調用接口的平滑效果。
acquire()的返回值是等待令牌的時間,如果需要對某些突發的流量進行處理的話,可以對這個返回值設置一個閾值,根據不同的情況進行處理,比如過期丟棄。
2. 突發流量:
突發流量可以是突發的多,也可以是突發的少。首先來看個突發多的例子。還是上面例子的流量,每秒2個數據令牌。如下代碼使用acquire方法,指定參數。
System.out.println(r.acquire(2));
System.out.println(r.acquire(1));
System.out.println(r.acquire(1));
System.out.println(r.acquire(1));
得到如下類似的輸出。
如果要一次新處理更多的數據,則需要更多的令牌。代碼首先獲取2個令牌,那麼下一個令牌就不是0.5秒之後獲得了,還是1秒以後,之後又恢復常規速度。這是一個突發多的例子,如果是突發沒有流量,如下代碼:
System.out.println(r.acquire(1));
Thread.sleep(2000);
System.out.println(r.acquire(1));
System.out.println(r.acquire(1));
System.out.println(r.acquire(1));
得到如下類似的結果:
等了兩秒鐘之後,令牌桶裏面就積累了3個令牌,可以連續不花時間的獲取出來。處理突發其實也就是在單位時間內輸出恆定。
這兩種方式都是使用的RateLimiter的子類SmoothBursty。另一個子類是SmoothWarmingUp,它提供的有一定緩衝的流量輸出方案。
/**
* 創建一個限流器,設置每秒放置的令牌數:2個。速率是每秒可以210的消息。
* 返回的RateLimiter對象可以保證1秒內不會給超過2個令牌,並且是固定速率的放置。達到平滑輸出的效果
* 設置緩衝時間爲3秒
*/
RateLimiter r = RateLimiter.create(2,3,TimeUnit.SECONDS);
while (true) {
/**
* acquire()獲取一個令牌,並且返回這個獲取這個令牌所需要的時間。如果桶裏沒有令牌則等待,直到有令牌。
* acquire(N)可以獲取多個令牌。
*/
System.out.println(r.acquire(1));
System.out.println(r.acquire(1));
System.out.println(r.acquire(1));
System.out.println(r.acquire(1));
}
輸出結果如下圖,由於設置了緩衝的時間是3秒,令牌桶一開始並不會0.5秒給一個消息,而是形成一個平滑線性下降的坡度,頻率越來越高,在3秒鐘之內達到原本設置的頻率,以後就以固定的頻率輸出。
圖中紅線圈出來的3次累加起來正好是3秒左右。這種功能適合系統剛啓動需要一點時間來“熱身”的場景。
Nginx
對於Nginx接入層限流可以使用Nginx自帶了兩個模塊:
連接數限流模塊ngx_http_limit_conn_module
漏桶算法實現的請求限流模塊ngx_http_limit_req_module
1. ngx_http_limit_conn_module
我們經常會遇到這種情況,服務器流量異常,負載過大等等。對於大流量惡意的攻擊訪問,會帶來帶寬的浪費,服務器壓力,影響業務,往往考慮對同一個ip的連接數,併發數進行限制。
ngx_http_limit_conn_module 模塊來實現該需求。該模塊可以根據定義的鍵來限制每個鍵值的連接數,如同一個IP來源的連接數。並不是所有的連接都會被該模塊計數,只有那些正在被處理的請求(這些請求的頭信息已被完全讀入)所在的連接纔會被計數。
我們可以在nginx_conf的http{}中加上如下配置實現限制:
#限制每個用戶的併發連接數,取名one
limit_conn_zone $binary_remote_addr zone=one:10m;
#配置記錄被限流後的日誌級別,默認error級別
limit_conn_log_level error;
#配置被限流後返回的狀態碼,默認返回503
limit_conn_status 503;
然後在server{}里加上如下代碼:
#限制用戶併發連接數爲1
limit_conn one 1;
然後我們是使用ab測試來模擬併發請求:
ab -n 5 -c 5 http://10.23.22.239/index.html
得到下面的結果,很明顯併發被限制住了,超過閾值的都顯示503:
另外剛纔是配置針對單個IP的併發限制,還是可以針對域名進行併發限制,配置和客戶端IP類似。
#http{}段配置
limit_conn_zone $ server_name zone=perserver:10m;
#server{}段配置
limit_conn perserver 1;
2. ngx_http_limit_req_module
上面我們使用到了ngx_http_limit_conn_module 模塊,來限制連接數。那麼請求數的限制該怎麼做呢?這就需要通過ngx_http_limit_req_module 模塊來實現,該模塊可以通過定義的鍵值來限制請求處理的頻率。
特別的,可以限制來自單個IP地址的請求處理頻率。限制的方法是使用了漏斗算法,每秒固定處理請求數,推遲過多請求。如果請求的頻率超過了限制域配置的值,請求處理會被延遲或被丟棄,所以所有的請求都是以定義的頻率被處理的。
在http{}中配置
#區域名稱爲one,大小爲10m,平均處理的請求頻率不能超過每秒一次。
limit_req_zone $binary_remote_addr zone=one:10m rate=1r/s;
在server{}中配置
#設置每個IP桶的數量爲5
limit_req zone=one burst=5;
上面設置定義了每個IP的請求處理只能限制在每秒1個。並且服務端可以爲每個IP緩存5個請求,如果操作了5個請求,請求就會被丟棄。
使用ab測試模擬客戶端連續訪問10次:
ab -n 10 -c 10 http://10.23.22.239/index.html
如下圖,設置了通的個數爲5個。一共10個請求,第一個請求馬上被處理。第2-6個被存放在桶中。由於桶滿了,沒有設置nodelay因此,餘下的4個請求被丟棄。