Java NIO淺析

來源:https://zhuanlan.zhihu.com/p/23488863


NIO(Non-blocking I/O,在Java領域,也稱爲New I/O),是一種同步非阻塞的I/O模型,也是I/O多路複用的基礎,已經被越來越多地應用到大型應用服務器,成爲解決高併發與大量連接、I/O處理問題的有效方式。

那麼NIO的本質是什麼樣的呢?它是怎樣與事件模型結合來解放線程、提高系統吞吐的呢?

本文會從傳統的阻塞I/O和線程池模型面臨的問題講起,然後對比幾種常見I/O模型,一步步分析NIO怎麼利用事件模型處理I/O,解決線程池瓶頸處理海量連接,包括利用面向事件的方式編寫服務端/客戶端程序。最後延展到一些高級主題,如Reactor與Proactor模型的對比、Selector的喚醒、Buffer的選擇等。

注:本文的代碼都是僞代碼,主要是爲了示意,不可用於生產環境。

傳統BIO模型分析

讓我們先回憶一下傳統的服務器端同步阻塞I/O處理(也就是BIO,Blocking I/O)的經典編程模型:

{
 ExecutorService executor = Excutors.newFixedThreadPollExecutor(100);//線程池

 ServerSocket serverSocket = new ServerSocket();
 serverSocket.bind(8088);
 while(!Thread.currentThread.isInturrupted()){//主線程死循環等待新連接到來
 Socket socket = serverSocket.accept();
 executor.submit(new ConnectIOnHandler(socket));//爲新的連接創建新的線程
}

class ConnectIOnHandler extends Thread{
    private Socket socket;
    public ConnectIOnHandler(Socket socket){
       this.socket = socket;
    }
    public void run(){
      while(!Thread.currentThread.isInturrupted()&&!socket.isClosed()){死循環處理讀寫事件
          String someThing = socket.read()....//讀取數據
          if(someThing!=null){
             ......//處理數據
             socket.write()....//寫數據
          }

      }
    }
}

這是一個經典的每連接每線程的模型,之所以使用多線程,主要原因在於socket.accept()、socket.read()、socket.write()三個主要函數都是同步阻塞的,當一個連接在處理I/O的時候,系統是阻塞的,如果是單線程的話必然就掛死在那裏;但CPU是被釋放出來的,開啓多線程,就可以讓CPU去處理更多的事情。其實這也是所有使用多線程的本質:

  1. 利用多核。
  2. 當I/O阻塞系統,但CPU空閒的時候,可以利用多線程使用CPU資源。

現在的多線程一般都使用線程池,可以讓線程的創建和回收成本相對較低。在活動連接數不是特別高(小於單機1000)的情況下,這種模型是比較不錯的,可以讓每一個連接專注於自己的I/O並且編程模型簡單,也不用過多考慮系統的過載、限流等問題。線程池本身就是一個天然的漏斗,可以緩衝一些系統處理不了的連接或請求。

不過,這個模型最本質的問題在於,嚴重依賴於線程。但線程是很"貴"的資源,主要表現在:

  1. 線程的創建和銷燬成本很高,在Linux這樣的操作系統中,線程本質上就是一個進程。創建和銷燬都是重量級的系統函數。
  2. 線程本身佔用較大內存,像Java的線程棧,一般至少分配512K~1M的空間,如果系統中的線程數過千,恐怕整個JVM的內存都會被吃掉一半。
  3. 線程的切換成本是很高的。操作系統發生線程切換的時候,需要保留線程的上下文,然後執行系統調用。如果線程數過高,可能執行線程切換的時間甚至會大於線程執行的時間,這時候帶來的表現往往是系統load偏高、CPU sy使用率特別高(超過20%以上),導致系統幾乎陷入不可用的狀態。
  4. 容易造成鋸齒狀的系統負載。因爲系統負載是用活動線程數或CPU核心數,一旦線程數量高但外部網絡環境不是很穩定,就很容易造成大量請求的結果同時返回,激活大量阻塞線程從而使系統負載壓力過大。

所以,當面對十萬甚至百萬級連接的時候,傳統的BIO模型是無能爲力的。隨着移動端應用的興起和各種網絡遊戲的盛行,百萬級長連接日趨普遍,此時,必然需要一種更高效的I/O處理模型。

NIO是怎麼工作的

很多剛接觸NIO的人,第一眼看到的就是Java相對晦澀的API,比如:Channel,Selector,Socket什麼的;然後就是一坨上百行的代碼來演示NIO的服務端Demo……瞬間頭大有沒有?

我們不管這些,拋開現象看本質,先分析下NIO是怎麼工作的。

常見I/O模型對比

所有的系統I/O都分爲兩個階段:等待就緒和操作。舉例來說,讀函數,分爲等待系統可讀和真正的讀;同理,寫函數分爲等待網卡可以寫和真正的寫。

需要說明的是等待就緒的阻塞是不使用CPU的,是在“空等”;而真正的讀寫操作的阻塞是使用CPU的,真正在"幹活",而且這個過程非常快,屬於memory copy,帶寬通常在1GB/s級別以上,可以理解爲基本不耗時。

下圖是幾種常見I/O模型的對比:

以socket.read()爲例子:

傳統的BIO裏面socket.read(),如果TCP RecvBuffer裏沒有數據,函數會一直阻塞,直到收到數據,返回讀到的數據。

對於NIO,如果TCP RecvBuffer有數據,就把數據從網卡讀到內存,並且返回給用戶;反之則直接返回0,永遠不會阻塞。

最新的AIO(Async I/O)裏面會更進一步:不但等待就緒是非阻塞的,就連數據從網卡到內存的過程也是異步的。

換句話說,BIO裏用戶最關心“我要讀”,NIO裏用戶最關心"我可以讀了",在AIO模型裏用戶更需要關注的是“讀完了”。

NIO一個重要的特點是:socket主要的讀、寫、註冊和接收函數,在等待就緒階段都是非阻塞的,真正的I/O操作是同步阻塞的(消耗CPU但性能非常高)。

如何結合事件模型使用NIO同步非阻塞特性

回憶BIO模型,之所以需要多線程,是因爲在進行I/O操作的時候,一是沒有辦法知道到底能不能寫、能不能讀,只能"傻等",即使通過各種估算,算出來操作系統沒有能力進行讀寫,也沒法在socket.read()和socket.write()函數中返回,這兩個函數無法進行有效的中斷。所以除了多開線程另起爐竈,沒有好的辦法利用CPU。

NIO的讀寫函數可以立刻返回,這就給了我們不開線程利用CPU的最好機會:如果一個連接不能讀寫(socket.read()返回0或者socket.write()返回0),我們可以把這件事記下來,記錄的方式通常是在Selector上註冊標記位,然後切換到其它就緒的連接(channel)繼續進行讀寫。

下面具體看下如何利用事件模型單線程處理所有I/O請求:

NIO的主要事件有幾個:讀就緒、寫就緒、有新連接到來。

我們首先需要註冊當這幾個事件到來的時候所對應的處理器。然後在合適的時機告訴事件選擇器:我對這個事件感興趣。對於寫操作,就是寫不出去的時候對寫事件感興趣;對於讀操作,就是完成連接和系統沒有辦法承載新讀入的數據的時;對於accept,一般是服務器剛啓動的時候;而對於connect,一般是connect失敗需要重連或者直接異步調用connect的時候。

其次,用一個死循環選擇就緒的事件,會執行系統調用(Linux 2.6之前是select、poll,2.6之後是epoll,Windows是IOCP),還會阻塞的等待新事件的到來。新事件到來的時候,會在selector上註冊標記位,標示可讀、可寫或者有連接到來。

注意,select是阻塞的,無論是通過操作系統的通知(epoll)還是不停的輪詢(select,poll),這個函數是阻塞的。所以你可以放心大膽地在一個while(true)裏面調用這個函數而不用擔心CPU空轉。

所以我們的程序大概的模樣是:

   interface ChannelHandler{
      void channelReadable(Channel channel);
      void channelWritable(Channel channel);
   }
   class Channel{
     Socket socket;
     Event event;//讀,寫或者連接
   }

   //IO線程主循環:
   class IoThread extends Thread{
   public void run(){
   Channel channel;
   while(channel=Selector.select()){//選擇就緒的事件和對應的連接
      if(channel.event==accept){
         registerNewChannelHandler(channel);//如果是新連接,則註冊一個新的讀寫處理器
      }
      if(channel.event==write){
         getChannelHandler(channel).channelWritable(channel);//如果可以寫,則執行寫事件
      }
      if(channel.event==read){
          getChannelHandler(channel).channelReadable(channel);//如果可以讀,則執行讀事件
      }
    }
   }
   Map<Channel,ChannelHandler> handlerMap;//所有channel的對應事件處理器
  }

這個程序很簡短,也是最簡單的Reactor模式:註冊所有感興趣的事件處理器,單線程輪詢選擇就緒事件,執行事件處理器。

優化線程模型

由上面的示例我們大概可以總結出NIO是怎麼解決掉線程的瓶頸並處理海量連接的:

NIO由原來的阻塞讀寫(佔用線程)變成了單線程輪詢事件,找到可以進行讀寫的網絡描述符進行讀寫。除了事件的輪詢是阻塞的(沒有可乾的事情必須要阻塞),剩餘的I/O操作都是純CPU操作,沒有必要開啓多線程。

並且由於線程的節約,連接數大的時候因爲線程切換帶來的問題也隨之解決,進而爲處理海量連接提供了可能。

單線程處理I/O的效率確實非常高,沒有線程切換,只是拼命的讀、寫、選擇事件。但現在的服務器,一般都是多核處理器,如果能夠利用多核心進行I/O,無疑對效率會有更大的提高。

仔細分析一下我們需要的線程,其實主要包括以下幾種:

  1. 事件分發器,單線程選擇就緒的事件。
  2. I/O處理器,包括connect、read、write等,這種純CPU操作,一般開啓CPU核心個線程就可以。
  3. 業務線程,在處理完I/O後,業務一般還會有自己的業務邏輯,有的還會有其他的阻塞I/O,如DB操作,RPC等。只要有阻塞,就需要單獨的線程。

Java的Selector對於Linux系統來說,有一個致命限制:同一個channel的select不能被併發的調用。因此,如果有多個I/O線程,必須保證:一個socket只能屬於一個IoThread,而一個IoThread可以管理多個socket。

另外連接的處理和讀寫的處理通常可以選擇分開,這樣對於海量連接的註冊和讀寫就可以分發。雖然read()和write()是比較高效無阻塞的函數,但畢竟會佔用CPU,如果面對更高的併發則無能爲力。

NIO在客戶端的魔力

通過上面的分析,可以看出NIO在服務端對於解放線程,優化I/O和處理海量連接方面,確實有自己的用武之地。那麼在客戶端上,NIO又有什麼使用場景呢?

常見的客戶端BIO+連接池模型,可以建立n個連接,然後當某一個連接被I/O佔用的時候,可以使用其他連接來提高性能。

但多線程的模型面臨和服務端相同的問題:如果指望增加連接數來提高性能,則連接數又受制於線程數、線程很貴、無法建立很多線程,則性能遇到瓶頸。

每連接順序請求的Redis

對於Redis來說,由於服務端是全局串行的,能夠保證同一連接的所有請求與返回順序一致。這樣可以使用單線程+隊列,把請求數據緩衝。然後pipeline發送,返回future,然後channel可讀時,直接在隊列中把future取回來,done()就可以了。

僞代碼如下:

class RedisClient Implements ChannelHandler{
 private BlockingQueue CmdQueue;
 private EventLoop eventLoop;
 private Channel channel;
 class Cmd{
  String cmd;
  Future result;
 }
 public Future get(String key){
   Cmd cmd= new Cmd(key);
   queue.offer(cmd);
   eventLoop.submit(new Runnable(){
        List list = new ArrayList();
        queue.drainTo(list);
        if(channel.isWritable()){
         channel.writeAndFlush(list);
        }
   });
}
 public void ChannelReadFinish(Channel channel,Buffer Buffer){
    List result = handleBuffer();//處理數據
    //從cmdQueue取出future,並設值,future.done();
}
 public void ChannelWritable(Channel channel){
   channel.flush();
}
}

這樣做,能夠充分的利用pipeline來提高I/O能力,同時獲取異步處理能力。

多連接短連接的HttpClient

類似於競對抓取的項目,往往需要建立無數的HTTP短連接,然後抓取,然後銷燬,當需要單機抓取上千網站線程數又受制的時候,怎麼保證性能呢?

何不嘗試NIO,單線程進行連接、寫、讀操作?如果連接、讀、寫操作系統沒有能力處理,簡單的註冊一個事件,等待下次循環就好了。

如何存儲不同的請求/響應呢?由於http是無狀態沒有版本的協議,又沒有辦法使用隊列,好像辦法不多。比較笨的辦法是對於不同的socket,直接存儲socket的引用作爲map的key。

常見的RPC框架,如Thrift,Dubbo

這種框架內部一般維護了請求的協議和請求號,可以維護一個以請求號爲key,結果的result爲future的map,結合NIO+長連接,獲取非常不錯的性能。

NIO高級主題

Proactor與Reactor

一般情況下,I/O 複用機制需要事件分發器(event dispatcher)。 事件分發器的作用,即將那些讀寫事件源分發給各讀寫事件的處理者,就像送快遞的在樓下喊: 誰誰誰的快遞到了, 快來拿吧!開發人員在開始的時候需要在分發器那裏註冊感興趣的事件,並提供相應的處理者(event handler),或者是回調函數;事件分發器在適當的時候,會將請求的事件分發給這些handler或者回調函數。

涉及到事件分發器的兩種模式稱爲:Reactor和Proactor。 Reactor模式是基於同步I/O的,而Proactor模式是和異步I/O相關的。在Reactor模式中,事件分發器等待某個事件或者可應用或個操作的狀態發生(比如文件描述符可讀寫,或者是socket可讀寫),事件分發器就把這個事件傳給事先註冊的事件處理函數或者回調函數,由後者來做實際的讀寫操作。

而在Proactor模式中,事件處理者(或者代由事件分發器發起)直接發起一個異步讀寫操作(相當於請求),而實際的工作是由操作系統來完成的。發起時,需要提供的參數包括用於存放讀到數據的緩存區、讀的數據大小或用於存放外發數據的緩存區,以及這個請求完後的回調函數等信息。事件分發器得知了這個請求,它默默等待這個請求的完成,然後轉發完成事件給相應的事件處理者或者回調。舉例來說,在Windows上事件處理者投遞了一個異步IO操作(稱爲overlapped技術),事件分發器等IO Complete事件完成。這種異步模式的典型實現是基於操作系統底層異步API的,所以我們可稱之爲“系統級別”的或者“真正意義上”的異步,因爲具體的讀寫是由操作系統代勞的。

舉個例子,將有助於理解Reactor與Proactor二者的差異,以讀操作爲例(寫操作類似)。

在Reactor中實現讀

  • 註冊讀就緒事件和相應的事件處理器。
  • 事件分發器等待事件。
  • 事件到來,激活分發器,分發器調用事件對應的處理器。
  • 事件處理器完成實際的讀操作,處理讀到的數據,註冊新的事件,然後返還控制權。

在Proactor中實現讀:

  • 處理器發起異步讀操作(注意:操作系統必須支持異步IO)。在這種情況下,處理器無視IO就緒事件,它關注的是完成事件。
  • 事件分發器等待操作完成事件。
  • 在分發器等待過程中,操作系統利用並行的內核線程執行實際的讀操作,並將結果數據存入用戶自定義緩衝區,最後通知事件分發器讀操作完成。
  • 事件分發器呼喚處理器。
  • 事件處理器處理用戶自定義緩衝區中的數據,然後啓動一個新的異步操作,並將控制權返回事件分發器。

可以看出,兩個模式的相同點,都是對某個I/O事件的事件通知(即告訴某個模塊,這個I/O操作可以進行或已經完成)。在結構上,兩者也有相同點:事件分發器負責提交IO操作(異步)、查詢設備是否可操作(同步),然後當條件滿足時,就回調handler;不同點在於,異步情況下(Proactor),當回調handler時,表示I/O操作已經完成;同步情況下(Reactor),回調handler時,表示I/O設備可以進行某個操作(can read 或 can write)。

下面,我們將嘗試應對爲Proactor和Reactor模式建立可移植框架的挑戰。在改進方案中,我們將Reactor原來位於事件處理器內的Read/Write操作移至分發器(不妨將這個思路稱爲“模擬異步”),以此尋求將Reactor多路同步I/O轉化爲模擬異步I/O。以讀操作爲例子,改進過程如下:

  • 註冊讀就緒事件和相應的事件處理器。併爲分發器提供數據緩衝區地址,需要讀取數據量等信息。
  • 分發器等待事件(如在select()上等待)。
  • 事件到來,激活分發器。分發器執行一個非阻塞讀操作(它有完成這個操作所需的全部信息),最後調用對應處理器。
  • 事件處理器處理用戶自定義緩衝區的數據,註冊新的事件(當然同樣要給出數據緩衝區地址,需要讀取的數據量等信息),最後將控制權返還分發器。
    如我們所見,通過對多路I/O模式功能結構的改造,可將Reactor轉化爲Proactor模式。改造前後,模型實際完成的工作量沒有增加,只不過參與者間對工作職責稍加調換。沒有工作量的改變,自然不會造成性能的削弱。對如下各步驟的比較,可以證明工作量的恆定:

標準/典型的Reactor:

  • 步驟1:等待事件到來(Reactor負責)。
  • 步驟2:將讀就緒事件分發給用戶定義的處理器(Reactor負責)。
  • 步驟3:讀數據(用戶處理器負責)。
  • 步驟4:處理數據(用戶處理器負責)。

改進實現的模擬Proactor:

  • 步驟1:等待事件到來(Proactor負責)。
  • 步驟2:得到讀就緒事件,執行讀數據(現在由Proactor負責)。
  • 步驟3:將讀完成事件分發給用戶處理器(Proactor負責)。
  • 步驟4:處理數據(用戶處理器負責)。

    對於不提供異步I/O API的操作系統來說,這種辦法可以隱藏Socket API的交互細節,從而對外暴露一個完整的異步接口。藉此,我們就可以進一步構建完全可移植的,平臺無關的,有通用對外接口的解決方案。

代碼示例如下:

interface ChannelHandler{
      void channelReadComplate(Channel channel,byte[] data);
      void channelWritable(Channel channel);
   }
   class Channel{
     Socket socket;
     Event event;//讀,寫或者連接
   }

   //IO線程主循環:
   class IoThread extends Thread{
   public void run(){
   Channel channel;
   while(channel=Selector.select()){//選擇就緒的事件和對應的連接
      if(channel.event==accept){
         registerNewChannelHandler(channel);//如果是新連接,則註冊一個新的讀寫處理器
         Selector.interested(read);
      }
      if(channel.event==write){
         getChannelHandler(channel).channelWritable(channel);//如果可以寫,則執行寫事件
      }
      if(channel.event==read){
          byte[] data = channel.read();
          if(channel.read()==0)//沒有讀到數據,表示本次數據讀完了
          {
          getChannelHandler(channel).channelReadComplate(channel,data;//處理讀完成事件
          }
          if(過載保護){
          Selector.interested(read);
          }

      }
     }
    }
   Map<Channel,ChannelHandler> handlerMap;//所有channel的對應事件處理器
   }

Selector.wakeup()

主要作用

解除阻塞在Selector.select()/select(long)上的線程,立即返回。

兩次成功的select之間多次調用wakeup等價於一次調用。

如果當前沒有阻塞在select上,則本次wakeup調用將作用於下一次select——“記憶”作用。

爲什麼要喚醒?

註冊了新的channel或者事件。

channel關閉,取消註冊。

優先級更高的事件觸發(如定時器事件),希望及時處理。

原理

Linux上利用pipe調用創建一個管道,Windows上則是一個loopback的tcp連接。這是因爲win32的管道無法加入select的fd set,將管道或者TCP連接加入select fd set。

wakeup往管道或者連接寫入一個字節,阻塞的select因爲有I/O事件就緒,立即返回。可見,wakeup的調用開銷不可忽視。

Buffer的選擇

通常情況下,操作系統的一次寫操作分爲兩步:

  1. 將數據從用戶空間拷貝到系統空間。
  2. 從系統空間往網卡寫。同理,讀操作也分爲兩步:
    ① 將數據從網卡拷貝到系統空間;
    ② 將數據從系統空間拷貝到用戶空間。

對於NIO來說,緩存的使用可以使用DirectByteBuffer和HeapByteBuffer。如果使用了DirectByteBuffer,一般來說可以減少一次系統空間到用戶空間的拷貝。但Buffer創建和銷燬的成本更高,更不宜維護,通常會用內存池來提高性能。

如果數據量比較小的中小應用情況下,可以考慮使用heapBuffer;反之可以用directBuffer。

NIO存在的問題

使用NIO != 高性能,當連接數<1000,併發程度不高或者局域網環境下NIO並沒有顯著的性能優勢。

NIO並沒有完全屏蔽平臺差異,它仍然是基於各個操作系統的I/O系統實現的,差異仍然存在。使用NIO做網絡編程構建事件驅動模型並不容易,陷阱重重。

推薦大家使用成熟的NIO框架,如Netty,MINA等。解決了很多NIO的陷阱,並屏蔽了操作系統的差異,有較好的性能和編程模型。

總結

最後總結一下到底NIO給我們帶來了些什麼:

  • 事件驅動模型
  • 避免多線程
  • 單線程處理多任務
  • 非阻塞I/O,I/O讀寫不再阻塞,而是返回0
  • 基於block的傳輸,通常比基於流的傳輸更高效
  • 更高級的IO函數,zero-copy
  • IO多路複用大大提高了Java網絡應用的可伸縮性和實用性

本文拋磚引玉,詮釋了一些NIO的思想和設計理念以及應用場景,這只是從冰山一角。關於NIO可以談的技術點其實還有很多,期待未來有機會和大家繼續探討。


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章