Linux 網絡 I/O 模型簡介

1、介紹
    Linux 的內核將所有外部設備都看做一個文件來操作(一切皆文件),對一個文件的讀寫操作會調用內核提供的系統命令,返回一個file descriptor(fd,文件描述符)。而對一個socket的讀寫也會有響應的描述符,稱爲socket fd(socket文件描述符),描述符就是一個數字,指向內核中的一個結構體(文件路徑,數據區等一些屬性)。

    根據UNIX網絡編程對I/O模型的分類,UNIX提供了5種I/O模型。

    1.1、阻塞I/O模型
    最常用的I/O模型,默認情況下,所有文件操作都是阻塞的。

    比如I/O模型下的套接字接口:在進程空間中調用recvfrom,其系統調用直到數據包到達且被複制到應用進程的緩衝區中或者發生錯誤時才返回,在此期間一直等待。

    進程在調用recvfrom開始到它返回的整段時間內都是被阻塞的,所以叫阻塞I/O模型。

    圖示:

    

    1.2、非阻塞I/O模型
    recvfrom從應用層到內核的時候,就直接返回一個EWOULDBLOCK錯誤,一般都對非阻塞I/O模型進行輪詢檢查這個狀態,看內核是不是有數據到來。

    圖示:

    

    1.3、I/O複用模型
    Linux提供select/poll,進程通過將一個或多個fd傳遞給select或poll系統調用,阻塞在select操作上,這樣,select/poll可以幫我們偵測多個fd是否處於就緒狀態。

    select/poll是順序掃描fd是否就緒,而且支持的fd數量有限,因此它的使用受到了一些制約。

    Linux還提供一個epoll系統調用,epoll使用基於事件驅動方式代替順序掃描,因此性能更高。當有fd就緒時,立即回調函數rollback。

    圖示:

    

    1.4、信號驅動I/O模型
    首先開啓套接口信號驅動I/O功能,並通過系統調用sigaction執行一個信號處理函數(此係統調用立即返回,進程繼續工作,非阻塞)。當數據準備就緒時,就爲改進程生成一個SIGIO信號,通過信號回調通知應用程序調用recvfrom來讀取數據,並通知主循環函數處理樹立。

    圖示:

    

    1.5、異步I/O
    告知內核啓動某個操作,並讓內核在整個操作完成後(包括數據的複製)通知進程。

    信號驅動I/O模型通知的是何時可以開始一個I/O操作,異步I/O模型有內核通知I/O操作何時已經完成。

    圖示:

    

2、I/O多路複用技術
    I/O編程中,需要處理多個客戶端接入請求時,可以利用多線程或者I/O多路複用技術進行處理。

    正如前面的簡介,I/O多路複用技術通過把多個I/O的阻塞複用到同一個select的阻塞上,從而使得系統在單線程的情況下可以同時處理多個客戶端請求。

    與傳統的多線程模型相比,I/O多路複用的最大優勢就是系統開銷小,系統不需要創建新的額外線程,也不需要維護這些線程的運行,降低了系統的維護工作量,節省了系統資源。

    主要的應用場景:

    服務器需要同時處理多個處於監聽狀態或多個連接狀態的套接字。
    服務器需要同時處理多種網絡協議的套接字。
    支持I/O多路複用的系統調用主要有select、pselect、poll、epoll。

    而當前推薦使用的是epoll,優勢如下:

    支持一個進程打開的socket fd不受限制。
    I/O效率不會隨着fd數目的增加而線性下將。
    使用mmap加速內核與用戶空間的消息傳遞。
    epoll擁有更加簡單的API。
3、Java中的網絡IO編程
    如果只是做Java開發,以上內容只需瞭解即可,不必深究(隨便說說而已)。

    已專門出了文章介紹:Java 網絡IO編程總結(BIO、NIO、AIO均含完整實例代碼)

原文:https://blog.csdn.net/anxpp/article/details/51503329 
 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章