Epoll模型詳解

Linux I/O多路複用技術在比較多的TCP網絡服務器中有使用,即比較多的用到select函數。Linux 2.6內核中有提高網絡I/O性能的新方法,即epoll 。

1、爲什麼select落後
首先,在Linux內核中,select所用到的FD_SET是有限的,即內核中有個參數__FD_SETSIZE定義了每個FD_SET的句柄個數,在我用的2.6.15-25-386內核中,該值是1024,搜索內核源代碼得到:
include/linux/posix_types.h:
#define __FD_SETSIZE         1024
也就是說,如果想要同時檢測1025個句柄的可讀狀態是不可能用select實現的。或者同時檢測1025個句柄的可寫狀態也是不可能的。其次,內核中實現select是使用輪詢方法,即每次檢測都會遍歷所有FD_SET中的句柄,顯然,select函數的執行時間與FD_SET中句柄的個數有一個比例關係,即select要檢測的句柄數越多就會越費時。當然,在前文中我並沒有提及poll方法,事實上用select的朋友一定也試過poll,我個人覺得select和poll大同小異,個人偏好於用select而已。

2、內核中提高I/O性能的新方法 epoll
epoll是什麼?按照man手冊的說法:是爲處理大批量句柄而作了改進的poll。要使用epoll只需要以下的三個系統函數調用:epoll_create(2), epoll_ctl(2), epoll_wait(2)。

Linux2.6內核epoll介紹
先介紹2本書《The Linux Networking Architecture--Design and Implementation of Network Protocols in the Linux Kernel》, 以2.4內核講解Linux TCP/IP實現,相當不錯。作爲一個現實世界中的實現,很多時候你必須作很多權衡,這時候參考一個久經考驗的系統更有實際意義。舉個例子,linux內 核中sk_buff結構爲了追求速度和安全,犧牲了部分內存,所以在發送TCP包的時候,無論應用層數據多大,sk_buff最小也有272的字節。其實 對於socket應用層程序來說,另外一本書《UNIX Network Programming Volume 1》意義更大一點。2003年的時候,這本書出了最新的第3版本,不過主要還是修訂第2版本。其中第6章《I/O Multiplexing》是最重要的,Stevens給出了網絡IO的基本模型。在 這裏最重要的莫過於select模型和Asynchronous I/O模型。從理論上說,AIO似乎是最高效的,你的IO操作可以立即返回,然後等待os告訴你IO操作完成。但是一直以來,如何實現就沒有一個完美的方 案。最著名的windows完成端口實現的AIO,實際上也只是內部用線程池實現的罷了,最後的結果是IO有個線程池,你的應用程序也需要一個線程 池...... 很多文檔其實已經指出了這引發的線程context-switch所帶來的代價。在linux 平臺上,關於網絡AIO一直是改動最多的地方,2.4的年代就有很多AIO內核patch,最著名的應該算是SGI。但是一直到2.6內核發佈,網絡模塊 的AIO一直沒有進入穩定內核版本(大部分都是使用用戶線程模擬方法,在使用了NPTL的linux上面其實和windows的完成端口基本上差不多 了)。2.6內核所支持的AIO特指磁盤的AIO---支持io_submit(),io_getevents()以及對Direct IO的支持(即:就是繞過VFS系統buffer直接寫硬盤,對於流服務器在內存平穩性上有相當的幫助)。
所以,剩下的select模型基本上就成爲我們在linux上面的唯一選擇,其實,如果加上no-block socket的配置,可以完成一個"僞"AIO的實現,只不過推動力在於你而不是os而已。不過傳統的select/poll函數有着一些無法忍受的缺 點,所以改進一直是2.4-2.5開發版本內核的任務,包括/dev/poll,realtime signal等等。最終,Davide Libenzi開發的epoll進入2.6內核成爲正式的解決方案。

3、epoll的優點
<1> 支持一個進程打開大數目的socket描述符(FD)
select 最不能忍受的是一個進程所打開的FD是有一定限制的,由FD_SETSIZE設置, 默認值是2048。對於那些需要支持上萬連接數目的IM服務器來說顯然太少了。這時候你一是可以選擇修改這個宏然後重新編譯內核,不過資料也同時指出這樣 會帶來網絡效率的下降;二是可以選擇多進程的解決方案(傳統的Apache方案),不過雖然linux上面創建進程的代價比較小,但仍舊是不可忽視的,加 上進程間數據同步遠比不上線程間同步高效,所以這也不是一種完美的方案。不過epoll 沒有這個限制,它所支持的FD上限是最大可以打開文件的數目,這個數字一般遠大於select 所支持的2048。舉個例子,在1GB內存的機器上大約是10萬左右,具體數目可以cat /proc/sys/fs/file-max察看,一般來說這個數目和系統內存關係很大。

<2> IO效率不隨FD數目增加而線性下降
傳統select/poll的另一個致命弱點就是當你擁有一個很大的socket集合,由於網絡得延時,使得任一時間只有部分的socket是"活躍" 的,而select/poll每次調用都會線性掃描全部的集合,導致效率呈現線性下降。但是epoll不存在這個問題,它只會對"活躍"的socket進 行操作---這是因爲在內核實現中epoll是根據每個fd上面的callback函數實現的。於是,只有"活躍"的socket纔會主動去調用 callback函數,其他idle狀態的socket則不會,在這點上,epoll實現了一個"僞"AIO,因爲這時候推動力在os內核。在一些 benchmark中,如果所有的socket基本上都是活躍的---比如一個高速LAN環境,epoll也不比select/poll低多少效率,但若 過多使用的調用epoll_ctl,效率稍微有些下降。然而一旦使用idle connections模擬WAN環境,那麼epoll的效率就遠在select/poll之上了。

<3> 使用mmap加速內核與用戶空間的消息傳遞
這點實際上涉及到epoll的具體實現。無論是select,poll還是epoll都需要內核把FD消息通知給用戶空間,如何避免不必要的內存拷貝就顯 得很重要,在這點上,epoll是通過內核於用戶空間mmap同一塊內存實現的。而如果你像我一樣從2.5內核就開始關注epoll的話,一定不會忘記手 工mmap這一步的。

<4> 內核微調
這一點其實不算epoll的優點,而是整個linux平臺的優點。也許你可以懷疑linux平臺,但是你無法迴避linux平臺賦予你微調內核的能力。比 如,內核TCP/IP協議棧使用內存池管理sk_buff結構,可以在運行期間動態地調整這個內存pool(skb_head_pool)的大小---通 過echo XXXX>/proc/sys/net/core/hot_list_length來完成。再比如listen函數的第2個參數(TCP完成3次握 手的數據包隊列長度),也可以根據你平臺內存大小來動態調整。甚至可以在一個數據包面數目巨大但同時每個數據包本身大小卻很小的特殊系統上嘗試最新的 NAPI網卡驅動架構。

4、epoll的工作模式
   令人高興的是,linux2.6內核的epoll比其2.5開發版本的/dev/epoll簡潔了許多,所以,大部分情況下,強大的東西往往是簡單的。唯一有點麻煩的是epoll有2種工作方式:LT和ET
   LT(level triggered)是缺省的工作方式,並且同時支持block和no-block socket。在這種做法中,內核告訴你一個文件描述符是否就緒了,然後你可以對這個就緒的fd進行IO操作。如果你不作任何操作,內核還是會繼續通知你的,所以,這種模式編程出錯誤可能性要小一點。傳統的select/poll都是這種模型的代表
ET (edge-triggered) 是高速工作方式,只支持no-block socket。 在這種模式下,當描述符從未就緒變爲就緒時,內核就通過epoll告訴你,然後它會假設你知道文件描述符已經就緒,並且不會再爲那個文件描述符發送更多的 就緒通知,直到你做了某些操作而導致那個文件描述符不再是就緒狀態(比如 你在發送,接收或是接受請求,或者發送接收的數據少於一定量時導致了一個EWOULDBLOCK 錯誤)。但是請注意,如果一直不對這個fd作IO操作(從而導致它再次變成未就緒),內核就不會發送更多的通知(only once)。不過在TCP協議中,ET模式的加速效用仍需要更多的benchmark確認。
epoll只有epoll_create,epoll_ctl,epoll_wait 3個系統調用,具體用法請參考http://www.xmailserver.org/linux-patches/nio-improve.html,在http://www.kegel.com/rn/也有一個完整的例子,大家一看就知道如何使用了。

5、 epoll的使用方法
epoll用到的所有函數都是在頭文件sys/epoll.h中聲明的,下面簡要說明所用到的數據結構和函數:
所用到的數據結構:
typedef union epoll_data {
void *ptr;
int fd;
__uint32_t u32;
__uint64_t u64;
} epoll_data_t;
struct epoll_event {
__uint32_t events; /* Epoll events */
epoll_data_t data; /* User data variable */
};
結構體epoll_event 被用於註冊所感興趣的事件和回傳所發生待處理的事件,而epoll_data 聯合體用來保存觸發事件的某個文件描述符相關的數據。例如一個client連接到服務器,服務器通過調用accept函數可以得到於這個client對應的socket文件描述符,可以把這文件描述符賦給epoll_data的fd字段,以便後面的讀寫操作在這個文件描述符上進行。epoll_event 結構體的events字段是表示感興趣的事件和被觸發的事件,可能的取值爲:
EPOLLIN:表示對應的文件描述符可以讀;
EPOLLOUT:表示對應的文件描述符可以寫;
EPOLLPRI:表示對應的文件描述符有緊急的數據可讀;
EPOLLERR:表示對應的文件描述符發生錯誤;
EPOLLHUP:表示對應的文件描述符被掛斷;
EPOLLET:表示對應的文件描述符有事件發生;
所用到的函數:
1)、epoll_create函數
函數聲明:int epoll_create(int size)
該函數生成一個epoll專用的文件描述符,其中的參數是指定生成描述符的最大範圍。
2)、epoll_ctl函數
函數聲明:int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event)
該函數用於控制某個文件描述符上的事件,可以註冊事件,修改事件,刪除事件。
參數:
epfd:由 epoll_create 生成的epoll專用的文件描述符;
op:要進行的操作,可能的取值EPOLL_CTL_ADD 註冊、EPOLL_CTL_MOD 修改、EPOLL_CTL_DEL 刪除;
fd:關聯的文件描述符;
event:指向epoll_event的指針;
如果調用成功則返回0,不成功則返回-1。
3)、epoll_wait函數
函數聲明:int epoll_wait(int epfd,struct epoll_event * events,int maxevents,int timeout)
該函數用於輪詢I/O事件的發生。
參數:
epfd:由epoll_create 生成的epoll專用的文件描述符;
epoll_event:用於回傳代處理事件的數組;
maxevents:每次能處理的事件數;
timeout:等待I/O事件發生的超時值;
返回發生事件數。

首先通過create_epoll(int maxfds)來創建一個epoll的句柄,其中maxfds爲你的epoll所支持的最大句柄數。這個函數會返回一個新的epoll句柄,之後的所有操作都將通過這個句柄來進行操作。在用完之後,記得用close()來關閉這個創建出來的epoll句柄
之後在你的網絡主循環裏面調用epoll_wait(int epfd, epoll_event events, int max_events, int timeout)來查詢所有的網絡接口,看哪一個可以讀,哪一個可以寫。基本的語法爲:
nfds = epoll_wait(kdpfd, events, maxevents, -1);
其中kdpfd爲用epoll_create創建之後的句柄,events是一個epoll_event*的指針,當epoll_wait函數操作成功之後,events裏面將儲存所有的讀寫事件。max_events是當前需要監聽的所有socket句柄數。最後一個timeout參 數指示 epoll_wait的超時條件,爲0時表示馬上返回;爲-1時表示函數會一直等下去直到有事件返回;爲任意正整數時表示等這麼長的時間,如果一直沒有事 件,則會返回。一般情況下如果網絡主循環是單線程的話,可以用-1來等待,這樣可以保證一些效率,如果是和主循環在同一個線程的話,則可以用0來保證主循 環的效率。epoll_wait返回之後,應該進入一個循環,以便遍歷所有的事件。
   對epoll 的操作就這麼簡單,總共不過4個API:epoll_create, epoll_ctl, epoll_wait和close。以下是man中的一個例子。
struct epoll_event ev, *events;
for(;;) {
nfds = epoll_wait(kdpfd, events, maxevents, -1); //等待I/O事件
for(n = 0; n < nfds; ++n) {
if(events[n].data.fd == listener) { //如果是主socket的事件,則表示有新連接進入,需要進行新連接的處理。
client = accept(listener, (struct sockaddr *) &local,  &addrlen);
if(client < 0){
perror("accept error");
continue;
}
setnonblocking(client); // 將新連接置於非阻塞模式
ev.events = EPOLLIN | EPOLLET;
//注意這裏的參數EPOLLIN | EPOLLET並沒有設置對寫socket的監聽,
//如果有寫操作的話,這個時候epoll是不會返回事件的,
//如果要對寫操作也監聽的話,應該是EPOLLIN | EPOLLOUT | EPOLLET。
ev.data.fd = client; // 並且將新連接也加入EPOLL的監聽隊列
if (epoll_ctl(kdpfd, EPOLL_CTL_ADD, client, &ev) < 0) {  // 設置好event之後,將這個新的event通過epoll_ctl
//加入到epoll的監聽隊列裏,這裏用EPOLL_CTL_ADD
//來加一個新的 epoll事件。可以通過EPOLL_CTL_DEL來減少
//一個epoll事件,通過EPOLL_CTL_MOD來改變一個事件的監聽方式。
fprintf(stderr, "epoll set insertion error: fd=%d"0, client);
return -1;
}
}  else // 如果不是主socket的事件的話,則代表這是一個用戶的socket的事件,
// 則用來處理這個用戶的socket的事情是,比如說read(fd,xxx)之類,或者一些其他的處理。
do_use_fd(events[n].data.fd);
}
}
6、Linux下epoll編程實例
 epoll 模型似乎只有一種格式,所以大家只要參考下面的代碼,就能夠對epoll有所瞭解了。
while (TRUE) {
int nfds = epoll_wait (m_epoll_fd, m_events, MAX_EVENTS, EPOLL_TIME_OUT); //等待EPOLL事件的發生
//至於相關的端口,則需要在初始化EPOLL的時候綁定。
if (nfds <= 0)    continue;
m_bOnTimeChecking = FALSE;
g_CurTime = time(NULL);
for (int i=0; i<nfds; i++) {
try {
if (m_events[i].data.fd == m_listen_http_fd) //如果新監測到一個HTTP用戶連接到綁定的HTTP端口則建立新連接。
{
OnAcceptHttpEpoll ();
} else if (m_events[i].data.fd == m_listen_sock_fd) //如果新監測到一個SOCKET用戶連接到了綁定的SOCKET端口則
//建立新的連接。
{
OnAcceptSockEpoll ();
} else if (m_events[i].events & EPOLLIN) //如果是已經連接的用戶,並且收到數據,那麼進行讀入操作。
{
OnReadEpoll (i);
}
OnWriteEpoll (i); //查看當前的活動連接是否有需要寫出的數據。
} catch (int) {
PRINTF ("CATCH捕獲錯誤\n");
continue;
}
}
m_bOnTimeChecking = TRUE;
OnTimer (); //進行一些定時的操作,主要就是刪除一些斷線用戶等。
}

*****************************************************************************************************************************************


<img title="Linux" epoll模型="" -="" 小偉="" 小偉的博客"="" src="http://www.cppblog.com/images/cppblog_com/khan/6584/r_epoll.jpg" style="padding: 0px; margin: 0px; vertical-align: top; border: none;">

Epoll模型主要負責對大量併發用戶的請求進行及時處理,完成服務器與客戶端的數據交互。其具體的實現步驟如下:
(a) 使用epoll_create()函數創建文件描述,設定可管理的最大socket描述符數目。
(b) 創建與epoll關聯的接收線程,應用程序可以創建多個接收線程來處理epoll上的讀通知事件,線程的數量依賴於程序的具體需要。
(c) 創建一個偵聽socket的描述符ListenSock,並將該描述符設定爲非阻塞模式,調用Listen()函數在該套接字上偵聽有無新的連接請求,在epoll_event結構中設置要處理的事件類型EPOLLIN,工作方式爲 epoll_ET,以提高工作效率,同時使用epoll_ctl()來註冊事件,最後啓動網絡監視線程。
(d) 網絡監視線程啓動循環,epoll_wait()等待epoll事件發生。
(e) 如果epoll事件表明有新的連接請求,則調用accept()函數,將用戶socket描述符添加到epoll_data聯合體,同時設定該描述符爲非阻塞,並在epoll_event結構中設置要處理的事件類型爲讀和寫,工作方式爲epoll_ET。
(f) 如果epoll事件表明socket描述符上有數據可讀,則將該socket描述符加入可讀隊列,通知接收線程讀入數據,並將接收到的數據放入到接收數據的鏈表中,經邏輯處理後,將反饋的數據包放入到發送數據鏈表中,等待由發送線程發送。
例子代碼:
#include <iostream>
#include <sys/socket.h>
#include <sys/epoll.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <fcntl.h>
#include <unistd.h>
#include <stdio.h>
#define MAXLINE 10
#define OPEN_MAX 100
#define LISTENQ 20
#define SERV_PORT 5555
#define INFTIM 1000
void setnonblocking(int sock)
{
int opts;
opts=fcntl(sock,F_GETFL);
 if(opts<0)
{
perror("fcntl(sock,GETFL)");
exit(1);
}
 opts = opts | O_NONBLOCK;
 if(fcntl(sock,F_SETFL,opts)<0)
{
perror("fcntl(sock,SETFL,opts)");
exit(1);
}
}

int main()
{
int i, maxi, listenfd, connfd, sockfd, epfd, nfds;
ssize_t n;
char line[MAXLINE];
socklen_t clilen;
 struct epoll_event ev,events[20]; //聲明epoll_event結構體的變量, ev用於註冊事件, events數組用於回傳要處理的事件
epfd=epoll_create(256); //生成用於處理accept的epoll專用的文件描述符, 指定生成描述符的最大範圍爲256
 struct sockaddr_in clientaddr;
struct sockaddr_in serveraddr;
 listenfd = socket(AF_INET, SOCK_STREAM, 0);
 setnonblocking(listenfd); //把用於監聽的socket設置爲非阻塞方式
 ev.data.fd=listenfd; //設置與要處理的事件相關的文件描述符
ev.events=EPOLLIN | EPOLLET; //設置要處理的事件類型
epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev); //註冊epoll事件
 bzero(&serveraddr, sizeof(serveraddr));
serveraddr.sin_family = AF_INET;
char *local_addr="200.200.200.204";
inet_aton(local_addr,&(serveraddr.sin_addr));
serveraddr.sin_port=htons(SERV_PORT);  //或者htons(SERV_PORT);
 bind(listenfd,(sockaddr *)&serveraddr, sizeof(serveraddr));
 listen(listenfd, LISTENQ);
 maxi = 0;
for( ; ; ) {
nfds=epoll_wait(epfd,events,20,500); //等待epoll事件的發生
for(i=0;i<nfds;++i) //處理所發生的所有事件
{
if(events[i].data.fd==listenfd)    /**監聽事件**/
{
connfd = accept(listenfd,(sockaddr *)&clientaddr, &clilen);
if(connfd<0){
perror("connfd<0");
exit(1);
}
        setnonblocking(connfd); //把客戶端的socket設置爲非阻塞方式
        char *str = inet_ntoa(clientaddr.sin_addr);
std::cout<<"connect from "<_u115 ? tr<<std::endl;
        ev.data.fd=connfd; //設置用於讀操作的文件描述符
ev.events=EPOLLIN | EPOLLET; //設置用於注測的讀操作事件
epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev); //註冊ev事件
}
else if(events[i].events&EPOLLIN)     /**讀事件**/
{
if ( (sockfd = events[i].data.fd) < 0) continue;
if ( (n = read(sockfd, line, MAXLINE)) < 0) {
if (errno == ECONNRESET) {
close(sockfd);
events[i].data.fd = -1;
} else
{
std::cout<<"readline error"<<std::endl;
}
} else if (n == 0) {
close(sockfd);
events[i].data.fd = -1;
}
         ev.data.fd=sockfd; //設置用於寫操作的文件描述符
ev.events=EPOLLOUT | EPOLLET; //設置用於注測的寫操作事件
epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev); //修改sockfd上要處理的事件爲EPOLLOUT
}
else if(events[i].events&EPOLLOUT)    /**寫事件**/
{
sockfd = events[i].data.fd;
write(sockfd, line, n);
         ev.data.fd=sockfd; //設置用於讀操作的文件描述符
ev.events=EPOLLIN | EPOLLET; //設置用於註冊的讀操作事件
epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev); //修改sockfd上要處理的事件爲EPOLIN
}
}
}
}


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章