爲什麼Nginx的性能要比Apache高得多

這得益於Nginx使用了最新的epoll(Linux 2.6內核)和kqueue(freebsd)網絡I/O模型,
而Apache則使用的是傳統的select模型。
目前Linux下能夠承受高併發訪問的Squid、Memcached都採用的是epoll網絡I/O模型。

處理大量的連接的讀寫,Apache所採用的select網絡I/O模型非常低效。
下面用一個比喻來解析Apache採用的select模型和Nginx採用的epoll模型進行之間的區別:

假設你在大學讀書,住的宿舍樓有很多間房間,你的朋友要來找你。
select版宿管大媽就會帶着你的朋友挨個房間去找,直到找到你爲止。
而epoll版宿管大媽會先記下每位同學的房間號,
你的朋友來時,只需告訴你的朋友你住在哪個房間即可,不用親自帶着你的朋友滿大樓找人。
如果來了10000個人,都要找自己住這棟樓的同學時,select版和epoll版宿管大媽,誰的效率更高,不言自明。
同理,在高併發服務器中,輪詢I/O是最耗時間的操作之一,select和epoll的性能誰的性能更高,同樣十分明瞭。

epoll - I/O event notification facility

在linux的網絡編程中,很長的時間都在使用select來做事件觸發。
在linux新的內核中,有了一種替換它的機制,就是epoll。
相比於select,epoll最大的好處在於它不會隨着監聽fd數目的增長而降低效率。
因爲在內核中的select實現中,它是採用輪詢來處理的,輪詢的fd數目越多,自然耗時越多。
並且,在linux/posix_types.h頭文件有這樣的聲明:
#define __FD_SETSIZE    1024
表示select最多同時監聽1024個fd,當然,可以通過修改頭文件再重編譯內核來擴大這個數目,但這似乎並不治本。

epoll的接口非常簡單,一共就三個函數:
1. int epoll_create(int size);
創建一個epoll的句柄,size用來告訴內核這個監聽的數目一共有多大。
這個參數不同於select()中的第一個參數,給出最大監聽的fd+1的值。
需要注意的是,當創建好epoll句柄後,它就是會佔用一個fd值,在linux下如果查看/proc/進程id/fd/,
是能夠看到這個fd的,所以在使用完epoll後,必須調用close()關閉,否則可能導致fd被耗盡。

2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
epoll的事件註冊函數,它不同與select()是在監聽事件時告訴內核要監聽什麼類型的事件,
而是在這裏先註冊要監聽的事件類型。第一個參數是epoll_create()的返回值,
第二個參數表示動作,用三個宏來表示:
EPOLL_CTL_ADD:註冊新的fd到epfd中;
EPOLL_CTL_MOD:修改已經註冊的fd的監聽事件;
EPOLL_CTL_DEL:從epfd中刪除一個fd;
第三個參數是需要監聽的fd,第四個參數是告訴內核需要監聽什麼事,struct epoll_event結構如下:
typedef union epoll_data {
    void *ptr;
    int fd;
    __uint32_t u32;
    __uint64_t u64;
} epoll_data_t;

struct epoll_event {
    __uint32_t events; /* Epoll events */
    epoll_data_t data; /* User data variable */
};
events可以是以下幾個宏的集合:
EPOLLIN :表示對應的文件描述符可以讀(包括對端SOCKET正常關閉);
EPOLLOUT:表示對應的文件描述符可以寫;
EPOLLPRI:表示對應的文件描述符有緊急的數據可讀(這裏應該表示有帶外數據到來);
EPOLLERR:表示對應的文件描述符發生錯誤;
EPOLLHUP:表示對應的文件描述符被掛斷;
EPOLLET: 將EPOLL設爲邊緣觸發(Edge Triggered)模式,這是相對於水平觸發(Level Triggered)來說的。
EPOLLONESHOT:只監聽一次事件,當監聽完這次事件之後,
如果還需要繼續監聽這個socket的話,需要再次把這個socket加入到EPOLL隊列裏

3. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
等待事件的產生,類似於select()調用。
參數events用來從內核得到事件的集合,maxevents告之內核這個events有多大,
這個 maxevents的值不能大於創建epoll_create()時的size,
參數timeout是超時時間(毫秒,0會立即返回,-1將不確定,也有說法說是永久阻塞)。
該函數返回需要處理的事件數目,如返回0表示已超時。

4、關於ET、LT兩種工作模式:
可以得出這樣的結論:
ET模式僅當狀態發生變化的時候才獲得通知,這裏所謂的狀態的變化並不包括緩衝區中還有未處理的數據,
也就是說,如果要採用ET模式,需要一直read/write直到出錯爲止,
很多人反映爲什麼採用ET模式只接收了一部分數據就再也得不到通知了,大多因爲這樣;
而LT模式是隻要有數據沒有處理就會一直通知下去的.

那麼究竟如何來使用epoll呢?其實非常簡單。
通過在包含一個頭文件#include <sys/epoll.h> 以及幾個簡單的API將可以大大的提高你的網絡服務器的支持人數。

首先通過create_epoll(int maxfds)來創建一個epoll的句柄,其中maxfds爲你epoll所支持的最大句柄數。
這個函數會返回一個新的epoll句柄,之後的所有操作將通過這個句柄來進行操作。
在用完之後,記得用close()來關閉這個創建出來的epoll句柄。

之後在你的網絡主循環裏面,
每一幀的調用epoll_wait(int epfd, epoll_event events, int max events, int timeout)
來查詢所有的網絡接口,看哪一個可以讀,哪一個可以寫了。基本的語法爲:
nfds = epoll_wait(kdpfd, events, maxevents, -1);
其中kdpfd爲用epoll_create創建之後的句柄,events是一個epoll_event*的指針,
當epoll_wait這個函數操作成功之後,epoll_events裏面將儲存所有的讀寫事件。
max_events是當前需要監聽的所有socket句柄數。最後一個timeout是 epoll_wait的超時,
爲0的時候表示馬上返回,爲-1的時候表示一直等下去,直到有事件範圍,爲任意正整數的時候表示等這麼長的時間,
如果一直沒有事件,則範圍。一般如果網絡主循環是單獨的線程的話,可以用-1來等,這樣可以保證一些效率,
如果是和主邏輯在同一個線程的話,則可以用0來保證主循環的效率。

epoll_wait範圍之後應該是一個循環,遍利所有的事件。

幾乎所有的epoll程序都使用下面的框架:
    for( ; ; )
    {
        nfds = epoll_wait(epfd,events,20,500);
        for(i=0;i<nfds;++i)
        {
            if(events[i].data.fd==listenfd) //有新的連接
            {
                connfd = accept(listenfd,(sockaddr *)&clientaddr, &clilen); //accept這個連接
                ev.data.fd=connfd;
                ev.events=EPOLLIN|EPOLLET;
                epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev); //將新的fd添加到epoll的監聽隊列中
            }
            else if( events[i].events&EPOLLIN ) //接收到數據,讀socket
            {
                n = read(sockfd, line, MAXLINE)) < 0    //讀
                ev.data.ptr = md;     //md爲自定義類型,添加數據
                ev.events=EPOLLOUT|EPOLLET;
                epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);//修改標識符,等待下一個循環時發送數據,異步處理的精髓
            }
            else if(events[i].events&EPOLLOUT) //有數據待發送,寫socket
            {
                struct myepoll_data* md = (myepoll_data*)events[i].data.ptr;    //取數據
                sockfd = md->fd;
                send( sockfd, md->ptr, strlen((char*)md->ptr), 0 );        //發送數據
                ev.data.fd=sockfd;
                ev.events=EPOLLIN|EPOLLET;
                epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev); //修改標識符,等待下一個循環時接收數據
            }
            else
            {
                //其他的處理
            }
        }

    }


http://blog.sina.com.cn/s/blog_5cef35c50100f3bv.html

http://blog.csdn.net/ljx0305/article/details/4065058


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章