進程池
進程池的使用場景
當我們需要並行的處理大規模任務的時候,需要使用到多進程,多線程技術,比如說服務器處理大量客戶端的任務,我在大一的時候寫過一個C/S+mysql架構的聊天室,大概是這樣處理的,每當有客戶端發出連接請求時,服務器accept成功以後就去fork一個進程去處理關於這個客戶端的所有請求,經過後來的一系列的學習,這顯然是極其不科學的,狂開進程浪費資源且不說,效率也極低。
- 動態創建進程(或線程)是比較耗費時間的,這將導致較慢的客戶響應。
- 動態創建的子進程(或子線程)通常只用來爲一個客戶服務(除非我們做特殊處理),這將導致系統上產生大量的細微進程(或者線程)。進程(或者線程)間的切換消費大量CPU時間。
- 動態創建的子進程是當前進程的完整映像。當前進程必須謹慎地管理其分配的文件描述符和堆內存等系統資源,從而使系統的可用資源急劇下降,進而影響服務器的性能。
池化的思想
爲了解決上述問題呀,我們的前輩們相出了用池化的思想來解決這些資源消耗問題。簡而言之,就是提前創建好一些進程,一般3-7個(具體看cpu核數以及運行環境),目的是爲了充分釋放多核芯的性能,實大規模並行。由於服務器的硬件資源“充裕”,那麼提高服務器性能的一個很直接的方法就是以空間換時間,即“浪費”服務器的硬件資源,以換取其運行效率。這就是池的概念。池是一組資源的集合,這組資源在服務器啓動之初就完全被創建並初始化,這稱爲靜態資源分配。當服務器進入正式運行階段,即開始處理客戶請求的時候,如果它需要相關的資源,就可以直接從池中獲取,無需動態分配。很顯然,直接從池中取得所需資源比動態分配資源的速度要快得多,因爲分配系統資源的系統調用都是很耗時的。當服務器處理完一個客戶連接後,可以把相關的資源放回池中,無需執行系統調用來釋放資源。從最終效果來看,池相當於服務器管理系統資源的應用設施,它避免了服務器對內核的頻繁訪問。
進程池概述
進程池中的所有子進程都運行着相同的代碼(不調用exev族函數),並具有相同的屬性,比如優先級、 PGID 等。
當有新的任務來到時,主進程將通過某種方式選擇進程池中的某一個子進程來爲之服務。相比於動態創建子進程,選擇一個已經存在的子進程的代價顯得小得多。至於主進程選擇哪個子進程來爲新任務服務,則有兩種方法:
1)主進程使用某種算法來主動選擇子進程。最簡單、最常用的算法是隨機算法和 Round Robin (輪流算法)。
2)主進程和所有子進程通過一個共享的工作隊列來同步,子進程都睡眠在該工作隊列上。當有新的任務到來時,主進程將任務添加到工作隊列中。這將喚醒正在等待任務的子進程,不過只有一個子進程將獲得新任務的“接管權”,它可以從工作隊列中取出任務並執行之,而其他子進程將繼續睡眠在工作隊列上。
當選擇好子進程後,主進程還需要使用某種通知機制來告訴目標子進程有新任務需要處理,並傳遞必要的數據。最簡單的方式是,在父進程和子進程之間預先建立好一條管道,然後通過管道來實現所有的進程間通信。在父線程和子線程之間傳遞數據就要簡單的多,因爲我們可以把這些數據定義全局的,那麼他們本身就是被所有線程共享的。
綜合上面的論述,我們將進程池的一般模型描述爲下圖所示的形式。
處理多客戶
在使用進程池處理多客戶任務時,首先考慮的一個問題是:監聽socket和連接socket是否都由主進程來統一管理。併發模型,其中半同步/半反應堆模式是由主進程統一管理這兩種socket的。而高效的半同步/半異步和領導者/追隨者模式,則是由主進程管理所有監聽socket,而各個子進程分別管理屬於自己的連接socket的。對於前一種情況,主進程接受新的連接以得到連接socket,然後它需要將該socket傳遞給子進程(對於線程池而言,父線程將socket傳遞給子線程是很簡單的。因爲他們可以很容易地共享該socket。但對於進程池而言,必須通過管道傳輸)。後一種情況的靈活性更大一些,因爲子進程可以自己調用accept來接受新的連接,這樣該父進程就無須向子進程傳遞socket。而只需要簡單地通知一聲:“我檢測到新的連接,你來接受它。
長連接,即一個客戶的多次請求可以複用一個TCP連接。那麼,在設計進程池時還需要考慮:一個客戶連接上的所有任務是否始終由一個子進程來處理。如果說客戶任務是無狀態的,那麼我們可以考慮使用不同的進程爲該客戶不同請求服務。
半同步/半異步進程池實現
綜合前面的討論,我們可以實現這個進程池,爲了避免在父、子進程之間傳遞文件描述符,我們將接受新連接的操作放到子進程中,很顯然,對於這種模式而言,一個客戶連接上的所有任務始終是由一個子進程來處理的。
奉上代碼 進程池github地址
進程池模板 方便以後複用
#ifndef PROCESSPOOL_H
#define PROCESSPOOL_H
#include <sys/types.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <assert.h>
#include <stdio.h>
#include <unistd.h>
#include <errno.h>
#include <string.h>
#include <fcntl.h>
#include <stdlib.h>
#include <sys/epoll.h>
#include <signal.h>
#include <sys/wait.h>
#include <sys/stat.h>
#include <iostream>
/*子進程類*/
class process
{
public:
/*以 -1初始化*/
process() : m_pid( -1 ){}
public:
/*子進程號*/
pid_t m_pid;
/*父子進程通信管道*/
int m_pipefd[2];
};
/*進程池類
*其模板參數是處理邏輯任務的類
**/
template< typename T >
class processpool
{
/*將構造函數定義爲私有的 因此我們只能通過後邊的create靜態*/
private:
processpool( int listenfd, int process_number = 8 );
public:
/*單例模式 在之後調用到*/
static processpool< T >* create( int listenfd, int process_number = 8 )
{
if( !m_instance )
{
m_instance = new processpool< T >( listenfd, process_number );
}
return m_instance;
}
~processpool()
{
delete [] m_sub_process;
}
/*啓動進程池*/
void run();
private:
void setup_sig_pipe();
void run_parent();
void run_child();
private:
/*進程允許的最大子進程數*/
static const int MAX_PROCESS_NUMBER = 16;
/*每個子進程最多能處理的客戶數量*/
static const int USER_PER_PROCESS = 65536;
/*epoll 最多能處理的事件數*/
static const int MAX_EVENT_NUMBER = 10000;
/*進程池中的進程數*/
int m_process_number;
/*進程池在池中的序號 從0開始*/
int m_idx;
/*每個進程都有一個epoll內核事件表 用epollfd標識*/
int m_epollfd;
/*監聽socket*/
int m_listenfd;
/*子進程通過stop來決定是否停止*/
int m_stop;
/*保存所有的子進程的描述信息*/
process* m_sub_process;
/*進程池靜態實例*/
static processpool< T >* m_instance;
};
template< typename T >
processpool< T >* processpool< T >::m_instance = NULL;
/*用於處理信號的管道 實現統一信號源
* 全局 */
static int sig_pipefd[2];
static int setnonblocking( int fd )
{
int old_option = fcntl( fd, F_GETFL );
int new_option = old_option | O_NONBLOCK;
fcntl( fd, F_SETFL, new_option );
return old_option;
}
static void addfd( int epollfd, int fd )
{
epoll_event event;
event.data.fd = fd;
event.events = EPOLLIN | EPOLLET;
epoll_ctl( epollfd, EPOLL_CTL_ADD, fd, &event );
setnonblocking( fd );
}
static void removefd( int epollfd, int fd )
{
epoll_ctl( epollfd, EPOLL_CTL_DEL, fd, 0 );
close( fd );
}
static void sig_handler( int sig )
{
int save_errno = errno;
int msg = sig;
/* 這塊爲啥得轉成char* */
send( sig_pipefd[1], ( char* )&msg, 1, 0 );
errno = save_errno;
}
static void addsig( int sig, void( handler )(int), bool restart = true )
{
struct sigaction sa;
memset( &sa, '\0', sizeof( sa ) );
sa.sa_handler = handler;
if( restart )
{
sa.sa_flags |= SA_RESTART;
}
sigfillset( &sa.sa_mask );
assert( sigaction( sig, &sa, NULL ) != -1 );
}
/*進程池的構造函數 參數listenfd是監聽*/
template< typename T >
processpool< T >::processpool( int listenfd, int process_number )
: m_listenfd( listenfd ), m_process_number( process_number ), m_idx( -1 ), m_stop( false )
{
assert( ( process_number > 0 ) && ( process_number <= MAX_PROCESS_NUMBER ) );
std::cout << "pool\n"<<std::endl;
m_sub_process = new process[ process_number ];
assert( m_sub_process );
for( int i = 0; i < process_number; ++i )
{
/*建立通信管道*/
int ret = socketpair( PF_UNIX, SOCK_STREAM, 0, m_sub_process[i].m_pipefd );
assert( ret == 0 );
m_sub_process[i].m_pid = fork();
assert( m_sub_process[i].m_pid >= 0 );
/*父進程*/
if( m_sub_process[i].m_pid > 0 )
{
close( m_sub_process[i].m_pipefd[1] );
continue;
}
/*子進程*/
else
{
close( m_sub_process[i].m_pipefd[0] );
m_idx = i;
break;
}
}
}
/*統一事件源*
* 每一個子進程都會擁有一次 sig_pipefd
父子進程都做一次*/
template< typename T >
void processpool< T >::setup_sig_pipe()
{
m_epollfd = epoll_create( 5 );
assert( m_epollfd != -1 );
int ret = socketpair( PF_UNIX, SOCK_STREAM, 0, sig_pipefd );
assert( ret != -1 );
setnonblocking( sig_pipefd[1] );
addfd( m_epollfd, sig_pipefd[0] );
/*設置信號處理函數*/
addsig( SIGCHLD, sig_handler );
addsig( SIGTERM, sig_handler );
addsig( SIGINT, sig_handler );
addsig( SIGPIPE, SIG_IGN );
}
/*父進程中的m_idx是-1 子進程中的m_idx值大於等於0 我們據此判斷接下來要運行的代碼是父進程代碼還是子進程的 */
template< typename T >
void processpool< T >::run()
{
if( m_idx != -1 )
{
run_child();
return;
}
run_parent();
}
/*子進程運行*/
template< typename T >
void processpool< T >::run_child()
{
/*用於父子進程通信*/
setup_sig_pipe();
/*每個子進程都能通過其在進程池中的序號值m_idx找到與父進程通信的管道*/
int pipefd = m_sub_process[m_idx].m_pipefd[ 1 ];
addfd( m_epollfd, pipefd );
epoll_event events[ MAX_EVENT_NUMBER ];
/*處理cgi請求的類 一個子進程最多處理USER_PER_PROCESS個連接*/
T* users = new T [ USER_PER_PROCESS ];
assert( users );
int number = 0;
int ret = -1;
while( ! m_stop )
{
number = epoll_wait( m_epollfd, events, MAX_EVENT_NUMBER, -1 );
if ( ( number < 0 ) && ( errno != EINTR ) )
{
printf( "epoll failure\n" );
break;
}
for ( int i = 0; i < number; i++ )
{
int sockfd = events[i].data.fd;
/*從父子進程之間的管道讀取數據 並將結果保存在變量client中 如果成功表示有新客戶連接到來*/
if( ( sockfd == pipefd ) && ( events[i].events & EPOLLIN ) )
{
int client = 0;
/*僅接收 不處理字符串*/
ret = recv( sockfd, ( char* )&client, sizeof( client ), 0 );
if( ( ( ret < 0 ) && ( errno != EAGAIN ) ) || ret == 0 )
{
continue;
}
/*讓子進程來完成客戶端的連接*/
else
{
struct sockaddr_in client_address;
socklen_t client_addrlength = sizeof( client_address );
int connfd = accept( m_listenfd, ( struct sockaddr* )&client_address, &client_addrlength );
if ( connfd < 0 )
{
printf( "errno is: %d\n", errno );
continue;
}
addfd( m_epollfd, connfd );
/* 模板類T必須實現init方法 以初始化一個客戶端連接
* 我們直接使用connfd來索引邏輯處理對象,以提高程序的運行效率
*/
users[connfd].init( m_epollfd, connfd, client_address );
}
}
/* 處理子進程收到信號
* 關於這塊大家要小心處理
* 因爲父子進程會同時收到完全一樣的信號
*/
else if( ( sockfd == sig_pipefd[0] ) && ( events[i].events & EPOLLIN ) )
{
int sig;
char signals[1024];
ret = recv( sig_pipefd[0], signals, sizeof( signals ), 0 );
if( ret <= 0 )
{
continue;
}
else
{
for( int i = 0; i < ret; ++i )
{
switch( signals[i] )
{
/*子進程不需要處理這個child新號吧
* 做完測試之後發現並不是*/
case SIGCHLD:
case SIGTERM:
case SIGINT:
{
printf("子進程也受到啦\n");
m_stop = true;
break;
}
default:
{
break;
}
}
}
}
}
/*客戶請求的到來 調用process來處理*/
else if( events[i].events & EPOLLIN )
{
users[sockfd].process();
}
else
{
continue;
}
}
}
delete [] users;
users = NULL;
close( pipefd );
//close( m_listenfd );
close( m_epollfd );
}
template< typename T >
void processpool< T >::run_parent()
{
setup_sig_pipe();
/*父進程監聽listenfd*/
addfd( m_epollfd, m_listenfd );
epoll_event events[ MAX_EVENT_NUMBER ];
int sub_process_counter = 0;
int new_conn = 1;
int number = 0;
int ret = -1;
while( ! m_stop )
{
number = epoll_wait( m_epollfd, events, MAX_EVENT_NUMBER, -1 );
if ( ( number < 0 ) && ( errno != EINTR ) )
{
printf( "epoll failure\n" );
break;
}
for ( int i = 0; i < number; i++ )
{
int sockfd = events[i].data.fd;
/*有新連接到來採用Round Robin方式將其分配給一個子進程處理*/
/*這裏就是前文提到的主進程發送信息通知子進程接受連接,高效的半同步/半異步和領導者/追隨者模式,則是由主進程管理所有監聽socket,而各個子進程分別管理屬於自己的連接socket的。*/
if( sockfd == m_listenfd )
{
int i = sub_process_counter;
do
{
if( m_sub_process[i].m_pid != -1 )
{
break;
}
i = (i+1)%m_process_number;
}
while( i != sub_process_counter );
if( m_sub_process[i].m_pid == -1 )
{
m_stop = true;
break;
}
sub_process_counter = (i+1)%m_process_number;
//send( m_sub_process[sub_process_counter++].m_pipefd[0], ( char* )&new_conn, sizeof( new_conn ), 0 );
send( m_sub_process[i].m_pipefd[0], ( char* )&new_conn, sizeof( new_conn ), 0 );
printf( "send request to child %d\n", i );
//sub_process_counter %= m_process_number;
}
/*處理父進程接收到的信號*/
else if( ( sockfd == sig_pipefd[0] ) && ( events[i].events & EPOLLIN ) )
{
int sig;
char signals[1024];
ret = recv( sig_pipefd[0], signals, sizeof( signals ), 0 );
if( ret <= 0 )
{
continue;
}
else
{
for( int i = 0; i < ret; ++i )
{
switch( signals[i] )
{
/*第i個子進程退出了 則主進程關閉相應的通信管道並設置m_pid爲-1 已標記子進程已退出*/
/*-1代表等待任意一個 stat保存退出狀態信息 WNOHANG表明非阻塞式
* 正常退出返回退出子進程的id*/
case SIGCHLD:
{
pid_t pid;
int stat;
while ( ( pid = waitpid( -1, &stat, WNOHANG ) ) > 0 )
{
for( int i = 0; i < m_process_number; ++i )
{
if( m_sub_process[i].m_pid == pid )
{
printf( "child %d join\n", i );
close( m_sub_process[i].m_pipefd[0] );
m_sub_process[i].m_pid = -1;
}
}
}
/*檢查是否又有進程存活*/
m_stop = true;
for( int i = 0; i < m_process_number; ++i )
{
if( m_sub_process[i].m_pid != -1 )
{
m_stop = false;
}
}
break;
}
case SIGTERM:
/*父進程終止信號 殺死所有子進程並等待救贖
* 更好的方式是向父子進程的通信管道發送特殊數據*/
case SIGINT:
{
printf( "kill all the clild now\n" );
for( int i = 0; i < m_process_number; ++i )
{
int pid = m_sub_process[i].m_pid;
if( pid != -1 )
{
kill( pid, SIGTERM );
}
}
break;
}
default:
{
break;
}
}
}
}
}
else
{
continue;
}
}
}
/*由創建者關閉*/
//close( m_listenfd );
close( m_epollfd );
}
#endif
cgi程序
#include <sys/types.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <assert.h>
#include <stdio.h>
#include <unistd.h>
#include <errno.h>
#include <string.h>
#include <fcntl.h>
#include <stdlib.h>
#include <sys/epoll.h>
#include <signal.h>
#include <sys/wait.h>
#include <sys/stat.h>
#include "./15-1processpool.h"
#include <iostream>
class cgi_conn
{
public:
cgi_conn(){}
~cgi_conn(){}
//初始化客戶端連接,清空該緩衝區
void init(int epollfd, int sockfd, const sockaddr_in& client_addr)
{
m_epollfd = epollfd;
m_sockfd = sockfd;
m_address = client_addr;
memset(m_buf, '\0', BUFFER_SIZE);
m_read_idx = 0;
}
/*
* 從m_sockfd讀入信息,並進行處理
*/
void process()
{
int idx = 0;
int ret = -1;
//循環讀取和分析客戶的數據
while(true)
{
idx = m_read_idx;
ret = recv(m_sockfd, m_buf + idx, BUFFER_SIZE-1-idx, 0);
if(ret < 0)
{
if( errno != EAGAIN)
{
removefd(m_epollfd, m_sockfd);
}
}
//如果對方關閉鏈接,服務器端也關閉
else if(ret == 0)
{
removefd(m_epollfd, m_sockfd);
break;
}
else
{
m_read_idx += ret;
std::cout<<"user content is : "<<m_buf<<std::endl;
for(;idx < m_read_idx; ++idx)
{
if( (idx>=1) && (m_buf[idx-1] == '\r') && (m_buf[idx] == '\n') )
{
break;
}
}
//如果沒有遇到字符\r \n 就讀取更多數據
if(idx == m_read_idx)
{
continue;
}
m_buf[ idx-1 ] = '\0';
char * file_name = m_buf;
if(access(file_name, F_OK) == -1)
{
removefd(m_epollfd, m_sockfd);
break;
}
ret = fork();
if(ret == -1)
{
removefd(m_epollfd,m_sockfd);
break;
}
//父進程
else if(ret > 0)
{
removefd(m_epollfd,m_sockfd);
break;
}
else
{
close(STDERR_FILENO);
dup(m_sockfd);
execl(m_buf, m_buf, 0);
exit(0);
}
}
}
}
private:
//讀緩衝區大小
static const int BUFFER_SIZE = 1024;
static int m_epollfd;
int m_sockfd;
sockaddr_in m_address;
char m_buf[ BUFFER_SIZE ];
//標記緩衝區下一個要讀入的位置
int m_read_idx;
};
int cgi_conn::m_epollfd = -1;
int main(int argc, char* argv[])
{
if(argc <= 2)
{
printf("usage: %s ip_address port_number\n",basename(argv[0]));
return 1;
}
const char * ip = argv[1];
int port = atoi(argv[2]);
int listenfd = socket(PF_INET, SOCK_STREAM, 0);
assert( listenfd >=0 );
int ret = 0;
struct sockaddr_in address;
bzero(&address, sizeof(address));
address.sin_family = AF_INET;
inet_pton(AF_INET, ip, &address.sin_addr);
address.sin_port = htons(port);
ret= bind(listenfd, (struct sockaddr*)&address, sizeof(address));
assert(ret != -1);
ret = listen(listenfd,5);
assert(ret != -1);
/*創建進程池 會自動調用構造函數的*/
processpool<cgi_conn>* pool = processpool<cgi_conn>::create(listenfd);
if(pool)
{
pool->run();
delete pool;
}
close(listenfd);
return 0;
}
(提前說明一點 這是我在高性能服務器一書上摘取的代碼,有一小部分的改進)
編譯就沒啥好說的了,g++就可以了 客戶端的話大家就用telnet 來測試就好了
這樣一個簡單的進程池就實現啦 以上.
參考
<<Linux 高性能服務器編程>>