Nginx的事件循环
首先事件循环的起点就是监听端口获取连接,我们可以在ngx_event_core_module模块的ngx_event_process_init函数中看到如下的代码:
/* for each listening socket */ /*为每个监听套接字从connection数组中分配一个连接,即一个slot*/ ls = cycle->listening.elts; //监听套接字是在master进程那里继承过来的,已经初始化好了 for (i = 0; i < cycle->listening.nelts; i++) { //为当前监听套接字的文件描述符分配一个connection,函数返回值c是当前监听套接字关联的connection c = ngx_get_connection(ls[i].fd, cycle->log); if (c == NULL) { return NGX_ERROR; } c->log = &ls[i].log; c->listening = &ls[i]; //当前连接的监听端口 ls[i].connection = c; //当前监听端口的connection rev = c->read; //rev指向当前connection的读事件 rev->log = c->log; rev->accept = 1; //表示当前的读事件是监听端口的accept事件,可以用于epoll区分是一般的读事件还是监听对口的accept事件 #if (NGX_HAVE_DEFERRED_ACCEPT) rev->deferred_accept = ls[i].deferred_accept; #endif if (!(ngx_event_flags & NGX_USE_IOCP_EVENT)) { if (ls[i].previous) { /* * delete the old accept events that were bound to * the old cycle read events array */ old = ls[i].previous->connection; if (ngx_del_event(old->read, NGX_READ_EVENT, NGX_CLOSE_EVENT) == NGX_ERROR) { return NGX_ERROR; } old->fd = (ngx_socket_t) -1; } } /*注册监听套接口读事件的回调函数ngx_event_accept*/ rev->handler = ngx_event_accept; //说白了就是从监听套接字来获取连接的socket
这部分代码在worker进程中,为每一个listening分配一个connection与之对应,并将该connection的读事件的处理函数设置为ngx_event_accept函数,也就是说用这个函数来处理listening的accept,好了接下来我们从这个函数看起(该函数定义在Ngx_event_accept.c):
lc = ev->data; //获取该事件对应的connection ls = lc->listening; ev->ready = 0; //因为是用的epoll的触发机制,所以这里要不断的循环,直到数据全部读取完了才行 do { socklen = NGX_SOCKADDRLEN; //调用accept函数来获取连接的socket s = accept(lc->fd, (struct sockaddr *) sa, &socklen);
上部分的代码,首先从event变量中获取该事件对应的connection,接着就可以调用accept函数了,从监听的socket描述符中获取连接。
/*accept到一个新的连接后,就重新计算ngx_accept_disabled的值 ngx_accept_disabled已经提及过了,它主要用来做负载均衡之用。 这里,我们能够看到它的求值方式是“总连接数的八分之一,减去 剩余的连接数”。总连接数是指每个进程设定的最大连接数,这个数字 可以在配置文件中指定。由此处的计算方式,可以看出:每个进程accept 到总连接数的7/8后,ngx_accept_disabled就大于0了,连接也就 超载了。 */ ngx_accept_disabled = ngx_cycle->connection_n / 8 - ngx_cycle->free_connection_n; //为刚刚连接的socket分配connection c = ngx_get_connection(s, ev->log);
上述代码用于在获取连接之后,计算ngx_accept_disabled的值,它用来进行worker进程间的负载均衡,避免一个worker进程持有太多的connection,具体的以后会讲。然后就是为连接进来的socket描述符分配connection,接下来的代码就是初始化这个刚刚分配的connection,例如为其分配内存池,将socket描述符设置为非阻塞等等。
//将当前新生成的连接加入 if (ngx_add_conn && (ngx_event_flags & NGX_USE_EPOLL_EVENT) == 0) { if (ngx_add_conn(c) == NGX_ERROR) { ngx_close_accepted_connection(c); return; } } log->data = NULL; log->handler = NULL; /*这里的listen handler很重要,它将完成新连接的最后初始化工作 同时将accept到的新连接放入epoll中;挂在这个handler上的函数 就是ngx_http_init_connection(位于src/http/ngx_http_request.c中); 这个函数放在分析http模块的时候再看吧。 */ ls->handler(c);
上面这部分代码是比较重要的,它首先调用ngx_add_conn函数将刚刚的连接加入到epoll当中去,我们可以看看ngx_add_conn的定义,在Ngx_event.h当中:
#define ngx_add_conn ngx_event_actions.add_conn
其实这里看过前面的文章就会知道ngx_add_conn说白了就是调用实际事件模块的add_conn函数,如果实际使用的是epoll模块的话那么将会调用epoll模块的ngx_epoll_add_connection函数,接下来还有一句代码:
ls->handler(c);
这里就是用listening的handler对刚刚分配的connection进行处理,这里就会涉及到http部分的东西了,以后再说吧。
好了到这里ngx_event_accept函数说的就差不多了。接下来可以正式进入Nginx的事件循环了。我们先看事件循环的入口吧,在worker进程的执行函数ngx_worker_process_cycle中,有如此一句代码在每次循环中都会用到
//处理时间和定时,说白了这个函数不断的处理发生的事件 ngx_process_events_and_timers(cycle);
嗯,ngx_process_events_and_timers函数就是事件循环的入口函数,其定义在Ngx_event.c当中,接下来我们来分析该函数:
/*ngx_use_accept_mutex变量代表是否使用accept互斥体 默认是使用,accept_mutex off;指令关闭。 accept mutex的作用就是避免惊群,同时实现负载均衡。 */ if (ngx_use_accept_mutex) { if (ngx_accept_disabled > 0) { ngx_accept_disabled--; } else { /* ngx_accept_disabled小于0,连接数没超载*/ /*尝试锁accept mutex,只有成功获取锁的进程,才会将listen 套接字放入epoll中。因此,这就保证了只有一个进程拥有 监听套接口,故所有进程阻塞在epoll_wait时,不会出现惊群现象。 */ //这里的ngx_trylock_accept_mutex函数中,如果顺利的获取了锁,那么它会将监听端口注册到当前worker进程的epoll当中 if (ngx_trylock_accept_mutex(cycle) == NGX_ERROR) { return; } /*获取锁的进程,将添加一个NGX_POST_EVENTS标志, 此标志的作用是将所有产生的事件放入一个队列中, 等释放锁后,再慢慢来处理事件。因为,处理事件可能 会很耗时,如果不先释放锁再处理的话,该进程就长 时间霸占了锁,导致其他进程无法获取锁,这样accept 的效率就低了。 */ if (ngx_accept_mutex_held) { flags |= NGX_POST_EVENTS; //获取了锁,那么就设置标志位 } else { /*没有获得锁的进程,当然不需要NGX_POST_EVENTS标志了。 但需要设置最长延迟多久,再次去争抢锁。 */ if (timer == NGX_TIMER_INFINITE || timer > ngx_accept_mutex_delay) { timer = ngx_accept_mutex_delay; } } } }
首先是判断是否使用了ngx_use_accept_mutex信号量,该信号量用于避免惊群的发生。只有当当前worker进程获取了该信号量之后才会将listening真正加入到自己的epoll当中,相应accept事件。这里也看到了上面提到的ngx_accept_disabled便用的作用,他也用于判断是否将listening加入到当前worker进程的epoll当中,这样可以做到负载均衡,避免一个worker进程持有了太多的connection。
/*epoll开始wait事件了,ngx_process_events的具体实现是对应到 epoll模块中的ngx_epoll_process_events函数。单独分析epoll 模块的时候,再具体看看。 */ (void) ngx_process_events(cycle, timer, flags);
这句代码直接调用的是实际事件模块的process_events函数,来处理事件,还是来看其定义吧:
#define ngx_process_events ngx_event_actions.process_events
嗯,一看就明白了,如果使用的是epoll模块的话,那么将会调用其的ngx_epoll_process_events函数。待会再细讲它吧。
if (ngx_posted_accept_events) { /*ngx_posted_accept_events是一个事件队列 暂存epoll从监听套接口wait到的accept事件。 前文提到的NGX_POST_EVENTS标志被使用后,就会将 所有的accept事件暂存到这个队列。 这里完成对队列中的accept事件的处理,实际就是调用 ngx_event_accept函数来获取一个新的连接,然后放入 epoll中。 */ ngx_event_process_posted(cycle, &ngx_posted_accept_events); } /*所有accept事件处理完成,如果拥有锁的话,就赶紧释放了。 其他进程还等着抢了。 */ if (ngx_accept_mutex_held) { ngx_shmtx_unlock(&ngx_accept_mutex); }
该部分代码判断是否从listening监听中获取了accept事件,如果有的话,那么就要赶紧处理它,因为说明现在worker进程已经占有了ngx_accept_mutex信号量,处理完accept事件后就要赶紧释放掉该信号量,好让别的worker进程可以获取该锁,然后从listening中获取连接。
/*处理普通事件(连接上获得的读写事件)队列上的所有事件, 因为每个事件都有自己的handler方法,该怎么处理事件就 依赖于事件的具体handler了。 */ if (ngx_posted_events) { if (ngx_threaded) { ngx_wakeup_worker_thread(cycle); } else { ngx_event_process_posted(cycle, &ngx_posted_events); } }
这部分就用于处理普通的事件了。这样ngx_process_events_and_timers函数中处理事件的部分就讲完了,但是该函数其实还有用于处理定时的部分,这个以后讲Nginx的定时函数处理的时候再说吧。
好,接下来分析感刚刚提到的epoll模块的ngx_epoll_process_events函数。
//这里是epoll的wait,将得到的事件存到event_list里面,最大的事件量是nevents /*一开始就是等待事件,最长等待时间为timer;nginx为事件 专门用红黑树维护了一个计时器。后续对这个timer单独分析。 */ events = epoll_wait(ep, event_list, (int) nevents, timer); //这个超时事件是从红黑树里面获取的,当前最近的超时,这样可以保证epoll的wait能够在合适的时间内返回,保证定义的超时事件可以执行
首先就是调用epoll_wait函数从epoll中获取发生的事件,然后就可以遍历这些事件了:
//循环遍历所有产生的事件 for (i = 0; i < events; i++) { c = event_list[i].data.ptr; //获取该事件实际对应的connection //instance 说白了就是个整形的变量 instance = (uintptr_t) c & 1; c = (ngx_connection_t *) ((uintptr_t) c & (uintptr_t) ~1); rev = c->read; if (c->fd == -1 || rev->instance != instance) { /* * the stale event from a file descriptor * that was just closed in this iteration */ ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "epoll: stale event %p", c); continue; } //获取发生的事件的类型 revents = event_list[i].events; ngx_log_debug3(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "epoll: fd:%d ev:%04XD d:%p", c->fd, revents, event_list[i].data.ptr); //如果发生了错误事件 if (revents & (EPOLLERR|EPOLLHUP)) { ngx_log_debug2(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "epoll_wait() error on fd:%d ev:%04XD", c->fd, revents); } #if 0 if (revents & ~(EPOLLIN|EPOLLOUT|EPOLLERR|EPOLLHUP)) { ngx_log_error(NGX_LOG_ALERT, cycle->log, 0, "strange epoll_wait() events fd:%d ev:%04XD", c->fd, revents); } #endif if ((revents & (EPOLLERR|EPOLLHUP)) && (revents & (EPOLLIN|EPOLLOUT)) == 0) { /* * if the error events were returned without EPOLLIN or EPOLLOUT, * then add these flags to handle the events at least in one * active handler */ revents |= EPOLLIN|EPOLLOUT; } /*该事件是一个读事件,并该连接上注册的读事件是active的*/ if ((revents & EPOLLIN) && rev->active) { if ((flags & NGX_POST_THREAD_EVENTS) && !rev->accept) { rev->posted_ready = 1; } else { rev->ready = 1; } if (flags & NGX_POST_EVENTS) { //如果设置了NGX_POST_EVENTS,表示当前worker进程已经获取了锁,那么将获取的事件入队,因为可能是监听端口的accept事件,这里如果是监听端口的accept事件的话,那么该event的accept域会置为1 ,这个是在事件模块的worker进程初始化中会设置的 //这里持有了锁就应该将产生的事件放入队列中,是为了能够在锁释放了以后再处理这些事件,这样可以让别的worker进程能够尽快的获取锁 queue = (ngx_event_t **) (rev->accept ? &ngx_posted_accept_events : &ngx_posted_events); ngx_locked_post_event(rev, queue); } else { rev->handler(rev); } } wev = c->write; //如果是写事件,而且相应connection的写事件是激活的 if ((revents & EPOLLOUT) && wev->active) { if (c->fd == -1 || wev->instance != instance) { /* * the stale event from a file descriptor * that was just closed in this iteration */ ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "epoll: stale event %p", c); continue; } if (flags & NGX_POST_THREAD_EVENTS) { wev->posted_ready = 1; } else { wev->ready = 1; } if (flags & NGX_POST_EVENTS) { ngx_locked_post_event(wev, &ngx_posted_events); } else { wev->handler(wev); } } }
上面的代码其实注释就已经说的很明白了,循环遍历所有的事件,判断该事件的类型,并获取该事件实际所属的connection,如果发生的是读事件,那么取出该connection的read事件,然后用read的handler来处理,如果是写事件,那么就获取该connection的write,然后用write的handler来处理。但是这里需要注意的是,
if (flags & NGX_POST_EVENTS) { //如果设置了NGX_POST_EVENTS,表示当前worker进程已经获取了锁,那么将获取的事件入队,因为可能是监听端口的accept事件,这里如果是监听端口的accept事件的话,那么该event的accept域会置为1 ,这个是在事件模块的worker进程初始化中会设置的 //这里持有了锁就应该将产生的事件放入队列中,是为了能够在锁释放了以后再处理这些事件,这样可以让别的worker进程能够尽快的获取锁 queue = (ngx_event_t **) (rev->accept ? &ngx_posted_accept_events : &ngx_posted_events); ngx_locked_post_event(rev, queue); } else { rev->handler(rev); }
该段代码判断是否持有了信号量,前面已经说过了,如果持有的话,就要将这些事件放入到队列中,稍后在处理,这里是为了尽快能够释放信号量,并且还要判断该事件的类型,区分是accept事件还是普通的读事件,用于将它们放入不同的队列,嗯,event的accept域这个在以前已经说过了,就是为了这个判断的。
好了,ngx_epoll_process_events函数也已经基本讲完了,那么事件循环也就差不多了。
转自:http://www.xuebuyuan.com/2041521.html